News Nvidia: 55-nm-Chip bereitet offenbar Probleme

Die PRO hatte GDDR4? Berichtige mich, wenn ich falsch liege, aber ich könnte schwören, die Pro hatten GDDR3. Übrigens war 512bit bei den Pro nur sehr, sehr selten anzutreffen, normalerweise wurden die mit 256bit ausgeliefert. ;)
 
Das wundert mich nicht das Nvidia "schon wieder" Probleme hat. Vor einem Jahr hätten sie das doch auf den Markt geschmissen und gehofft das die Fehler nicht durchsickern.
Jetzt machen sie es wenigstens richtig und wollen ein fertiges nicht verHeatbugtes oder was auch immer Produkt auf den Markt werfen. Ja der GTX200er ist schon sehr Hitzelastig und das liegt glaube ich nicht am Chipdesign sondern an der Grösse und an der Fertigungstechnik. Irgendwie mussten sie ja mit ATI mitkommen wäre ja schlimm wenn sie kein Produkt der 4870 entgegensetzten könnten.
Nächstes Jahr wenn beide in 40nm produzieren lassen können wird eine neue runde im Preiskampf eigeläutet werden. Und wer den kleineren Chip hat wird die Nase Preis-/Leistungstechnisch vorne haben.
 
@FortissimoIV: Nein, die 2900pro war zunächst eine vollwertige XT mit geringeren Taktraten, GDDR4 wurde da aber nur auf den 1GB-Versionen verbaut, die recht selten und ca. 350-300 Euro teuer waren, nur 512MB-Version war zum Preis von etwa 250 Steinen erhältlich. Die 256-Bit-Pro kam erst später und war eine Consumerversion der FireGL V7600.

So, und wer hier weiter sinnlos basht und das Thema schreddert, holt sich eine Verwarnung ab.

Zurück zum Thema bitte!
 
Zuletzt bearbeitet:
ati und nvidia werden bald mehr probleme damit haben ihre high end karten an den mann zu bringen, als mit fertigungsprozessen. wenn mit win7 dx11 kommt und die karten in 40nm kommen wer kauft die dann? 90% aller pc spiele sind xbox360/ps3 umsetzungen die beide kein dx11 bringen und nur 512 mb speicher haben. die pc versionen haben bessere texturen und höhere auflösung. das wars dann aber auch schon. spiele wie crysis wird es wohl aus kostengründen nicht mehr geben und die exclusiver pc titel wie diablo3 und spore werden nicht mal dx10 karten ausreitzen. also wozu dann eine dx11 karte für 550.- kaufen?
und genau das problem hat nv erkannt. deshalb versucht nvidia die gpu in ein anderes licht zu rücken mit sachen wie cuda und tesla....
 
Bender4everCH schrieb:
Pff, so ein Dünnpfiff. Was bist denn du für ein Schwarz/Weiss Seher? Es gibt auch noch etliche Grautöne in dieser Welt, das hat mit der finanziellen Lage der Probanden gar nix zu tun. Zum Glück ist das nur deine Meinung ;)

Nö das sehe ich genau so.
 
Gänzlich gestrichen wird die Dual-Chip-Variante, wie das Magazin von Lieferanten erfahren haben will.
Würde das mal als gute Nachricht bezeichnen, solange es Microruckler gibt sollten die Hersteller auch keine Karten verkaufen, die schon vor dem Kauf einen Makel aufweisen und den single GPU Grafikkarten unterlegen sind.


Selbst in 55-nm-Fertigung weisen zwei Chips auf einem Board eine zu hohe Leistungsaufnahme auf.
Dafür will ich aber mal Beweise sehen, laut meiner Rechnung brauchen 2xGTX 260 bei weitem weniger Strom wie 2x HD 4870 auf einem PCB. Wenn NV unbedingt 2x GTX 280 auf ein Board(bzw. Doppeldecker Karte) quetschen will ist es kein Wunder wenn die Verlustleistung ins unendliche geht.
https://www.computerbase.de/forum/attachments/power_gtx-png.102733/

MfG Kasmo
 
lol mich würde mal interessieren wieviel watt die angebliche gx2 denn so zieht unter volllast :D
vllt bekommt man dann in zukunft gleich nochn 1k watt starkes netzteil gratis dazu :D

greetz

MoraX
 
Bei 2 gtxn im sli haben schon probleme genug Luft zu bekommen, wie soll das erst mit diesen 2 zusammen gepappten PCBs aussehen :-) niemals würd ich mir nie so eine sandwichkarte holen, auch wenn die noch soviel leistung hat und ich glaub auch nich dass die kommt.

oder wakü als neuen standard für alle einführen :-)
 
2x 236W (GTX 260) macht 272W. Eine 4870 X2 zieht 264W.
Keine Sorge, die 300W sind bereits vollausgelastet, da kann nichts großes mehr passieren.

Aber da es ja keine GX2 gibt, ist es unklar, wie hoch man GT206 auf der GX2 jagt.
Imho so hoch, um einen sicheren Abstand zur X2 zu haben, aber auch gut wenns entfällt, wer als Mann auf SLI steht holt sich 3 einzelne Karten.
 
Zuletzt bearbeitet:
So oder so, diese Pseudo-Höchstleistungs-Dualchip-Karten braucht der Mensch doch nicht wirklich, da geht es wohl ausschließlich um die Performanekrone
Wer auf 2560x1600 spielt freut sich über die Karten, ist zwar eine Minderheit, aber eine Daseinsberechtigung haben die Karten allemal.

Genauso könnte ich als Gegenthese aufstellen, wozu brauchen die ganzen 19 Zoll Gamer eine GTX260/HD4870 oder ähnlich.

Zum Thema, mich würde mal interessieren, was da genau nicht so funktioniert wie nV das gerne hätte, denn ATI hat damit ja keinerlei Probleme, muss also zwangsläufig am Chip liegen, vllt. spart es doch kaum was ein oder der Takt geht nicht hoch genug oder ähnliches.
 
So what... wozu braucht man momentan NOCH bessere Karten?
Ich kann jedes Game in max. Auflösung, mit max. AA, max. Details und Filter zocken.
Bin mehr als zufrieden. Wozu also NOCH schnellere Karten?

Is (momentan) nicht nötig. ;)
 
Unyu schrieb:
2x 236W (GTX 260) macht 272W. Eine 4870 X2 zieht 264W.
Keine Sorge, die 300W sind bereits vollausgelastet, da kann nichts großes mehr passieren.


Das sind ja nur die theoretischen TDP angaben der Hersteller oder?;) Versuche mal Furmark also 100% GPU Auslastung auf einer 4870 X2 laufen zu lassen. Soweit ich weis schafft die X2 Karte nicht mal eine GPU auf 100% stabil und stürzt ab. Für 2 Kerne gibt es keine CF Unterstützung und wenn es CF Support geben würde dann währe wieder im Treiber die Leistung manuell gedrosselt.

Bei NV muss die GX 2, 2x 100% Auslastung einwandfrei stabil packen um zb. GPGPU Aufgaben zu erledigen. Wie hier:
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110

Und vorallem bei 100% Auslastung sind die NV Karten bei weitem effizienter als die Konkurrenz.
Meine Vermutung ist das sie wirklich versuchen die GTX 280 auf der GX2 unter zu bringen, das wird sogar mit einem Shrink fast unmöglich.

MfG Kasmo
 
Zuletzt bearbeitet:
irgendwie kommt mir das so vor, als ob die hersteller sich absprechen :) die eine generation der karten ist NV besser die andere Ati und immer im wechsel :) genau so bei den CPU´s
 
Das hört sich nicht gut an, erst recht das DX11 auch erst ab 2010 eingeführt wird.

AMD hat jetzt einen deutlichen Vorsprung, ich verstehe Nvidia nicht, de G80, G92 haben Sie perfekt entwickelt und den GT200 wollen sie verkleinern, das passt nicht, ATI kommt mit dem 40nm Prozess zufrieden in ordnung.
 
Bin vorallem Gespannt wie Leistungsstark der GTX 290 werden wird zu gegensatz zu 280 Variante.
 
Der Inquirer schreibt (hoffentlich) wieder Müll. Unvergesslich die Artikel zur 8800 GTX (Rohrkrepierer, man soll auf den R600 warten) und Nvidia Chipsätzen (Nvidia steigt aus dem Chipsatzmarkt aus).
 
Eine 290GTX wäre JETZT für alle Microrucklermuffel mit 24er Monitor oder mehr schon interessant gewesen, wo die ganzen Gamehits kommen, aber nicht mehr im Februar.

Nach monatelang nur leeren "G200b" Gerüchten nicht mal das Weihnachtsgeschäft geschafft, schon peinlich für Nvidia!
Nach dem Jahreswechsel still und leise gecancelt, wetten?
Wer soll die dann noch kaufen wenn im Q1 schon GT212 und Atis Neuling angesagt sind.
 
Zurück
Oben