News Nvidia: 55-nm-Chip bereitet offenbar Probleme

Ich hab auch nicht erwartet das sich die größte GPU so schnell umbauen lässt.
Immer hin reden wir hier von 1,4 milliarden Transistoren
 
lol, wer sagt denn, dass du dir ständig was neues kaufen musst? ;o) Vor Juli 09 kommt mir sicherlich keine neue Graka ins Haus.

keiner, aber die Versuchung ist manchmal doch sehr groß ;)
 
Na, ich glaube NVidia sollte diese Chipgeneration mal schnell vergessen,
und sich nicht weiter mit refreshs beschäftigen. So wie es derzeit aussieht, muss schleunigst ein neues Design her (natürlich sollte man die guten Ansätze des G200 wie idle Stromsparen usw. weiter mitnehmen)

Natürlich ist derzeit keine Rede davon, dass man leistungsmäßig geschlagen ist, aber die Konkurrenz macht mit HD48xx einfach vieles sehr gut.

Ich habe in den letzten Jahren viele Grakas beider Hersteller gehabt

(Riva TNT2, GForce2, Radeon 8500, GForce4 Ti 4600, Radeon 9800, GForce6 Ultra, RadeonX1900XT, Geforce8800GTS GS und jetzt HD4850)

und bisher war ich eigentlich mit meiner Wahl jedesmal zufrieden (nach gründlichem informieren)

Bei der jetzigen Generation hätte ich nie zu einem G200 gegriffen, da er mir aufgrund seiner Größe (verwende nur alternative Luftkühler) absolut net zugesagt hat.
Leistungsmässig bin ich derzeit auch der Meinung, dass Ati mit der immensen Shaderpower den besseren Weg eingeschlagen hat (auch meine alte X1900XT 512 ist über die Jahre weitaus weniger eingebrochen als z.B. ihr damaliger counterpart 7900GTX (erst später erschienen) und dass bei viel besserer BQ).

Und da soetwas hier schon erwähnt wurde: Die GPGPU Leistung von Ati ist momentan definitiv höher als die von NVidia
(ich habe @Folding mit ner oc HD4850 durchschnittlich ~3800-3950 PPD und im umbenannten Furmark (der bei mir dann weitaus höhere FPS liefert als bei jeder GTX280) sind meine max Temps @58° mit nem S1
Auch die Double Precision Performance is höher bei Ati, da keine dedizierten Shader verwendet werden sondern je 5 Einheiten gemeinsam Double Precision rechnen --> ca. 200-250 GFlops
 
Bin sehr gespannt was die neuen Karten angeht, besonders auf eine evtluelle GX2 Karte.

nen Meter lang, zwei 200 mm Lüfter, 1200W Netzteil mit inbegriffen :lol:
 
Die GPGPU Leistung von Ati ist momentan definitiv höher als die von NVidia
ich habe @Folding mit ner oc HD4850 durchschnittlich ~3800-3950 PPD

Und du bist dir ganz sicher? Wenn man eine 9600GT OC kommt das verdammt nah an dein Ergebnis ran..
foldin_gpuv2.PNG

Quelle: http://www.pcgameshardware.de/aid,6...icle&image_id=841300&article_id=648258&page=1
 
Zuletzt bearbeitet:
eyescream666 schrieb:
ati und nvidia werden bald mehr probleme damit haben ihre high end karten an den mann zu bringen, als mit fertigungsprozessen. wenn mit win7 dx11 kommt und die karten in 40nm kommen wer kauft die dann? 90% aller pc spiele sind xbox360/ps3 umsetzungen die beide kein dx11 bringen und nur 512 mb speicher haben. die pc versionen haben bessere texturen und höhere auflösung. das wars dann aber auch schon. spiele wie crysis wird es wohl aus kostengründen nicht mehr geben und die exclusiver pc titel wie diablo3 und spore werden nicht mal dx10 karten ausreitzen. also wozu dann eine dx11 karte für 550.- kaufen?
und genau das problem hat nv erkannt. deshalb versucht nvidia die gpu in ein anderes licht zu rücken mit sachen wie cuda und tesla....

Die xBox kann auch kein DX10, die PS3 nicht mal DX9 (die kann naemlich gar kein DX) - das hat die Spieleproduzenten auch nicht davon abgehalten, einen DX10 Renderpfad mit einzubauen.

Aber du hast schon recht, so ganz richtig kommt die Unterstuetzung fuer DX10 nicht ins Rollen. Das hat aber mehr mit Vista und der dadurch unzureichenden Verbreitung von DX10 zu tun. Warum viel Geld in den dx10 Pfad investieren, wenn es sowieso nur wenige Spieler gibt, die ueberhaupt dx10 nutzen...

Aber in 1,5 bis 2 Jahren ist die naechste Konsolenkenertion am start. dx11 inklusive. Dann werden auch die multiplatform-spiele wieder einen ordentlichen Sprung machen. Genauso wie die Hardwareanforderungen fuer PC Spieler. Und dx11 wird im Gegensatz zu dx10wieder fuer das "alte" Windows Vista und die neue Windows 7 Version erscheinen und damit auch schneller eine breitere Basis haben als es dx10 bei der Einfuerhung hatte.

lg
Lion
 
Das ist ein 5000er Projekt. Die kleinen Projekte mit weniger Elementen kommen der GTX-Reihe sehr entgegen. Sobald die Proteine aber sehr komplex werden, brechen sie weg. Aus Gründen der Optimierung der gesamten Folding Leistung bekommen GTX Karten natürlich hauptsächlich kleinere Projekte.

Wie du sehen kannst ist das Beispiel eines mit 98 ppd /WU. Ich hab hauptsächlich WUs mit 800-1000ppd (die dann natürlich Stunden dauern und extrem komplex sind). Naja die durchschnittliche Folding Outputleistung ist bei Ati und NVidia ziemlich gleichwertig, wenn man die Statistik ansieht (von Ati sind weniger GPUs am Folden und erbringen im gleichen Verhältnis weniger Leistung) ca. 1/3 GPUs und 1/3 Leistung vs. NVidia.

Es bringt auch nix hier zu streiten und es tut mir leid wenn du das in den falschen Hals bekommen hast.
Ich ziehe momentan Ati Karten vor, weil ich glaube, dass mehr Shaderleistung zukunftssicherer ist (natürlich braucht man mehr als 512MB GPU-Mem (meine zweite 1GB 4850 is schon aufm Weg) auch bei Ati, denn Nachladeruckler sind bei 8*AA in entsprechender Auflösung sonst schon da.)

Ich bin mir aber ziemlich sicher das NVidia wieder kontern wird. Ich habe zwei Karten der 8800 Serie besessen und war sehr zufrieden damit und hätte mir aufgrund der schwachen Leistung der HD2xxx HD3xxx Serie nie so eine Karte gekauft. Nun ist das aber anders - vorallem da die HD4850 mir als Bastler sehr entgegenkommt (Vmodding leicht wie nie - war schon ohne Temp. Probs auf 870 MHz)

Ich bin einfach der Meinung das NVidia den G200 schnell vergessen soll, da ich nicht glaube, dass sie mit einem Shrink genug Mehrleistung erbringen um die kommenden Atis in Schach zu halten. Man sollte eher versuchen sich mit allen Kräften auf die neue DX11 Generation zu konzentrieren. Besser weniger und dafür gute Karten, als wie jetzt unzählige halbgare Modelle.
 
Nvidia Corp. said during a conference call with the financial analysts that it had transited its mainstream and performance-mainstream graphics processing units (GPUs) to a new process technology, which helps to reduce costs. In addition, the firm confirmed that it is about to release its high-end graphics processors made using 55nm process technology.

“Improving gross margin while managing operating expenses enabled us to significantly improve our operating fundamentals. We transitioned our performance segment GPUs to 55nm and are now poised to recapture lost share,” said Jen-Hsun Huang, president and chief executive at Nvidia, during the most recent conference call with financial analysts.
...
“We have 65nm inventory remaining, but everything we are ramping now is 55nm and everything on the high-end that we are shipping now is 55nm,” added Mr. Huang, implying that Nvidia is ready with its code-named GT200b/GT206 graphics processor, which is a lower-cost version of the GT200/G200 that powers GeForce GTX 260 and GTX 280 graphics cards.
...
“We absolutely will regain market share and this is a segment where technology matters, performance matters, architecture matters, and we have the best lineup. Our challenge was never architectural leadership, our challenge was that we were caught flat footed at 65nm and our chip and board solution was just too expensive. And so, we have made that transition in Q2 and we are in Q3 and we are through that transition, and we are off and running,” said Mr. Huang.
Quelle

Sieht aus, als hätte der Inq wieder einmal falsch geraten.

Edit:
Bylar schrieb:
Natürlich ist es ausschlaggebend wer es als erster geschrieben hat, Inq sammelt auch News von anderen Quellen und bringt sie dann, teilweise erweitert, nochmal.
Gut, dann halten wir fest: Egal wer was schreibt, auch wenn er sich auf eigene Quellen beruft, er ist immer unschuldig und es ist keine Falschmeldung wenns zuvor jemand anders geschrieben hat. Tolle Logik, hm? mensch Mensch...
 
Zuletzt bearbeitet:
Tja ich würde einfach mal sagen NV hat sich zu lange auf ihren Lorbeeren ausgeruht. Ati hat scheinbar vorbildlich seine Hausaufgaben gemacht.

Aber eines ist so sicher wie das Amen in der Kirche! NV wird mit Sicherheit wieder eine Grafikbombe auf den Markt werfen!

Trotzdem wäre es mein Wunsch wenn NV und ATI Karten für immer auf dem gleichen Niveau bleiben würden! So gibts für uns verbraucher immer günstigere Preise :-)

Sieht man ja wie NV den Leuten das Geld aus der Tasche ziehen wollte, bevor der unglaubliche Launch der 48xx Reihe kam.

Ich freu mich für ATI! Die Jungs habens echt verdient, nach so einem Rückstand wieder mit dabei zu sein!
 
Zuletzt bearbeitet:
@Wiesie 21

Es bringt auch nix hier zu streiten und es tut mir leid wenn du das in den falschen Hals bekommen hast.
Ich ziehe momentan Ati Karten vor, weil ich glaube, dass mehr Shaderleistung zukunftssicherer ist (natürlich braucht man mehr als 512MB GPU-Mem (meine zweite 1GB 4850 is schon aufm Weg) auch bei Ati, denn Nachladeruckler sind bei 8*AA in entsprechender Auflösung sonst schon da.)

Wahre Worte, eine 4850 kann sehr gut mit 1GB Ram umgehen, trotz oder gerade wegen dem sehr guten Speichermangagements. Daher sollte man auch nie eine 4870 mit nur 512MB VRam "kastrieren"...

Nehmt euch ein Beispiel an Wiesie 21, Vram kann man eben nicht aufrüsten, daher ist es fast immer ratsam, bei einer starken Karte etwas mehr mitzunehmen...
 
Zuletzt bearbeitet:
Ganz ehrlich gesagt bin ich der Meinung, dass Nvidia sich einfach mal damit abfinden sollte, dass ATI diesmal wohl das etwas bessere Stück Hardware im Portfolio hat. Es ist halt einfach so und jetzt nicht zu ändern.

Und anstelle den GT200 neu aufzulegen und immense Entwicklungskosten zu verschleudern, sollten sie sich lieber auf die nächste Generation von Grafikkarten konzentrieren. Dann vielleicht bereits in 40 nm und DirectX 11 natürlich. Außerdem können sie sich immer noch damit rühmen, dass sie die beste Single-GPU vorweisen können. ATI schafft die Performancekrone schließlich nur mit einer 4870 X2.

Das einzigste Argument eine ATI-Karte auch nur in Erwägung zu ziehen, ist das einfach bessere Preis/Leistungs Verhältnis. Aber mal ehrlich. Wer sich GraKas für 400,-- und mehr kauft (ja ich gehöre da auch dazu), den stören 50 Euro Preisunterschied jetzt auch nicht mehr so sehr.
 
Also ich habe mich lange genug vor dem Kauf mit der aktuellen Grakageneration auseinandergesetzt, und habe mich eindeutig gegen ATI diesmal entscheiden müssen.
Jeder berücksichtigt nunmal andere Kriterien beim Kauf, und bei mir spielt nunmal die Leistungsaufnahme eine entscheidende Rolle, da ich nur noch selten Zeit hab zum Zocken.

@tocpic
Mir solls recht sein wenn die neuen Karten später oder vielleicht sogar garnicht mehr kommen sollten. Dann bleibt meine Karte noch ein bischen länger wertstabil. :evillol:
 
IgG schrieb:
...
Sieht aus, als hätte der Inq wieder einmal falsch geraten.

Sicher? ;)

Denkbar sind nun mehrere Alternativen:
Nvidia unterscheidet auch in Sachen Lagerbestand zwischen High-End und Enthusiast - dann würde GT200b als schnellere Ablösung für die GTX 280 und 260 nicht in den High-End- sondern den Enthusiast-Bereich fallen und lediglich die G92-Chips auf Geforce 9800 GTX+ und Co. werden als High-End-Produkte betrachtet.
• Die Meldung des Inquirers ist unzutreffend und Geforce GTX 270, GTX 290 und möglicherweise GX2 kommen doch früher auf den Markt als Anfang 2009.
• Nvidia hat den Produktionswechsel vollzogen, aufgrund der unerwartet starken Konkurrenz durch AMDs HD 4850 und HD 4870 nicht die erwarteten Stückzahlen verkauft und muss nun den Lagerbestand bei sich und den Boardpartnern erst einmal reduzieren, will man keine aktienkursschädliche Wertabschreibung vornehmen. Dann würden derzeit lediglich die GT200-Restbestände in 65nm-Fertigung verkauft.

Quelle


Ich halte den rot markierten Punkt für am wahrscheinlichsten, hätte NV bekannt gegeben, dass der G200b noch auf sich warten lässt wäre der Aktienkurs wieder auf Talfahrt gegangen.
 
Zurück
Oben