News Nvidia GeForce GTX 470/480 weiterhin nicht verfügbar

Ein Wafer kostet ca. 5.000 $
Interessant diese Email aus dem Januar diesen Jahres:
http://www.planet3dnow.de/vbulletin/showthread.php?threadid=374923
Chip yields seem to be the topic of discussion lately as the much larger Nvidia Fermi chip is struggling with yield issues as our sources suggest that the actual yields are as low as 20% and are not improving quickly according to sources close to the fabs. With wafer starts costing about $5K the numbers suggest that each chip would cost an astounding estimated $200 per chip which pegs the card with a sticker price of about $600.

Those in the know are claiming that Fermi despite the yield and thermal issues is only about 20% faster than Cypress, while Hemlock smokes it. The combination of low yields, high thermals, and marginally better performance than Cypress could be conspiring to place Nvida in the position of having to release the card, but have to sell it at a loss till they are able to address the issues in the next spin according to sources. Because of the situation a mole we know is suggesting that Nvidia may limit the sales of Fermi to consumers and instead use the chips for the Tesla and Quadro products where prices and margins are much better.

Die reinen Chipkosten muss man ca. verdreifachen um alle anfallenden Kosten zu berücksichtigen. Bemerkenswert wie früh diese Dinge schon bekannt waren und wenn man sich die Berichterstattung aus der Zeit mal anschaut wie konsequent diese Dinge als "Fanboy-Geschwätz" abgetan wurden.

Allerdings glaube ich kaum dass diese Karten als Tesla oder Quattro zu verkaufen sind mit diesen Temperaturen. Für Supercomputing ein NoGo die Wärmeentwicklung und der Stromverbrauch, bei Workstation kann mich mir auch nur schwer vorstellen dass jemand diese Entscheidung trifft.
 
florian. schrieb:
nen Wafer kostet irgendwas um die 10.000€

Hast du eine Glaskugel raus gekramt?
Abgesehen davon sind diese 20% ja auch nur geschätzt. Nicht zu verachten sind auch die Kosten für das Packaging, TSMCs Gewinn, die Herstellungskosten der Karten, der DDR5 RAM, der Gewinn der Kartenhersteller und der von den Händlern.

Zum Rechnen scheint mad die 480/470er auch nicht nehmen zu können. Die wird künstlich ausgebremst:
http://www.tomshardware.de/Nvidia-GTX480-double-precision-beschnitten,news-244177.html#xtor=RSS-121
 
Zuletzt bearbeitet:
OMG vor einem halben Jahr wahr ich noch voll positiv gestimmt und hatte auf den neuen Chip gewartet, habe mir März dennoch eine ATI gekauft, da ich nicht mehr warten wollte.
Bisher hat nvidia eigentlich immer alles richtig gemacht, vor allem im direkten Bezug auf ATI.
Ich hätte nicht gedacht, dass das alles mit einer einzigen Grakageneration so dermaßen bergab geht.
Nach der unverhältnismäßigen Leistungsaufnahme der neuen Karten und der entsprechenden Lautstärke bei zu geringer Leistung kommt jetzt noch die krasse "Verfügbarkeit".
Selbst die Produktion lässt die Karte rote Zahlen schreiben? Was haben die gemacht? Alle Mitarbeiter, Berater und Manager entlassen und neue eingestellt?
Da läuft ja alles falsch, was auch nur falsch laufen kann.

Sry Nvidia aber ihr schießt euch immer weiter ins Abseits.
 
Ich finde es einfach lächerlich wie sich einige hier freuen, dass NVidea mit ihrem Produkt am Markt scheitert. Sollte Nvidea tatsächlich aufgrund des GF100 aus dem Grafikkartenbereich zurückziehen, dann drohen uns allen in Zukunft Apothekenpreise für AMD Grafikkarten. Bereits jetzt stellt AMD fest das Preissenkungen nicht nötig sind. Ein Grund für AMD Fans zum feiern? :freak: Das da draußen nennt sich Marktwirtschaft und ohne Konkurrenz kann man Preise frei erfinden. Denkt ihr AMD Prozessoren wären so billig wenn es kein Intel gäbe?

Denkt an Intel oder was damals mit 3DFX passiert ist.

Im Endeffekt ist wichtig wie die kleineren billigeren GF100 werden. Denn damit wird das Geld verdient und nicht mit High-End Produkten. Die Masse der Grafikchips sind immer noch Intel onboard Lösungen.
 
Zuletzt bearbeitet:
Was sich auf den ersten Blick als finanzielles Desaster darstellt, ist tatsächlich halb so wild. nVidia verdient nicht mit hochpreisigen High-End-Modellen sein Geld, sondern mit Low-End- und Consumerkarten. Abgesehen davon gibt es auch andere Produkte im Portfolio. nVidia geht es durchwegs gut, und was der GF100 in einem Jahr zum Geschäftserfolg beigetragen haben wird, lässt sich noch nicht sagen.
 
@C170DAW: Wenn Nvidia sich aus dem Geschäft zurück ziehen sollte, dann kommt ein anderer. Der Markt ist dann doch so interessant, dass es nicht bei einem Consumerkartenproduzenten bleiben würde. Zur Not kauft Intel Nvidia auf^^

@Koplsc: Dann guck die mal Nvidias FX5000 Serie an. Die war total vermurkst und kam kurz nach der sehr guten TI4000 Serie (hatte damals selbst die Ti 4200). Ähnliches gab es auch schon bei ATI. Die 2900 war längst nicht so gut im Verhältnis zur Konkurenz wie vorher die 1950XT

@Winterday: Das, was verdient wird ist wirklich nciht so viel. Aber der Imageschaden macht einiges aus. Auch ist die Entwicklung eines High End Modells wesentlich teurer als ein Midrange oder Low-End Chip.
Dazu kommt dann noch, dass Produktionskapazitäten durch die großen Chips besetzt werden, die sonst durch gewinnbringende kleine Chips genutzt werden könnten.
 
Zuletzt bearbeitet:
war doch klar das das nen paperlaunch wird, bei den 5xxx wars ja genauso.
aber 20% sind echt mies, da sieht man das megachips auch nen megareinfall sein können.
hoffentlich wird der fermi refresh besser, dann kann man sich wenigstens auf nen preiskampf freuen.
im moment siehts so aus, als müsste ati net mal ne hd5890 rausbringen, die haben eh die nase vorn, was effizienz angeht
wenn man mal die 10% mehrleistung für enthusiasten oder die fanboys vernachlässigt, spricht leider nix mehr für nv
 
Winterday schrieb:
Was sich auf den ersten Blick als finanzielles Desaster darstellt, ist tatsächlich halb so wild. nVidia verdient nicht mit hochpreisigen High-End-Modellen sein Geld, sondern mit Low-End- und Consumerkarten. Abgesehen davon gibt es auch andere Produkte im Portfolio. nVidia geht es durchwegs gut, und was der GF100 in einem Jahr zum Geschäftserfolg beigetragen haben wird, lässt sich noch nicht sagen.

Aber warum hat dann NVidia keinen abgespeckten GF100 (GF50) im Portfolio?
Aber schon klar, die 500Eur Karten sind eigentlich nur Prestige Karten und sollen die Menge zu bezahlbaren Karten animieren.


C170DAW schrieb:
Ich finde es einfach lächerlich wie sich einige hier freuen, dass NVidea mit ihrem Produkt am Markt scheitert. Sollte Nvidea tatsächlich aufgrund des GF100 aus dem Grafikkartenbereich zurückziehen, dann drohen uns allen in Zukunft Apothekenpreise für AMD Grafikkarten. Bereits jetzt stellt AMD fest das Preissenkungen nicht nötig sind. Ein Grund für AMD Fans zum feiern? :freak: Das da draußen nennt sich Marktwirtschaft und ohne Konkurrenz kann man Preise frei erfinden. Denkt ihr AMD Prozessoren wären so billig wenn es kein Intel gäbe?

Naja was heist freuen. Habe derzeit eine HD3870. Würden die 5850er o.ä. billiger sein hätte ich vielleicht auch schon mir eine Neue geholt. Die Sache ist aber ich gönne es AMD mal Geld zu verdienen und so eilig habe ich es nicht.
 
Ich mag zwar nv auch nicht, allerdings hätte ich mir schon ein konkurrenzfähiges Produkt von nv gewünscht. Für Ati ist die mangelhafte Marktausstattung von 470er und 480er natürlich ein Traum. Konkurrenz kann keine Stückzahlen liefern => Kunde kommt zu mir und kauft ne HD5er. Leider werden die Preise so nicht sinken und darauf hatte ich als zukünftiger Käufer einer HD5er gehofft.
 
Matze89 schrieb:
Ist das nicht bei vielen techn. Produkten so, weil im Artikel die Rede davon ist, dass die Grakas mit Verlust verkauft werden? Mit der PS3 war es doch genauso.

Sony kann aber den Verlust mit Gewinn aus Spielverkäufen, Zubehör usw. querfinanzieren, zudem hat Sony einfach mal mehr Geld, die können sich das leisten.
Zudem sind die Miesen "eingeplant", die holt man gegen Ende der Lebensspanne der PS3 wieder rein.
Das funktioniert hier nicht bzw. nur begrenzt, wobei selbst 100$ Miese pro verkauftem GF100 auch nicht der Untergang wären. Sind bei 100.000 verkauften GTX480 auch nur 10.000.000$ Miese. Gewinn letztes Quartal waren glaub 130 Mill., insofern kann man immer noch Gewinn schreiben, Hauptsache man hat den schnellsten Grafikchip und ist in den Augen der ungebildeten Masse "der Beste". Und es funktioniert... :o

Falls allerdings GF104 und andere Ableger genauso schlecht abschneiden, wird das mit dem Gewinn machen halt doch irgendwann mal schwierig...

FredKune schrieb:
Wenn ein Autor nichts weiter tut außer Hasstexte über eine bestimmte Firma zu schreiben, dann würde ich diesen Autor nicht als Quelle heranziehen, auch wenn er "ziemlich zuverlässige" Quellen hat.
Denn man muss sich ja auch fragen: Warum schreibt jemand, der angeblich so tolle Quellen hat, nur die schlimmsten Dinge, aber nichts Neutrales und schon gar nichts Positives?

1. Gibt es momentan nichts positives über NVIDIA zu berichten. Oder fällt dir irgendwas ein?
2. Interssiert sowas keine Sau ;)
3. Ist "Hasstexte" doch bissl arg ausgedrückt. Ich sehe da nirgendwo "NVIDIA ist voll sch***", "die müssen weg", oder "Tod NVIDIA". Einfach nur Zahlen und Fakten (mehr als auf jeder anderen Speku-Seite), gespickt mit jede Menge Spekulatius und einem gewissen Hacuh Ironie... Manche würden auch sagen Sarkasmus... Ich finds lustig... Bin aber auch kein NVIDIA-Fan, ich kann schon verstehen wenn denen bei Charlie der Hut hochgeht... Bleibt trotzdem lustig...:D


FredKune schrieb:
Außerdem, woher weißt Du das mit den Quellen? Hat Charlie das mal gesagt?

Wenn man mal die todsicheren Infos bezüglich Die-Größe, Tapeout-Daten usw. hernimmt, bleibt eigentlich nichts anderes übrig, als das er diese Quellen tatsächlich hat. Wäre es anders und er würde sich alles aus den Fingern saugen, wie manche immer wieder unterstellen, könnte er niemals(!) so oft richtig liegen, wie er es tut. Dann würde nämlich sowas rauskommen wie BSN*, die so ziemlich jede Info zu Fermi verk**** haben.

Und ja, es steht meistens drin woher die Infos grad kommen:

"Sources deep inside Santa Clara have told SemiAccurate "

(Santa Clara (oder auch gern als Satan Clara bezeichnet :D) ist NVIDIAs Firmensitz)

FredKune schrieb:
Ein Journalismus sollte sachlich und ausgewogen INFORMIEREN und dann dem Leser die Meinungsbildung überlassen. So finde ich den Test von CB gut. Dort stand wie die Karte abschneidet und ich konnte für mich dann feststellen: Den Mist kauf ich nicht.

Charlie informiert doch? Und zwar wie NVIDIA ihre Fans/Presse "betrügt" oder von mir aus auch die Wahrheit an den Rand der Existenz zurechtbiegt...

SA ist eben hauptsächlich ne Speku-Seite, CB ne Test-Seite. Das sind einfach zwei komplett unterschiedliche Sachen, wie Apfel und Birne.

FredKune schrieb:
Bei Charlie ist das aber nicht einmal ein Hauch von Journalismus, sondern Stimmungsmache und reinster Fanatismus und CB tut sich keinen gefallen damit, wenn es Charlie und von "berichten" spricht und damit so tut als wäre er eine seriöse Quelle.

Charlie ist wesentlich verlässlicher als bspw. Fudo, den CB auch gerne zitiert. Wenn CB eher auf Charlie "gesetzt" hätte, wüssten alle schon seit einem Jahr, das Fermi zu spät aufschlagen wird.

"it could be out around this time next year."

CB hat sich in dieser News auch deutlich von Charlies Meinung distanziert, falls dir das nicht aufgefallen ist. Ich finde das auch sehr gut so, es sind und bleiben Spekulatiuskekse, wenn man die unüberlegt in sich reinfrisst, braucht man sich hinterher nicht wundern (nicht persönlich gemeint) ;)

Aber Charlie komplett ignorieren, weil er einen etwas gewagten Schreibstil hat, halte ich schlicht und einfach für falsch. Die Wahrheit tut nunmal meistens weh, aber es ist keinem damit gedient, sie zu ignorieren.

DvP schrieb:
Auch im Sommer wird es schon interessant wie es bei den GTX 4XX Karten mit der aktuellen Kühlung aussieht. Die bisherigen Tests wurden ja alle mit 20-22° Umgebungstemperatur gemacht. Was passiert wenn es mal 30-35° hat, interessiert mich jetzt schon. Bei Hardwareluxx werden dann auch Temps mit über 100°C erwartet.

IMO läuft der Lüfter "momentan" "nur" bei ca. 70% um die Karte auf 95° zu halten, wenns wärmer wird, muss er eben noch mehr aufdrehen. Also kein Problem bezüglich der Temperaturen, aber den Geräuschpegel bei Furmark kannste schonmal als Standard ansehen im Sommer. :eek: (Vielleicht sollte man Furmark dann auch lieber nicht testen, weil die reserven dann evtl. wirklich aufgebraucht sind)

derschlambi schrieb:
Wenn man alleine schon an die Bilder der Inno3D Kartons denkt. Offensichtlich waren die doch leer. Was anderes hatte ich eigentlich auch nicht erwartet.

War doch sogar von Fudo bestätigt ;)

Fermi Boxes are ready-but still empty

Krautmaster schrieb:
Vielleicht wurde der GF100 auch sehr als Konkurrenz zu Larrabee entwickelt, die Ähnlichkeiten sind schon recht groß.

Das hast du 100% richtig erkannt. NVIDIA hat einen Gegenschlag zu Larabee entwickelt und dabei die zielgerichtete Konkurrenz aus den Augen gelassen. Man ist zwar schneller, aber auf Kosten der Produzierbarkeit, den Kosten allgemein und Stromverbrauch, Lautstärke und Hitzentwicklung.

Krautmaster schrieb:
Auch auf Raytracing wurde viel Wert gelegt, mich würde die Performance des GF100 dahingehend interessieren.

Klick

(ziemlich mittig)
 
Hallo zusammen,

@ Critter & Winterday

Ihr liegt beide Falsch, Sorry. Nvidia macht mittlerweile nur noch einen relativ kleinen Teil ihres Geschäftsumsatzes bzw. Gewinns mit Gamer-Karten, eingeschlossen Mid- und Low-Range-bereich.

Überzeugt euch am besten mal selbst anhand der letzten Quartalsbilanzen von Nvidia. Der Hauptumsatz wird mittlerweile mit SoC`s und anderen Chipsätzen erwirtschaftet. Im iPhone werkelt z. B. zu einem nicht geringen Teil Nvidia Hardware.

Ich kann mir gut vorstellen, daß nur eine Charge von den Dingern auf den Markt kommt. Alleine schon wie heiß die Teile werden, Nvidia kann da erzählen, was sie wollen. Ab einer gewissen Temperatur verschleißen nunmal elektronische Teile ungemein schneller. Physik läßt sich nicht einfach mal per Marketingaussagen außer Kraft setzen.

So long....
 
Jetzt nur doof auf dem Gamer zuhause geguckt, also sturr nicht übern Rand gucken.
Die meisten haben ja einen 19-24 Zoll Bildschirm, wozu diese bis zu 13% mehr Leistung, soviele Bildverbresserung kann man doch garnicht anschmeißen, dass eine 480er auf einem 22 Zoll Monitor ausgelastet ist.

Und was auch, mich persönlich stört, wegen xbox und ps3 wird crysis noch immer das grafik-spiel sein und das kam 2007. Ich mein sogar Farcry[das auf der insel, nicht das in afrika] sieht noch hübsch aus.

Zu Nv selber, ich hab auf die 480 gewartet und werd mal gucken was ende des jahres so passiert, aber so wie sie jetzt ist wäre die nur mit Wasserkühlung interessant.

Und das mal Nv, Intel, Amd oder Ati die besseren Produkte hat, sollte ja klar sein und nicht gleich der tot einer Marke herraufbeschworen werden, das kommt überall vor bayern wird ja nicht jede Saison Meister :D
 
@ Critter:

Irgendwas ist faul an diesem Artikel:

Jetzt ein kleiner Vergleich mit der Radeon HD5000-Serie: Ihr bleibt bei FP64-Berechnungen theoretisch 25% der FP32-Leistung und damit auf dem Papier doppelt so viel wie bei der Nvidia-Karte. Absolut gesehen ist aber die GeForce GTX480 dennoch die schnellere Karte, weil ihre Leistung selbst mit nur 1/4 der vollen Möglichkeiten noch höher als bei der roten Konkurrenz ausfällt.

Die GTX480 hat in SP 1345 GFLOPS (Quelle), also laut tomshardware in DP 168 GFLOPS (ein achtel).

Die HD5870 hat in SP 2720 GFLOPS, in DP 544 GFLOPS (Quelle)

Es sind nicht doppelt so viel, sondern 3,24 mal so viel Leistung!
Tomshardware schreibt wieder mal Bullshit, so wie es aussieht...

edit: hier sieht man, dass bei beiden Vorgängergenerationen, also HD4890 und GTX270, in Double Precision Ati um den Faktor 4 schneller ist.
 
Zuletzt bearbeitet:
@KAOZNAKE

herzlichen Dank für die Raytracing links. Einserseits beeindruckend was Nvidia da Performancetechnisch zum G200 aufgeholt hat, anderseits ernüchterd, denn mit 3,6 FPS spielts ichs nich so doll ;)

Irgendwie hängt der GF100 nun ganzschön in der Luft. Seinen wirklichen Einsatzort lässt sich schwer ausmachen. Es ist eine Eierlegendewollmilchsau die das was wir wollen, nämlich spielen, nicht so befriedigt, wie wir es gerne hätten - dafür aber in Badaboom, Raytracing, einfach GPU Computing zeigt was sie leisten kann. Klar dass hier die Comments fast nur negativ ausfallen, auch zurrecht, schließlich ist sie schlicht relativ uneffizient wenns um Spielen im klassischen Sinn geht und 20% sind kacke ;).

Jetzt ist die Frage wie man das auslegen will. Ist NVidia vielleicht zusehr die Computing / Raytracing Schiene gefahren und bezahlt das nun jetzt, oder hätte man sich noch weiter aus dem Fenster legen sollen fern ab jeglicher Rasterisierung voll auf Computing und Raytracing setzen sollen.
Wenn man aus dem Blickwinkel betrachtet dass der GF100 eine Brücke zwischen Rasterisierung und Computing / Raytracing schlagen soll, so ist die Lösung eigentlich genau richtig ausgefallen. Leicht bessere Spieleleistung über der Konkurrenz und die dazugehörige bestmögliche Computing Power.
Allerdings ist es immer schwer den alten Standard abzuschaffen. Das geht von heute auf morgen nicht, zumal Raytracing und das drum rum noch in den Kinderschuhen steckt wenn es um Anwendungen geht.
Wenn Nvidia den Weg weiter geht so kann man von der folgenden Generation eigentlich nur schlechte Rasterisierungsperformance erwarten, aber vielleicht ist man dann schon bei den spielbaren FPS wenns um qualitativ hochwertige Raytracing Anwendung geht. Und vielleicht ist man dann ATI / AMD Jahre vorraus - und da wo Intel mit Larrabee hin will.

Dennoch muss man wohl feststellen dass erst mit ca 20 nm genügend Rechenleistung für Echtzeit Raytracing in guter Qualität und anständiger Auflösung bereitstehen wird. Aber genau da will man wohl hin.
 
Zuletzt bearbeitet:
@Raucherdackel:

Das mit dem 1/8 DP-Performance gilt aber nur für die Grafikkarten. Bei Tesla beträgt die DP-Performance 1/2 der SP-Performance.

Die GTX480 von NVidia hat also eine wesentlich schlechtere DP-Performance als die HD 5870 (168 vs 544) , während die Tesla-Karten deutlich schneller sind (673 vs 544).
Das ist auch nicht verwunderlich, immerhin ist Fermi ja für DP-Performance und GPU-Computing entwickelt worden und nur "nebenbei" für 3D-Spiele.
 
Im September 2009 wurden die 5000er-Karten von AMD erstmals bei den Händlern gelistet. Damals habe ich mit einer HD 5850 geliebäugelt, sobaldKarten mit alternativen Kühllösungen (z.B. HIS, Sapphire usw.) auf den Markt kämen. Leider kam es ganz anders. Die neuen Karten waren monatelang nur in homöopathischen Doesen verfügbar. Und dann stiegen die Preise, und sie steigen heute noch. Bei einer PowerColor 5850, betrug der Preisanstieg bis jetzt € 21,50. Eine Sapphire HD 5850 (lagernd) kostet derzeit um 299.- Euro. Zum Startzeitpunkt (September 2009) kostete sie € 214.-, damals allerdings nicht lagernd.
Ich hatte gehofft, dass die Karten wenigstens nach dem Verkaufs-Start der Fermi-Modelle billiger würden, aber das ist ja nun eher unwahrscheinlich.
Mit einer leisen und halbwegs preisgünstigen HD 5850 wird es also nichts. Ich habe für mich die Konsequenz gezogen und mir eine absolut leise HD 5770 Hawk von MSI bestellt. Ist zwar in der Leistung nennenswert unter einerHD 5850 einzustufen, dafür im PL-Verhältnis wesentlich höher. Und für mich und die Strategiespiele, die ich bevorzuge, reicht die Leistung allemal.
Ich hoffe nur, dass Nvidia bald wieder bessere Modelle auf den Markt bringt. Es ist nun mal so, dass Konkurrenz den Markt belebt. Wenn diese nicht vorhanden ist, wird es für den Konsumenten teurer. Noch dazu, wenn man beim Chipproduzenten Fertigungsprozesse nicht in den Griff kriegt.
 
Zuletzt bearbeitet:
Wer einigermaßen vernünftig ist, kauft sich eine ATI, aber Nvidia Käufer gibt es immer. Ich will jetzt Nvidia nicht schlecht reden, dazu fehlt mir das Recht. Jeder soll das kaufen was er eben haben will.
 
Krautmaster schrieb:
- dafür aber in Badaboom, Raytracing, einfach GPU Computing zeigt was sie leisten kann

Laut den Artikeln, die ich vorher gepostet habe, ist die HD5870 in GPGPU besser. Man muss nur ein bissl querlesen. Egal ob jetzt Single oder Double Precision.
 
@garfield36: da der Preis auf Grund der Nachfrage und nicht wegen der Gier von AMD gestiegen ist, war es abzusehen, dass der Preis mit Erscheinen der Fermi nicht sonderlich sinkt. Selbst wenn der Fermi ein wunderchip gewesen wär, so wär die HD5k nicht besser verfügbar gewesen und Konkurenz durch den Fermi war/ist auch eher unwahrscheinlich, da der Chip größer ist und somit noch schlechter verfügbar.
 

Ähnliche Themen

Zurück
Oben