News Fermi: Und täglich grüßt das Gerüchte-Murmeltier

Status
Für weitere Antworten geschlossen.
Nvidia hat sich eine Dateline gesetzt. Diese ist der 30.8.2010. An dieser wird dann geschaut wie der Umsatz der GPU Sparte ist und wie der Abstand zu AMD/ATI beträgt. Nicht nur Leistung sondern eher andere Aspekte wie Gewinn pro GPU ect. Dazu kommt, das Nvidia bis dato eine Bestandsaufnahme erarbeitet. Der Technologische Rückstand zu AMD/ATI beträgt jetzt schon aus interner NVidia Sicht 8 Monate. Einige Funktionen kann Nvidia selbst dann nicht sich erarbeiten wenn es den Schwerpunkt darauf legen könnte oder würde. Die Traditionalisten bei Nvidia hatten schon letztes Mal nur knapp gewonnen und es sieht sehr schlecht aus für den 30.8.2009 im Bezug auf die GPU Zukunft bei Nvidia. Bis zu diesem Tage wird Nvidia auch Informationen versuchen zu bekommen was AMD mit der kommenden Generation bringen möchte. Ich bin sicher das, sollte das Zutreffen was in der Richtung gemunkelt wird, wird Nvidia Anfang September den Austieg aus dem GPU Geschäft bekannt geben und sich ganz auf sein Tegra konzentrieren und nur noch in dieser Richtung Aufstellen.
Der Technologische Rückstand ist einfach so groß und nicht mehr Aufzuholen das es keinen Sinn machen wird hier weiter Geld zu investieren. Den der Markt für Tegra wird in der Zukunft noch viel Schwerer und es ist das einzige Produkt was eine Zukunft für Nvidia als Firma bietet.
Nvidia hat weder das Geld noch die Technologie um weiter im GPU Markt mit zuspielen.
 
Evader schrieb:
Das war die GTX 285.

Und eben das tun sie ja nicht. Und selbst wenn, gegen DX11 + Eyefinity wird man mit DX10 IMHO keinen Blumentopf gewinnen.

Ups, klar hast recht.

Zu den Yields: Theoretisch sollte man einen kleineren Chip als den Cypress ohne Probleme fertigen können (bei AMD gehts mittlerweile ja auch beim Cypress). Aber offensichtlich scheint man da bei NVIDIA massive Probleme zu haben, was ich nicht ganz nachvollziehen kann.

aylano schrieb:
Aber es gibt auch Globalfoundries, wo AMD während des Jahres stark umsteigen will (außer die Fertigung ist schlechter)
Und wenn da schon die 40nm-Fertigung besser (Yield & Takt) und Nvidia nicht umsteigt, dann wird es Nviida noch schwerer haben.

Und wenn Nvidia bei GloFo nicht auch gleich mit 32/28nm mitgeht, und bei TSMC bleibt, die eventuell wieder Probleme haben könnten.

Schöne Zusammenfassung. Zwei Punkte:

Die 40nm Fertigung wird AMD "bis zum bitteren Ende" ;) bei TSMC belassen. Erst bei Wechsel auf 28nm wirds evtl (höchstwahrscheinlich) einen Wechsel geben.

32nm (Bulk) wirds weder bei Glofo noch TSMC geben, den Schritt lassen beide (GloFo sicher, TSMC sehr sehr wahrscheinlich) aus.

Bei 28nm hat GloFo Vorteile, weil die mehr Erfahrung mit HKMG haben. Insofern rechne ich mit GloFo als neuen Partner. Und so wie sich TSMC jetzt schon bei 40nm anstellt, wirds bei kleineren Strukturen und neuer Technologie (HKMG) nicht besser werden. Mal sehen.

buntstift23 schrieb:
Denke nicht das sich NV aus dem Gamerbereich zurückziehen wird. Da geht es ja nicht um Geld. Viel verdiene nsie daran nicht.
Dazu ist OEM und HighEnd/Server viel zu lokrativ!

Weiß ja nicht wo du deine Infos her hast, aber das meiste Geld verdient NVIDIA mit Sicherheit mit "stinknormalen" Grafikkarten, die ja auch von den OEMs verbaut werden.

Und im weitesten Sinne würde ich alles, was an NVIDIA Grakas verbaut wird, zum "Gaming-bereich" zählen, weil für Office gibts noch den deutlich billigeren INTEL-Schrott, da brauch man keine teuren NVIDIA-Lösungen verbauen.

Umsatz letztes Quartal: 903 Mill. $

GPU: 465 Mill.
MCP: 248 Mill. (Chipsätze usw)
Professional: 130 Mill. (wozu vermutlich GPGPU auch zählt, was mit 10 Mill von anandtech veranschlagt wird)
Consumer/Other: 61 Mill.

Also die Hälfte an Gewinn mit Grakas.

Aber da will ich mich nicht streiten :):D Kann auch jeder anders sehen!
 
@BestPower²TDP:

Klingt interessant, gibt es irgendwo ne Quelle zu?
Ergänzung ()

Umsatz letztes Quartal: 903 Mill. $

GPU: 465 Mill.
MCP: 248 Mill. (Chipsätze usw)
Professional: 130 Mill. (wozu vermutlich GPGPU auch zählt, was mit 10 Mill von anandtech veranschlagt wird)
Consumer/Other: 61 Mill.

Also die Hälfte an Gewinn mit Grakas

Du schreibst selber Umsatz. Umsatz ist kein Gewinn. Angenommen die Verkaufen 200 Grakas für 100EUR/Stück, dann sind das 20.000 Umsatz. Nehmen wir ferner an, die Graka kostet in der Herstellung 110 EUR. Dann haben sie 2000 EUR Verlust gemacht. Selbst wenn die Grakas den größten Anteil am Umsatz aus machen heißt das noch lange nicht, dass das gut für die Firma ist.

Greetz
Ganzir
 
Zuletzt bearbeitet von einem Moderator:
Es kann nichts schlimmeres passieren, als das Nvidia keine Gamer-Grafikkarten mehr produziert. Denn dann kann ATI die Preise diktieren und das will sicher keiner ;)
 
Auch auf die Gefahr hin, dass ich mich wiederhole, aber gibt es zu dieser 30.08.10 geschichte irgend eine quelle?
 
Das mit dem 30.8. klingt fast so, wie wenn es von Charlie kommen wuerde...
 
also ich les mir die ganzen kommis jetzt mal nicht durch ... aber zum artikel:

die folien gehören zum fermi ... die daten sind ein fröhlicher mix aus den fermi karten und gerüchten jenseits von gut und böse und der release termin ... OMG es ist der angekündigte release termin des fermi -.^

ist ja schade das die fermi und die gf varante so schwer zu trennen sind ... aber versucht es doch bitte.
 
@Bestpower: aus welchem nasenloch hast du denn bitten den blödsinn gezogen? schon alleine "dateline" != "deadline" disqulifiziert den kompletten post. der rest ist einfach nur lächerlich. sorry.
 
Hab auch öfters eine Dateline hier in meinem Zimmer, dann aber nur wenn ich mit meiner Freundin telefoniere.^^
Wenn Nvidia das Projekt Fermi schonmal angefangen hat, wird es das Projekt auch zu Ende führen.
Auch wenn Gamervarianten erst im Sommer kommen, das ist zumindest meine Vermutung.
Ich denke ja immernoch, dass zuerst abgespeckte Gamerkarten kommen mit deaktvierten Shadern etc..
 
@ Best Power

Na da frag ich mich ja, wie es ATI geschafft hat den Rückstand aufzuholen? Ich meine die GTX 285 war schnell oder auch die 8800 GTX. DA hat ATI kaum was entgegen zu setzten gehabt. Aber die hatten ja das Geld um zu forschen und den Rückstand wieder aufzuholen weil Geld ja keine Rolle bei denen gespielt hat oder wie?

Also am besten löscht du deinen Beitrag wieder. Sicher hat NVIDA eine Dateline genau wie jeder andere Firma auch. Meistens 01805 Nummern mit 14 Cent die min aus dem deutschen Festnetz Handy kann abweichen. Heisst aber Kundenhotline.

Die Dateline - Deadline hat NV schon lange hinter sich gelassen. Sonst würden die den Fermi nicht so anpreisen. Wenn die den jetzt einstampfen hat es verdammt große Auswirkungen. Das würde NV in vielen Bereichen schaden. Das sie irgendwann den Anschluss verpasst haben ist wohl nicht von der Hand zu weisen. Frag mich auch wie das passieren konnte. Hätten eine DX 11 Karte vorbereiten sollen und Fermi weiter laufen lassen sollen bis es klappt. Die haben sich einfach übernommen, zeitlich genau so mit dem Stand der Entwicklung. Eine Karte die schneller ist als die GTX 285 hätte NV so oder so bauen können mit DX11 und gleichstand mit Ati hätten sie dann gehabt aber nein, die mussten ja was bauen was alles in die Schranken verweisst und jetzt stehen sie da. Naja mal gucken wie es weiter geht, die Hoffnung stirbt als letztes.
 
Zuletzt bearbeitet:
Auwei, da sehe ich ja teure Zeiten auf die Nvidia Fans zukommen.
Die erste Gamer Fermi wird wohl wieder so eine Karte für die ganz Harten welche bereit sind +250 EURO (zum Preis einer ATI HD5870 :freak:) für vielleicht +20% Leistung und den Namen Nvidia auszugeben.

Wenn das Chipdesign es zulässt ist bei den schlechten Yields auch mit umfangreicher Ausschussverwertung Seitens Nvidia zu rechnen. Also GTX380, GTX375, GTX360, GTX350, GTX340 .... :evillol:

Es ist schon verwunderlich was für Merkwürdigkeiten Nvidia bei ihrer eigentlich so viel besseren Ausgangssituation treibt. Die hätten doch ganz locker noch eine Karte fürs Volk auf Basis des GT200 designen können. GT200 + HW-Tesselator + 50% mehr Shader-ALUs etc, etc .... und das Ganze dann in 40nm und schon wären alle Nvidia Fans zufrieden gewesen.
Ich glaube kaum das der Entwicklungsaufwand dafür so hoch gewesen wäre.
Ergänzung ()

Mister79 schrieb:
Na da frag ich mich ja, wie es ATI geschafft hat den Rückstand aufzuholen? Ich meine die GTX 285 war schnell oder auch die 8800 GTX. DA hat ATI kaum was entgegen zu setzten gehabt. Aber die hatten ja das Geld um zu forschen und den Rückstand wieder aufzuholen weil Geld ja keine Rolle bei denen gespielt hat oder wie?

Die haben den Rückstand nicht aufgeholt. Das Chipdesing der HD5xxx ist noch immer deutlich ineffizienter als das der Nvidia GT200. Sie haben nur ihre Stärken wie ihre höhere Integrationsdichte, den schon fertigen HW-Tesselator und den durch den HD4770 erworbenen Vorsprung in den 40nm Entwicklung gekonnt ausgespielt und daraus die HD5xxx designt. Hätten sie wirklich an der Chipeffizienz gearbeitet, dann hätten sie die GTX285 mit deutlich mehr als +20% deklassiert.
 
@BestPower²TDP: das mit dem technologischen rückstand müsstest du mir nochmal genau erklären. nvidia hat viel zeugs was transistoren und damit viel geld kostet, aber für den gamer meist ziemlich uninteressant ist. ati hats hier cleverer gemacht und sich ganz auf leistung und kosteneffiziens konzentriert. ati hat die zeichen der zeit schneller erkannt. wo da aber ein technologischer vorsprung sein soll, kann ich nicht so ganz nachvollziehn. klar hat ati dx11 karten released, aber nvidia wird wohl kaum an der implementierung von dx11 scheitern.
40nm prozess hat nvidia auch, siehe g210/310, gt220, gt240.
bei 28nm wird amd wohl einen vorsprung haben, aber das ist in der zukunft und nicht schon seit 8 monaten so.

woran es bei nvidia krankt ist einfach, dass sie sich noch immer an monsterchips mit allen extras festhalten, wärend bei den käufern die "geiz ist geil"-mentalität herrscht. nvidia sollte sich lieber auf einen nachfolger des g92 konzentrieren. die gt240 ist ein schritt in die richtige richtung: schlicht und billig herzustellen. davon wird nvidia sicher massen verkaufen und auch gewinne mit fahren. gute yields sollten bei der schlichten und kleinen architektur wohl kaum das problem sein.

der fermi dagegen ist nur was für den profibereich. die enorme dp-leistung bringt in einem spiel gar nichts. ich denke, dass über kurz oder lang die quadros und die geforces nicht mehr auf der selben gpu basieren werden, weil die anforderungen im profisegment und im spielersegment einfach zu weit auseinander gehen.

dass nvidia sich vom spielermarkt zurückziehen wird, halte ich für ausgeschlossen, zumal sie schon den chipsatzmarkt aufgegeben haben.
ihr kerngeschäft werden sie sicher nicht aufgeben. nur werden die gpus zukünftig nicht mehr so komplex ausfallen. stattdessen wird es zukünftig gpus wie die g216 mit einem vielfachen an shadern geben. premitiv aber schnell und billig. ich denke, die margen sind in dem bereich mittlerweile zu klein, als dass nvidia sich zukünftig noch luxus wie physx erlauben wird.

der rückstand auf ati ist nicht technologisch sondern produkttechnisch. hier muss nvidia ansetzen, um auf dauer am markt bestehen zu können.
 
Lübke schrieb:
die gt240 ist ein schritt in die richtige richtung: schlicht und billig herzustellen. davon wird nvidia sicher massen verkaufen und auch gewinne mit fahren. gute yields sollten bei der schlichten und kleinen architektur wohl kaum das problem sein.
Das halte ich für unmöglich:
Die 5750 ist 30-50% schneller +DX11 +Eyefinity und kostet gerade mal 20€ mehr.
Wie bekloppt muss man als OEM oder Endkunde sein diese Marketing (OEM) oder Leistungsdaten (Endkunde) zu ignorieren?

Und die 56xx und 55xx sind noch gar nicht auf dem Markt die in der selben Leistungsklasse wie die GT240 spielen. Nividia hat hier zu spät reagiert um mit den kleinen Karten noch einen Blumentopf zu gewinnen. Der Dafür interessante OEM Markt wird nun im Januar die 11 neuen Ati Modelle einbauen und Nvidia hat nichts dagegen zu setzen, weil sie alle zu lange vertröstet haben. Das ist traurige Realität.

Das selbe gilt für die anderen Modelle: GT210 und GT220. Da ist ja selbst die schon vorhandene HD4550 auf Augenhöhe und die kostet 30 € - wo will da Nvidia Geld verdienen?

Und ein technologischer Vorsprung ist enorm, wenn ich nicht mal halb so viel Produktionskosten habe als die Konkurrenz. Der Vorsprung wird nicht in Leistung gemessen. Hier hat Ati zwangsweise aus der Not eine Tugend gemacht als sie lange Zeit nur über den günstigeren Preis im Markt bestehen konnten - oder sie haben einfach rechtzeitig die Zeichen der Zeit erkannt, dass Benchmark-Kronen nicht mehr das entscheidende Kaufargument sind in Zeiten von duzenden Webseiten die Benchmarks auch in niedrigen für den Mainstream wichtigen Segmenten ausführlich analysieren.
Da wird der Kaufpreis festgelegt und dann geschaut wo man die meiste Leistung für 50/80/100/150 € bekommt dann +-20€ für das eine oder andere Feature oder etwas mehr FPS für das Lieblingsspiel.

Und ganz nebenbei gesagt ist z.B. die Hardware Tessellation Unit von Ati in der sechsten Generation mittlerweile - das ist ein enormer Vorsprung. Nvidia hat vielleicht einfach auf das falsche Pferd gesetzt mit GPGPU oder 2 Jahre zu früh - es wäre nicht die erste Technologie die daran scheitert ihrer Zeit zu weit voraus zu sein. Das passiert aber wenn man den Kunden diktieren will was sie zu brauchen haben anstatt erst den Bedarf abzuwarten.
 

Anhänge

  • 3dmark2006-1680x1050.png
    3dmark2006-1680x1050.png
    26 KB · Aufrufe: 470
  • 3dmark-vantage.png
    3dmark-vantage.png
    24,3 KB · Aufrufe: 466
  • re5aaaf.png
    re5aaaf.png
    23,8 KB · Aufrufe: 463
@Complication: du vergleichst grade äpfel mit birnen. die gt240 ist gar nicht gegen die 5750 aufgestellt und nebenbei bemerkt ist ihr preis im mom auch nur so hoch, weil die leute die einfach für so viel kaufen. die 9600gt ist günstiger und sogar schneller. dabei ist die in der herstellung deutlich teurer.
dass eine 5750 schneller ist und dafür ca 30% - 40% mehr kostet (was etwa der mehrleistung entspricht), steht gar nicht zur debatte. zu dem hat die gt240 auch features, die die 5750 nich hat.
wenn man dem g215 dx11 spendieren würde, wäre sie technisch auf aller neuestem stand. dazu mehr shader reinpacken, und das gegenstück zur 5770 wäre fertig und wohl jedem preiskampf gewachsen.

GT210 und GT220. Da ist ja selbst die schon vorhandene HD4550 auf Augenhöhe und die kostet 30 € - wo will da Nvidia Geld verdienen?
da wo ati auch geld verdient. nur dass die g210/gt220 in der herstellung billiger ist ;)
genau davon spreche ich ja.
 
Zuletzt bearbeitet:
@Complication

Nvidia hat nicht aufs falsche Pferd gesetzt. GPGPU ist einfach ein ganz eigenes und auch sehr wachstumsträchtiges Martksegment das Nvidia mit aller Macht für sich sichern möchte. ATI wird da sicher mit der nächsten Kartengeneration nachziehen. Nvidia hat nur den Fehler gemacht über die ganze letzte Kartengeneration (GT200 based) keinen wirklichen Midrangechip anzubieten (die letzten wirklichen Midrangekarten waren die G94 based) . Alles was unter Midrange läuft und lief war doch recycleter G92 Kram. Der ist technologisch dem 47xx und 48xx Segment von ATI natürlich nicht mehr gewachsen (von 57xx wollen wir mal gar nicht reden). Nvidia hat seine Prioritäten klar in Richtung des GPGPU und dessen Markt verschoben. Auch wenn sie immer wieder beteuern sich nicht aus dem Gamergrafikmarkt zurückziehen zu wollen sollte doch jedem inzwischen klar sein das hier von Nvidia nur noch mit "Abfallprodukten" aus der GPGPU-Forschung/Produktion zurechnen ist.
 
Lübke schrieb:
@Complication: du vergleichst grade äpfel mit birnen. die gt240 ist gar nicht gegen die 5750 aufgestellt und nebenbei bemerkt ist ihr preis im mom auch nur so hoch, weil die leute die einfach für so viel kaufen. die 9600gt ist günstiger und sogar billiger. dabei ist die in der herstellung deutlich teurer.
dass eine 5750 schneller ist und dafür ca 30% - 40% mehr kostet (was etwa der mehrleistung entspricht), steht gar nicht zur debatte. zu dem hat die gt240 auch features, die die 5750 nich hat.
Die GT240 kostet 80 € und die 5750 ca. 100 € - wo die Nvidia aufstellt ist dem Kunden so ziemlich egal. Die HD56xx und die HD 55xx sind besser ausgestattet und werden billiger sein. 40nm alleine reicht nicht um einen Kunden zum kaufen zu bewegen.
Lübke schrieb:
wenn man dem g215 dx11 spendieren würde, wäre sie technisch auf aller neuestem stand. dazu mehr shader reinpacken, und das gegenstück zur 5770 wäre fertig und wohl jedem preiskampf gewachsen.

da wo ati auch geld verdient. nur dass die g210/gt220 in der herstellung billiger ist ;)
genau davon spreche ich ja.
Seltsames Argument: Wenn man der 5870 mehr shader reinpackt und die Hälfte an Strom verbrauchen lässt dann muss Nvidia den Fermi gar nicht mehr raus bringen? :freak:

Man kann doch nur die technischen Daten beim Kauf berücksichtigen die auch da sind und sich nicht einfach eine Phantasiekarte zusammendenken und sagen das ist ein tolles Produkt. Warum hat denn Nvidia das denn nicht gemacht mit dem g215 wenn es so einfach ist?

Und welche wichtigen Features hat denn die GT240 die der HD5750 fehlen?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben