News Nvidias „Fermi“ zur CES 2010?

Status
Für weitere Antworten geschlossen.
ob das mit der stark schwankenden qualität im 40nm-prozess zusammenhängt?

wenn bereits die vergleichsweise kleinen hd5k-gpus unter qualitätsschwankungen und niedrigen yields zu leiden haben, was wird dann erst bei einem monster wie dem fermi sein?
ich bin jedenfalls enttäuscht. hatte für ende november fest zumindest mit der vorstellung der gtx300-reihe gerechnet. aber die schlechten meldungen aus dem hause tsmc und das erscheinen von karten wie der gt240 hat ja in den letzten tagen schon sowas angedeutet...
 
Ich denke, es sollte hier noch einmal klar betont werden, dass es sich bei dem angepeilten Termin zur CES 2010 nicht um den Verkaufsstart der Fermi handelt. Bis die ersten Fermikarten in den Regalen stehen werden nochmals Wochen/Monate vergehen. Die Karten für Homeuser werden laut Schätzungen der C'T bis Mitte 2010 verfügbar sein.

Mitte 2010 dürfte dann auch ATi den Nachfolger der 5000er Reihe vorstellen, was - wenn sie es geschickt anstellen - zu einem Desaster für NV werden könnte.
 
Sollte der Fermi wirklich so spät verfügbar sein bin ich mal gespannt ob die ganzen warten prediger dann auch
zur stelle sind. Denn der 6K chip von ATI ist dann ja auch nicht mehr fern.

Natürlich sind sie das dann. Die gibts immer. Genau wie Fanboys aus den einzelnen Lagern.

Aber mal ganz nüchtern betrachtet finde ich die Vorgehensweise von NV nicht gerade verkehrt. Man könnte sogar meinen sie hätten aus ihren Fehlern gelernt. Statt aus Konkurrenzgründen ein halbfertiges Produkt auf den Markt zu werfen, entwickeln sie lieber in aller Ruhe weiter.

Aus wirtschaftlicher Sicht ist es vielleicht auch gar nicht mal so dumm. Denn ein halbfertiges Produkt auf den Markt zu werfen, kostet schließlich auch Geld und wenn es sich dann nicht wie geplant verkauft, schadet man sich selbst und der Entwicklung des Nachfolgerprodukts. Selbst wenn ein gutes, ausgereiftes Produkt in Q2-2010 die Einnahmen, die man jetzt hätte haben können, nicht kompensieren kann, steht man für die Weiterentwicklung besser da.

...was - wenn sie es geschickt anstellen - zu einem Desaster für NV werden könnte.

Wieso? Wer sagt denn, dass der Fermi nicht schon mit der übernachsten ATI-Generation Schritt halten kann? Das sind reine Spekulationen. Ich halte NV für geschickt und erfahren genug, damit sie dieses Risiko abwägen können. Die bauen und entwickeln schließlich nicht erst seit gestern ein paar kleine Grafikkarten und das Desaster mit der eigenen 5000er-GeForce-Serie haben sie auch überlebt.
 
Zuletzt bearbeitet:
ich vermute, dass der fermi schon fertig ist, allerdings bei den fertigungsproblemen von tsmc dürften die wenigen brauchbaren exemplare je waver einfach unverhältnismäßig teuer und in viel zu geringen stückzahlen anfallen.
da hat ati eben mit ihren kleinen, vergleichsweise simplen gpus besser gepokert. wobei ich mich auch hier frage, wie groß wohl die margen bei ati sind. der ausschuss ist ja auch hier nicht sehr gering.

für karten wie die hd5700 und gt240 dürfte es vermutlich dann einigermaßen reichen.
ich könnte mir aber vorstellen, dass sowohl ati als auch nvidia nochmal zurück auf 55nm gehen, um karten wie 4800 und gts250 als "lückenbüßer" nachzuschieben. vllt erlebt sogar die gtx200 nochmal ein kleines comeback, um die zeit zu überbrücken. die lagerbestände sind ja scheinbar bereits jetzt erschöpft und alternativen bei nvidia nicht in sicht.
 
The_1st_Knight: Ich find es immer so lustig von euch Fanboys :lol: . Selbst wenn Nvidia nichts gebacken kriegt selbst wenn sie nur ein Dummy vorstellen, noch dann lobt und preist ihr diesen Hersteller und meint:

Aber mal ganz nüchtern betrachtet finde ich die Vorgehensweise von NV nicht gerade verkehrt. Man könnte sogar meinen sie hätten aus ihren Fehlern gelernt. Statt aus Konkurrenzgründen ein halbfertiges Produkt auf den Markt zu werfen, entwickeln sie lieber in aller Ruhe weiter.........

Wieso kommt es euch Fanboys nicht in den Sinn das Nvidia sich vielleicht übernommen hat ? wieso kommt euch nicht der Gedanke oh Nvidia muss noch so lange weil sie zuviel aufeinmal wollten ? und es einfach nicht gebacken kriegen ? Und natürlich ist es Dumm ein halbfertiges Produkt zu bringen das weiss aber jeder Depp. Die kriegen es halt einfach nicht gebacken.

Was war damals mit der 2000Reihe von ATI die haben auch länger gebraucht aber da wurden die ausgelacht. Und jetzt sagen die Nvidia Fanboys ach Nvidia hat aus Fehlern gelernt und bla bla blubb. Ihr seid die Krönung des Forums ihr Fanboys.
 
Alles in der Zukunft liegende ist Sache von Spekulationen.

Ein Desaster aus zwei Gründen (ich rede hier ausschließlich vom Desktopsegment):
1.) Mit der langen Verzögerung des Fermilaunches im Vergleich zum ATi 5000 hat NV die Gelegenheit verspielt, weiterhin mit seinen Highend-Karten unbestritten den ersten Platz anzuführen. Gewinntechnisch kein großer Verlust - imagetechnisch schon. Jetzt wird zunächst die 5970 NV entthronen, dann wird sie von Fermi wohl überholt werden, die dann allerdings vermutlich (sicher ist das natürlich nicht, aber ich denke, man kann damit rechnen) vom 6000er in die Schranken verwiesen wird. Und das nur kurze Zeit nach Fermis Release.
2.) Viele Leute, die bisher mit dem Kartenneukauf gewartet haben, in der Hoffnung, Fermi würde evtl. noch 2009 käuflich zu erwerben sein, werden sich jetzt eine 5000er kaufen, bis zum Fermilaunch warten und sich dann eine 5000er kaufen (Preissturz), oder gar noch bis zur 6000er warten.

Allerdings, das muss gesagt werden, hat ATi einen Paradigmenwechsel von Geschwindigkeit durch Addition (höhere Frequenz, mehr Shadereinheiten, schnellerer Speicher etc.) auf Geschwindigkeit durch neue Technologie (wie bei Fermi geschehen) noch vor sich. DX11 zögert die Umstellung mM nur etwas heraus.
 
Ich weis nicht ob der Fermi so ein Überflieger wird wie manche erwarten. Ich befürchte eher das Nvidia technisch zur Zeit ATI nicht das Wasser reichen kann.

Betrachtet man mal die Rohdaten der letzten Serie so sieht das bei ATI so aus das sie mit dem 4xxx Chip alle Leistungsseqment abgedeckt hat( 4870x2;4890;4870;4850...etc. Sie brauchten an dem Chip nur kleine Änderungen vornehmen. Mit dem 5xxx sieht das in etwa gleich aus.

Wie sieht das bei Nvidia aus? Sie haben doch tatsächlich nur 4 (oder 5? :eek: )200er Chips in Karten verbaut (295;285;280;275;260) für den Mid- und Lowrange Bereich mussten sie auf ältere Chips zurück greifen weil der 200er Chip für diese Sparten zu teuer wäre. Das lässt vermuten das Nvidia in die "falsche" Richtung enwickelt bzw. geforscht hat.

Das macht sich wahrscheinlich nun bei der Entwicklung des Fermi bemerkbar. Den wenn man den Gerüchten nur ansatzweise glauben darf, wird das ein wahrer Monsterchip. Was dann absehbar ist das es wieder nur eine Handvoll Karten mit dem neuen Chip gibt der ziemlich teuer sein wird. Das wäre ja auch nicht so schlimm, wenn die Leistung stimmt.

Das große Problem ist nun der Mid- bzw. Lowendbereich. Dafür nun auf den "alten" 200er Chip zurück zu greifen geht nicht, weil der nach wie vor für diesen Bereich zu teuer in der Herstellung ist. Das heißt, entweder überlassen sie ATI diesen Bereich oder sie Boren den noch älteren g92 Chip weiter auf. Und genau da liegt meines erachtens das Problem. Im Highend Top und alles andere wäre veraltete Technik.

Deswegen vermute ich mal, das Nvidia entweder den Fermi ganz neu aufsetzt (deswegen auch so wenige Details) oder sie Entwickeln parallel dazu an einem kleineren und billiger herzustellenden Chip.

Anmerkung: Das alles hier ist meine ganz persönliche Meinung. Ich habe einfach mal 1+1 zusammen gezählt und mir daraus diese, etwas aberwitzige Meinung zurechtgelegt. Also nicht gleich böse werden ;)

Gruß Schaby
 
ich glaub bis jetzt ist noch kein lauffähiges Muster vorhanden und NV hat noch sehr viel Arbeit. Ich rechte auch nicht vor Februar - April mit den neuen Chips.

Verglichen mit der HD5870 ist der Fermi eine viel komplexere abgeänderte Architektur die sehr viel Neues mit sich bringt und aufgrund dessen weitaus mehr Arbeit als HD4XXX -> HD5XXX bedeutet.
Der ATI Chip ist vergleichen damit einfach gestrickt und zielt mehr auf die CB-Gamer von uns ab. Nvidia will mit dem fermi wohl eher eine Konkurrenz zu Larrabee aufbauen.
zudem verspricht man sich vom Super Computer und Computing Markt weit mehr Profit was nicht ganz unberechtigt ist.

Es gibt noch keine Benchmarks, keine Bilder, keine lauffähigen Muster - alles spricht für nen Launch 2010.

Dank 40nm Problemen für Nvidia nicht allzu schlimm.
 
@Whoozy: ati wurde damals nicht wegen der verspätung "ausgelacht" sondern weil die überkarte angekündigt war und immer höhere erwartungen geschürt wurden und sie dann nach langem hinhalten mit mühe und not noch an die gts640 rankam. und das gleiche blüht auch nvidia, wenn der fermi ein flop wird. hier sind die erwartungshaltungen ebenfalls sehr hoch und das mindeste, was die leute von nvidia erwarten ist, dass die gtx380 die 5870 deutlich schlägt. ein gleichstand wäre hier schon eine klare niederlage für nv.

@Kraligor: die 5870 hat bereits nv enttrohnt. die gtx295 ist doch nur theoretisch schneller.

@Schaby: nvidia musste nicht auf älltere mittel- bzw lowendchips zurückgreifen, sie haben den g200 (aka g90) nur später gebracht. der g92 war schon bei erscheinen ein ableger einer eigentlich größeren gpu, die damals angesichts der führung der alten 8800gtx aber nicht gebraucht wurde. wenn man einen g200 abspeckt erhält man einen g92, dann einen g94 und zum schluss einen g98 ;).

und den fermi werden sie sicher nicht neu aufsetzen, weil die entwicklung mehrere jahre dauert.^^ der g80 wurde 8 jahre lang entwickelt und der fermi war 2006 schon in arbeit. wenn die jetzt nochmal bei 0 anfangen würden, dann wäre 2012 wohl die gts250 (dann vllt in 32nm) wohl noch immer nvidias schnellste karte :D
 
Zuletzt bearbeitet:
Schade, dann wird es wohl erst im Frühjahr mit der Verfügbarkeit und damit bleiben die ATI AMD Grakas teuer....wer daran Schadenfreude hat kann wohl kaum übern Tellerrand hinaus denken. :freak: (Wettbewerb bringt nicht nur bessere Preise für uns Kunden sondern auch eher neue Technik, mal für die Dummies unter den Fanboys)
 
Zuletzt bearbeitet:
Nur warten bis die Fanboys "Unyu" und " "y33H@" ihre Beiträge hinterlassen haben
Unglaublich toller Kommentar. Du solltest aber auch beachten das zum mindestens y33H@ ein Texturfetischist ist und da fährt man mit NV besser, was auch seinen Standpunkt erklären könnte. Mit der HD5000 hat sich aber einiges gebessert, wesewegen es für Texturfetischisten keinen(wenige) Gru(ü)nd(e) mehr gibt ATI abzulehnen.
@Topic
Mir ist zumindestens egal ob Fermi dieses Jahr oder Anfang 2010 erst erhältich sein wird. Das einzige was mich interessiert ist wie viel es leisten kan.
 
Wieso kommt es euch Fanboys...

Moooooment. Als Fanboy lass ich mich hier nicht bezeichnen, du kleiner Flamer (ha ich kann das nämlich auch). Nur weil ich NV nicht gleich ans Kreuz nagle, wenn sie unter Umständen mit einer neuen Technologie nicht ganz so gut wie in der Vergangenheit zurecht kommen, bin ich gleich ein Fanboy? Ich glaube nicht Tim...

Die kriegen es halt einfach nicht gebacken.

Ist das eine Vermutung oder eine gesicherte Erkenntnis? Es könnte nahe liegen, das gebe ich zu, aber bei dir klingt das so, als ob du mehr weißt. Oder du tust du einfach nur so?

Und ich finde es absolut Klasse viel Geld und Schweiß in die Forschung neuer Technologien zu stecken, statt plump die alten aufzupumpen. Und NV hat das vor nicht all zu langer Zeit mehrfach bewiesen, dass das der richtige Weg ist. Daher auch nach wie vor der klare Vorsprung in den Marktanteilen. Meist war es ATI, die sich gegen ein NV-Produkt durchsetzen mussten und evtl. auch mal konnten. Jetzt haben sie eben mal den ersten Schritt getan und werden evtl. sogar selbst von der (Forschungs-)Arbeit des Konkurrenten profitieren.

Wettbewerb bringt nicht nur bessere Preise für uns Kunden sondern auch eher neue Technik, mal für die Dummies unter den Fanboys

Stimmt hatte ich vollkommen vergessen, dass es für Kunden gut ist, wenn halbfertige Produkte auf dem Markt landen, über die sich dann mind. die Hälfte der Käufer ärgert.
 
Zuletzt bearbeitet:
The_1st_Knight schrieb:
Wieso? Wer sagt denn, dass der Fermi nicht schon mit der übernachsten ATI-Generation Schritt halten kann? Das sind reine Spekulationen. Ich halte NV für geschickt und erfahren genug, damit sie dieses Risiko abwägen können. Die bauen und entwickeln schließlich nicht erst seit gestern ein paar kleine Grafikkarten und das Desaster mit der eigenen 5000er-GeForce-Serie haben sie auch überlebt.

Trotzdem aendert das nichts an der Tatsache, das Nvidia in den naechsten Monaten Marktanteile verlieren wird. Auch ist die Situation auf dem Markt inzwischen eine gaenzlich andere als zu Zeiten der Geforce 5000er.
Nividia hat ja nicht nur das kurz- bis mittelfristige Problem, nichts in Petto zu haben gegenueber AMD/ATI, sondern auch das langfristige Problem das sich der Markt stark veraendert. Zum einen loesen Konsolen gerade massiv den PC als Spieleplattform ab, mit der Konsequenz das HighEnd-Grafikkarten immer unwichtiger werden. Liesst man doch auch immer haeufiger hier im Forum, das Leute mit recht alten Grafikkarte keinen echten Grund sehen, sich fuer die aktuellen Spiele eine neue GraKa zu kaufen da die Konsolenumsetzungen auch noch auf aelterer Hardware problemlos laufen.

Zum anderen sind sowohl AMD und Intel dabei, Grafikloesungen fuer den LowEnd - MidEnd Bereich direkt in ihre CPUs zu integrieren. Diese Loesung duerfte zu sparsamen Chips fuehren, die sich ideal fuer Note- und Netbooks als auch fuer Buerocomputer eignen.
Da Nvidia keinen eigenen X86-Chip besitzt, steht ihnen dieser Weg aber nicht offen.

Also sieht sich Nvidia langfristig dem Problem gegenueber, das HighEnd immer weniger wichtig wird und die anderen Segmente mit CPU-Technologie verschmolzen wird, die sie selber nicht haben.

Das ist ja auch der Grund warum Nvidia so sehr die Werbetrommel ruehrt fuer GPGPU Anwendungen. Das allerdings ist ein Markt, der bisher nicht in echten Groessenordnungen besteht. Wenn es Nvidia gelingt, diesen zu etablieren, haben sie ne Chance. Wenn das Interesse eher gering bleibt oder aber Intel ihnen dort (nicht bei den Spielen wohlgemerkt!) mit Larrabee ein Bein stellt, dann siehts duester aus fuer Nvidias Zukunft.
 
Wenn ich so an meiner Glaskugel reibe sehe ich immernoch alles im Nebel...

alle Spekulieren nur ob Fanboy von ATi oder NV keiner weiß wann er kommt wieviel er leistet oder an strom verbraucht!

Weihnachten steht bald vor der Tür trinkt bisschen Glühwein futtern Süßes.
Dann interessierts auch kein wann der jez schon so Legendäre nachfolger "Fermi" kommt!

Eins stelle ich aber fest das die reine Spekulation und das gelaber um den Fermi schon genug Werbung ist für NV. Und viele einfach schon deswegen warten und gespannt sind und daher auch keine 5*** Karte kaufen.
 
Tsts,
3 Seiten war es hier ne vernünftige Diskussion. Naja, hat lange genug gedauert, bis aus diesem ein persönliches Gemetzel geworden ist.

Immer das selbe, sobald irgendwo das Wort Nvidia oder ATI fällt dauert es nicht lange und einige hier können dann nur noch in der persönlichen Ebene rumflamen.

Macht zu das Ding hier, bitte!!!
 
Wann der Fermi kommt ist ja inzwischen relativ gut abzuschätzen, wann die ersten "Enthusiast" Grafikkarten für den Gaming-Bereich kommen, leider noch immer überhaupt nicht.

Man kann mit 100%iger Sicherheit davon ausgehen dass JEDER voll funktionsfähige Fermi-Chip erstmal für den professionellen Quadro-Bereich genutzt wird. Allein weil hier die Marge um ein vielfaches höher ist. Wenn man davon ausgeht (die Zahlen kamen mal in irgendeiner News zur Sprache ) das Nvidia 1/3 des Umsatzes mit den professionellen Grafikkarten macht dann muss erst mal dieser ganze Markt mit Fermi bedient werden. Und erst dann kann man daran denken einen vollwertigen "Gt 300" Chip auf einer Gaming Grafikkarte erwerben zu dürfen. Und das bei einer dann angenommenen Yield Rate von 50% (optimistisch) bei einem Auftragsfertiger dessen Kapazitäten im 40nm Bereich noch ausbaubar sind und der gleichzeitig ein ganzes Bündel Konkurrenzgrafikkarten produzieren muss... ich denke Q2/2010 ist realistisch. Wenn nicht sogar später.

Natürlich wird man schon bis dahin Aussschuss kaufen können. Nvidia wird möglichst alle teildefekten Fermis verwursteln wollen so das wir wohl im Low und Midend Bereich eher bedient werden.

Dass sich Nvidia aus dem Gaming-Bereich zurückziehen wird denke ich nicht. Zumindest wird man das nicht öffentlich zugeben. Aber man sieht ja schon deutlich mit dem Fermi dass bei künftigen Designentscheidungen die eine Entscheidung zwischen GPU Computing und Gaming erfordern immer zugunsten von GPUC entschieden werden wird. Und das ist völlig legitim. Im Gegensatz zum Gaming am PC ist der Bereich GPU Computing stark im Kommen, man hat ein riesiges Wachstumspotential und keinen ernsthaften Konkurrenten. Und wenn man schon jetzt 2/3 des Gewinns in diesem Bereich macht dann muss man alles daran setzen in diesem Bereich zu investieren. Vor allem weil dieser Bereich nicht im Geringsten Preissensitiv ist (was interessiert es eine Firma ob die Grafikkarte 1000 oder 1500€ kostet. In der Cloud sind die Strom/Klimatisierungskosten ein Vielfaches und ein Grafiker kostet so viel wie 3 Grafikkarten im Monat). Und hier kann man durch Software-Unterstützung (wie es bisher im Gaming-Bereich betrieben wird) viel mehr erreichen. Man muss nur eine Handvoll Renderer auf Cuda portieren und schon ist man quasi Monopolist.

Nvidia wird, so meine Meinung, versuchen mindestens eine Nextgen Konsole mit einem eigenen Produkt auszustatten (das bringt eine gleichmäßige Auslastung über Jahre und eine, wenn auch geringe Rendite) und den professionellen Bereich zum Kerngeschäft erklären. Die Gamer kriegen Abfallprodukte. Und wenn die Preise infolge geringer Konkurrenz hoch bleiben wird man wohl auch noch ordentliche Gaming-Grafikkarten anbieten. Aber es wird nicht mehr das Kerngeschäft sein.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben