News Fermi: Und täglich grüßt das Gerüchte-Murmeltier

Status
Für weitere Antworten geschlossen.
Ja geb ich dir Recht.
Aber jetzt listet man die Probleme auf:
  • Eyefinity
  • Tessellation
  • Yieldrate bei 40 nm
  • TDP
  • Komplexer Chip
  • Taktfrequenz
Dann hätte Nvidia so schon mit genügen Schwierigkeiten zu kämpfen, ohne von Funktionen überrascht zu werden die im Marketing von AMD für mehr aufsehen gesorgt haben, als es zunächst vermutet worden wäre ;)
Auf die ersten oberen Punkte hätten sie sicherlich verzichten können und sich lieber auf die anderen Probleme konzentriert. Vor allem da ja alles einen Einfluß untereinander hat wenn die Wärmeentwicklung zu gross wird.
 
@Tombstone
Übertreib halt nicht gleich so wenn der etwas länger am Markt ist sollts den für ca 50 Teuronen geben.
http://geizhals.at/a489848.html
Der kleine Fermi 360 wird wohl gewaltig mehr kosten als ne 5870 alles andre wär ein Wunder.
 
Zuletzt bearbeitet:
Tombstone schrieb:
Ich denke deine rechnung ist genau so aus dem klo gegriffen ^^ viel spaß beim spielen ist nur schwer dabei zu berücksichtigen wie groß die ausbeute ist...
http://mrhackerott.org/semiconductor-informatics/informatics/toolz/DPWCalculator/Input.html
Habe ich nicht ausgerechnet - Link findest du in diesem Thread.
https://www.computerbase.de/forum/threads/ati-hd5800-und-nvidia-gtx400-dx11-geruechtekueche.633836/
Das zu berechnen hab ich zu wenig Ahnung von.

Tombstone schrieb:
normalerweise 2 displays da aktuelle karten auch die HD 5870 nur 2 taktgeber besitzen für monitore... HDMI und dvi nutzt gemeinsam einen und der weitere dvi den anderen... nur display port ist unabhängig davon

oder man nimmt dieses feine teil für schlappe 120 euro
http://www.pcgameshardware.de/aid,7...r-Ati-Eyefinity-vorgestellt/Grafikkarte/News/
Und warum sollte ich nun keine 3 Displays verwenden können?
 
Complication schrieb:
Dann hätte Nvidia so schon mit genügen Schwierigkeiten zu kämpfen, ohne von Funktionen überrascht zu werden die im Marketing von AMD für mehr aufsehen gesorgt haben, als es zunächst vermutet worden wäre ;)
Auf die ersten oberen Punkte hätten sie sicherlich verzichten können und sich lieber auf die anderen Probleme konzentriert. Vor allem da ja alles einen Einfluß untereinander hat wenn die Wärmeentwicklung zu gross wird.

Wieso überrascht? Das Ati schon länger eine hardware tesselation benutzt oder integriert dürfte nv genau so bekannt gewesen sein wie uns, ganu so wie die tatsache das tesselation nun endlich von der microsoft api unterstützt wird. ich glaub deshalb nicht das sie das völlig ausser acht gelassen haben bei ihrer planung bezüglich des anklangs bei spiele entwicklern. zumal nv stets guten kontakt zu diesen pflegte bislang und auch im rahmen des TWIMTBP programms sicherlich rücksicht darauf genommen haben.

nvidia ist nicht blöd, sicher hatten sie auch schon fehlgriffe wie bei der FX serie, aber recht hatten sie trotzdem mit der relativen bedeutungslosigkeit von dx 10.1. sie haben sicherlich einiges an ressourcen gespart dadurch das sie dieses feature für eine hand voll spiele übersprungen haben. auch ihre entscheidung AGEIA zu kaufen blieb nicht ohne folgen, wer weiß ob sonst copute shaders und OpenCL den weg in die MS API gefunden hätten, um die möglichkeit zu geben physik effekte auch ohne proprietäre lösungen auf der GPU zu berechnen.

wer weiß was sie intern alles untersucht haben... vielleicht ist die nv lösung für das besagte tesselation auch die bessere? wer weiß das schon ohne das resultat gesehen zu haben. noch weiß niemand wie nv das überhaupt gelöst hat!
aufgrund von diesen spekulationen davon auszugehen das AMD zweifelos im vorteil sein wird ist für mich wunschdenken. nvidia war schon oft für überraschungen gut und meist mehr im positiven als im negativem sinne
Ergänzung ()

Complication schrieb:
Und warum sollte ich nun keine 3 Displays verwenden können?

habe ich nicht gesagt, durch den displayport "kannst" du 3 displays mit eyefinity nutzen... aber sind monitore mit displayports rar und teuer, und es sollten doch schon 3 identische displays sein oder nicht? ;)
 
Also ich habe mittlerweile mehr und mehr das Gefühl, dass Fermi eine Gurke für den Consumer Markt wird. Wenn man sich mal die technischen Daten anschaut, kann das nur in die Hose gehen. Mit 530 vs 334 mm² geht's schon los. Fermi wird wieder ein riessiger Chip, der kaum mit vernünftigen Yields zu produzieren ist, erst recht mit TSMCs aktuellen Problemen bei der 40 nm Fertigung. Das wird wieder eine sehr teure Angelegenheit für nVidia, wo AMD wieder recht aggressiv seine Preise ansetzen kann. Und so langsam gehen nVidia auch die Polster aus besseren Zeiten aus. Oder wie schaut es mit der Rechenleistung aus? Mit 1062,72 vs 1360 GFLOPS sah es für nVidia bei der letzten Generation noch einigermassen ok aus. Da konnte man dank mehr Grafikeinheiten letztendlich etwas mehr Performance erreichen. Nimmt man aber die aktuellen Daten, sind es in Zukunft wohl 1254,4 vs 2720 GFLOPS. Das ist einfach ein gigantischer Unterschied, den man eigentlich nicht kompensieren kann. Dazu noch eine TDP von 225 W, in der Praxis vermutlich irgendwas um die 200 W. Was 33% mehr als bei der Konkurrenz wären. Dh, eine GTX 380 müsste mehr als 30% schneller sein als eine HD 5870, um ähnlich energieeffizient zu sein. Kann ich mir ebenfalls nicht wirklich vorstellen.
Der grosse Hammer kommt aber erst noch. Während nVidia zu tun haben wird, Fermi basierte Karten 2010 überhaupt in ausreichender Stückzahl auf den Markt zu bringen, kommt ATI 1H 2011 mit einer nagelneuen Architektur. Und dass diese deutlich schneller und effizienter als die aktuelle Architektur werden wird, sollte klar sein.
 
Tombstone schrieb:
Wieso überrascht? Das Ati schon länger eine hardware tesselation benutzt oder integriert dürfte nv genau so bekannt gewesen sein wie uns, ganu so wie die tatsache das tesselation nun endlich von der microsoft api unterstützt wird. ich glaub deshalb nicht das sie das völlig ausser acht gelassen haben bei ihrer planung bezüglich des anklangs bei spiele entwicklern. zumal nv stets guten kontakt zu diesen pflegte bislang und auch im rahmen des TWIMTBP programms sicherlich rücksicht darauf genommen haben.

Vielleicht wurde Tesselation so lange negiert weil nVidia ja auch so guten Kontakt "hatte"!? In der Xbox360 ist T. schon lange am Werk (ATI chip), da fragt man sich schon...

Tombstone schrieb:
nvidia ist nicht blöd, sicher hatten sie auch schon fehlgriffe wie bei der FX serie, aber recht hatten sie trotzdem mit der relativen bedeutungslosigkeit von dx 10.1. sie haben sicherlich einiges an ressourcen gespart dadurch das sie dieses feature für eine hand voll spiele übersprungen haben.

DX10.1 hätte schon richtig Sinn gemacht, was ja auch Assassins Creed gleich mal gezeigt hätte. Warum wurde es wohl nicht breit verwendet? Auch weil nVidia die Entwicklung absichtlich gebremst bzw. erfolgreich verhindert hat. Wer die Geschichte seit 3DFX mitverfolgt hat wird auch bemerkt haben, dass diese Vorgehensweise von NV schon oft zu gepflegt wurde und immer wieder große Teile der Spielergemeinden ausgeschlossen hat, egal ob Konkurrenzkarten von 3dfx, powerVR, s3, matrox oder ati gekommen sind.

Hier nochmal bezüglich der Relevanz von dem .1 Update zu DX10:
http://www.theinquirer.net/inquirer/news/1009848/why-dx10-matters
http://www.elitebastards.com/?option=com_content&task=view&id=103&Itemid=29
http://www.elitebastards.com/index.php?option=com_content&task=view&id=103&Itemid=29&limitstart=2
http://www.extremetech.com/article2/0,1558,2168429,00.asp?kc=ETRSS02129TX1K0000532

Auch MS hat DX10.1 als sehr wichtiges Update eingestuft, komisch, dass es dann nicht sinnvollerweise genutzt wurde. Da wird wohl jemand Druck gemacht haben. Nochmal das Paradebeispiel wo diese geschmacklose Vorgehensweise (versehentlich) aufgedeckt wurde -> Assassins Creed (1)

Tombstone schrieb:
habe ich nicht gesagt, durch den displayport "kannst" du 3 displays mit eyefinity nutzen... aber sind monitore mit displayports rar und teuer, und es sollten doch schon 3 identische displays sein oder nicht? ;)

Ach wie schön man doch alles färben kann. Monitore mit Display Port sind mittlerweile weder rar noch besonders teuer und wenn kommt es auch nur davon, dass die Schnittstelle so neu ist und dementsprechend aktuelle Produkte noch einen höheren Preis haben. Übrigens ist es bei Office Anwendungen meistens ziemlich schnurz ob es gleiche Monitore sind, aber diese Diskussion wäre wohl bodenlos. Ein gutes Feature lässt sich nicht so einfach schlecht reden.

gruffi schrieb:
Der grosse Hammer kommt aber erst noch. Während nVidia zu tun haben wird, Fermi basierte Karten 2010 überhaupt in ausreichender Stückzahl auf den Markt zu bringen, kommt ATI 1H 2011 mit einer nagelneuen Architektur. Und dass diese deutlich schneller und effizienter als die aktuelle Architektur werden wird, sollte klar sein.

Naja, das hast du jetzt aber auch etwas ATI zentriert formuliert. nVidia hat sicher auch dem Plan deutlich schnellere und effizientere Chips zu fertigen, dass dabei der Fermi rausgekommen ist, wissen wir ja nun aber wie das Resultat aussieht noch nicht wirklich, außer dass er wohl groß wird ;-)
Mal sehen was bei AMD/ATI nun bei der neuen Architektur rauskommt. Der Ausgangspunkt der aktuellen R5XXX Serie ist aber mit Sicherheit ein günstigerer als es der GT200b bei nv war. Auch wenn die Chips eine neue Architektur haben werden, spielt die vorgelegte Basis der Vorgänger doch immer wieder eine nennenswerte Rolle.
 
Zuletzt bearbeitet:
@Gruffi
Wenn man das alles so verfolgt drängt sich einem das fast auf.
Aber vielleicht geschehen ja noch Wunder. Zumindest glauben ja einige das eins kommt.:D
 
Tombstone schrieb:
aufgrund von diesen spekulationen davon auszugehen das AMD zweifelos im vorteil sein wird ist für mich wunschdenken. nvidia war schon oft für überraschungen gut und meist mehr im positiven als im negativem sinne
Ich gehe von Problemen aus, da Nvidia im September einen Release angekündigt hat und nun immer weiter verschiebt und auf Zeit spielt. Also mit irgend etwas müssen sie ja Probleme habe. Die 40 nm Fertigung alleine kann es nciht sein, da ja AMD auch ausliefert. mir wäre auch lieber gewesen sie wären schon raus gekommen. Das wäre für uns alle besser gewesen da mehr Auswahl immmer der Vorteil des Kunden ist.
Tombstone schrieb:
Ergänzung ()

habe ich nicht gesagt, durch den displayport "kannst" du 3 displays mit eyefinity nutzen... aber sind monitore mit displayports rar und teuer, und es sollten doch schon 3 identische displays sein oder nicht? ;)
Überhaupt nicht - Derzeit habe ich zu Hause einen 22" und einen 17" - da kommt ein 24" dazu für den Displayport. Wenn ich Zocke verwende ich nur 1 Bildschirm und beim Arbeiten eben alle 3. Der 17" hat immer Outlook offen, dafür reicht er vollkommen um meine Termine und Emails im Blick zu behalten ujnd es trotzdem aus dem Weg zu haben.

Im Büro kommt ein 22" Displayport zu den vorhandenen zwei 17" TFTs dazu. Früher musst man immer die Bildschirme entsorgen und heute kann man sie wunderbar produktiv einsetzen.
 
Complication schrieb:
Ich gehe von Problemen aus, da Nvidia im September einen Release angekündigt hat und nun immer weiter verschiebt und auf Zeit spielt. Also mit irgend etwas müssen sie ja Probleme habe. Die 40 nm Fertigung alleine kann es nciht sein, da ja AMD auch ausliefert. mir wäre auch lieber gewesen sie wären schon raus gekommen. Das wäre für uns alle besser gewesen da mehr Auswahl immmer der Vorteil des Kunden ist.

Nun ja während AMD nicht viel ändern musste beim entwurf des RV870 hat nv sich wohl einiges mehr an arbeit aufgehalst, da wundert es mich nicht das sie auch länger brauchen. AMD hat wohl nicht ohne grund die gunst der stunde genutzt. zumal sie durch diesen zeitvorteil nun eigentlich einen riesen vorteil hätten wenn TSMC auch so viel liefern könnte wie der markt es wünscht. so langsam scheint die verfügbarkeit ja zu steigen, das könnte aber genau so daran liegen das nun die verkaufszahlen in der nachweihnachtszeit wieder etwas sinken und muss nicht zwingend bedeuten das die ausbeute sich stark verbessert hat.

wenn nvidia dann bei einer gereiften fertigung das gleiche macht wie amd jetzt mit dem RV870 könnte der zeitvorteil wiederum dahin schmelzen. das wird sich halt zeigen wie gut amd der start von northern island gelingen wird.

Motkachler schrieb:
@Gruffi
Wenn man das alles so verfolgt drängt sich einem das fast auf.
Aber vielleicht geschehen ja noch Wunder. Zumindest glauben ja einige das eins kommt.

Wenns nicht so sein wird ist es auch kein beinbruch. Umentscheiden kann man sich immer noch. Ich fühle mich jedoch durchaus behaglicher wenn ich "nicht" jetzt schon das geld für eine radeon ausgebe wenn sich später heraus stellen würde es war ein fehler. Muss ja jeder für sich selbst wissen wann er bereit ist aufzurüsten. Insofern kann es für euch nur von vorteil sein wenn nv sich verspätet. dann habt ihr länger freude an eurer radeon... und dennoch bleibt auch euch die ungewissheit ob nvidia denn wirklich die karre in den dreck fährt oder nicht. das zeigt mir nämlich die tatsache das sich eben sehr viele AMD käufer derzeit eher mit dem gedanken anfreunden können das fermi floppt als das er eine granate wird.

wenn der optimismus vieler nv anhänger deshalb für dich eine art wunderprophezeihung ist. dann hoffe ich für dich das du recht behälst. ich denke nämlich das du einer von denen sein wirst die sich in jedem fall ärgern werden. wenn du recht behälst muss ich mich jedoch nicht ärgern, freue mich nur etwas später darüber ;)
 
Dignitas schrieb:
wer braucht denn bitte nen 32-faches Anti-Aliasing, mann erkennt kaum nen Unterschied zwischen 8 fachen und 16 fachen, kostet sicher nur Performance:rolleyes:

Auf einem 17" tft hättest du vielleicht recht... aber bei 26" ist es ein Unterschied ob es GLATT oder ECHTGLATT ist.

geomix schrieb:
Kaum ein Gamer wird solch eine GPU kaufen.

Bis auf wenige Freaks reicht nahezu jedem eine 5870 aus.

Ich glaube kaum dass sich der Fermi für Nvidia lohnt, aber hoffen wird das beste, damit ATI nicht das Monopol bekommt.

mfg

AMDATI Monopol? Omg.... 4 Freds zurück heulen hunderte Leute das es AMD so schlecht geht und jeder bangt um die deutschen Werke. Nun sprechen die "Experten" hier von einer Monopolstellung durch einen verfrühten Paperlaunch.

Sm0K3Y schrieb:
Klar ist die Karte was für Gamer! Ich werde mir eine Fermi holen sobald die verfügbar sind.
Ist halt für Leute, die Games auf Max. Details zocken wollen.

Exakt. Genau so muss man es ausdrücken!

xtreme80 schrieb:
@BennyHH:

Ich hatte damals noch meine 8800 GTS 512 bei ebay für 120€ verkauft und für 150€ die GTX260 (216) gekauft.
Die GTX260 schafft bis jetzt so ziemlich alles in max Details.

Bezweifel ich diese Aussage. Hab meine GTX260 an jemand verkauft nachdem ich sie 2 Monate hate und hab eine GTX295 gekauft. Jetzt weiß ich erst was MAX DETAILS so alles sein kann, sofern man nicht grad ältere Spiele spielt!




Ich freu mich nach wie vor auf die FERMI Karten, auch wenn es erst am 7. Januar neue Details gibt, die nicht irgendwo ersponnen wurden.
 
Tombstone schrieb:
Ich denke deine rechnung ist genau so aus dem klo gegriffen ^^ viel spaß beim spielen ist nur schwer dabei zu berücksichtigen wie groß die ausbeute ist...
http://mrhackerott.org/semiconductor-informatics/informatics/toolz/DPWCalculator/Input.html

Schön, sicher kommen rein rechnerisch aus nem Wafer mehr Chips, da TSMC aber im Moment eine Ausbeute von ~40% hat kann man auf alle tollen Werte, die jedes Rechentool ausspuckt im Moment pfeifen.
 
buntstift23 schrieb:
AMDATI Monopol? Omg.... 4 Freds zurück heulen hunderte Leute das es AMD so schlecht geht und jeder bangt um die deutschen Werke. Nun sprechen die "Experten" hier von einer Monopolstellung durch einen verfrühten Paperlaunch.

Da gehts doch nicht um die Marktstellung sonden darum, dass sich der eine oder andere nun Sorgen macht, dass nVidia den Game-Sektor auf dem PC nicht mehr den gleichen Stellenwert einräumt und sich mehr auf andere Sparten konzentriert (Konsolen, GPU-Computing, Mobile Geräte - Tegra Plattform etc.) und ATI den dominateren Part überlässt, weil nicht genug Kohle in dem Geschäft ist.
Das wäre zweifellos für uns alle schlecht -> Langsamere Entwicklung der Hardware, höhere Preise, PC verliert weiter an Stellenwert bei Spielen usw.
 
Wens interessiert: Bei nem 300mm wafer passen 177 Cypress drauf (18x18 Kantenlänge ca.)

Beim fermi sinds dann 113 (22x22 Kantenlänge= 484mm² mal positiv angenommen)

Kommt noch die yield dazu. Die skaliert llinear, d.h. bei doppelter Chipgröße kommt die halbe yield raus. (wobie ab ner bstimmten Chipgröße gra nix mehr rauskommt, aber da simmer weit weg von)

angenommen der Cypress hat 50% yield (was verdammt wenig wäre, da man ja daraus die 5850 ebenfalls herstellt, die aber ja die kaputten Shader deaktiviert bekommt)

--> Macht für Cypress (5850+5870) 88 funktionierende Chips pro Wafer.

=70$ pro Cypress GPU ca. (6000$ pro Wafer)

Bei Fermi hätten wir nur noch yield von 33% (0,5 yield x 0,67 größerer Die, bitte korrigiert mich wenn ichs falsch überlegt hab ;))

Macht bei nur 113 Chips noch eine Ausbeute von 37 Chips (Salvage parts wieder mit drin, also "GTX380" und "GTX 360")

Also weniger als die Hälfte auf einmal. Oder 162$ pro funktionierender GPU. (Nur der Chip, ohne PCB, Kühler usw.!)


ATI hat also prinzipiell schon mal einen Vorteil von fast 100$, den sie entweder in einen Preiskampf investieren können (also Graka 100$ günstiger anbieten ohne Verlust) oder eben 100$ mehr Gewinn pro verkaufter Karte.

Dann kommen noch vermutlich ein komplexeres PCB (mehr Layer wegen 384bit SI) und eine aufwändigere Kühlung dazu (TDP höher).

--------------------------------------------------------------------------------------------------------------


Abseits davon: Es wird immer davon gesprochen das der FERMI gegen Ende Q1 startet, aber von Geforce hat noch keiner was gesagt. Das bedeutet automatisch, solange die yields so im A**** sind wie jetzt, wird auch keine Geforce starten (können).

Irgendwo hab ich was von Q2 gelesen, kann natürlich wieder heißen von April bis Juni...


Tombstone schrieb:
so langsam scheint die verfügbarkeit ja zu steigen, das könnte aber genau so daran liegen das nun die verkaufszahlen in der nachweihnachtszeit wieder etwas sinken und muss nicht zwingend bedeuten das die ausbeute sich stark verbessert hat.


Das liegt definitv an der Ausbeute. TSMC hat endlich den Fehler abgestellt, der für mehrere monate für eine verringerte yield gesorgt hat, 2. ist mittlerweile die zweite Produktionslinie am laufen, die ebenfalls 40nm ausspuckt und deren Erzeugnisse mittlerweile bei uns aufgeschlagen sind.

TSMC hatte im Juli ca. 6000 40nm Wafer, im Dezember wollten sie bei 20000 sein.

Macht bei 1000 Wafer für Cypress (mal angenommen) und obiger Rechnung 88000 Cypress pro Monat.

Ist offensichtlich eher zu wenig, denn 300000 haben sie ja in 3 monaten schon losbekommen.
 
Zuletzt bearbeitet:
@ KAOZNAKE

Wer spricht denn davon das es eine Geforce300 Reihe geben wird? MArkenzeichen GTX oder GT ....
 
Kaoznake hatts ganz gut getroffen.
Gruffi schrieb:
Der grosse Hammer kommt aber erst noch. Während nVidia zu tun haben wird, Fermi basierte Karten 2010 überhaupt in ausreichender Stückzahl auf den Markt zu bringen, kommt ATI 1H 2011 mit einer nagelneuen Architektur. Und dass diese deutlich schneller und effizienter als die aktuelle Architektur werden wird, sollte klar sein.
Meinst du nicht du übertreibst etwas?. Erstens hat TSMC damit zu tun (Yield) und nicht Nvidia.
2.Wird Nvidia auch nicht doof sein und dumm rumsitzen und warten bis TSMC in die Gänge kommt. Für Shaderkürzungen und vll noch Treiber verbessern wird Nvidia wohl nicht die ganze Kapazität ihres Unternehmens aufbrauchen.
3.Und warum sollte die neue Architektur bei ATI effizienter und deutlich schneller werden. Was ist denn da bitte so klar? Man weiß doch gar nichts. Klar die Zeichen stehen derzeit klar für ATI, das kann sich aber auch schnell wieder ändern.
Sollte Nvidia aber nicht davon wegkommen immer größere Chips zu produzieren wirds ein Problem.

KAOZNAKE schrieb:
Abseits davon: Es wird immer davon gesprochen das der FERMI gegen Ende Q1 startet, aber von Geforce hat noch keiner was gesagt.
Eben. Soviel ich mich Erinnere stand in der C´T, dass ein Nvidia Mitarbeiter die GPGPU Karten für März angekündigt hat. Von "Gamer"Karten war eigentlich nicht die Rede. Soll ja nicht aussagen, dass die GPGPU Karten nicht erfolgreich sein würden. Bei den Margen wird sichs schon lohnen.
 
Zuletzt bearbeitet:
@ KAOZNAKE

Sehr geiler Beitrag! Da würde ich gerne Sternchen dafür vergeben, da ich mich schon oft gefragt habe wie diese ganze Fakten zusammenhängen und wie man sich die Verhältnisse bei unterschiedlichen Chipgrößen und Yield-Raten vorstellen kann. Danke!
 
Ich befürchte die Rechnung geht aber nicht auf.

Eine Firma zahlt ja nicht mehr für seine Ware nur weil der Hersteller davon mehr als die hälfte wegschmeißen muss.
 
@KAOZNAKE: kann es sein, dass du den randbereich vorher nicht rausgerechnet hast? da die waver rund sind, fallen die chips im randbereich zwangsläufig auch weg, und das ist bei größeren chips fataler als bei kleinen. somit dürfte die differenz noch ne ecke größer ausfallen.

das erklärt natürlich, warum nvidia nur mäßiges interesse daran hat, den fermi auch für den spielermarkt zu bringen. gegen den "billigen" rv870 sind die fermi preislich einfach uninteressant. da müsste schon eine massive mehrleistung kommen, was ich aber bezweifle. ati kann nach belieben den markt dominieren und macht selbst bei einer preisschlacht noch dicke gewinne, wenn nvidia schon auf 0 kalkuliert.

ich mutmaße mal, dass die entwicklung des gf100 schon zu g80 zeiten lief (g80 wurde 8 jahre lang entwickelt) und das konzept des monsterchips schon festgelegt war, bevor amd mit der hd4k eine neue marktstrategie eingeführt hat. jedenfalls sehe ich unter den bisher vermuteten aspekten keinen wirklichen sinn in einem fermi für den konsumermarkt. als "ultra" für den highend-bereich (>500 €) ok, aber darunter braucht es schon was anderes, um noch ein wörtchen bei der verteilung der marktanteile mitreden zu können.

mich würds nichtmal wundern, wenn nvidia den release absichtlich verschleppt, um mit dem fermi zwar die werbetrommel zu rühren aber trotzdem nicht das (verlust-?) geschäft damit zu machen...
 
So läufts aber ;) @buntstift123

Sonst könnte man ja 1 Million Wafer ordern wo nur 1 funktionsfähiger Chip rauskommt (selbst wenn sagen wir mal 50 aufm wafer drauf wären)

das wär der Ruin für Auftragsfertiger.

Nee, nee. Da muss jeder selber sehen, das er soviel wie möglich aus seinem invesiterten Kapital holt, d.h. man muss die Chip so gestalten, das die yield möglichst hoch ist.

Das geht natürlich umso besser, je kleiner der Chip ist.

Was meinst du eigentlich mit Markenzeichen GTX oder GT? Geforce ist die consumer-Variante der NvIDIA GPUs, Tesla die der Profi-GPUs. und bis jetzt hieß es immer nur "Fermi" und "Tesla", von GTX oder Geforce hat noch keiner ein Wort verloren!

@Lübke: nee, das geht mit dem hübschen rechner hier:

Fermi


Cypress

Auf "Die centered wafermap" klicken

Brauchst bloß cie ca. Chipgröße, daraus die Kantenlänge (GPUs sind ja meistens quadratisch) und fertisch ;)

Meine rechnung ist trotzdem bloß milchmädchen, da keiner die Cypress yield kennt.

Aber so als Bsp, das man sieht wo die Graka-preise herkommen.

Entwicklung usw. will ja auch finanziert werden.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben