ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

können wir uns einfach darauf einigen, dass nvidia die chips entwickelt und tsmc sie produziert?
wer jetzt am problematischen 40nm-prozess "schuld" ist, können wir hier eh nicht beurteilen.
fakt ist nur, dass das verfahren, das für den cypress verwendet wird, zwar deutlich besser, aber immernoch alles andere als gut läuft. g216/g218 lassen sich übrigends auch in 40nm fertigen. allerdings ist keiner der genannten gpus ansatzweise so komplex wie der fermi.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Nvidia does not understand the basics of modern semiconductor design, and is architecting its chips based on ego, not science

Ich glaube diese Aussage von Charly ist sehr gewagt. Nvidia zu unterstellen, sie hätten keine Ahnung vom Chipdesign, naja, wie schon oben gesagt: Denke jeder was er will :D

Langsam mache ich mir aber ernsthafte Sorgen, wenn Nvidia schon selbst nur von 448 SPs spricht :freak:
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Screemer schrieb:
weder fange ich streit an, noch bin ich der führsprecher von irgendwem, also halt dich mal ein bisschen zurück.

Sieht aber so aus und das kannst selbst du nicht schön reden ! :mad:
Wenn du dich mal etwas zurückhalten würdest wäre es hier wohl deutlich ruhiger !!

tschuldigung, aber aus dem satz raußzulesen, dass nvidia selber produziert, scheint schon fast an gewollte begriffststutzigkeit zu grenzen.

"NV muss erstmal zeigen, dass sie den fetteren chip in groesseren mengen fertigen koennen"

Manche Leute denken eben so und schreiben es dann auch so nieder !
Dieser Satz sollte nur ein Geflame sein und du befürwortest es noch. :rolleyes:
Das grenzt deinerseits schon an absichtlicher Sinnverdrehung.

Jetzt ist aber Schluß !
Wenn du Probleme hast dann biete ich dir an sie mit mir per PN zu lösen.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

ja, sie haben sich mit 512 shadern und 3 milliarden transistoren in einer völlig neuen architektur viel vorgenommen. vllt zu viel auf einmal. könnte mir vorstellen, dass die 512er version dann später als gtx385 kommt, wenn das verfahren endlich ausgereift ist und die yields stimmen...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Noch wurde nichts released, ich hab die Hoffnung noch nicht aufgegben :D
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Pickebuh schrieb:
"NV muss erstmal zeigen, dass sie den fetteren chip in groesseren mengen fertigen koennen"

Manche Leute denken eben so und schreiben es dann auch so nieder !
Dieser Satz sollte nur ein Geflame sein und du befürwortest es noch. :rolleyes:
Das grenzt deinerseits schon an absichtlicher Sinnverdrehung.

wie zum geier kann man diesen satz so in seine einzellteile zerlegen, dass man ihn missversteht:

NV muss erstmal zeigen, dass sie den fetteren chip in groesseren mengen fertigen koennen, als ATI einen weniger komplexen - und das beim selben hersteller...
das ist ein satz. zu wiederholung ein satz. die wichtigen bestandteile hab ich dir mal markiert. der satz ist wie er da steht völlig richtig und hat nichts mit geflame zu tun. nvidia muss erst mal beweisen dieses monster in 40nm ordentlich ans laufen zu bekommen und dann auch erst mal auf die stückzahlen von ati/amd kommen. wo ist denn bitte dein problem.

Jetzt ist aber Schluß !
hoffentlich.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Also ich sehe das unterdessen relativ simpel. Entweder nV hat noch was grosses in der Hinterhand oder Fermi wird deutlich unter den Erwartungen liegen.

Unabhängig davon wer wie oder was Schuld hat, Fakt ist nV hat ein A2 Stepping gemacht und soll ja im Moment am A3 sein. D.h. das ganze wird sich hinziehen. Wenn alles gut geht haben wir im Januar 2010 einige Testsamples. Sollte es aber stimmen, das nciht mal die Boardpartner ein Referenzdesign haben, dürfte wohl auch der Termin optimistisch sein.
Doch was ist nachher? Wenn alle Boardpartner ihre Samples haben, kommen die Medien dran und dann werden erst Karten für den Konsumenten hergestellt.

Von Cypress wissen wir der 40nm Prozess läuft schlecht und nVs grösserer Chip verbessert die Lage kaum. Also werden sie selbst wenn alle Fermis voll brauchbar sind eine Weile brauchen um eine ordentliche Zahl High-End GPUs zu haben. Evtl. sind übrigens die 448SP Tespla Karten auch ein Zeichen, dass man 512er Karten für Gamer sparen will. Auf dem GPGPU Gebiet kann man sich eher noch etwas Zeit lassen mit dem High-End Modell als beim Consumer-Markt. Unabhängig davon dürfte Fermi also erst sehr spät voll verfügbar sein und ATI könnte durchaus bereits eine HD5890 bereit halten (wie nV damals die 9800GTX+)

Ergo siehts schlecht aus für nV und genau hier kommt der Punkt wo ich mich das Selbe frage wie Lübke. Weiso konzentriert nV 100% ihrer Kraft darauf um mit biegen und brechen einen High-End Chip zu bringen.
Klar ist es üblich diesen zuerst zu launchen, aber wenn nVs Aussagen bzgl. Fermis "Bausatz"-Struktur stimmt hätte es ein leichtes sein sollen eine abgespeckte Version zu bringen. Lauffähig sind Fermi GPUs ja offenbar schon länger. (unabhängig von Taktfreudigkeit, Temperatur etc.)
320SP, 500MHz Chiptakt und 1200 Shadertakt und man wäre bereits an der GTX285 vorbei gewesen. Dazu noch ein paar kleine OEM Billigchips für Fertig-PCs zu Weihnachten (damit DX11 draufstehen kann) und schon hätte man a.) ATI Marktanteil abgegraben, b.) selber Geld gemacht und c.) den Fertigungsprozess vorangetrieben.

Da drängt sich mir auf, dass Fermi evtl. doch nicht so leicht skalierbar ist?! Um de "Ruf" kann es dabei nämlich kaum gehen, denn keine Karte ist nie besser als eine nicht ganz so schnelle (besonders be ider miesen Verfügbarkeit der GTX285), abgesehen davon wildern ja die OEM 300er Karten herum und die sind sicher auch nicht schneller resp. ruffördernder...

Ich bin sehr gespannt was uns nV abliefern wird. Meine Erwartungen liegen immer noch im A3 Stepping begraben, das haben sie sicher nicht grundlos gemacht. Evtl. sind damit tatsächlich nochmals deutlich bessere Taktraten drin. (für 50Mhz mehr Takt hätte man kaum eine erneute Verzögerung in Kauf genommen)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

unter den erwartungen liegt nvidia sicher, denn die erwartungen sehen im fermi nicht weniger als eine zweite 8800gtx ;) die sind völlig überzogen und enttäuschungen imho daher vorprogrammiert.

ich könnte mir als grund für das a3-stepping auch eine höhere ausbeute vorstellen. vllt hat man die gpu nur vereinfacht und büßt lieber etwas leistung ein und erreicht stattdessen erträgliche yieldraten.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Lübke schrieb:
ich könnte mir als grund für das a3-stepping auch eine höhere ausbeute vorstellen. vllt hat man die gpu nur vereinfacht und büßt lieber etwas leistung ein und erreicht stattdessen erträgliche yieldraten.

Das habe ich mir auch schon überlget, aber würde das dann noch A3 heissen?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

DerToast schrieb:
Da drängt sich mir auf, dass Fermi evtl. doch nicht so leicht skalierbar ist?! Um de "Ruf" kann es dabei nämlich kaum gehen, denn keine Karte ist nie besser als eine nicht ganz so schnelle (besonders be ider miesen Verfügbarkeit der GTX285), abgesehen davon wildern ja die OEM 300er Karten herum und die sind sicher auch nicht schneller resp. ruffördernder...
genau zu dem thema gabs ne längere diskussion im 3dcenter forum und ich für meinen teil kam zu dem schluss, dass nvidia mit der skalierung ihrer chips von high->low architekturbedingt wesentlich mehr probleme hat als ati/amd. außerdem scheinen sie eine andere strategische ausrichtung zu haben. dürft in folgendem thread so ab seite 350 sein, vielleicht etwas später: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170&page=352
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Screemer schrieb:
ich will ja nicht behaupten, dass tsmc ihren 40nm prozess im griff hat, aber das mit steigender chipgröße und komplexität auch die yield sinkt dürfte logisch sein. da fährt ati mit ihren weniger komplexen und kleineren chips die weit sicherere schiene.
Gut, denn dann hättest du noch mehr von Ailuros kopieren können, wenn du Licht ins Dunkel bringen wolltest:

Nur wo sind die guten/brauchbaren 40G yields die ich nicht sehen kann? Nochmal nach Angaben sollen die A2 yields zwischen 4 und 43% geschwankt haben
...
NVIDIA machte sich um einige Zeit Gedanken GT200@65nm zu veroeffentlichen und dabei bei 60% yields, welches der niedrigste yield je fuer NV war.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7725173&postcount=6970

Ich finde es dabei erstaunlich, das AMD ihr 2,2Mrd Transistormonster trotz dieser Umstände Cypress gestartet hat.
AMD hatte weder mehr Erfahrung, noch fährt TSMC für AMD einen vollkommen anderen 40g Prozess. Die 40g Yields sind faktisch scheisse, bekannterweise waren sie zu Zeiten des kleinen RV740 ebenfalls scheisse. Das einzige was gut ist, ist die große Kapazität bei TSMC.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Unyu schrieb:
Ich finde es dabei erstaunlich, das AMD ihr 2,2Mrd Transistormonster trotz dieser Umstände Cypress gestartet hat.
AMD hatte weder mehr Erfahrung, noch fährt TSMC für AMD einen vollkommen anderen 40g Prozess. Die 40g Yields sind faktisch scheisse, bekannterweise waren sie zu Zeiten des kleinen RV740 ebenfalls scheisse. Das einzige was gut ist, ist die große Kapazität bei TSMC.
Aber AMD erhält aus jedem Wafer wohl mehr als doppelt so viele Dies allein wegen der Unterschiedliche Grösse der Fläche. Da trifft jedes % schlechteren Yields doppelt in Nvidias Geldbeutel.
http://www.semiaccurate.com/forums/showpost.php?p=16046&postcount=46
*edit: at the same surface defect density it looks like nVidia will get 40 good Fermi dies versus AMD getting 84 good Cypress dies. Ouch.
Damit ist das finanzielle Risiko geringer und auch die Produktionskosten selber für eine GPU - welchen Preis will Nvidia denn für die Teile verlangen?

Ich weiss allerdings nicht ob diese Rechnung korrekt ist - kann das jemand bestätigen?
ich kann mich mit Wafer/yield/Die Rechnungen zu wenig aus :(
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die Rechnung stammt von ail - und der kann das *g*
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

dass ist heftig!
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:
Ich weiss allerdings nicht ob diese Rechnung korrekt ist - kann das jemand bestätigen?
ich kann mich mit Wafer/yield/Die Rechnungen zu wenig aus :(

Ein Wafer ist ca. 300mm im Durchmesser. Daraus lässt sich die Fläche für eine mögliche Anzahl der GPUs bestimmen.
Bei ATIs 334 mm² pro GPU ergibt das runde 211 GPUs +/- Verschnitt.
Bei 40% Ausbeute erreicht man dadurch ca. 84 Exemplare pro Wafer.

Bei NV weiß man nicht genau wie groß die GPUs sind. Man geht von 500 mm² aus.
Wenn nur 40 GPUs pro Wafer brauchbar sind dann ist die Ausbeute bei etwa 28%.

Das ist wohl deutlich zu wenig um mit der Produktion zu starten.
Ich vermute mal das dies der eigentliche Grund ist warum NV ihren Start des Fermis immer weiter nach Hinten verlagert.
Wenn TSMC es schaffen würde den Fertigungsprozess in den Griff zu bekommen dann würde vermutlich der Fermi schon im Handel verfügbar sein.
Denn selbst bei ATIs 40% Ausbeute ist die Lieferbarkeit eher mangelhaft.
Zwischen 60-70% sollten es daher schon werden aber das dauert bei TSMC wohl noch etwas...
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:
Aber AMD erhält aus jedem Wafer wohl mehr als doppelt so viele Dies allein wegen der Unterschiedliche Grösse der Fläche.
Doppelt so viel als?
Geh doch mal auf die Aussage ein, das die Yield kaum tragbar ist für AMDs komplexen Cypress.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich denke mal, das der Yield nicht mehr bei 40% rumgurkt.50 bis 60% solltens mittlerweile wieder sein, nachdem der Yield ja leider von 60 auf 40% gefallen ist, ist aber eben auch schon lange her.
Jedenfalls hat TSMC diese Verbesserung für ende Dezember..anfang Januar angekündigt.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Pickebuh schrieb:
Bei NV weiß man nicht genau wie groß die GPUs sind. Man geht von 500 mm² aus.
Wenn nur 40 GPUs pro Wafer brauchbar sind dann ist die Ausbeute bei etwa 28%.

Wenn Nvidia damit nur den Profibereich bedient und die Gamer ignoriert, sollten sie doch noch einen ordentlichen Schnitt damit machen koennen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Eben @ great Evil und nichtmal das geschieht jetzt. Von daher denke ich dass der Yield noch schlechter ist.
Ein nvidia Mitarbeiter hat die GPGPU Karten für März angekündigt. (CT)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben