ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Unyu schrieb:
Doppelt so viel als?
Geh doch mal auf die Aussage ein, das die Yield kaum tragbar ist für AMDs komplexen Cypress.
Na doppelt so viel als Säcke Reis in China :freak:
Was für ne Frage ist das denn? Ich habe doch konkrete Zahlen in meinem Posting hingeschrieben und einen Link. Muss ich jetzt hier schon wie ein Politiker darauf achten meine Sätze so zu gestalten, dass man mich nicht aus dem Zusammenhang zitieren kann?
Auf was für eine Aussage soll ich denn eingehen von der ich gar keine Kenntnis habe? Willst du mir damit erklären die Cypress GPU ist so komplex dass sie sich bei 40% Yield nicht trägt? Im September waren es ja sogar nur 20-30%.
Wenn dem so ist, wie soll sich dann der Fermi tragen? Der hat den einen oder anderen Transistor mehr und man hat was von 2% Yield gelesen im A2 Stepping.

So langsam wird mir klar warum Nvidia vom Desktopmarkt plötzlich nichts mehr hält und dort keine Zukunft sieht - 2.500,- $, was ja eine Tesla ca. kosten soll, legen wohl die wenigsten für ne Grafikkarte auf den Tisch. Mit den Teslas verdient Nvidia wohl bei weitem weniger als ich bisher angenommen hatte.

Im Prinzip bedeutet dies doch
If you put in the numbers and assume a 50% yield for Cypress, then Yield Fermi = 0.5^(530/334) = 33.3%
Dass wenn in der selben Fertigung identische Ausschussraten für beide Unternehmen herrschen, dann hat AMD 50% Materialverlust und Nvidia 66% Materialverlust ->
Aus dem funktionierenden Material kann AMD noch 84 GPUs bauen um seine Kosten und Gewinne zu realisieren, während Nvidia die Kosten und Gewinne mit lediglich 40 Einheiten im Handel kompensieren muss. Ich würde mal sagen, dass hier irgendjemand Mist gebaut hat als er die Kostenrechnung gemacht hat. Das Problem mit Yieldraten ist ja ein Risiko das in der Chipfertigung gut bekannt ist.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Cypress ist kein kleiner RV740 oder gar GT21x.
Entweder jemand verrät die tatsächliche Yield oder die Sache bleibt offen, Zahlen zwischen 0 und 60 raten ist nicht gerade sinnvoll.

Wie angemerkt sind für Nvidia 60% zum Start bereits abartig wenig, egal welche Zahl zwischen 0 und 60 geraten wird, sie wird nicht größer als rekordmäßig klein sein.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich hatte in einem Artikel gelesen, dass der Fermi zwar mehr Transistoren habe aber der Die deshalb so gross sei, um den Transistoren mehr "Luft" zu verschaffen. Damit will man wohl eine geringere Hitzeentwicklung (TDP) aber auch eine bessere Yieldrate erreichen.

Wenn man nachrechnet kommt das auch hin:
GT200b (55nm) 1,4 Mrd. Transistoren 470mm² Die = ca. 2,9 Mio Transitoren/mm²
HD5870 (40 nm) 2,154 Mrd Transistoren 334 mm² Die = ca. 6,44 Mio Transitoren/mm²
Spekulativ: Fermi (40 nm) 3 Mrd Transistoren 530 mm² Die = 5,66 Mio Transistoren/mm²

In jedem Fall kann man davon ausgehen, dass völlig unterschiedliche Wafer verwendet werden, das sie eine andere Dichte haben. Damit kann jeder auch unterschiedliche Yieldraten haben und sind nicht übertragbar. Nvidia ist mit Sicherheit auf bessere Yields angewisen, doch da die Transistoren nicht so dicht gepackt sind könnten sie das auch erreichen.

Wenn man sich jetzt mal die letzten launches der kleinen 40 nm Karten anschaut, dann sieht man dass lediglich die GT215 eine Dichte bei ca. 5 Mio Transistoren /mm² hat. Soweit ich weis war das der neueste Launch. Das wird wohl der Wafer-Test gewesen sein?

Als ich nun auf der Suche nach einem zusammenhang zwischen GT215 und fermi gegangen bin stiess ich auch gleich darauf:
@Nvidias Fermi:
Mit dem heutigen GT215 läßt sich leicht ableiten, dass von Fermi nicht viel zu erwarten ist: dieser 96-Shader-GT215 hat eine TDP von 70Watt, und ist dabei nur DX10.1.
Verdreifache ich diesen Wert, käme ich auf eine TDP=210Watt bei lediglich 288 Shadern und auch nur 384-bit-Speicher-Bus.
Fermi soll aber 512 Shader haben und einen 512-bit-Bus, also über 5mal mehr Shader und einen 4mal breitern Bus, aber nur eine TDP=225Watt haben, und soll auch noch DX11 und so einiges Anderes können...da läßt sich leicht ableiten, was zu erwarten ist: vermutlich wird Fermi nicht mal mit 500Mhz takten...
Das stammt jetzt nicht etwa aus einem Technikforum, sondern von einer Finanzseite: http://www.wallstreet-online.de/dis...-auf-dem-weg-zum-earnings-crossover-mit-intel
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Das ist n Post aus den Kommentaren - wer ist der Typ der das geschrieben hat? Man kann nicht einfach per x3 einen GT215 auf einen GF100 hochrechnen :lol:
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Siehst doch die Quelle, das sind Betriebswirtschaftler und Finanzgenies die haben bereits mit dem Einläuten der Wirtschaftskrise bewiesen wie grandios sie sich verzockt haben, da wundern doch solche Rechnungen nicht wirklich, oder? :lol:
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Made my day / night :D
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Lübke schrieb:
kommt ja auf art und umfang der änderungen an. ist das mit dem a3-stepping eigentlich offiziell? oder kann es auch b0 sein?

Ist im Prinzip offiziell. Wenn du Charlie glaubst? :cool_alt:

http://www.semiaccurate.com/2009/12/10/fermi-a3-silicon-oven/

Im Übrigen wird Fermi voraussichtlich nur noch 448 Shader bekommen.


Bei 225W TDP... Ouch!

Schon mal einer gepostet? Naja, auch egal.

Logische Schlussfolgerung aus der Yield/40nm-Misere. Das Dokument stammt aus der Zeit, als NVIDIA das A2 Stepping zurückbekommen hat... Scheint, als hätte die Realität NVIDIA eingeholt.

Dass aber selbst die sauteuren "von Hand ausgesuchten" Tesla Profichips nur mit 448 Shadern kommen sollen, lässt ja nichts gutes für die Consumer Chips hoffen.

Ich tippe weiter auf einen Februar "Launch" und "Verfügbarkeit" im März, bei leicht höherer Performance als ein Cypress. Aber ich lass mich gern überraschen. Auch wenn ich nicht an Wunder glaube. Vielleicht filtert das Teil ja wenigstens besser als ein GT200 :freak:

Lübke schrieb:
ich könnte mir als grund für das a3-stepping auch eine höhere ausbeute vorstellen. vllt hat man die gpu nur vereinfacht und büßt lieber etwas leistung ein und erreicht stattdessen erträgliche yieldraten.


Dies würde dann auf ein B Stepping hinauslaufen. A1 A2 usw. dienen einfach nur dazu, Fehler auszumerzen, die eine gute Yield verhindern bzw. die Funktionalität des Chips an sich.

Ein B-Stepping würde Fermi in Q3 schieben, jedenfalls lt. Charlie (Macht auch Sinn, bis mal bei ner CPU auf den nächsten Buchstaben gewechselt wird, gehen etliche Monate ins Land. Beim Phenom ist AMD IMO immer noch beim "ersten" Buchstaben (???) )
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die 448 ALUs entstammen einem Dokument aus dem November - Fermi kommt sicher mit mehr Units, A3 ist gerade in der Mache. 225W ist peak TDP, die momentanen Rohdaten reichen bereits bei G200-Architektur um die HD5870 zu schlagen.
Vielleicht filtert das Teil ja wenigstens besser als ein GT200
Noch besser geht kaum.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich bin echt inner Zwickmühle, Leute.

Meine GTX260 habe ich letztens aus Versehen bei einem Kühlerwechsel zerwichst. Nun werkelt eine 7600GS drinne.:freak:

Zocken kann ich damit auf einem 24" logischerweise nichts dickes...:(


Ist nun schon bekannt, wann in etwa die neuen FERMIs kommen oder kann ich mir noch ruhigen Gewissens eine GTX2xx holen?

Mir jucken richtig die Finger.:D



MfG
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Na bissl runder darf die "Blume" schon noch sein ;)

Scherz beiseite, Thema war ja schon durchgekaut hab ich grad gesehen, aber ich lass den Beitrag trotzdem so stehen.

Noch was wegen Launchtermin, da wollte jemand wissen ob da schon was steht.

"During not-Nvision/GDC, Nvidia was telling people who mattered and AIBs not to expect Fermi until March. Internally it was saying May, but the AIBs were not told that."

Quelle

Lt. NVIDIA offiziell mittlerweile März, intern eher Mai.

Charlie sagt keinesfalls Q1. Außer "press stunts"

@über mir: Weiß ja nicht was du ausgeben willst, aber in bezahlbare Regionen (unter 300€??) wirder der Fermi frühestens (Ende) Q3 kommen. Jedenfalls der "dicke" (380)
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

KAOZNAKE schrieb:
Ein B-Stepping würde Fermi in Q3 schieben, jedenfalls lt. Charlie (Macht auch Sinn, bis mal bei ner CPU auf den nächsten Buchstaben gewechselt wird, gehen etliche Monate ins Land. Beim Phenom ist AMD IMO immer noch beim "ersten" Buchstaben (???) )


Der K10 wurde im B2 Stepping released (65nm), dann kam der TLB-Fix --> B3 (65nm)
Dann folge das C2 Stepping (45nm) - oft auch als K10.5 bezeichnet ;) - und jetzt wird nach und nach das C3 Stepping eingeführt.

Von dem RV670 gab es doch sogar ein A11 Stepping, oder gar A12? :freak:



Aber mal wieder zum GF100/Fermi:

Die 448 Shader sind auf den ersten Blick schade, aber weniger Shader lassen sich leichter auslasten und wenn diese noch höher takten als 512....
Ich denke, dass wir erstmal nur 448 Shader und 384 Shadern sehen werden (gab es da nicht auch einen GT21x mit 384 Shadern, der gestrichen wurde?). Dann kommt ATIs Refresh des Cypress und Nvidia kommt mit voll ausgebauten Fermis an und wir hätten schon wieder Q3 2010 :freaky:
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

ist schon absehbar obs von Nvidia eine Leistungssteigerung im Passiv (kühlbaren) Segment geben wird?

Aktuell ist ja das maximum eine passive ATI 5750. bzw. von Nv eine passive 9800GT

Würde ungern jetzt Geldausgeben wenn morgen, neue alternativen rauskommen.
(mir gehts um die Performance&Lautstärke)

aktuell ist ne 4670 passiv verbaut.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

KAOZNAKE schrieb:
Lt. NVIDIA offiziell mittlerweile März, intern eher Mai.

Danke für die Info! :) Ist das sicher, ja?

Wenn das wirklich so ist, lohnt es sich ja überhaupt nicht, noch bis März zu warten.:mad:

Dann hole ich mir jetzt lieber günstig ne gebrauchte GTX275 und bin glücklich.:rolleyes:


MfG
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Sagen wir mal sehr wahrscheinlich ;)

Sicher ist nur der Tod. Ansonsten gilt was ich weiter oben schrieb:

Weiß ja nicht was du ausgeben willst, aber in bezahlbare Regionen (unter 300€??) wirder der Fermi frühestens (Ende) Q3 kommen. Jedenfalls der "dicke" (380)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

KAOZNAKE schrieb:
Na bissl runder darf die "Blume" schon noch sein ;)
Bringt nichts.


Wir können froh sein wenns nicht schlechter oder nur wenig schlechter wird.
Ich hoffe nachwievor auf ersteres, auch wenn Viele sich für 16xAF nicht interessieren.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Man kann höchstens noch SGSSAA und auf mehr Optionen im Originaltreiber hoffen.
Oder @ default Einstellungen keine Bugwellen. Aber ansonsten gibts da nicht viel zu meckern. Kann ruhig so bleiben wies is.
Mich würde es ehrlichgesagt aber nicht wundern, wenn jetzt ein paar Boardpartner wie beispielsweise Zotac usw... auch bald ATI Karten anbieten.
Derzeit haben sie ja nichts, außer die kleinen Karten.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

NV sollte Treiberseitiges Downsampling einbauen, das wäre noch mehr Killer-Feature als SGSSAA.

Zotac- und Sapphire-Karten stammen beide von PC-Partner.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Mister-Knister schrieb:
Ich bin echt inner Zwickmühle, Leute.

Meine GTX260 habe ich letztens aus Versehen bei einem Kühlerwechsel zerwichst. Nun werkelt eine 7600GS drinne.:freak:

Zocken kann ich damit auf einem 24" logischerweise nichts dickes...:(


Ist nun schon bekannt, wann in etwa die neuen FERMIs kommen oder kann ich mir noch ruhigen Gewissens eine GTX2xx holen?

Mir jucken richtig die Finger.:D



MfG

Solange nix anderes juckt, gehts ja noch. :D Kauf dir ne 5850............................im Februar.:freak:
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben