Bericht Bericht: Nvidia GF100: Technische Details

milamber! schrieb:
Was hast du von 100 FPS in einem Benchmark, wenn - wie hier vermutet wird - die Leistung bei einem Spiel gar nicht gebracht werden kann?


Nun
In dem Benchmark wird die Tesselation übertrieben oft eingesetzt
Aus dem Grunde fände ich es genau da besonders gut wenn das gebencht wird.
 
Lübke schrieb:
die dx10.1-karten reichen nur bis zur gt240. wenn Complications einschätzung stimmt und eine gpu mit 4 "fermicores" tatsächlich ca 50% der leistung einer 8800gtx bringt, dann wäre die gpu schon oberhalb der gt240 angeordnet. der kleinere chip erzeugt ja auch weniger abwärme und erlaubt dadurch wieder höhere taktraten...
Um Gottes willen - die "50% einer G80" waren von mit eine rein wilkürliche Zahl!! Bitte nicht meinen ich würde hier eine Leistungsprognose machen - ich hab mir das nicht mal ausgerechnet sondern nur als "Hausnummer" raus gehauen :)
Eine Karte mit nur 4 SM-Einheiten wird es sicher nicht geben daher ist es unnötig darüber zu spekulieren. Das Thema lässt mit dem Speicherdesign wenig Spekulationen zu. Eine Fermi kann ohne L2 Cache nicht die Out-of-Order Vorteile nutzen und wird dann nur noch lahm - so was produziert Nvidia nicht, da es keine Vorteile bringt.
 
Shurkien schrieb:
Nun
In dem Benchmark wird die Tesselation übertrieben oft eingesetzt
Aus dem Grunde fände ich es genau da besonders gut wenn das gebencht wird.

Es wäre vielleicht für ein paar Zahlenspielchen ganz nett, aber was ist an dem Benchmark nun so "interessant", was findest du dann an den Werten so gut, wenn sie mit der Praxis überhaupt nichts zu tun haben? Da diese PolyMorph Engine - wie hier vermutet wird - eben mehr wie nur für Tesselation gedacht ist, und - wie hier vermutet - eben nicht alles auf einmal erledigen kann, wird in einer realen Anwendung, einem Spiel, die Tesselation Performance also nicht dem Entsprechen, was in einem reinen Tesselation Benchmark beansprucht wird.
 
KAOZNAKE schrieb:
Kannste schön bei Charlie nachlesen:


Cypress GPU (nur Chip, ohne "Lötkosten", Board, Verpackung, Marge für Zwischenhändler, Händler, Steuern, Entwicklung Mitarbeiter Werbung usw.)

50$ (UVP 5870=400$, also macht der Chip allein 10-15% an Kosten aus)

Fermi GPU: 125$+aufwändigeres Board+teurere Kühlung

Also nicht ganz dramatisch, wenn man die entsprechende Mehrperformance erhält. Aber das war beim RV770/GT200 ja schon kritisch für NVIDIA, hier wirds definitv nicht besser. Auf Dauer ist der Kostennachteil nicht einzuholen, denn selbst mit 100% yield kriegt NVIDIA weniger dies raus, als AMD mit 70% oder noch weniger (sind sie jetzt schon drüber, NVIDIA hat grad 40%@448 Shader wenn ichs richtig verstanden hab)

milamber! schrieb:
Ich mag auch keine Besserwisser, aber in diesem Fall haben sie nun mal eher recht, als du es hast. Denn du scheinst in keinster Weise aus einem Fundus von "Wissen" zu sprechen, sondern aus dem glauben heraus, ein Bauteil einer Grafikkarte könne ja nur aus Pfennig Beträgen bestehen.

Na, dann haben wir, was die Besserwisser angeht, ja was gemeinsam.
(Ich spar mir mal das Zitieren des belehrens der übrigen Leute aus deinem Post...)


BTT:

Alles schön und gut worauf sich Charlie da bezieht, nur ist immernoch nicht ganz klar woher die 40% Yieldrate Aussage kommt ? Lässt die sich irgendwo belegen? Wovon gehen die 40% Yieldrate und damit 125$ letztendlich aus? - Achja stimmt vom absoluten GPGPU HighEnd Chip den Nvidia womöglich plant. Mitnichten von der Gamerversion dessen Design und komplexität noch keiner kennt.

So jetzt mal wieder zurück zu den 40% Yieldrate. Ein Paradebeispiel wie Charlie hier mit Desionformation arbeitet.
Er geht von 40% Yieldrate bei Nvidia und damit 125$ Produktionskosten für den Fermi aus.
Die 50$ ATI Chips beziehen sich auf eine ATI Yieldrate von 70%.

So aufgepasst: Die Meldungen die ich auf die schnelle finden konnte sehen alle ungefähr so aus:

http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/824-yields-steigen-bei-tsmc

Das auf "chamber matching issues" zurückzuführende Problem, ist anscheinend der Grund weshalb die neue ATI Radeon 5800er Reihe momentan eine eher schlechte Verfügbarkeit aufweist. Die schlechte Gesamt-Yieldrate könnte allerdings auch auf Nvidia's Fermi zurückzuführen sein. TSMC aber verspricht allerdings eine Besserung noch innerhalb des laufenden 4. Quartals.

Erstmal wird in keiner News ein Name genannt sondern immer nur "TSMC ließ verlauten" oder "aus Fertigungskreisen war zu hören". Alles in allem: Irgendwer tratsch was ins Netz alle kopierens, Niemand hat ne Quelle (zumindest ich find darüber keine Pressemitteilung).
Was aber viel interessanter ist: Es ist völlig unklar ob Fermi die schlechten Yields verursacht (-der, wie wir jetzt wissen, zu diesem Zeitpunkt wohl noch garnicht in Produktion war, das zeigt wie glaubwürdig diese Quellen sind-) oder die Wafer allgemein eine 40%ige Yieldrate bieten. Der Punkt das nur Fermi die 40%ige Gesamtyieldrate verursacht lass ich mal außen vor, wie wir wissen wurde Fermi zum Zeitpunkt der Aussage noch garnicht in Massen produziert.

Aucht ATI als Firma hat im übrigen kein Problem damit (jetz muss ich genau aufpassen was ich schreib) wenn viele Leute solche Meldungen aufnehmen und immer weiterverbreiten. Zum Beispiel in Internetforen ala: waret bloß nicht auf Fermi, der wird viel zu teuer, viel zu heiß, frisst zu viel Strom und die Verfügbarkeit ist bestimmt nicht vor Ende 2010!. Na gerade wenn sowas von den normalen Forenusern kommt wird es glaubwürdig und zum Tei Kaufentscheidend für die Leute. Da ist mit Sicherheit der ein oder andere dabei der sowas liest und sich irgendwann denkt "Na dann hol ich mir doch lieber jetzt ne ATI Karte"

Mit Falschmeldungen arbeitet die Industrie schon lange. In Verbindung mit dem INet könnte man hier auch von viralem Marketing 2.0 sprechen.

Zurück zur Yieldrate...
Aber gehen wir mal von allgemeinen Wafer Problemen aus, die beide Seiten betreffen. Schon ist der Vergleich von Charlie total für den ***** Die Kosten von ATI müssten pro Chip auf ca 75$ bis 80$ steigen, gegenüber 125$ gegenüber der NVIDIA GPGPU Variante. Nichts mit 50 gegenüber 125.

Nichts desto trotz scheint die 40% Yieldrate Aussage mE völlig aus der Luft gegriffen da sie sich:

a) als Falschmeldung raustellte da Fermi zu dem Zeitpunkt nicht produziert wurde und deshalb
b) die Bedingungen 40% Yieldrate für ATI und Nvidia gelten würde (Waferprobleme) und
c) die 40% offensichtlich nichts mit Fermi zu tun haben da besagter zu diesem Zeitpunkt nicht produziert wurde!!

Nehme ich Charlie die Yieldrate und alle damit Zusammenhängenden Argumente weg, könnte man auch sagen sein Text verliert den Boden unter den Füßen.
 
Zuletzt bearbeitet:
Also mal ganz Hypothetisch wenn die leistung wie es in den " Benchmarks " von Nvidea ja heißt um das 7 fache (einer 5870 gegenüber ) steigt ! wozu nutzt das ding dann noch ???
meine schaut euch an wie lange es heute dauert ein Game zu Programieren biss das fertig ist vergehen (BSP : Anno 1404 ) 3 Jahre

Ich binn sicher es gibt für so brachiale leistung sowieso keinen einsatz !

anno 1404 geht auf einer 5850 mit MAX einstellungen auf gerade einmal 45% (je nachdem )

bei Gewalt Spielen natürlich mehr aber das 7 fache ist Nutzlos bis es dafür etwas gäbe würde ATI (AMD ) schon mit etwas vergleichbarem in den Startlöchern stehen und in der Zwischenzeit kauft man sich lieber ne 5870 !
 
Zuletzt bearbeitet von einem Moderator:
@Sun_set_1
TSMC 40nm yield issues resurface, CEO promises fix by year-end
Meldung des Branchendiensts "Digitimes"
Yieldrate Q2/2009: 20-30% Q3/2009 ca. 60% Q4/2009 ca. 40% ->Ati Produktion
http://www.digitimes.com/news/a20090731PD204.html
http://www.digitimes.com/news/a20091030PD209.html
Auf Deutsch hier bei CB:
https://www.computerbase.de/2009-08/40-nm-yields-bei-tsmc-nun-bei-60-prozent/
https://www.computerbase.de/2009-10/yields-bei-tsmcs-40-nm-fertigung-wieder-gefallen/

Man merkt dass du dich mit Chipfertigung nicht auskennst und daher den Begriff "Yields" falsch interpretierst. Bevor du dich aufregst, das geht den meisten so und ich habe mir das auch erst im Internet angelesen ;)
https://www.computerbase.de/forum/t...1-geruechtekueche.633836/page-39#post-7110025
Dass wenn in der selben Fertigung identische Ausschussraten für beide Unternehmen herrschen, dann hat AMD 50% Materialverlust und Nvidia 66% Materialverlust ->
Aus dem funktionierenden Material kann AMD noch 84 GPUs bauen um seine Kosten und Gewinne zu realisieren, während Nvidia die Kosten und Gewinne mit lediglich 40 Einheiten im Handel kompensieren muss.
Je grösser der Chip desto schlechter die Yieldrate bei selbem Produktionsausschuß.

50% Yield bei 334 mm² (Cypress) = 33% Yield bei 530 mm² (Fermi)
AMD bekommt also mit dem selben Material im Produktionsprozess doppelt so viele Chips bei einer Yieldrate von 50% für AMD Chipgrösse.
Und der Chip wird anscheinend sogar grösser werden:,
http://www.pcgameshardware.de/aid,7...ildqualitaet-und-Benchmarks/Grafikkarte/Test/
Legt man die Packdichte zugrunde, welche Nvidias bis dato größter 40nm-Chip GT215 erreicht, betrüge die Die-Größe bereits 574 Quadratmillimeter.
Wobei bisher immer davon ausgegangen wurde, dass Fermi weniger Dicht gepackt ist um weniger Hitze zu stauen. Nimmt man die 574 mm² bei obigem Beispiel kommt man sogar auf schlechtere Fermi Yields.
 
@Complication
Tesselation ist v.a für Games interessant (nicht für GPGPU). Nvidia hat den Ansatz des zentralen Tesselators angeschaut, und bemerkt, dass sich dabei ein Flaschenhals einstellt und deswegen zu einer parallelen Lösung gewechselt - wäre ein zentraler Tesselator schneller gewesen, hätte Nvidia bestimmt diesen gewählt.

Zudem ist die GF100 im Unigine-Bench deutlich schneller als eine HD5870, und dies, obwohl dieser für HD5000-Hardware geschrieben wurde. Und NUR Tesselation würde ich diesem Benchmark auch nicht bescheinigen;)

Gerade die Polymorph-Einheiten sind die grösste Errungenschaft für Nvidia, und genau diese waren auch der Grund für die ganzen Verschiebungen (laut Anandtech und HardOCP). Dass gerade selbige solch durchwachsene Leistungen bringen, wie du erwartest, halte ich für höchst unwahrscheinlich, zumal keiner der Artikel (die ich bis jetzt über GF100 gelesen habe, und das sind viele ;)) solche Szenarien erwähnt.

Ich kann sehen, warum du skeptisch bist (die Polymorph-Engine ist ja immer noch in-Order-Design, 16 an der Anzahl lassen OoO-Design entstehen). Zudem können zwischen den jeweiligen Stages ganz einfach Informationen mit den SMs ausgetauscht werden, eine reine Pipeline, ohne Unterbrüche, ist das ja nicht, was ja das geile daran ist...

@killissa
Welches peinliche Verhalten:confused_alt: Es ist eine Sneak Peak - nichts mehr und nichts weniger! Wann hören die ewigen Hasstiraden endlich auf?:(
 
Zuletzt bearbeitet:
Sun_set_1 schrieb:
Na, dann haben wir, was die Besserwisser angeht, ja was gemeinsam.
(Ich spar mir mal das Zitieren des belehrens der übrigen Leute aus deinem Post...)

Dann lies dir die Posts mal ganz objektiv durch - da geht es gar nicht ums "Besser wissen" sondern um besseres Wissen - und das kann jeder überall nachlesen.

Sun_set_1 schrieb:
Alles schön und gut worauf sich Charlie da bezieht, nur ist immernoch nicht ganz klar woher die 40% Yieldrate Aussage kommt ? Lässt die sich irgendwo belegen? Wovon gehen die 40% Yieldrate und damit 125$ letztendlich aus? - Achja stimmt vom absoluten GPGPU HighEnd Chip den Nvidia womöglich plant. Mitnichten von der Gamerversion dessen Design und komplexität noch keiner kennt.

Die 40% Yieldrate Aussage kommt von TSMC selbst: http://www.digitimes.com/news/a20091030PD209.html

Der "absolute GPGPU HighEnd Chip" ist im übrigen, zumindest in der Vergangenheit fast gleich der Desktopkarten gewesen, was die GPU anging. http://www.digitimes.com/news/a20091030PD209.html
Die Tesla C1060 war in Chip und Shadertakt, und Anzahl der Streamprozessoren eine GTX 280. Die Tesla C870 eine um 15 MHz übertaktete 8800 GTX.
Die hypothetischen Zahlen bezüglich der Kosten sind z.B. auch hier aufgeführt:
http://www.fudzilla.com/content/view/17205/1/

Die "Gamerversion" wird sich also wohl nicht erheblich von der Tesla / Fermi Karte unterscheiden.
Das die Tesla dann statt vermuteten (und angeblich auch mal bestätigten) 512 Shaderclustern nur 448 mit bringt, wird nun ebenso mit möglichen Yield Problemen oder einer zu hohen Thermik zu erklären versucht:
http://www.hardware-infos.com/news.php?news=3356

Sun_set_1 schrieb:
So jetzt mal wieder zurück zu den 40% Yieldrate. Ein Paradebeispiel wie Charlie hier mit Desionformation arbeitet.
Er geht von 40% Yieldrate bei Nvidia und damit 125$ Produktionskosten für den Fermi aus.
Die 50$ ATI Chips beziehen sich auf eine ATI Yieldrate von 70%.


Die Preise beziehen sich ja nicht nur auf die vermuteten (oder aus uns nicht bekannten Quellen) bezüglich der Yield Rate, sonderna auch bezüglich der größe des Dies.


Sun_set_1 schrieb:
So aufgepasst: Die Meldungen die ich auf die schnelle finden konnte sehen alle ungefähr so aus:
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/824-yields-steigen-bei-tsmc

Erstmal wird in keiner News ein Name genannt sondern immer nur "TSMC ließ verlauten" oder "aus Fertigungskreisen war zu hören". Alles in allem: Irgendwer tratsch was ins Netz alle kopierens, Niemand hat ne Quelle (zumindest ich find darüber keine Pressemitteilung).

Ja, weil du wohl nicht richtig gesucht hast.
Die Quelle ist hier: http://www.digitimes.com/news/a20091030PD209.html
Nun kannst du ja gerne behaupten das sich digitimes diese Aussagen aus den Fingern gezogen hat, aber das möchte ich doch bezweifeln.

Sun_set_1 schrieb:
Was aber viel interessanter ist: Es ist völlig unklar ob Fermi die schlechten Yields verursacht (-der, wie wir jetzt wissen, zu diesem Zeitpunkt wohl noch garnicht in Produktion war, das zeigt wie glaubwürdig diese Quellen sind-) oder die Wafer allgemein eine 40%ige Yieldrate bieten. Der Punkt das nur Fermi die 40%ige Gesamtyieldrate verursacht lass ich mal außen vor, wie wir wissen wurde Fermi zum Zeitpunkt der Aussage noch garnicht in Massen produziert.

Wie wir wissen was? Wie kommst du darauf das im Oktober noch keine Fermi Prozessoren bei TSMC produziert wurden? Das ist gar nicht möglich, da ja schon zur GTC afaik ein laufendes Fermi System gezeigt wurde (nicht das Revell Bastelkit das Huang in die Kamera gehalten hat). Ausserdem werden ja über Monate schon vor dem Release Testsamples (tape outs?) gerfertigt.

Sun_set_1 schrieb:
Aucht ATI als Firma hat im übrigen kein Problem damit (jetz muss ich genau aufpassen was ich schreib) wenn viele Leute solche Meldungen aufnehmen und immer weiterverbreiten. Zum Beispiel in Internetforen ala: waret bloß nicht auf Fermi, der wird viel zu teuer, viel zu heiß, frisst zu viel Strom und die Verfügbarkeit ist bestimmt nicht vor Ende 2010!. Na gerade wenn sowas von den normalen Forenusern kommt wird es glaubwürdig und zum Tei Kaufentscheidend für die Leute. Da ist mit Sicherheit der ein oder andere dabei der sowas liest und sich irgendwann denkt "Na dann hol ich mir doch lieber jetzt ne ATI Karte"

Wenn 08/15 Forenuser (oder bezogen auf diesen Link vielleicht sogar gar nicht mal 08/15 Forenuser) so etwas schreiben, sollte man dies natürlich mit Vorsicht genießen.
Wenn jedoch solche Informationen von SemiAccurate, Digitimes oder Fudzilla kommen, oder meinetwegen ganz anderen Seiten, wo Charlie sogar von der c't im Prozessorgeflüster zitiert wird (und er wenn er denn so offenkundig und für alle bekannt nur Blödsinn schreiben würde sicher nicht zitiert worden wäre), dann geh ich davon aus, das er sich solche Dinge nicht einfach nur aus den Fingern saugt, sondern ...

.. das diese Leute schlicht und ergreifend besser Informiert sind als wir.

Und auch wenn immer nur die falschen Meldungen (und selbst das finde ich nachträglich nicht) dick aufgetragen werden, um Fudzilla oder eben so einen Charlie das "Lügen" zu unterstellen (was oft wohl viel mehr falsche Informationen und Gerüchte sind), wenn sie denn richtig liegen wills dann keiner mehr Wissen.
Afaik hat er ja schon seit längerem geschrieben, das Fermi wohl nicht vor ende Q1/2010 kommen wird.

Sun_set_1 schrieb:
Mit Falschmeldungen arbeitet die Industrie schon lange. In Verbindung mit dem INet könnte man hier auch von viralem Marketing 2.0 sprechen.

Darunter zähle ich dann aber auch die Kommentare, DX10.1 oder DX11 wären uninteressant, und unwichtig für den Kunden. Der Vorsprung ATIs wäre unwichtig. Fermi würde die Welt revolutionieren. Etc. pp.

Sun_set_1 schrieb:
Zurück zur Yieldrate...
Aber gehen wir mal von allgemeinen Wafer Problemen aus, die beide Seiten betreffen. Schon ist der Vergleich von Charlie total für den ***** Die Kosten von ATI müssten pro Chip auf ca 75$ bis 80$ steigen, gegenüber 125$ gegenüber der NVIDIA GPGPU Variante. Nichts mit 50 gegenüber 125.

Nichts desto trotz scheint die 40% Yieldrate Aussage mE völlig aus der Luft gegriffen da sie sich:

a) als Falschmeldung raustellte da Fermi zu dem Zeitpunkt nicht produziert wurde und deshalb
b) die Bedingungen 40% Yieldrate für ATI und Nvidia gelten würde (Waferprobleme) und
c) die 40% offensichtlich nichts mit Fermi zu tun haben da besagter zu diesem Zeitpunkt nicht produziert wurde!!

Nehme ich Charlie die Yieldrate und alle damit Zusammenhängenden Argumente weg, könnte man auch sagen sein Text verliert den Boden unter den Füßen.

Du hast das jetzt 5 oder 6 mal (mit doppeltem Ausrufezeichen) erwähnt, wo kann ich lesen, das der Fermi zu welchem Zeitpunkt nicht produziert wurde?
Ausserdem kommen die gerüchte ja niciht nur von Charlie. Und mit allen Infos drumherum kommt kann mans ich das Puzzle selbst zusammen setzen.
Der hohe Stromverbrauch, oder zumindest die ernorme Abwärme stammt im übrigen afaik von der CES, wo Techniker von Thermaltake von den Dächern gezwitschert haben?

Alles in allem, kann ich meine Aussage nur wiederholen; die anderen Wissen (oder vermuten) es nun mal besser als du, zumindest hat es ganz den Anschein, da du dich wohl nicht im beringsten zu diesem Thema eingelesen hast - und schon gar nicht mit (angeblichen) Insiderinfos aufwarten kannst. oder etwa doch?
Ergänzung ()

Und wieder ne halbe Stunde für die Tonne, Complication hats kürzer besser hin bekommen. :-/
 
Zuletzt bearbeitet:
@Complication
Zur Architektur-Skalierung: Die 448CC-Teslas bestätigen ja schon, dass "ungerade" Einheiten durchaus möglich sein werden (in diesem Falle 3 GPC + eine halbe GPC [aka GPC mit nur 2 SMs]) ohne Performance-Verlust.

It is also worth mentioning that due to the load balancing architecture used in the GF100, it’s possible to eliminate multiple SPs from a single GPC without impacting the Raster Engine’s parallel communication with the other engines. So in theory, one GPC can have one to four SPs while all the other GPCs have their full amount without impacting performance one bit.
http://www.hardwarecanucks.com/forum...roscope-6.html

Es scheinen durchaus sehr viele Möglichkeiten offen bezüglich der Anzahl GPCs und SMs. Den L2-Cache braucht man nur entsprechend zu skalieren...

EDIT: Link gefixt für dich, Complication:) Lese im Moment gerade im 3DCenter mit. Alles sehr interessant und zumindest weitestgehend eine sehr fachgrundige Diskussion! (Link)
 
Zuletzt bearbeitet:
@AwsomeSauce
das ist interessant und ein völlig anderer Ansatz :)
Also müssen immer die 4 GPC bleiben und somit wird der Level 2 Cache genutzt - der Treiber kann auch auf immer identische Anzahl von 4 "Multithreading-Kernen" zugreifen. Dann ist natürlich eine Skalierung bis runter auf 1/4 sinnvoll machbar, solange den Polymorph-Engines (ich muss jedes mal den Namen nachschlagen - setzt sich irgendwie nicht im Gedächtnis fest..lol) nicht die "Luft" ausgeht.

Edit: nur der Link geht nicht zur Quelle - kannst du den nochmal posten?
 
Complication schrieb:
Die Fermi benötigt eine Mindestanzahl an SM-Einheiten und das sind 4 die eine GPC bilden - sie benutzen alle eine einzige Raster Engine. Also geht es schon mal nicht kleiner zu skalieren.
Warum nicht? Ich kann doch pro Raster Engine einfach nur 3 SM verbauen anstatt 4.

Hinzu kommt der Level 2 Cache, ohne den das ganze Design des Fermi gar keinen Blumentopf gewinnen kann. 2 GPC werden da mindestens benötigt um überhaupt einen Sinn im L2 Cache zu haben, da der Fermi aus der Out-of-Order (OoO) Technik seine Performance zieht.
Verstehe ich nicht. Der L2 Cache hat auch bei einem GPC einen Sinn. Ein gemeinsamer Cache ist für die SM nötig, egal ob eine oder vier GPC.

Bei einem GPC hätte ich keine parallelen Rasterizer mehr, klar, aber was Anandtech als OoO bezeichnet bezieht sich ja auf die Geometriepipeline. Und davon hab ich 16 Stück. Bei 4en davon hab ich immer noch parallele Pipelines.

Ich gehe mal davon aus, das die Fermi Architektur den kompletten Preisbereich abdecken wird. Womit soll das auch sonst geschehen? Man wird also ganze GPC und/oder SM weglassen. Den L2 Cache und DRAM-Controller samt ROPs können sie ja davon unabhängig dimensionieren wie es gerade am besten passt.

EDIT: mhh ich bin einfach zu langsam
 
Link im Post gefixt

@bensen
Genau, worauf ich hinaus wollte ;)
 
@milamber

Ich find die Ausrufezeichen angenehmer als die vielen Quotes.


Ich gebe dir völlig Recht das sich aus der Größe der Dies auch der Preis zusammensetzt.

Laut Hardware-Infos liegt der Preis eines Fermi, bei theoretisch 100% Ausbeute, bei 53$.

Da die Differenz zwischen 70% und 40% ebensogroß ist wie jene zwischen 70% und 100% behaupte ich einfach mal ich kann die Zahlen 53$ gegen 50$ genauso Gegenüberstellen wie 125$ gegen die 53$ die Aussagekraft bleibt die gleiche.


Was die Yieldrate betrifft: TSMC sagt doch ganz klar das es sich um Waferprobleme handelt!! Wie oft denn noch? Das betrifft ATI genauso wie Nvidia und hat erstmal nichts mit Fermi an sich zu tun!

Die Verfügbarkeit der ATI Karten spricht Bände. Könnten ATI und TSMC momentan Kostendeckend produzieren wären sie quasi gezwungen mit ihren Karten den Markt zu durchdringen solange Nvidia kein Pendant auf eben diesem Markt hat.

Die Tatsache das ATI nicht durchstartet zeigt doch ganz klar das die nicht Kostendeckend produzieren können.


EDIT Nachtrag:

@complication

-sorry hab deinen Post irgendwie überlesen.

Ja ich musste das mit der Yield auch selber nachlesen aber ich glaube du hast mich ein bisschen falsch verstanden, was mich ein aufgeregt hat war die Flaschinformation wie z.b. Charlie oder auch einige andere mit Zahlen um sich geschmissen haben die man so überhaupt nicht vergleichen konnte!

Ich möchte ATI hier keinesfalls den besseren Produktionsausschuss absprechen, mE nach Entstand beim lesen der Posts aber der Eindruck das die Leute hier die Meinung verbreiten das Fermi Aufgrund seiner Architektur eine 40%ige Yieldrate erzeugt. Und diese Aussage ist für mich so nicht richtig!
 
Zuletzt bearbeitet:
Also irgendwie versteh ich nicht was du mir sagen willst.
Das "ATI nicht durchstartet" stimmt schon mal nicht, denn die haben in verdammt kurzer Zeit, trotz der 40nm Probleme fast die komplette Produktpalette released.
Seit Anfang Januar sind die Karten problemlos Verfügbar, in einer Anzahl welche die Nachfrage zu übersteigen scheinen. Die 5870 gibts bei über 80 Händler ab Lager, die 5850 bei 60. Alleine in Deutschland.

Deine Gegenüberstellung prozentualer Differenzen kann ich auch nicht verstehen, die von dir selbst verlinkte News erklärt dir doch klar verständlich und nachvollziehbar das Problem der Fermi GPUs.
Selbst wenn die 40% (egal obs nun mehr oder weniger sind) beide betreffen, sollte dir doch klar sein, das bei einer Die Größe von 334 zu 530mm² wesentlich weniger lauffähige GPUs bei Nvidia hergestellt werden können. Hinzu kommt die wohl höhere komplexität der GPUs ansich, mit 1mio mehr Transistoren, einer höheren Speicheranbindung (ka ob das eine Auswirkung auf lauffähige Dies hat), etc. pp.

Es hat alles also eben doch etwas mit dem Fermi zu tun.

@Blitzmerker:
Wenn die Nachfrage größer als das Angebot wäre, warum sind dann die 5000er Karten mittlerweile Problemlos verfügbar? Weil die beiden Top Single GPU Karten so teuer sind?
Sorry - aber verglichen mit den letzten Generationen sind sie sogar vergleichsweise günstig.
 
Es ist wie das letzte große Fressen oder die letzte große Party. Es wird sich mit einem großen Knall verabschiedet.
Nvidia hat bald keine Märkte mehr. Im mobilen Sektor oder im IGP Bereich fehlen dazu die Spielzeuge die AMD an ATI liefern konnte. Das zeigt Wirkung und für Nvidia wird es hier keine Erholung mehr geben. Dazu fehlt denen einfach das Wissen und die Mitarbeiter um dran zu bleiben. Einzig im Net/Subbook Bereich kann Nvidia mitspielen und auch hier wird es Probleme geben wenn sich NV nicht auf das Konzentriert und zwar voll.

Die Situation hat sich dazu auch gegenüber der letzten Generation verändert. Eine HD4870 kam für 240€ auf den Markt. Wurde im Preis 6 Wochen später gesenkt als die 240/260er kamen. Diese wiederum konnten den Preiskampf nicht mitgehen ohne stark an Qualität in der Produktion zu verlieren und selbst dann konnte der Preis und auch die Leistung mit einer HD4870 nicht mithalten.
Jetzt gibt es die HD5870 schon seit 3 Monaten und nichts kann Nvidia dagegen machen.
Schlimmer noch, die Kosten für AMD halten sich in Grenzen und der Gewinn pro Karte ist optimal. Hier ist genug Spielraum nach unten nur Nvidia wird das bei den Kosten in der Fertigung wieder nicht mitgehen können. Von einer HD5770 oder 5650 oder einfach bis runter in den mobilen Sektor wird Nvidia vor Oktober nichts, rein gar nichts, da sein.
Zusammen mit den Märkteverlust kann Nvidia hier nur noch das Handtuch werfen.

Ob sich Samsung oder Nokia die Firma einverleiben wird bleibt abzuwarten. Ich würde auf Nokia setzen. Bei Apple müsste erst einmal der Wille wirklich wieder da sein selber Hardware wieder zu fertigen. Aber dann sicher keine Grafikarten mehr wie heute.

Daher an alle guten Hunger beim letzten großen Fressen. Wer zu spät kommt den bestraft das Leben...
 
@Complication:
die "50% einer G80" waren von mit eine rein wilkürliche Zahl!! Bitte nicht meinen ich würde hier eine Leistungsprognose machen - ich hab mir das nicht mal ausgerechnet sondern nur als "Hausnummer" raus gehauen

oh sry, dachte du hättest da irgendwas hochgerechnet^^

Eine Karte mit nur 4 SM-Einheiten wird es sicher nicht geben
da liegt also das missverständnis: mit den "fermicores" meinte ich die besagten module, bestehend aus 32 shader je modul. und zwar bin ich darauf gekommen, weil eine gtx380 16 tesselationseinheiten und 512 shader hat. wenn man davon ausgeht, dass eine tesselationseinheit ausreichend ist für eine kleinere gpu, dann ließen sich die 512 shader also in 16 module á 32 shadereinheiten unterteilen. damit würden die 16 tesselationseinheiten einen sinn ergeben: aus jeder modulzahl ab 1 ließe sich eine dx11-taugliche gpu erstellen. von einer fiktiven gt340 mit 32 shadern und einer tesselationseinheit bis hin zu einer fiktiven gtx390 mit 640 shadereinheiten und 20 tesselationseinheiten und mehr (um die modultheorie mal in die andere richtung weiterzuspinnen^^)
 
Zuletzt bearbeitet:
@Sun_Set_1:

Das die Yield-Rate in erster Linie am Verfahren liegt und nicht an den hergestellten Chips ist auch klar.
Ein größerer Chip, egal welcher Kunde von TSMC ihn fertigen will, hat aber eine höhere Wahrscheinlichkeit von den Fehlern auf dem Wafer getroffen zu werden.
Wenn man mit einer Schrotflinte auf eine Fliesenwand schießt, dann trifft man mehr Kacheln wenn die einzelnen Kacheln größer sind.
Daher fällt eine höhere Prozentzahl aus, wenn der Chip größer wird.

Auf einen Wafer passen also entweder 100 Fermi oder 150 5870'er.
Wenn die 5870'er also eine Yield-Rate von 50% haben (diese Zahl nehm ich nur zum rechnen her, welche es tatsächlich ist), dann liegt die des Fermi bei ca. 33%.
Man kann also für 5000$ entweder 33 Fermi-Dies fertigen oder 75 5870-Dies.
Das hieße ein Fermi-Die kostet 150$ im Gegensatz zu 67$ für ein 5870'er Die.

Natürlich sind die Zahlen nicht korrekt, zeigen aber den großen Einfluss der Chipgröße.
Man muss jetzt zwar noch gucken, was NVidia mit teildeaktivierten Chips reißen kann, aber das kann keiner vorher wissen.

Außerdem versteht es sich von selbst, dass man alles auf semiaccurate.com mit einer Tüte Salz genießen.
PCGH und viele der bisher in diesem Thread verlinkten Quellen sind aber ebenso ungenießbar.
Ob das an totaler Unfähigkeit liegt oder an bewusster falschinterpretation der Bildchen ist unerheblich.
CB ist eine der wenigen Institutionen, denen ich attestieren würde sich große Mühe mit der Objektivität zu geben.
Dennoch muss man auch bei den Informationen hier vorsichtig sein.

Aber wir müssen einfach abwarten.
Irgendwann kommt Fermi auf den Markt und einige Leute werden sich freuen.
Entweder die einen Fanboys, die anderen Fanboys oder sogar alle, weil die Preise sinken... Prost.

Grüße vom:
Jokener
 
BestPower²TDP schrieb:
Ob sich Samsung oder Nokia die Firma einverleiben wird bleibt abzuwarten. Ich würde auf Nokia setzen. Bei Apple müsste erst einmal der Wille wirklich wieder da sein selber Hardware wieder zu fertigen. Aber dann sicher keine Grafikarten mehr wie heute.

Auch wenn ich dir in vielen Punkten zustimme, glaube ich nicht, das Nvidia gefressen wird ;)
Ergänzung ()

Jokener schrieb:
@Sun_Set_1:

Das die Yield-Rate in erster Linie am Verfahren liegt und nicht an den hergestellten Chips ist auch klar.
Ein größerer Chip, egal welcher Kunde von TSMC ihn fertigen will, hat aber eine höhere Wahrscheinlichkeit von den Fehlern auf dem Wafer getroffen zu werden.
Wenn man mit einer Schrotflinte auf eine Fliesenwand schießt, dann trifft man mehr Kacheln wenn die einzelnen Kacheln größer sind.
Daher fällt eine höhere Prozentzahl aus, wenn der Chip größer wird.

Gutes Beispiel, liegt bestimmt am Namen :D
 
Zuletzt bearbeitet:
Zurück
Oben