boxleitnerb schrieb:
Kommt mir fast so vor, als ob du die Textberge nur schreibst, um AMD schönzureden. Sieht mir alles nach ziemlich vielen "wenns" und "könnte" aus. Naja...
Komischerweise bekomme ich diesen Vorwurf von leuten, die nur meine "wenns" und "könnte" kritisieren, aber nicht meine Rechnungen, wo ich mit konkreten Daten einen möglichen HD 8800 und HD 8900 speklulierte.
Ich habe mir extra diesen Schreibweise "wenn" & "könnte" angewöhnt und nutze sie überproportional, weil ich meine lieben Kritiker ständig meine Texte falsch lesen, indem sie sie gleich als Fakt & Co lesen und nicht als eine Möglichkeit.
Übrigens
du schreibst ja genauso wie ich. Siehe folgenden Absatz.
Ich denke daher nicht, ...
Also müsstest du dir vorkommen, dass du Nvidia schönredest.
Ein Grundproblem von vielen ist, dass wenn sie was nicht verstehen, dass der Grund (Ist es Falsch?; Ist es Schönreden?; ...) beim anderen liegt.
Dafür dass Tahiti XT2 30% mehr Rechenleistung und 50% mehr Bandbreite hat, kommt GK104 doch noch ziemlich gut mit.
Der Unterschied von dir zu mir ist, dass ich mit deiner Aussage nichts anfangen kann und wertlos sehe, weil es einfach Bezugslos ist. Ob der Zahlenvergleich jetzt gut oder schlecht ist, kann man aus diesem Satz nicht erkennen.
Damit man was anfangen kann, müsstest du nicht nur AMD "High-End-Die" mit den Nvidia-"Performnace"-Die vergleichen, sondern auch HD 7870 vs. GK104 und HD 7870 vs. HD 7970. ( GK104 vs. GK110 geht ja nicht.) Und dann müsste man es auch mit so 3 Generation (oder mehr) vergleichen, um nicht nur Zukunftsentwicklungen zu sehen, sondern auch zu sehen, wie diese Abstände in der Vergangenheit waren.
Erst dann kann man (vielleicht mit zusätzlichen Technischen Hintergrund) erkennen, ob man so einen Vergleich für Zukunfts-Prognose nutzen kann.
Natürlich entsteht dann ein Textberg, obwohl man nur 1 Vergleichsmöglichkeit betrachtet hat.
Schönreden sind für mich ein oder zwei-Zeiler, die einfache Behauptungen/Aussagen treffen, und das grundsätzlich ohne nachvollziehbaren Informationen, außer man versucht mit eigenen Recherchen & Informations-Fähigkeit diese Aussage reproduzieren.
Ich denke daher nicht, dass der von der Rohleistung deutlich stärkere GK110 mit Sea Islands ein größeres Problem haben wird.
Grundsätzlich ist diese Behauptung falsch, ohne dass du es merkts.
Es hat schon seinen Grund, warum man viel stärkere Megas-Schiffs-Dieselmotoren nicht nicht in Autos einbaut. Das Problem dabei ist die Physik (Kraft).
In der Chip-Technik liegen die Physikalischen Eigenschaften in der Die-Größen-Herstellung (Yield) und im Stromverbrauch, sodass die Problemen der Die-Größen-Produktion (Kosten) und Stromverbrauch (Watt = Lärm & Betriebskosten) nicht von heute auf Morgen einfach verringert werden kann.
Nur weil Nvidia den Die groß gemacht hat, heißt es nicht, dass er automatisch schneller wird. Denn sie könnten ihn auch zu groß gemacht haben, den sie einfach nicht richtig/vernünftig zu laufen bekommen.
Und genau das ist das entscheidende. Genau dieses Problem hatte ja Larrabee @ 45 & 32nm, dass sogar aufgrund von Image-Gründen zur non-Veröffentlichung führte, obwohl die mit 400W (oder so) mit noch schlechten Yields wahrscheinlich eh etwas stärker als die Konkurrenz gewesen wäre.
Dass GK110 es nicht in den Desktop-Game-Markt schafft, daran gehe ich nicht davon aus, obwohl die Möglichkeit besteht. Denn GF110 benötigte schon viel mehr Strom als geplant. Ich denke, das waren so +20% (250 statt 210 oder gar statt 190 (GTX285). Falls Nvidia die 40nm-Fertigung schon als "Worst Case" falls angesehen hat und sich schon in den sehr Kriktischen Bereich bewegten, dann könnten sie vielleicht ernsthafte Probleme bekommen, weil 28nm bisher schon mehr Probleme machte als 40nm.
Grundsätzlich gibt es mehrere Betrachtungspunkte.
G80 ......... 484mm² ... 150W?
GT200b ... 470mm² ... 185W (+23%)
GF110 ..... 520mm² ... 250W (+35%)
GK110 ..... 550mm² ... 300W? (+20%) bis 350W? (+40%)
G80 ......... 0,31 W/mm²
GT200b ... 0,39 W/mm² (+26%)
GF110 ..... 0,48 W/mm² (+23%)
GK110 ..... 0,55 - 64 W/mm² (+15% - +33%)
Grundsätzlich schätze ich GK110 zwischen 300W (Best-Case) und 350W (Worst-Case) ein, wo die Tendenz aufgrund der Stromverbrauch- und Strom-pro-Watt-Steigerungen in den beiden Listen eher auf so 320W tendieren.
Wobei ich selbst den HD8900 garnicht so rosig sehe, den ich mit 2 Big-Grafik-Engines und 40 CUs einschätze. Mit 8CUs*6mm² = 48mm² und so 25mm² für die Big-Front-End, würde es auf die bisher spekulierten 440mm².
8CUs und 1 Grafik-Engine entspricht fast Thaiti (HD 7970) & Cape Verdi (HD 7770)
http://de.wikipedia.org/wiki/AMD-Radeon-HD-7000-Serie
Zusammen brauchen sie 210+75= 285W-Spiele. Somit würde ich HD 8970 zwischen 250W und 300W-Spiele einschätzen, wo die Tendenz bei 275-285W liegen könnte. Zwar hat die Rechnung mit Cape Verde 2 CUs und eine 64bit-SI zu (und UVD 3.0) zu viel, aber AMD könnte die Takte steigern und das könnte wieder den Stromverbrauch steigern (siehe Giga-Herz-Thaiti), was man eigentlich (siehe Vergangenheit) anzunehmen muss.
Gegen so einen hohen Stromverbrauch des HD 8970, würde ein bisher in den Medien spekulierter HD 8800 mit so 280mm² @ 32CU auf 150W sprechen.
Mit der Betrachtung 440mm²/280mm²*150W , würde das ein HD 8970 @ 1050 Mhz mit 235W bedeuten. Das wäre zu schön um wahr zu sein (Best-Case)
HD 8800 vs HD 7700 mit 280/212*120W = 158W ---> HD 8970 @ 1000 Mhz --> 248W Das entspricht ziemlch genau meinen Best-Case.
Kurz gesagt,
HD 8970 (= Thaiti @ 1050 Ghz + 25% CUs = 15+25% = 40%) könnte 40% schneller als GTX680 sein und einen Stromverbrauch zwischen 250-300W (Spiele) haben.
GK110 soll +50% schneller als GTX680 sein bei 300-350W.
Auch wenn GK110 schneller sein mag, wäre es mit dieser Berechnung 150/140 nur ein 7%iger Vorsprung gegenüber einen HD 8970. Aufgrund des eventuellen größeren Stromverbrauchs-Potential (im Mittel 50W bzw. asynkron 0 bis 100W) könnte HD 8970 mit +10% mehr Takt (1100-1150Mhz) vielleicht doch noch die Krone über den Stromverbrauch hohlen.
Deshalb wundert es mich nicht, dass ein HD 8970 nach dem GK110 kommen soll, während ein HD 8800 sich mit einem bekannten GTX680 und somit gut einschätzbaren GTX680-Refresh zuerst bzw. schon früher anlegen kann.
G80 ......... 90nm ... 1,0 Jahr nach RV515, RV530 & R520 (320mm²)
GT200A ... 65nm ... 1,0 Jahr nach RV630 (150mm²) & RV610 (80mm²) - Non-Takt-Zielerreichung
GT200B ... 55nm ... 1,5 Jahr nach RV630 (150mm²) & RV610 (80mm²) - Takt-Zielerreichung
GF100 ..... 40nm ... 1,0 Jahr nach RV740 (140mm²) - Non-Takt-Zielerreichung
GF110 ..... 40nm ... 1,5 Jahr nach RV740 (140mm²) - Takt-Zielerreichung
GK110 ..... 28nm ... 1,00 Jahr nach GK107 (120mm²) --> April 2013
GK110 ..... 28nm ... 1,25 Jahr nach Thaiti (360mm²) ---> April 2013
GK110 ..... 28nm ... 1,50 Jahr nach GK107 (120mm²) --> Juli 2013
Kurz gesagt,
Nvidias Big-Dies kamen immer schon 1 ("bis 1,5") Jahr nach ATI/AMD. Während G80 gut lief, hatten GT200 und GF110 nach einem Jahr noch Probleme und nach 1,5 Jahren waren sie ausgereift.
Es wäre überraschend, wenn GK110 1 Jahr (= in 2-3 Monate) nach AMD ohne Probleme daherkommt.
Es wäre im nichteinmal so überraschend, wenn GK110-Non-Problema erst in Juli 2013 kommen würde.
Das Problem ist, dass selbst 1 Jahr nach AMD immer noch kein GK110 dahertanzt, was kein gutes Bild über GK110 gibt. Vorallem sprechen die Gerüchte, dass GK110 vs HD 8970 mit nur so +7-10% nicht mehr diesen Performance-Vorsprung haben könnte, wie sie es beim GT200 und GF110 (jeweils +15%) gehaupt haben.
Eigentlich hatte ich mich viel eher auf die HD 9970 vs GTX 880 Begegnung gefreut, wo AMD mit neuer Fertigung immer schon etwas im Vorteil war, aber es deutet sich an, dass selbst HD 8970 vs GK110 ebenfalls sehr spannend werden kann.