boxleitnerb schrieb:
Im Schnitt hatte 384bit damals schon 15% gebracht ggü. 256bit bei CB, mit neueren Treibern wird das sicherlich nicht weniger geworden sein.
Tut mir leid, aber ich kann einfach diesem Argument nicht folgen.
Ich kenne auch keinen Test, wo eine GPU einmal mit 384bit und dann mit 256bit getestet wurde. Außerdem hast du auch noch nicht geschrieben, in welcher Art sich eine Limitierung auswirkt. Wenn die Skalierung von 1:1 auf 1:0,9 (Benchmarkt-Steigerung zu Performance-Steigerung) fällt, dann ist so eine Skalierung noch aktezeptable.
AMD hat Tahiti XT2 auch nicht aus Spass an der Freud 6 Gbps Speicher verpasst.
AMD bietet aber auch Evinity an, wo die Karte mit 3 Mal so viel Auflösung zu tun hat.
Der Grund warum beim Ghz-Edition eine höhere Bandbreite genutzt wurde, kann auch daran begründet sein, dass sie zuerst nicht oder es sich zuerst nicht auszahlte (inkl. Preise & Stromverbrauch), einfach den besseren und teueren Speicher dranzugeben.
Mir würden da gleich mehrere Gründe einfallen.
Die Spannung von besagtem K20 kenne ich nicht, aber es ist nur logisch (und erwiesen, siehe mein Beispiel), dass man auch einen großen Chip verhältnismäßig sparsam hinbekommt, wenn man den Takt und die Spannungen niedrig wählt.
Logisch wäre es, aber es passierte bisher nicht. Viele deiner Aussagen klingen losgisch, aber wenn sie es in der Vergangenheit bisher nicht machten, dann darf man es nicht erwarten, sondern man darf es nur als Möglichkeit sehen.
Außnahme sind das die Dual-GPU-Karten, aber die waren in der Vergangenheit immer sparsamer.
Ohne die Spannungen und Taktziele zu kennen, kann man einem großen Chip also nicht einen Monsterverbrauch andichten.
Grundsätzlich, aber genauo gingst du auch automatisch davon aus, dass GK110 sicher Performance-Schneller sind.
Natürlich muss GK110 nicht gleich 350W-TDP erreichen, aber wenn sie mit dem Stromverbrauch zurückgehen, dann können sie vielleicht die Performance-Single-GPU-Krone verlieren.
Ich behaupte, Nvidia ist die Single-GPU-Performance-Krone wichtiger und nimmt einen höheren Stromverbrauch in Kauf, wenn es möglich ist.
Selbst GTX690 hat fast 300W. Daher sind die 300-350W von mir garnicht so unrealistisch.
Und GTX690 hat nunmal doppelte SMX. Aber im GTX690 sind noch keine GPGPU-Einheiten drinnen.
Am Beispiel GTX690 sieht man, dass wenn man etwas Spannung runtergeht, dann kratzt man schon an 300W. Ich bin mir nicht so sicher, dass GK110 1000 Mhz @ 1,0 Volt schafft.
Das Problem des ziemlich effizienten GTX690 ist, dass wir nicht wissen, wie hochselektiert er ist. Hochselektierte ULV-Chips sehen immer in den Benchmarkts gut aus, aber sie sind in der regel nicht in der Masse lieferbar.
Llano-Notebooks-CPU siehen gegen die Danube-Quad-Core auch nicht so effizient aus. Zwar haben sie die selben Takte (wenn man 25/35-Danube mit 35/45W-Llano vergleicht), aber Llano hat den 32nm-Vorteil. Aber Llano sind Massen-CPUs mit Standard-Volts und Danube-Quads sind mit 0,95 ULV-Notebook-CPUs.
[/QUOTE]
Dass GK110 niedriger takten wird wie GK104, ist selbstverständlich.
[/QUOTE]
Nö, da es bisher nie vorkommt, dann es nicht selbstverständlich sein. Die 3 fache DB-Precise-Effizienz hat der K20 auch nicht erreicht, die Nvidia ersprochen hat.
K20 ist ca. 2,4 mal so effizenz wie M2050, obwohl der GF100 damals auch die versprochene Werte klar verfehlte.
Falls Nvidia beim GK110 die Spannung und den Takt nicht unerheblich senkt, dann sehe ich das eher als letzte mögliche Maßnahme.
Erstens hat GK110 doppelt soviele Transistoren wie GK104 (nicht +50% wie bei Fermi)
Und schon damals hatte GTX480 einen doppelt so hohen Verbrauch bei nur +50% mehr Transistoren. Da sollte es doch schwieriger werden, wenn GK110 +100% statt +50% Mehr Transistoren hat.
und zweitens operiert schon GK104 höher als vorgesehen, angedacht waren ursprünglich eher 900-950 Mhz.
Sie wollten die Performance-Krone oder zumindestens gleichauf sein.
Ich sagte ja, wenn Nvidia die Chance sieht, dann nehmen sie mehr Stromverbrauch in Kauf um diese Krone zu ergattern.
GK104 hatte übrigends +50% mehr Stromverbrauch wie GF104.
Q2 2012...bezog sich das explizit auf K20? K10 wurde Mitte Mai vorgestellt.
Kann ich zwar nicht überprüfen, aber ich kann es glauben.
Falls GK110-Geforce etwas später (3Q 2012) angepeilt war, dürfte sihc Nvidia weniger verschätzt habe, aber Geforce kommt dann trotdem erheblich später als Tesla, was früher umgekehrt war.
Eine Verschiebung von GK110@Geforce auf Sommer 2013 ist denkbar - sofern man mit einem GK114, sofern er existiert, mit Sea Islands gut konkurrieren kann.
Alleine diese Aussage sehe ich schon sehr GK110-Kritisch. Denn eigentlich sollte der High-Performance-Markt der profitablerste sein.
Die Frage ist, was du unter gut konkurrieren meinst.
HD 8800 wird ungefähr so schnell sein, wie Thaiti und somit im Bereich des GTX680.
Jetzt ist halt die Frage, ob sich HD 8800 mit den bisher gerüchteweise 150W bei Thaiti XT2 oder Thaiti orierntiert.
Ich würde es für Nivida nicht berühigend sehen, wenn sie zwar GK114 mithalten/konkurrieren kann, aber trotzdem ein Hauch langsamer und ein Hauch mehr Strom verbraucht. Denn Nach Einführung der Refresh-Generation beginnen die Gerüchte und das Warten auf die 20nm-Generation.
Einziger nichttragischer Grund für eine GK110 und HD 8800/8900 Verschiebung sehen ich, wenn sich 20nm selbst auf verschiebt. Selbst wenn 20nm-Thaiti-Nachfolger schon Feb/März 2014 kommen sollte, dann sollte die Vorgänger spätestens März/April 2013 kommen. Wenn High-End-Dies erst Juni/Juli 2013 kommen sollte, frage ich, wer sowas kaufen soll, wenn in einigen Monaten eine schnellere mit weniger Strombedarf kommen sollte und die Gerüchte über 20nm-GPU schon längst im laufen sind.
Nicht viele kaufen sich dann so ein teures Produkt, was dann schon veraltet wirkt.
Man bedenke aber auch, dass die 28nm Kapazitäten schon jetzt deutlich steigen mit der zusätzlichen Fab von TSMC. Dass der 28nm Prozess dann immer noch nicht gut genug läuft, erscheint mir wenig plausibel.
Der Fabriks-Ramp der zweiten Fabrik (Fab 15-1 oder Fab-14-5) läuft schon seit 2 Quartalen (2Q 2012). Der Ausstoß der 2. Fabrik @ 40nm war 1 Quartal vor GF100-Start. In im folgenden Quartal war der Kapazitätsengpass zu Ende, was man an den deutlich fallenden Marktanteilen von Nvidia wegen dem fehlen von DX11 @ Massenmarkt gut merkte.
Dass selbst jetzt viele glauben, dass die TSMC-28nm-Kapazitäten im 4Q noch zu gering sind, finde ich interessant. Denn TSMC behauptet a) das Gegenteil und b) sage ich seit Quartalen, dass ich anderer Meinung bin, weil ich vermutete, dass viele Hersteller einfach ihre Bestellungen zurückhielten, indem sie ihre Produkte daran anpassten.
Fermi kam nicht zu Beginn des 40nm Prozesses, GK104 kam viel früher. Das musst du mit berücksichtigen. Mai 2010 wurden erste Fermi-Teslas ausgeliefert - ca. 9 Monate nachdem erste 40nm GPUs erschienen sind, nämlich AMDs 5000er Serie. Jetzt ist es nicht anders. Erste 28nm GPUs im Dezember/Januar, erste Kepler-Teslas im September. Die Botschaft bleibt gleich: Es braucht Zeit bei einem neuen Prozess, bis man so große GPUs launchen kann. GK104 wurde deshalb als Flaggschiff vorgeschoben, weil er klein ist und früher herstellbar war.
Im Grunde sagte ich das ja mit meiner Liste, dass Nvidias-Big Dies immer 1,0 Jahre nach Fertigungs-Process-Einführung kommt. Und wenn der Big-Dies nicht planmäßig funktioniert, dann kommt er meistens 1,5 Jahre danach.
An deiner Reichnung erkärtest du immer noch nicht, warum GK110 jetzt 6-9 Monate nach GK104 kommt, obwohl früher der Big-Die immer davor gekommen ist. (GF100 kam vor GF104).
Und der Vergleich mit Teslas hat halt die Ungenauigkeit, dass man selbst mit miesen Yields einen GK110 noch im Telsa-Markt teuer verkaufen kann, da dort die Preise um 4-8 Mal höher sind.
Uns interessiert GK110 primär im Desktop-Markt.
Mit wundert es nicht, warum Tesla-GK110 auf den Tesla-Markt muss.
Momentan macht dort Nvidia den meisten Gewinn/Profit. Und mit FirePro S9000 ist die Konkurrenz stärker/effizienter als Tesla S1070
Bei Quadro ist es nicht ganz so schlimm, aber da dort einige Keplers sowie K10 schon vertreten sind. AFAIK wurde GK110 bisher nur für den Tesla-Markt (=HPC) Markt vorgestellt und nichtmal für Quadro-Workstation.
Bzgl. Menge an Teslas vs Geforce:
Noch zu schlechter Yield für Geforce-"Massen"launch + unterschiedliche Marge + Vertragsverpflichtungen. Simpel eigentlich: Du hast wenig Chips und verkaufst sie dort, wo du am meisten verdienst.
Nö, man verkauft sie zuerst, wo sie Vertraglich schon längst überfällig sind.
Ich versehe nicht, wo du die Beruhigung sieht, dass Nvidia jetzt immer noch dermaßen schlechte Yields hat, dass sie es in Geforce-Markt nicht verkaufen kann.
Es ist doch überhaupt nicht klar, ob es überhaupt dedizierte DP-Einheiten gibt, oder ob die normalen CCs entsprechend zusammengeschaltet werden.
Was sollen sonst die Double-Precise-Einheiten denn sein, wenn Nvidia sie einzeichnet.
http://1.2.3.10/bmi/images.ht4u.net...msi_cyclone_gigabyte_oc/sm_gf106_vs_gf100.png
http://1.2.3.11/bmi/www.hardwarelux...wsbilder/aschilling/2012/gtc2012/GK110SMX.png
Kannst GK110 gerne mit R600 in eine Ecke stellen, wenn dir das Spass macht. Ich gebe auf solche unfundierten Hirngespinnste nix.
Es hat nichts mit Spaß zu tun.
Damals wäre ein GF100 spekuliert in der Form eines GTX480 auch ein Hirngespinst gewesen. Es wurde realität. Dass Big-Dies erheblich später und problematischer wurde, diese These stellte ich kurz nach GTX285 auf und war auch ein Hirngespinst.
Ja, es macht Spaß zu spekulieren, aber es macht keinen Spaß bewusst falsches zu spekulieren.
Wenn 13 SMX mit 700 MHz und 6GB VRAM schon gut in 225W TDP passen, sehe ich nicht so schwarz wie du.
Das ist einer der wenigen postiven Anzeichen, die auch noch schwergewichtig sind.
Aber wie ich schon sagte, wenn das ein hochselektierter ULV-Chip ist, welches Nvidia dann in Geforce-Markt nicht genauso (primär die Spannung) umsetzen kann, dann sieht die Sache wieder anders aus. Denn dann ist man recht bald in jenen Bereichen, die ich anspreche.
Dass ich die Sache schwerwiegender sehen, liegt vielleicht daran, dass ich miese Yields höher bewerte als du und eine eventuelle Verschiebung auf Mitte 2013 schon als absoluten Worst-Case sehen würde, auch wenn Nivdia es schafft GK110 auf 295W zu bringen und 5-10% vor HD8900 bringt, wenn HD 8900 schon in April kommt.
Es war bisher so, dass das Fertigungs-Refresh-Jahr immer jenes Jahr war, wo Nivida problemlos aufholte und gerade noch mithalten kann und das mit (Verspätungs-)Schwierigkeiten.