News Gerüchte zu finalen Spezifikationen zu Nvidias Tesla K20 (GK110)

Aylano,

mir kommt es so vor, als ob du mit purer Menge an Text hier versuchst, die Diskussion zu dominieren. Fass dich doch bitte etwas kürzer und übersichtlicher.

Mir ging es darum, dass Nvidia mit GK110 50% Bandbreite und je nach Ausbau von GK110 etwa 30% an Rechenleistung und Füllrate drauflegen kann. Zumindest ersteres kann AMD nicht, bei letzterem wird AMD mit der TDP meiner Ansicht nach ein größeres Problem bekommen als Nvidia, weil hier etwas mehr Spielraum bei der TDP besteht, ausgehend von Tahiti XT2 und GK104.

Eine TDP von 300-350W für GK110 ist ziemlich illusorisch, denn:
K20 hat mit 13 SMX und 700 MHz eine TDP von 225W mit einem Realverbrauch von 200-210W laut Hübie aus dem 3DC, der auf Arbeit (wahrscheinlich eine Uni oder Forschungseinrichtung) so eine Karte schon hat bzw. konkrete Vorabinformationen. Maßgeblich für die Leistungsaufnahme ist der Takt und die Spannung, die zusätzlichen SMX sind eher für den Yield wichtig. Wenn Nvidia es mit dem Takt nicht übertreibt, werden nie im Leben 350W rauskommen. Nvidia ist im Moment eh auf der Effizienzschiene, die werden sie kaum wieder verlassen so schnell.
 
boxleitnerb schrieb:
Fass dich doch bitte etwas kürzer und übersichtlicher.
Sign. 2-4 DinA4 Seiten in Arial 11 je Beitrag sind viel. Und fast genau den Fehler mache ich jetzt auch, hoffentlich nicht zu oft.

------
Bei der TDP Geschichte frage ich mich, wie soll das gekühlt werden? 7970 Ghz hat eine TDP von 250W, schluckt teils mehr als eine GTX 480. Beide Referenzkühler haben ihre Probleme die Abwärme in den Griff zu bekommen.
Bislang wird das nur von Dual GPU Brettern übertrumpft.

AMD hat sich nicht getraut die 7990 offiziell zu starten, eine 8990 wird noch unwarscheinlicher. nvidia kann zumindest auf GK114 Basis ein Dual Brett starten. AMDs Strategie mehrere kleine GPUs aufs Topmodell zu schnallen, während die Konkurrenz sich an Monsterchips abmüht, hat sich offensichtlich in Luft aufgelöst.

aylano schrieb:
a) deshalb hatte ich für Dich & Co den GK107 ebenfalls aufgelistet.
Mit 1 Jahr nach GK107, würde GK110 halt wieder besser ins nicht-ausgreifte Schema passen.
GK107 oder GK104 spielt keine zeitliche Rolle. Ende März 2012.
Tahiti, der 365mm² Chip ist im Januar unbeschnitten gestartet. Mag sein, das es eine miserable Managemententscheidung war, immerhin ist der Umsatz gesunken.

Frei nach deinem Stil:
90nm: R520 (320mm²) ............ 13 Monate später ........ G80 (484mm²): Oktober 2005 -> November 2006
28nm: Tahiti(365mm²) ............ 13 Monate später ........ GK110(550mm², Teildeaktiviert): Januar 2012 -> Februar 2013

DAS passt gut in deine Reihe.

b) weißt du die Yields nicht der Big Dies.
Bzw. man weißt, dass Thaiti & RV870 sehr schlechte Yields haben, mit den man früher vielleicht noch gewartet haben.
Ich weiß das GK104 teurer ist als man vermuten würde. 28nm Wafer sind teurer geworden.

c) Modelle sind immer etwas falsch.
Nur Leute, die noch nicht mit sowas gearbeitet haben, wissen das nicht und sind dann beim ausbessern besonders klug.
Was soll das?

d) Modelle macht man einfach, damit sie übersichtlicher sind.
Genau daran musst du noch arbeiten.

Ich hätte es natürlich etwas genauer machen können, aber ich bin mir sicher, dann hättest du mit dem doppelten Text noch viel mehr herumgenörgelt u.a., weil du dich überhaupt nicht zurechtgefunden hättest.
Meine Zeit ist begrenzt. Ich lebe nicht ewig.

In der 7000er-Serie wirkt es nicht so, weil 7800 mit 10CUs pro Grafik-Engine einen stark überdimensionierten Front-End hat, während 7900 mit 16CUs pro Grafik-Engine das Front-End voll ausnutzt.
Tahiti wird offensichtlich durch das Front-End limitiert. Die 15% Mehrtakt der 7970 schlagen öfter durch, als die 32% mehr Rechenleistung.
Pitcairn in der 7870 kommt Tahiti in der 7950 gefährlich nahe.

Man könnte von Deklassierung reden. Nimm die HD5. Juniper 7770 muss sich sogar der zweiten kastrierten Cypress Variante 5830 geschlagen geben.
Ganz im Gegenteil zu dir, habe ich daher den Eindruck die kleinen HD7 seien die guten Chips.

Ich hatte AFAIK mal die 1600 Shader von HD 5870 mit einem Shader zu mm² - Verhältnis der HD 4000er-serie richtig "erraten"/modelliert., als die Diefläche des HD 5870 bekannt waren.
Schön für dich. "aylano" + "1600" ergibt nur leider NULL Treffer. Ich würde mich gerne auf GK110 konzentrieren, erhöht die Übersicht und außerdem heißt der Fredtitel u.a. GK110.

Klar, war ja bei GF104 vs GF100 auch nicht anders.
GF104 war nicht sonderlich beeindruckend. GF104 ist Monate nach GF100 erschienen. GF104 hat nette Karten hervorgebracht, aber es war nicht so wie gewünscht. Den trotz des Monate späteren Launch im Vergleich zu GF100 war auch hier, beim kleinen Chip eine Teildeaktivierung nötig. Ein Design wird nicht gut, nur weil die Konkurrenz schwach ist.

Wenn du bessere Prognosen mit konkreten Zahlen machen kannst, dann tu es doch.
Gescheit mit bezugslosen Meinungen zu reden kann jeder.
Vielleicht kriege ich sowas auch in einer Zeile zusammen.
Mir reicht es zunächst deinen Text auseinander zu nehmen.
 
boxleitnerb schrieb:
Aylano,

mir kommt es so vor, als ob du mit purer Menge an Text hier versuchst, die Diskussion zu dominieren.
Richtig, so wie im Realen Leben spricht immer derjenige, der entsprechende Informationen hat. Wer nicht auf den Text eingeht, hat normalerweise nicht das Ziel zu diskutieren, sondern zu stören bzw. die Dominanz durch unfairen Mittel wegzunehmen.

[/QUOTE]
Fass dich doch bitte etwas kürzer und übersichtlicher.
[/QUOTE]
Nö, ich habe die Erfahrung gemacht, wenn ich die Texte kürzer schreibe, dass sie erst recht nicht verstanden werden. In der Vergangenheit haben genau diejenigen sich am meisten aufgeregt, die nachher meine kurzen Texte am wenigsten verstanden haben.

Da erkannte ich, dass der Text nicht das Problem war, sondern das manche mit den schlechten Prognosen nicht vertragen haben, wie es damals bei GF100 war.

Mir ging es darum, dass Nvidia mit GK110 50% Bandbreite und je nach Ausbau von GK110 etwa 30% an Rechenleistung und Füllrate drauflegen kann.
Ich sagte schon, dass solche Bezugslosen Zahlen wertlos sind und somit nichtssagend.
Wiederholen machen bezugslose Zahlen nicht verständlicher.

Zumindest ersteres kann AMD nicht, bei letzterem wird AMD mit der TDP meiner Ansicht nach ein größeres Problem bekommen als Nvidia, weil hier etwas mehr Spielraum bei der TDP besteht, ausgehend von Tahiti XT2 und GK104.
Komisch, ich zeigte es genau anders rum, obwohl ich Tahiti XT und GK104 vergleiche.
Wie du die Sachen in der Fantasie siehts, weiß ich nicht, da du weder Bezug und schon gar keine Zahlen geschrieben hast, wodurch ich deinen Gedankengang nicht nachvollziehen kann.

Eine TDP von 300-350W für GK110 ist ziemlich illusorisch, denn:
K20 hat mit 13 SMX und 700 MHz eine TDP von 225W mit einem Realverbrauch von 200-210W
...
Maßgeblich für die Leistungsaufnahme ist der Takt und die Spannung,...
Und wie war die Spannung beim K20?
Wenn man die Spannung von M2050 wüsste, dann hätte wir einen besseren Bezug von 225W-Tesla zu 250W-Deskotp.;)

Wenn Nvidia es mit dem Takt nicht übertreibt, werden nie im Leben 350W rauskommen.
Klar, entweder man gibt die Performance-Krone ab, oder man holt sie über den Stromverbrauch.
GTX580 verbraucht genauso viel wie GTX480.
Bevor GTX480 kam, klingten 250W genauso verrückt, wie wenn ich jetzt GK100 300+W für möglich halte. Schließlich träumten alle infolgen der bewusstverbreiteten Lügen von einem GF100 mit ebenfall 190W bzw. 210W-TDP. Damals galt man als Mega-Fanboy, wenn man das nur anzweifelte.

Nvidia ist im Moment eh auf der Effizienzschiene, die werden sie kaum wieder verlassen so schnell.
Und wie merkt man das bzw. warum sollte AMD nicht genauso auf Efizienz-Schiene gehen?
Die Hohe effizienz von +30% in Double-Precise bringt im Desktop nichts. Ganz im Gegenteil, denn die Extra Einheiten verbrauchen ja eben auch Strom.

PS: Wenn ich mich recht erinnere, ist GF100 genauso im 2Q gekommen, wie die Desktop-Version. Diesesmal kommt sich 1-2 Quartale später. So oder so, sind die Anzeichen schilmmer als bei GF110. Das einzige was man höhrt ist Hoffnung.

Dass GK110-Desktop 1 Jahr statt 1Quartal nach GK104 kommt, deutet ja genauso auf Stromverbrauchsprobleme hin. Denn mit 300mm² war GK104 1 Jahr vor GK110 auch nicht so klein.
 
Bezuglose Zahlen? Weiß nicht, was du damit sagen willst. Bezug zu GK104 und dessen Leistung im Vergleich zu Tahiti XT2. Deutlich mehr Bandbreite für GK110, mehr Leistung. Man kann so auch die zusätzlichen Einheiten füttern, die vergleichsweise großen Caches tun ihr Übriges. AMD hat dieses Pulver sozusagen schon verschossen.

Nur weil ein Chip groß ist, heißt das noch lange nicht, dass die ganzen Transistoren auch auf einmal schalten. von der Größe kannst du nicht auf den Verbrauch schließen, siehe GTX570 vs HD6970. Gleicher Verbrauch, aber GF110 ist natürlich viel größer.
Nvidias erklärtes Ziel mit Kepler ist Effizienz, nachdem sie mit Fermi auf die Nase gefallen sind. Es ist höchst unwahrscheinlich, dass man sich davon wieder abwendet. Als die Entwicklung von Fermi angefangen hat war die Leistungsaufnahme noch nicht so fürchterlich wichtig, das hat sich spätestens mit dem Fermi-Launch ziemlich geändert. Du musst Nvidia für ziemlich bescheuert halten, wenn du ihnen einen Fermi 2.0 andichtest, denn nichts anderes wäre ein 300-350W Chip.
Im Interview mit der c't haben zwei Kepler-Entwickler explizit gesagt, dass man sich Mehrleistung nicht mehr mit einem höheren Verbrauch erkaufen kann. Man muss sich mehr oder weniger an die etablierten (250W) Grenzen halten.

Dass GK110 später kommt, deutet nicht auf Verbrauchsprobleme hin. Nvidia wäre schön blöd, wenn sie den günstig herzustellenden GK104 gleich wieder überflüssig machen würden. Du lässt ein Produkt eine gewisse Zeit auf dem Markt und verkaufst es für den bestmöglichen Preis. Davon abgesehen muss der Prozess erst reifen, das hat primär mit Yields zu tun, nicht mit dem Verbrauch. Einen kleinen Chip wegzuschmeißen oder deutlich abzuspecken ist natürlich viel billiger als das mit einem 550mm2 Monster zu tun.

Die meisten Chips werden aktuell auf Teslas gepackt, die eine viel höhere Marge ermöglichen als Geforce. Zudem muss man Verträge erfüllen, analog zur schlechten Liefersituation von GK104 zu Beginn, wo man viele Kapazitäten in das Mobilsegment gesteckt hat, was bei GK104@Desktop dann gefehlt hat. Das sind wirtschaftliche Gründe, da muss man nicht gleich wieder den Stromverbrauchhorror heranziehen ;)
 
Zuletzt bearbeitet:
*einen Snickers isst*
 
boxleitnerb schrieb:
Bezuglose Zahlen? Weiß nicht, was du damit sagen willst.
Bezug zu GK104 und dessen Leistung im Vergleich zu Tahiti XT2.
Ob die Bandbreite des Thaiti XT2 jetzt überdimensioniert ist oder nicht, konntest du mir nimmer noch nicht zeigen. Erst musst du den Bezug herstellen und dann überlegen ob man diesen Vergleich machen kann. Wennst meine Textberge genau liest, würde dir das jetzt bekannt vorkommen.

Natürlich braucht Thaiti mehr Bandbreite, denn der wird ja auch im GPGPU eingesetzt, wo man viel Bandbreite auch wichtig ist. Und ja, GTX680 bricht in den ganz hohen Auflösungen etwas ein und ist dort übern Limit. Mich verwundert es nicht, wenn GK110 mehr Bandbreite braucht, damit er nicht in den ganz großen Auflösungen ebenfalls einbrechen wird.

Nur weil ein Chip groß ist, heißt das noch lange nicht, dass die ganzen Transistoren auch auf einmal schalten. von der Größe kannst du nicht auf den Verbrauch schließen, siehe GTX570 vs HD6970.
Warum sollte ich es nicht können, wenn es in den letzten 3-4 Generationen so war und die Tendenzen auch so zeigen.

Natürlich kann ich falsch liegen, aber "kann nicht sein", "hoffen", "sollte" sind jetzt auch keine seriösen Erklärungen dagegen. Bei GF100 konnte sich das damals auch keiner vorstellen, aber mittlerweile hat man sich auf 250W schon gewöhnt, was vor 2-3 Jahren noch unGLAUBLICH viel war.

Nvidias erklärtes Ziel mit Kepler ist Effizienz, nachdem sie mit Fermi auf die Nase gefallen sind. Es ist höchst unwahrscheinlich, dass man sich davon wieder abwendet.
Ja und? Nvidia sagte auch, dass sie Fermi Ende 2009 rausbringen wollen und zeigten einen Prototypen. Wennschon ist es für dich nicht vorstellbar.

Überrascht hat mich eher, dass GTX580 genau den selben Stromverbrauch hat wie GTX480.
Effizienz heißt nicht geringer absoluter Stromverbrauch sondern hoher Performance-pro-Watt.

Als die Entwicklung von Fermi angefangen hat war die Leistungsaufnahme noch nicht so fürchterlich wichtig, das hat sich spätestens mit dem Fermi-Launch ziemlich geändert.
Die Frage ist, ob man Kepler so schneller ändern kann. Bei Fermi dachte man auch, dass sie frühzeitig regieren kann. Ich denke, die Architektur ist da sehr steif. Solche Variantionen wie bei AMD, wo mal 10 oder 16CU pro Grafik-Engine eingebaut werden, gibt es bei Nvidia nicht. Natürlich könnte Nvidia etwas weniger SMX verbauen, aber da müsste Nvidia eben auf 3 SMX verzichten.

Du musst Nvidia für ziemlich bescheuert halten, wenn du ihnen einen Fermi 2.0 andichtest, denn nichts anderes wäre ein 300-350W Chip.
Genau sowas hörte man auch, wenn jemand den GK110 für nächstes Jahr speklulierte.
Selbst 2 Monate davor.

Egal wie GK110 kommt, es liegt mit der 1 Jahres-Verschiebung sowieso schon längst im Worst-Case-Szenario. Dass man die 1 Quartalverschiebung von 4Q 2012 auf 1Q 2013 recht locker hingenommen hat, liegt vielleicht daran, dass man nach GT200-B3, GF100 und jetzt GK110 sich schon längst an das Warten gewöhnt hat.

Im Interview mit der c't haben zwei Kepler-Entwickler explizit gesagt, dass man sich Mehrleistung nicht mehr mit einem höheren Verbrauch erkaufen kann. Man muss sich mehr oder weniger an die etablierten (250W) Grenzen halten.
Da haben sie eh recht.
Es ist halt die Frage, ob die 28nm-Fertigung richtg eingeschätzt haben. Ich glaube, dir ist nicht bewusst, dass 28nm schlimmer war als 40nm. Und da ist das Problem. Es könnte sein, dass Nvidia 28nm vielleicht eben im schlimmsten Fall gleich gut eingeschätzt haben, wie 40nm.

Wie gesagt, es ist eine Möglichkeit.
Aber ich wüsste nicht, warum GK110 gegenüber einem GTX680 mit fast doppelt so viel SMX nur einen +50% höheren Stromverbrauch ereichen sollte, um 250W zu erreichen.
Es sieht so aus, als ob SMX des GK110 einen größeren Die-Anteil hat als GT680.

Dass GK110 später kommt, deutet nicht auf Verbrauchsprobleme hin. Nvidia wäre schön blöd, wenn sie den günstig herzustellenden GK104 gleich wieder überflüssig machen würden. Du lässt ein Produkt eine gewisse Zeit auf dem Markt und verkaufst es für den bestmöglichen Preis.
Nvidia wäre genauso blöd, gewisse Dies zu entwickeln und ihn dann nicht am Markt zu bringen. GTX460 hat GTX480 auch schön blöd aussehen lassen. Es geht nicht um Blödheit, sondern dass Nvidia vielelicht sich überschätzt hat und zu viel GPGPU in den GK110 gab und gleichzeitig 28nm besser einschätze.

Davon abgesehen muss der Prozess erst reifen, das hat primär mit Yields zu tun, nicht mit dem Verbrauch.
Umso blöder, wenn man dann den hohen Stormverbrauch dann mit weiterer Reifung nicht wegbekommt, gell.

Man darf auch nicht die zweite Verschiebung vergessen.
Zuerst wurde von 2Q 2012 auf 4Q 2012 verschoben und dann um ein weiteres Quartal.
Warum GK110 um ein weiteres Quartal verschoben muste, konnte noch nicht geklärt werden. Das Problem ist, dass eine Verschiebung um ein weiteres Quartal nicht ausgeschlossen werden kann. Ich glaube, die meisten gehen sicher davon aus, dass GK110 in März/April 2013 kommt, anstatt daran zu hoffen, dass er erhaupt zu dieser Zeit kommt.

Ich kann dir noch betonen, dass alle selbst Feb 2012 an einem GK110 in Mai/Juni 2012 glaubten. Zu dieser Zeit glaubten nur die Optimisten an einen GK110 in April 2012.

Die Anzeichen und Tendenzen sehen schlecht aus. Aber das heißt nicht, dass es so kommen muss. Aber mit dieser Ansichtsweise konnte ich in der Vergangenheit die GPU-Zukunft viel besser einschätzen, als nur zu sagen. "So kann es nie passieren"
 
Da GK104 jetzt schon mit der Bandbreite ziemlich am Limit ist, sollte die Bandbreite analog zur Rechenleistung steigen, und das wird sie mit einem 384-bit Bus auch tun. Es ist erwiesen, dass Tahiti die 384-bit schon recht gut ausnutzt, siehe erstes CB-Review, im Schnitt aber nicht um den Bandbreitenvorteil (prozentual) vor einer 680 liegt.

Du kannst nicht die letzten 3-4 Generationen anschauen und ganz außer Acht lassen, dass es vorrangig auf Takt und Spannung ankommt. GK110 ist sehr breit, aber im Vergleich zu GK104 wird der Takt auch deutlich niedriger ausfallen. Ich habs mal markiert, sonst geht es unter. GF110 kommt mit niedrigeren Spannungen als GK104 daher trotz 40nm. Merkwürdig.

Als man GK110 für Anfang 2012 spekulierte, war noch nicht klar, wie stark GK104 für einen so kleinen Chip werden würde. Beim Launch war dann eigentlich klar, dass es zwar nicht möglich ist, einen so großen Chip mit einem so jungen Prozess zu launchen, aber eben auch nicht nötig. Die IHVs wissen schon ungefähr, was der andere hat. 10-15% kann man da mit Takt schon rausholen, was Nvidia mMn auch gemacht hat. Wunschdenken (ich hätte auch gerne einen GK110 schon 2012 gehabt) und wirtschaftliche Aspekte sind nunmal nicht immer vereinbar.

Nvidia bringt GK110 doch in den Markt, eben noch nicht als Geforce. Tapeout März 2013, erste Auslieferung von Teslas im September. Passt doch.

Was ist am 28nm Prozess denn schlecht? Yields? Ja. Daher liegt der Fokus auch auf den margenträchtigsten Segmenten. Was soll Nvidia denn den K20-Bestellern sagen?

"Sorry, ihr kriegt nur einen von drei bestellten Chips, weil wir ein doppelt so großes Die jetzt für 599 verkaufen, obwohl wir mit GK104 viel mehr Gewinn machen. Wir würden mit den Teslas viel mehr Gewinn machen und auch nicht das Vertrauen des professionellen Segments in unsere Lieferfähigkeiten beschädigen, aber die Highendgamer sind uns wichtiger."

Aber wo waren wir? Was ist am 28nm Prozess schlecht? Die Performance/Verbrauchscharakteristik? Das ist wieder eine ganz andere Baustelle. Schlecht schaut es aber mitnichten aus, wenn man sich die aktuellen 28nm Karten anschaut was Perf/W angeht.

Was meinst du mit "hohem Verbrauch"? GF110 hat etwas weniger verbraucht als GF100 und höher getaktet, das war eine schlichte Designentscheidung, die Ersparnis für mehr Performance zu nutzen. Was du da erzählst, stimmt also nicht.
 
Zuletzt bearbeitet:
boxleitnerb schrieb:
Es ist erwiesen, dass Tahiti die 384-bit schon recht gut ausnutzt, siehe erstes CB-Review, im Schnitt aber nicht um den Bandbreitenvorteil (prozentual) vor einer 680 liegt.
Es ist nicht erwiesen.
a) Weiß ich nicht was du meinst.
b) Schaue ich nicht für dich nach und recherchiere ob deine Aussage stimmen mag.
c) wüsste ich nicht, wo 384-bit limitiert, wenn sie damals im ersten CB-Review sogar langsamer war, obwohl Thaiti 40% mehr Bandbreite hatte.

Dass du keine Milchmädchen-Rechnung mit deiner Betrachtungsweise macht, liegt wahrscheinlich daran, dass du selber nicht so weißt was du sagtst.
Einfach zu sagen, GK110 ist (überproprotional) schneller als GK104 bringt überhaupt nichts, da die Abstände von HD4870 vs. GTX280 ; HD4890 vs. GTX285 ; HD 5870 vs. GTX480 und HD 6970 vs. GTX 580 so gering waren (so +15%), dass Plus-Minus 10% Unterschied entweidet, ob eine Karte Flop oder Top ist.

Plus-Minus-10% ist beim erstellen von Prognosen nicht viel, sondern verdammt wenig.

Du kannst nicht die letzten 3-4 Generationen anschauen und ganz außer Acht lassen, dass es vorrangig auf Takt und Spannung ankommt.
Tue ich nicht. Du liest offensichtlich meine Texte nicht.
Bei einer obige Liste schrieb ich extra Takt-Ziel-Erreichung oder Non-Takt-Zielerreichung.
Ich lasse nichts außer acht. Eher du, weil du die Spannung von K20 @ 225W-TDP nicht mitgeteilt hast.

Und wie ich schon sagte.
Wenn GK110 wieder den Takt-Ziel nicht erreicht, dann beideutet das so -10 oder -15% und das kann dann der Grund sein, warum GK110 sogar langsamer ist. Oder sie erhöhen den Takt und erkaufen sich die Performance-Krone über den erhöhten Stromverbrauch.

GK110 ist sehr breit, aber im Vergleich zu GK104 wird der Takt auch deutlich niedriger ausfallen. Ich habs mal markiert, sonst geht es unter.
Von wo kommt diese Information?
In den letzten Jahren war das nicht so!

GF110 kommt mit niedrigeren Spannungen als GK104 daher trotz 40nm. Merkwürdig.
Ich wüsste nicht was daran merkwürdig ist, wenn das ganze bisherige GK-Portfolie diese hohen Spannungen von 1,15 statt 1,00 Volt hat.
Mich würde eher interessieren, woher die Behauptung oder deine Meinung kommt, dass GK110 eine viel niedere Spannung hat, als die anderen Keplers.

Natürlich wäre es eine Möglichkeit die Spannung deutlich zu senken. Aber dann müssten sie vielleicht auch noch den Takt erheblich senken. Dass GK104 die etwas höhere Spannung von allen hat, liegt vielleicht am etwas höherem Takt.

Als man GK110 für Anfang 2012 spekulierte, war noch nicht klar, wie stark GK104 für einen so kleinen Chip werden würde. Beim Launch war dann eigentlich klar, dass es zwar nicht möglich ist, einen so großen Chip mit einem so jungen Prozess zu launchen, aber eben auch nicht nötig.
Es ist falsch, dass sie so einen großen Die nicht nötig hätten. In Tesla hätten sie in sehrwohl nötig und der Tesla-GK110 war für 2Q 2012 geplant. Dass dieser Tesla um 2Q später geliefert werden konnte, zeigt eben, dass ein großer Die nicht möglich war.

Als man GK110 für Anfang 2012 speklulierte, wusste man nicht wie stark GK104 und GK110 wird. Monate davor wurden übrigends Märchen erzählt, dass Kepler noch eine Hochtakt-Architektur ist. Daher war Kepler von der Performance schwieriger einzuschätzen.

Anfang 2011 war ich schon der Meinung, dass die 28nm-Fertigung das Haupt-GPU-Thema im Jahr 2012 wird und GK110 möglichwerweise erst Ende 2012 kommt.


Die IHVs wissen schon ungefähr, was der andere hat. 10-15% kann man da mit Takt schon rausholen, was Nvidia mMn auch gemacht hat. Wunschdenken (ich hätte auch gerne einen GK110 schon 2012 gehabt) und wirtschaftliche Aspekte sind nunmal nicht immer vereinbar.
Genau aus Wirtschaftlichen Gründen (Performance-pro-(Watt & mm²) kann sich GK110 eben nauch auf Juli 2013 verschieben, aber AFAIK kritisierst du das heftig.
Nvidias Wunschdenken von 2Q 2012 hat sich nicht erfüllt.

Nvidia bringt GK110 doch in den Markt, eben noch nicht als Geforce. Tapeout März 2013, erste Auslieferung von Teslas im September. Passt doch.
Für dich klingt das nicht tragisch, weil du vielleicht nicht in die Vergangenheit blicktest, wann Nvidia früher die Tesla-Karte rausbrachte.
Bei GF110 war es AFAIK kurz oder 1Q nach GTX480. Im welchen Zustand muss dann GK110 sein, wenn GK110 als Geforce viel später die Teslas daherkommt.


Was ist am 28nm Prozess denn schlecht? Yields? Ja. Daher liegt der Fokus auch auf den margenträchtigsten Segmenten. Was soll Nvidia denn den K20-Bestellern sagen?
Du tust ja so, als ob Tesla genausoviele Karten benötigt, wie der Geforce-Markt.

"Sorry, ihr kriegt nur einen von drei bestellten Chips, weil wir ein doppelt so großes Die jetzt für 599 verkaufen, obwohl wir mit GK104 viel mehr Gewinn machen. Wir würden mit den Teslas viel mehr Gewinn machen und auch nicht das Vertrauen des professionellen Segments in unsere Lieferfähigkeiten beschädigen, aber die Highendgamer sind uns wichtiger."
Theoretisch mag das stimmen, aber warum kamen die Teslas üblich später?

Schlecht schaut es aber mitnichten aus, wenn man sich die aktuellen 28nm Karten anschaut was Perf/W angeht.
Gerne, während Cape-Verde und Pitcairn mit 10CUs pro Grafik-Engine nicht die effizienteste Einheiten-Konfiguartion hat, hat Thaiti die GPGPU-Last und AMD ist in Sachen Effizienz gleich gut bzw. Thaiti nicht ganz gleich.

Bei AMD ist noch potential sichtbar, bei Nvidia nicht, außer das übliche im Refresh (Fertigungs-Verbesserungen)

Eherlichgesagt, kommen mir die +30% höhere Double-Precise-Effizien/Performance des GK110-Tesla eigentlich wenig vor, wenn man bedenkt, dass er eine Menge Double-Precise-Einheiten hat.

Was meinst du mit "hohem Verbrauch"? GF110 hat etwas weniger verbraucht als GF100 und höher getaktet, das war eine schlichte Designentscheidung, die Ersparnis für mehr Performance zu nutzen. Was du da erzählst, stimmt also nicht.
Mach dich nicht lächerlich.
Dass sie GTX580 im Stromverbrauch zwischen 1% und 4% senken konnte, ist irrelevant, wenn GTX 480 davor mit +35% gegenüber dem GTX285 zulegte.

Dass sie einen So hohen Effizienz-Sprung zusammenbrachte, war ja logisch, nachdem sie den 16.SM-Block standardmäßig deaktivieren mussten.

Natürlich war es eine schlichte Desgin-Entscheidung, weil sie die Performance-Krone mit Abstand wollten. Und sie konnten diese Entscheidung treffen, weil sie die Möglichkeit hatten. Und wenn es blöd kommt, dann können sie so eine Entscheidung beim GK110-Geforce eben nicht treffen und müssen dann irgendwo zurückstecken.

Vor GTX480 hatte sich auch keiner vorstellen können, dass Nvidia je eine schlechte High-End-Karte rausbringen wird. Genauso kann sich hier keiner vorstellen, dass GK110 so in die Hose geht, wie es R600 damals machte. Wobei da nicht so die Architektur das Problem war, sondern die Einheiten-Konfiguration. Und genau die Einheiten-Konfiguration (Double-Precise-Einheiten) sind jene Sachen, die ich beim GK110 kritisch sehe.
 
Im Schnitt hatte 384bit damals schon 15% gebracht ggü. 256bit bei CB, mit neueren Treibern wird das sicherlich nicht weniger geworden sein. AMD hat Tahiti XT2 auch nicht aus Spass an der Freud 6 Gbps Speicher verpasst.

Die Spannung von besagtem K20 kenne ich nicht, aber es ist nur logisch (und erwiesen, siehe mein Beispiel), dass man auch einen großen Chip verhältnismäßig sparsam hinbekommt, wenn man den Takt und die Spannungen niedrig wählt. Dies ist gerade hier sehr wichtig. Ohne die Spannungen und Taktziele zu kennen, kann man einem großen Chip also nicht einen Monsterverbrauch andichten.

Dass GK110 niedriger takten wird wie GK104, ist selbstverständlich. Erstens hat GK110 doppelt soviele Transistoren wie GK104 (nicht +50% wie bei Fermi) und zweitens operiert schon GK104 höher als vorgesehen, angedacht waren ursprünglich eher 900-950 Mhz. Was für einen Verbrauch soll denn GK110@15SMX@1006 MHz bitte schön haben? 350W, 400W? Den Takt kann man auch deutlich senken, man hat im Vollausbau nämlich deutlichst mehr Einheiten. Soviel wie nötig, heißt die Devise. Kaputt takten können die Kunden selber ;)

Das "Nötig haben" bezog sich auf Geforce, sollte eigentlich klar sein, schließlich sprach ich vom GK104-Launch.

Q2 2012...bezog sich das explizit auf K20? K10 wurde Mitte Mai vorgestellt.

Eine Verschiebung von GK110@Geforce auf Sommer 2013 ist denkbar - sofern man mit einem GK114, sofern er existiert, mit Sea Islands gut konkurrieren kann. Man bedenke aber auch, dass die 28nm Kapazitäten schon jetzt deutlich steigen mit der zusätzlichen Fab von TSMC. Dass der 28nm Prozess dann immer noch nicht gut genug läuft, erscheint mir wenig plausibel.

Fermi kam nicht zu Beginn des 40nm Prozesses, GK104 kam viel früher. Das musst du mit berücksichtigen. Mai 2010 wurden erste Fermi-Teslas ausgeliefert - ca. 9 Monate nachdem erste 40nm GPUs erschienen sind, nämlich AMDs 5000er Serie. Jetzt ist es nicht anders. Erste 28nm GPUs im Dezember/Januar, erste Kepler-Teslas im September. Die Botschaft bleibt gleich: Es braucht Zeit bei einem neuen Prozess, bis man so große GPUs launchen kann. GK104 wurde deshalb als Flaggschiff vorgeschoben, weil er klein ist und früher herstellbar war.

Bzgl. Menge an Teslas vs Geforce:
Noch zu schlechter Yield für Geforce-"Massen"launch + unterschiedliche Marge + Vertragsverpflichtungen. Simpel eigentlich: Du hast wenig Chips und verkaufst sie dort, wo du am meisten verdienst.

Es ist doch überhaupt nicht klar, ob es überhaupt dedizierte DP-Einheiten gibt, oder ob die normalen CCs entsprechend zusammengeschaltet werden. Kannst GK110 gerne mit R600 in eine Ecke stellen, wenn dir das Spass macht. Ich gebe auf solche unfundierten Hirngespinnste nix. Wenn 13 SMX mit 700 MHz und 6GB VRAM schon gut in 225W TDP passen, sehe ich nicht so schwarz wie du.
 
boxleitnerb schrieb:
Im Schnitt hatte 384bit damals schon 15% gebracht ggü. 256bit bei CB, mit neueren Treibern wird das sicherlich nicht weniger geworden sein.
Tut mir leid, aber ich kann einfach diesem Argument nicht folgen.
Ich kenne auch keinen Test, wo eine GPU einmal mit 384bit und dann mit 256bit getestet wurde. Außerdem hast du auch noch nicht geschrieben, in welcher Art sich eine Limitierung auswirkt. Wenn die Skalierung von 1:1 auf 1:0,9 (Benchmarkt-Steigerung zu Performance-Steigerung) fällt, dann ist so eine Skalierung noch aktezeptable.

AMD hat Tahiti XT2 auch nicht aus Spass an der Freud 6 Gbps Speicher verpasst.
AMD bietet aber auch Evinity an, wo die Karte mit 3 Mal so viel Auflösung zu tun hat.
Der Grund warum beim Ghz-Edition eine höhere Bandbreite genutzt wurde, kann auch daran begründet sein, dass sie zuerst nicht oder es sich zuerst nicht auszahlte (inkl. Preise & Stromverbrauch), einfach den besseren und teueren Speicher dranzugeben.
Mir würden da gleich mehrere Gründe einfallen.

Die Spannung von besagtem K20 kenne ich nicht, aber es ist nur logisch (und erwiesen, siehe mein Beispiel), dass man auch einen großen Chip verhältnismäßig sparsam hinbekommt, wenn man den Takt und die Spannungen niedrig wählt.
Logisch wäre es, aber es passierte bisher nicht. Viele deiner Aussagen klingen losgisch, aber wenn sie es in der Vergangenheit bisher nicht machten, dann darf man es nicht erwarten, sondern man darf es nur als Möglichkeit sehen.

Außnahme sind das die Dual-GPU-Karten, aber die waren in der Vergangenheit immer sparsamer.
Ohne die Spannungen und Taktziele zu kennen, kann man einem großen Chip also nicht einen Monsterverbrauch andichten.
Grundsätzlich, aber genauo gingst du auch automatisch davon aus, dass GK110 sicher Performance-Schneller sind.
Natürlich muss GK110 nicht gleich 350W-TDP erreichen, aber wenn sie mit dem Stromverbrauch zurückgehen, dann können sie vielleicht die Performance-Single-GPU-Krone verlieren.

Ich behaupte, Nvidia ist die Single-GPU-Performance-Krone wichtiger und nimmt einen höheren Stromverbrauch in Kauf, wenn es möglich ist.

Selbst GTX690 hat fast 300W. Daher sind die 300-350W von mir garnicht so unrealistisch.
Und GTX690 hat nunmal doppelte SMX. Aber im GTX690 sind noch keine GPGPU-Einheiten drinnen.
Am Beispiel GTX690 sieht man, dass wenn man etwas Spannung runtergeht, dann kratzt man schon an 300W. Ich bin mir nicht so sicher, dass GK110 1000 Mhz @ 1,0 Volt schafft.

Das Problem des ziemlich effizienten GTX690 ist, dass wir nicht wissen, wie hochselektiert er ist. Hochselektierte ULV-Chips sehen immer in den Benchmarkts gut aus, aber sie sind in der regel nicht in der Masse lieferbar.

Llano-Notebooks-CPU siehen gegen die Danube-Quad-Core auch nicht so effizient aus. Zwar haben sie die selben Takte (wenn man 25/35-Danube mit 35/45W-Llano vergleicht), aber Llano hat den 32nm-Vorteil. Aber Llano sind Massen-CPUs mit Standard-Volts und Danube-Quads sind mit 0,95 ULV-Notebook-CPUs.

[/QUOTE]
Dass GK110 niedriger takten wird wie GK104, ist selbstverständlich.
[/QUOTE]
Nö, da es bisher nie vorkommt, dann es nicht selbstverständlich sein. Die 3 fache DB-Precise-Effizienz hat der K20 auch nicht erreicht, die Nvidia ersprochen hat.
K20 ist ca. 2,4 mal so effizenz wie M2050, obwohl der GF100 damals auch die versprochene Werte klar verfehlte.

Falls Nvidia beim GK110 die Spannung und den Takt nicht unerheblich senkt, dann sehe ich das eher als letzte mögliche Maßnahme.


Erstens hat GK110 doppelt soviele Transistoren wie GK104 (nicht +50% wie bei Fermi)
Und schon damals hatte GTX480 einen doppelt so hohen Verbrauch bei nur +50% mehr Transistoren. Da sollte es doch schwieriger werden, wenn GK110 +100% statt +50% Mehr Transistoren hat.

und zweitens operiert schon GK104 höher als vorgesehen, angedacht waren ursprünglich eher 900-950 Mhz.
Sie wollten die Performance-Krone oder zumindestens gleichauf sein.
Ich sagte ja, wenn Nvidia die Chance sieht, dann nehmen sie mehr Stromverbrauch in Kauf um diese Krone zu ergattern.
GK104 hatte übrigends +50% mehr Stromverbrauch wie GF104.


Q2 2012...bezog sich das explizit auf K20? K10 wurde Mitte Mai vorgestellt.
Kann ich zwar nicht überprüfen, aber ich kann es glauben.
Falls GK110-Geforce etwas später (3Q 2012) angepeilt war, dürfte sihc Nvidia weniger verschätzt habe, aber Geforce kommt dann trotdem erheblich später als Tesla, was früher umgekehrt war.

Eine Verschiebung von GK110@Geforce auf Sommer 2013 ist denkbar - sofern man mit einem GK114, sofern er existiert, mit Sea Islands gut konkurrieren kann.
Alleine diese Aussage sehe ich schon sehr GK110-Kritisch. Denn eigentlich sollte der High-Performance-Markt der profitablerste sein.

Die Frage ist, was du unter gut konkurrieren meinst.
HD 8800 wird ungefähr so schnell sein, wie Thaiti und somit im Bereich des GTX680.
Jetzt ist halt die Frage, ob sich HD 8800 mit den bisher gerüchteweise 150W bei Thaiti XT2 oder Thaiti orierntiert.

Ich würde es für Nivida nicht berühigend sehen, wenn sie zwar GK114 mithalten/konkurrieren kann, aber trotzdem ein Hauch langsamer und ein Hauch mehr Strom verbraucht. Denn Nach Einführung der Refresh-Generation beginnen die Gerüchte und das Warten auf die 20nm-Generation.

Einziger nichttragischer Grund für eine GK110 und HD 8800/8900 Verschiebung sehen ich, wenn sich 20nm selbst auf verschiebt. Selbst wenn 20nm-Thaiti-Nachfolger schon Feb/März 2014 kommen sollte, dann sollte die Vorgänger spätestens März/April 2013 kommen. Wenn High-End-Dies erst Juni/Juli 2013 kommen sollte, frage ich, wer sowas kaufen soll, wenn in einigen Monaten eine schnellere mit weniger Strombedarf kommen sollte und die Gerüchte über 20nm-GPU schon längst im laufen sind.

Nicht viele kaufen sich dann so ein teures Produkt, was dann schon veraltet wirkt.

Man bedenke aber auch, dass die 28nm Kapazitäten schon jetzt deutlich steigen mit der zusätzlichen Fab von TSMC. Dass der 28nm Prozess dann immer noch nicht gut genug läuft, erscheint mir wenig plausibel.
Der Fabriks-Ramp der zweiten Fabrik (Fab 15-1 oder Fab-14-5) läuft schon seit 2 Quartalen (2Q 2012). Der Ausstoß der 2. Fabrik @ 40nm war 1 Quartal vor GF100-Start. In im folgenden Quartal war der Kapazitätsengpass zu Ende, was man an den deutlich fallenden Marktanteilen von Nvidia wegen dem fehlen von DX11 @ Massenmarkt gut merkte.

Dass selbst jetzt viele glauben, dass die TSMC-28nm-Kapazitäten im 4Q noch zu gering sind, finde ich interessant. Denn TSMC behauptet a) das Gegenteil und b) sage ich seit Quartalen, dass ich anderer Meinung bin, weil ich vermutete, dass viele Hersteller einfach ihre Bestellungen zurückhielten, indem sie ihre Produkte daran anpassten.

Fermi kam nicht zu Beginn des 40nm Prozesses, GK104 kam viel früher. Das musst du mit berücksichtigen. Mai 2010 wurden erste Fermi-Teslas ausgeliefert - ca. 9 Monate nachdem erste 40nm GPUs erschienen sind, nämlich AMDs 5000er Serie. Jetzt ist es nicht anders. Erste 28nm GPUs im Dezember/Januar, erste Kepler-Teslas im September. Die Botschaft bleibt gleich: Es braucht Zeit bei einem neuen Prozess, bis man so große GPUs launchen kann. GK104 wurde deshalb als Flaggschiff vorgeschoben, weil er klein ist und früher herstellbar war.
Im Grunde sagte ich das ja mit meiner Liste, dass Nvidias-Big Dies immer 1,0 Jahre nach Fertigungs-Process-Einführung kommt. Und wenn der Big-Dies nicht planmäßig funktioniert, dann kommt er meistens 1,5 Jahre danach.

An deiner Reichnung erkärtest du immer noch nicht, warum GK110 jetzt 6-9 Monate nach GK104 kommt, obwohl früher der Big-Die immer davor gekommen ist. (GF100 kam vor GF104).
Und der Vergleich mit Teslas hat halt die Ungenauigkeit, dass man selbst mit miesen Yields einen GK110 noch im Telsa-Markt teuer verkaufen kann, da dort die Preise um 4-8 Mal höher sind.

Uns interessiert GK110 primär im Desktop-Markt.
Mit wundert es nicht, warum Tesla-GK110 auf den Tesla-Markt muss.
Momentan macht dort Nvidia den meisten Gewinn/Profit. Und mit FirePro S9000 ist die Konkurrenz stärker/effizienter als Tesla S1070

Bei Quadro ist es nicht ganz so schlimm, aber da dort einige Keplers sowie K10 schon vertreten sind. AFAIK wurde GK110 bisher nur für den Tesla-Markt (=HPC) Markt vorgestellt und nichtmal für Quadro-Workstation.

Bzgl. Menge an Teslas vs Geforce:
Noch zu schlechter Yield für Geforce-"Massen"launch + unterschiedliche Marge + Vertragsverpflichtungen. Simpel eigentlich: Du hast wenig Chips und verkaufst sie dort, wo du am meisten verdienst.
Nö, man verkauft sie zuerst, wo sie Vertraglich schon längst überfällig sind.

Ich versehe nicht, wo du die Beruhigung sieht, dass Nvidia jetzt immer noch dermaßen schlechte Yields hat, dass sie es in Geforce-Markt nicht verkaufen kann.

Es ist doch überhaupt nicht klar, ob es überhaupt dedizierte DP-Einheiten gibt, oder ob die normalen CCs entsprechend zusammengeschaltet werden.
Was sollen sonst die Double-Precise-Einheiten denn sein, wenn Nvidia sie einzeichnet.
http://1.2.3.10/bmi/images.ht4u.net...msi_cyclone_gigabyte_oc/sm_gf106_vs_gf100.png
http://1.2.3.11/bmi/www.hardwarelux...wsbilder/aschilling/2012/gtc2012/GK110SMX.png

Kannst GK110 gerne mit R600 in eine Ecke stellen, wenn dir das Spass macht. Ich gebe auf solche unfundierten Hirngespinnste nix.
Es hat nichts mit Spaß zu tun.
Damals wäre ein GF100 spekuliert in der Form eines GTX480 auch ein Hirngespinst gewesen. Es wurde realität. Dass Big-Dies erheblich später und problematischer wurde, diese These stellte ich kurz nach GTX285 auf und war auch ein Hirngespinst.

Ja, es macht Spaß zu spekulieren, aber es macht keinen Spaß bewusst falsches zu spekulieren.

Wenn 13 SMX mit 700 MHz und 6GB VRAM schon gut in 225W TDP passen, sehe ich nicht so schwarz wie du.
Das ist einer der wenigen postiven Anzeichen, die auch noch schwergewichtig sind.
Aber wie ich schon sagte, wenn das ein hochselektierter ULV-Chip ist, welches Nvidia dann in Geforce-Markt nicht genauso (primär die Spannung) umsetzen kann, dann sieht die Sache wieder anders aus. Denn dann ist man recht bald in jenen Bereichen, die ich anspreche.

Dass ich die Sache schwerwiegender sehen, liegt vielleicht daran, dass ich miese Yields höher bewerte als du und eine eventuelle Verschiebung auf Mitte 2013 schon als absoluten Worst-Case sehen würde, auch wenn Nivdia es schafft GK110 auf 295W zu bringen und 5-10% vor HD8900 bringt, wenn HD 8900 schon in April kommt.

Es war bisher so, dass das Fertigungs-Refresh-Jahr immer jenes Jahr war, wo Nivida problemlos aufholte und gerade noch mithalten kann und das mit (Verspätungs-)Schwierigkeiten.
 
Zuletzt bearbeitet:
Großer Gott, schreib prägnanter! Es ist eine absolute Qual, deine sich ewig hinziehenden Beiträge zu lesen. Qualität, nicht Quantität...

Hier der CB-Test, da du ihn ja scheinbar nicht selbst finden kannst (ganz unten):
https://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/20/
Weniger Bandbreite als am 384-bit Interface -> weniger Performance -> 384-bit ist schon nötig, 256-bit würde limitieren.

K20 schafft 3x sustainable DP, es kommt drauf an wie man es dreht. Marketing halt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9506395&postcount=1353

GTX560 Ti (GF114): 822 MHz
GTX580 (GF110): 772 MHz
Soviel zu "noch nie vorgekommen". Chip mit mehr Transistoren -> niedrigerer Takt (und niedrigere Spannung als für z.B. die 822 MHz notwendig wäre), um die Leistungsaufnahme im Zaum zu halten. Simpelste Logik, das wird bei GK110 nicht anders sein. Wir können ja gerne wetten. Wenn GK110 einen Basistakt von 1000 Mhz oder mehr hat, schenk ich dir einen.

GK104 braucht ca. 36% mehr Strom als GF104:
http://www.3dcenter.org/artikel/eine-neubetrachtung-des-grafikkarten-stromverbrauchs
Dabei ist zu beachten, dass er auch mehr als doppelt so schnell ist und auf Kosten des Verbrauchs hochgepusht wurde. Normal sind eher +80% ggü. dem Vorgänger bei ähnlichem Verbrauch, siehe GTX660 vs GTX460, wo das schon viel eher hinkommt.

Das wollte ich ausnahmsweise mal quoten, sonst geht es unter:
An deiner Reichnung erkärtest du immer noch nicht, warum GK110 jetzt 6-9 Monate nach GK104 kommt, obwohl früher der Big-Die immer davor gekommen ist. (GF100 kam vor GF104).

Dinge können sich ändern, nicht alles ist in Stein gemeißelt. Hätte Nvidia also AMD analog zu Fermi-Zeiten bis September 2012 ohne Konkurrenz gewähren lassen sollen, um dann GK110@Geforce zu bringen mit hohem Preis, geringer Verfügbarkeit und Verzicht auf die hohen Margen im professionellen Segment? Das ist der bescheuertste Plan, den ich je gehört habe.
Nachdem man mit Fermi so auf die Schnauze gefallen ist, hat man sich natürlich umorientiert. Kleine Chips zuerst, große bei reifem Prozess später. Wirtschaftlich gesehen ist es auch Schwachsinn, sich den Markt für den teuren (und sich trotzdem gut verkaufenden) GK104 kaputt zu machen, indem man GK110 zu früh bringt. Ein Jahr in etwa liegt zwischen den Generationen, wenn alles nach Plan läuft, und so wird es auch bleiben.

Nicht nur vertragliche Verpflichtungen (die ich bereits angesprochen habe), sondern auch Marge. Nvidia war sich schon lange vor Tapeout bewusst, dass sie mit der aktuellen Strategie mit GK110 mehr verdienen.

zu den DP-Einheiten:
Das Konzept einer schematischen Zeichnung für die Presse ist dir bekannt? Wie es unter der Haube aussieht, weiß man dadurch noch lange nicht.

Lange Rede, kurzer Sinn:

  • Was Nvidia tut, macht Sinn, sie maximieren Profite.
  • GK110 kommt dann für Desktop, wenn er
    a) in entsprechenden Stückzahlen wirtschaftlich herstellbar ist (ich zahle keine 800 Euro für eine GTX780)
    b) nicht jedes vom Band fallende Die für Vertragserfüllung gebraucht wird
    c) gebraucht wird, nämlich als Konkurrenz zur 8900er
  • Von Einführungszeitpunkt und Yield (den wir nicht kennen) von Produkten kann man nicht auf den Verbrauch schließen. Da spielen zu viele Faktoren mit, technische wie wirtschaftliche. Nur weil bei einem von 100 Chips alle 15 SMX aktiv wären, heißt das noch lange nicht, dass der Verbrauch dieses Chips auch katastrophal wäre.

    So, jetzt darfst du weiter deine Romane schreiben, ich hab alles gesagt, was ich sagen wollte. Tu dir einen Gefallen und schreib prägnanter und vor allem recherchiere gründlicher, du hast ja einige Sachen behauptet, die nicht stimmen.
 
11 Seiten Arial 11 und es war kein Platz eine Antwort.

Da es unangenehm ist, das ich viele Argumentationsfehler aufgedeckt habe, erspare ich mir die Suche in dem gefolgten Text.
 
boxleitnerb schrieb:
Großer Gott, schreib prägnanter! Es ist eine absolute Qual, deine sich ewig hinziehenden Beiträge zu lesen. Qualität, nicht Quantität...
Sagt einer, der nichtnachvollziehbare Aussagen macht, wo ich die Qualität nicht nachprüfen kann und dabei dieses Problem trotz mehrmaligen Auffordern nicht verstanden hat.
Du glaubst nähmlich, dass in deinen bisherigen Aussagen sehr viel Qualität steckt. Aber hingengen zu mir, wo ich einige Konkrete und somit qualitative Aussagen gemacht habe, hast du keine Konkreten Aussagen gemacht.

Aussagen mit bezugslose Zahlen zu machen, machen Texte nach lange nicht Qualitätiv.

Hier der CB-Test, da du ihn ja scheinbar nicht selbst finden kannst (ganz unten):
https://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/20/
Nein hätte ich nicht, da ich diesen Test nicht kannte.
Und nein, ich überprüfe nicht ständig deine Aussagen.

Würdest du eine Qualitätive Aussage machen, dann hättest du gesagt, was das jetzt für den HD8970 oder HD 8800 bedeutet hätte.

Okay, AMD würde bei -33% Bandbreite um -15% einbrachen. Soll ich jetzt etwa raten was du meinst. Hat jetzt Thaiti um 35% Bandbreite zu viel, wovon sie bei 25% mehr CUs dann noch immer 10% übrig für die Reserve hätten????

Ich glaube, du musst einmal lernen konkrete aussagen zu treffen.

K20 schafft 3x sustainable DP, es kommt drauf an wie man es dreht. Marketing halt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9506395&postcount=1353
Richtig, was immer das ist.
GK110 wird in irgendeinen Spiel sicher auch +50% mehr haben als GTX680. Vorallem, in 2560x1440 Auflösungen, wo die Bandbreite von GTX680 halt einbricht.

GTX560 Ti (GF114): 822 MHz
GTX580 (GF110): 772 MHz
Soviel zu "noch nie vorgekommen". Chip mit mehr Transistoren -> niedrigerer Takt (und niedrigere Spannung als für z.B. die 822 MHz notwendig wäre), um die Leistungsaufnahme im Zaum zu halten. Simpelste Logik, das wird bei GK110 nicht anders sein. Wir können ja gerne wetten. Wenn GK110 einen Basistakt von 1000 Mhz oder mehr hat, schenk ich dir einen.
Dachte mir schon, dass du genau dieses Beispiel nimmt, wo GTX560 TI lächerliche 50 Mhz vor GTX580 liegt. Du sprachst von deutlichen Taktreduktionen, was ich mit Minus 100-200 Mhz (also 800-900Mhz) und nicht banale 50Mhz, indem sicher keine deutlichen Spannungsreduktionen möglich sind. Und um die ging es doch. Wir sprachen bzw. du sprachst um Taktreduktionen, die erhebliche Spannungsreduktionen ermöglicht (Ich schätze so von um die 0,1 Volt.)

GK104 braucht ca. 36% mehr Strom als GF104:
http://www.3dcenter.org/artikel/eine-neubetrachtung-des-grafikkarten-stromverbrauchs
Dabei ist zu beachten, dass er auch mehr als doppelt so schnell ist und auf Kosten des Verbrauchs hochgepusht wurde. Normal sind eher +80% ggü. dem Vorgänger bei ähnlichem Verbrauch, siehe GTX660 vs GTX460, wo das schon viel eher hinkommt.
Falsch, es sind +35% Mehr-Performance.
https://www.computerbase.de/2011-01/test-nvidia-geforce-gtx-560-ti-sli/23/
Klar, wenn du die Performance von 2 Karten mit einer vergleichst, ist es logisch, wenn man doppelte Performance rauskriegt.

Bei +35% Stromverbrauch gebe ich dir recht. Mit +50% hatte ich mich geirrt. Ich dachte, der ist auf 180W gestiegen.

Dinge können sich ändern, nicht alles ist in Stein gemeißelt. Hätte Nvidia also AMD analog zu Fermi-Zeiten bis September 2012 ohne Konkurrenz gewähren lassen sollen, um dann GK110@Geforce zu bringen mit hohem Preis, geringer Verfügbarkeit und Verzicht auf die hohen Margen im professionellen Segment? Das ist der bescheuertste Plan, den ich je gehört habe.
Da unterstellst du mir was falsches.
a) Hat GK110 nicht viel mit GK104 zu tun. Gott sei dank. Nach GF110 sagte ich, dass Nvidia eigentlich den Performnace-Chip früher rausbringen muss und daran abhängend die Massen-Chips, damit sich das ganze Portfolie nicht wegen GK100 massiv verspätet.
Nvidia ht das richtige gemacht und GK104 als erstes rausgebracht. Da AMD in Tesla-Markt nicht konkurrenzfähig vertreten war, war es heuer nicht wichtig, GK104 GPGPU-Einheiten zu verpassen.

Es spricht nichts dagegen, GK110 @ Tesla schon 2Q 2012 rauszubringen und GK110 @ Desktop 4Q 2012 oder 1/2Q 2013. Aber es spricht viel für die Probleme, dass Nvidia es nicht schaffte, GK110-Tesla im 2Q statt 4Q 2012 rauszubringen.

Nachdem man mit Fermi so auf die Schnauze gefallen ist, hat man sich natürlich umorientiert. Kleine Chips zuerst, große bei reifem Prozess später. Wirtschaftlich gesehen ist es auch Schwachsinn, sich den Markt für den teuren (und sich trotzdem gut verkaufenden) GK104 kaputt zu machen, indem man GK110 zu früh bringt. Ein Jahr in etwa liegt zwischen den Generationen, wenn alles nach Plan läuft, und so wird es auch bleiben.
Deine Aussage mag logisch klingen, dass GK110 aus Profit-Gründen erst später kommt, weil er mometan nicht profitabel ist. Aber das war eben früher nicht so. Früher kam der Big-Die aus Profit-Gründen als ersters.

Deine Hoffnung liegt eben daran, dass Nvidia in Zukunft es anders macht als in den letzten Jahren. Nicht vergessen, dass einmal der 20nm Umstieg kommt. Wann bitte soll dann GM110 kommen, wenn
GF104 ... 1Q nach GF100
GK104 ... 4Q vor GK110
GM104 ... 7Q vor GM110???????

Nicht nur vertragliche Verpflichtungen (die ich bereits angesprochen habe), sondern auch Marge. Nvidia war sich schon lange vor Tapeout bewusst, dass sie mit der aktuellen Strategie mit GK110 mehr verdienen.
Ich wüsste nicht, wie man mehr Geld verdienen kann, wenn man GK110-Tesla um 2Q später am Markt bringt.

zu den DP-Einheiten:
Das Konzept einer schematischen Zeichnung für die Presse ist dir bekannt? Wie es unter der Haube aussieht, weiß man dadurch noch lange nicht.
Und warum zeichnete man bei GK110 extra DP-Einheiten ein und bei GF110 nicht??
Und warum sind dann die GK110-SMX IMO/AFAIK um so 30% größer als die von GK104??

Lange Rede, kurzer Sinn:

  • Was Nvidia tut, macht Sinn, sie maximieren Profite.
  • GK110 kommt dann für Desktop, wenn er
    a) in entsprechenden Stückzahlen wirtschaftlich herstellbar ist (ich zahle keine 800 Euro für eine GTX780)
    b) nicht jedes vom Band fallende Die für Vertragserfüllung gebraucht wird
    c) gebraucht wird, nämlich als Konkurrenz zur 8900er
  • Von Einführungszeitpunkt und Yield (den wir nicht kennen) von Produkten kann man nicht auf den Verbrauch schließen. Da spielen zu viele Faktoren mit, technische wie wirtschaftliche. Nur weil bei einem von 100 Chips alle 15 SMX aktiv wären, heißt das noch lange nicht, dass der Verbrauch dieses Chips auch katastrophal wäre.

  • Dieser Textberg hört sich schön an.
    Aber genau die Yield oder der Stromverbrauch oder die zu geringe Performance macht eben einen Mega-Strich durch die Rechnung und daher musste Nvidia schon erhebliche Verschiebungen in Kauf nehmen.

    So, jetzt darfst du weiter deine Romane schreiben, ich hab alles gesagt, was ich sagen wollte. Tu dir einen Gefallen und schreib prägnanter und vor allem recherchiere gründlicher, du hast ja einige Sachen behauptet, die nicht stimmen.
    Wenn du keine Konkreten Aussagen machst und wennschon bezugslose Zahlen von dir gibst, dann kommen die Romanen von dir.

    Und vordere mich doch nicht heraus, dass ich recherchieren soll, ob deine Aussagen halbwegs stimmen. Wenn du meinst, dass ich was falsches in meinen Gedankengang habe oder eine wichtige Betrachtungsweise vergessen haben, dann musst es du zeigen können, und nicht irgendwelche bezugslose wertlose Zahlen in der Raum zu schmeißen, die du als prägnant und qualitätiv hochwertig siehst.

    Dass deine bisherige Betrachtung Bandbreite zu Performance völlig wertlos /quantitativ / ein völliger Roman ist, merkt man daran, dass du die Performance von HD 8970 und//oder GK110 nicht konkret (in einem Rahmen) prognostiziert.

    Prognosen (Konkrete Aussagen) zu machen ist sehr schwierig und man muss auch das Ego haben, ab und zu daneben zu liegen.
    Einfach zu sagen, dass alles falsch ist und nichtnachprüfbare Meinungen/Aussagen zu geben kann jeder.

    @Unyu
    Sorry, ich hatte deinen Beitrag übersehen.
    Auf den kann ich erst morgen eingehen.
 
Unyu schrieb:
GK107 oder GK104 spielt keine zeitliche Rolle. Ende März 2012.
Tahiti, der 365mm² Chip ist im Januar unbeschnitten gestartet.

Frei nach deinem Stil:
90nm: R520 (320mm²) ............ 13 Monate später ........ G80 (484mm²): Oktober 2005 -> November 2006
28nm: Tahiti(365mm²) ............ 13 Monate später ........ GK110(550mm², Teildeaktiviert): Januar 2012 -> Februar 2013

DAS passt gut in deine Reihe.
Grundsätzlich eine sehr interessante Information.
Damit könnte man die Aussage machen, dass Nivida mit Big-Dies immer sehr spät waren.

Aber um es genauer zu betrachten müsste man auch die RV770 vs. GT200 und RV870 vs GF100 betrachten.

Frei nach deinem Stil:
90nm: R520 ... (320mm²) ......... 13 Monate später ........ G80 ..... (484mm²): 2005-10 -> 2006-11
55nm: RV670 . (196mm²) ......... 14 Monate später ........ GT200B (470mm²): 2007-11 -> 2009-01
40nm: RV870 . (334mm²) ............ 6 Monate später ....... GF100 . (525mm²): 2009-09 -> 2010-03
28nm: Tahiti ... (365mm²) ........ 13 Monate später ........ GK110 . (550mm²): 2012-01 -> 2013-02

Und da sieht es wieder etwas anders aus.
Da RV670 sehr viel kleiner war und GF100 nur 6 Monate später nach einem AMD Performance-Die kam, könnte man die 13 Monate bis G80 auch dahin hindeuten, dass Nvidia es nicht ganz so eilig hatte, und somit sich damals mehr Zeit lies.
Kurz gesagt, damals waren die Abstände auch ziemlich lang, die Nvidia später deutlich reduzieren konnte. Aber mittlerweile braucht Nvidia da wieder länger, was eben die Schwierigkeiten von Nvidia zeigt. Vorallem, weil sie nicht mehr diese Dominanz haben, wie sie es damals hatten und Verspätungen teils garnicht auffielen.

Ich weiß das GK104 teurer ist als man vermuten würde. 28nm Wafer sind teurer geworden.
Es geht nicht ums teuer sein, sondern darum, wie weit GK104 bei der Einführung war. Die Betrachtung mit den Einführungs-Datums hat den Fehler, dass wir nicht wissen bei welchen Yields sie eingeführt wurden.

Modelle haben immer einen gewissen Fehlergrad. Wenn du das nicht weißt, zeigt es erst recht, dass du nie ernsthaft mit Modellen arbeitest.

Genau daran musst du noch arbeiten.
Sagt einer, der das nur sagt, aber anscheinend nicht Fähig ist ein Modelle zu korregieren.

Meine Zeit ist begrenzt. Ich lebe nicht ewig.
Und das gibt dir das recht meine Beiträge, die ich mit x-mal mehr Zeit recherchierte & überlegt habe, schnell drüberzulesen und überall deineen Meinungssenf dazuzugeben bzw. teils einfach mit banalen Aussagn als falsch zu bewerten.

Wer gscheit redet, sollte mal selber was herausfinden.

Tahiti wird offensichtlich durch das Front-End limitiert. Die 15% Mehrtakt der 7970 schlagen öfter durch, als die 32% mehr Rechenleistung.
Pitcairn in der 7870 kommt Tahiti in der 7950 gefährlich nahe.
Und boxleitnerb meint, dass ein Thaiti mit Pitcairn-Bandbreite ebenfalls -15% Performance-Verlust bewirkt.

Interessiert hätte mir mehr eine HD8800 und HD8900-Einschätzung auf dieser Betrachtungsweise

Schön für dich. "aylano" + "1600" ergibt nur leider NULL Treffer. Ich würde mich gerne auf GK110 konzentrieren, erhöht die Übersicht und außerdem heißt der Fredtitel u.a. GK110.
War in einem anderen Forum, der übrigends persönliche Kontakte zu AMD hat. War peinlich für ihm, dass einer mit damals primitiven Architektur-Erfahrung qausi genau einschätze, während er es als völligen unsinn bewertete. Es stellt sich heraus, dass er nichteinmal Funktionen verstand und somit klarerweise nichts verstehen konnte.

Ich würde mir wünschen, wenn auch du GK110 immer im Blick hast. Den Bezug zu GK110 (über einen eventuellen Umweg Performance-GPU zu BIg-Die) kann ich in vielen Aussagen nicht finden.

GF104 war nicht sonderlich beeindruckend. GF104 ist Monate nach GF100 erschienen. GF104 hat nette Karten hervorgebracht, aber es war nicht so wie gewünscht. Den trotz des Monate späteren Launch im Vergleich zu GF100 war auch hier, beim kleinen Chip eine Teildeaktivierung nötig. Ein Design wird nicht gut, nur weil die Konkurrenz schwach ist.
Wenn du diese Aussage in Bezug auf GK110/GK104 betrachten würdest, dann würdest du erkennen, dass es gegen die enorme Verschiebung von GK110 spricht.
GF104 kam paar Monate später und war genauso mit Teildeaktivierungen belastet.
GK104 kommt fast 1 Jahr vor GK110 und GK104 kommt sogar ohne Teildeaktivierung und das mit einem ziemlich hohem Takt.

Mir reicht es zunächst deinen Text auseinander zu nehmen.
Du solltest ihn nicht mit bezugslosen Meinungen auseinander nehmen und Diskussionen nicht stören die sich hingegen zu Dir sich die Zeit nehmen, sondern du solltest sinnvoll mitdisskutieren.

Es zeigt halt immer die Persönlichkeiten von anderen, die immer nur was schnell kaputtmachen wollen, anstatt selber mal was mühevoll gestalten bzw. aufbauen.
Und ja, wenn man spekuliert & Prognosen erstellt, dann braucht man (viel) Zeit.
Aus nichts kommt auch nichts.
 
Zuletzt bearbeitet:
Der Titan ist fertig mit 18,688 K20. Überrascht mich, ich dachte das zieht sich länger hin. Laut Pressemitteilung ist das Ding aber jetzt komplett:

http://www.engadget.com/2012/10/29/cray-titan-supercomputer-nvidia-tesla-gpu-k20/#continued

Eine Verschiebung sehe ich wie gesagt immer noch nicht. Es wurde nirgendwo belegt, dass K20 statt K10 gemeint war, es stand schlicht nur "Tesla-K" dran. Im Übrigen heißt es auch Q3 FY2013, das ist April bis Ende Juni in den USA. K10 wurde im Mai vorgestellt und ist ganz klar "Tesla-K".


Auch Belege für deine Aussagen zu Yields und dem tatsächlichen Verbrauch von K20 bzw. anderen GK110-SKUs fehlen, das ist reine Spekulation. Es hat offenbar ausgereicht, gute 6 Monate nach Tapeout fast 20,000 GPUs herzustellen und wer weiß, ob sie nicht vor dem offiziellen K20-Release noch "unter der Hand" weitere Institutionen beliefern oder bessere Dies für Geforce beiseite legen.

Ich sprach nie von "deutlichen Spannungsreduktionen", das hast du mir angedichtet. Ich schrieb:
GK110 ist sehr breit, aber im Vergleich zu GK104 wird der Takt auch deutlich niedriger ausfallen.

Denk mal nach:
GF114 und GF110 liegen vom Transistorcount deutlich näher zusammen als GK104 und GK110. Das erste sind +50%, das zweite sind +100% ausgehend vom kleineren Chip. Während GF110 nur etwas niedriger takten musste als GF114, muss man voraussichtlich bei GK110 deutlichere Einschnitte vornehmen, eben weil er im Verhältnis mehr Transistoren hat.

Ich wüsste nicht, wie man mehr Geld verdienen kann, wenn man GK110-Tesla um 2Q später am Markt bringt.

Das hast du falsch verstanden. Man verdient mehr, wenn man GK110 erst im professionellen Segment mit viel höheren Margen bringt als erst im Desktopsegment. Pro GPU mehr Gewinn, simpel.

Falsch, es sind +35% Mehr-Performance.
https://www.computerbase.de/2011-01/test-nvidia-geforce-gtx-560-ti-sli/23/
Klar, wenn du die Performance von 2 Karten mit einer vergleichst, ist es logisch, wenn man doppelte Performance rauskriegt.

Auch das hast du falsch verstanden. GK104 vs GF114. Hier liegt die Verwandschaft, schließlich ist GK104 ausschließlich marketingtechnisch Nachfolger von GF110. Und hier passt der Sprung auch, die üblichen ca. 70%, z.B. 560 Ti vs 670. Praktisch selber Verbrauch, beides sind Midrangechips.

Früher kam der Big-Die aus Profit-Gründen als ersters

Aha. Es ist also profitabel, die Konkurrenz 9 Monate alleine agieren zu lassen (HD5000 vs...nix) und in der Zeit rein gar nichts zu verkaufen bzw. zu Spottpreisen (macht die Boardpartner sicher froh)? Macht Sinn...

Im Gegenteil: Es ist profitabel, erst die kleinen Chips/Karten herzustellen und für hohe Preise zu verkaufen (294mm2 und Mini-PCB für 500 Dollar), später dann die großen für noch höhere Preise im Profisegment (550mm2 für 2000+ Dollar) und am Schluss die großen Chips, wenn die Yields anständig genug sind, dann schließlich im Desktopsegment. Das Hat Nvidia nach Fermi auch eingesehen, deshalb machen sie es mit Kepler genau so.

Zur Bandbreite:
Schön, dass jetzt auch du erkannt hast, dass Tahiti mit 256-bit bandbreitenlimitiert wäre. Natürlich ist es nicht auszuschließen, dass von der aktuellen Bandbreite nicht alles genutzt wird aktuell und noch etwas Spielraum für Venus ist.
Dennoch bleibt meine Aussage bestehen: Würde man Tahiti nur die Bandbreite von GK104 geben, würde man wohl gegen GK104 verlieren im Schnitt (die 10-15% abziehen):
http://www.techpowerup.com/reviews/AMD/Catalyst_12.11_Performance/23.html

Kernaussage:
Kepler geht etwas effizienter mit Bandbreite um als Tahiti und wird aus dem 384-bit Interface daher mMn mehr rausholen.
 
Zuletzt bearbeitet:
boxleitnerb schrieb:
Der Titan ist fertig mit 18,688 K20. Überrascht mich, ich dachte das zieht sich länger hin. Laut Pressemitteilung ist das Ding aber jetzt komplett:
Dich vielleicht, mich weniger.
Denn das Aushänge-Schild darf man überhaupt nicht warten lassen. Nach der GF100-Tesla Verschiebung & Versprecher-Nichteinhaltung, hat sich Nvidia damals gerade bei vielen Cuda-Kanditaten/Kunden keine Freunde gemacht und sie so zum anders-Denken fast schon "gezwungen".

Eine Verschiebung sehe ich wie gesagt immer noch nicht. Es wurde nirgendwo belegt, dass K20 statt K10 gemeint war, es stand schlicht nur "Tesla-K" dran.
Nö, denn K10 ist keine HPC-GPU, weil ECC & Co fehlt. Und schon garnicht erreicht man 3fache DP-Effizienz.

Auch Belege für deine Aussagen zu Yields und dem tatsächlichen Verbrauch von K20 bzw. anderen GK110-SKUs fehlen, das ist reine Spekulation. Es hat offenbar ausgereicht, gute 6 Monate nach Tapeout fast 20,000 GPUs herzustellen und wer weiß, ob sie nicht vor dem offiziellen K20-Release noch "unter der Hand" weitere Institutionen beliefern oder bessere Dies für Geforce beiseite legen.
Deine ganze Hoffnung lebt von Tesla.
Ich denke 225W-TDP und so 210/215W-Spiele ist beleg genug, vorallem wenn du es ja auch sagst.
Ich Sachen Yields kann man nichts belegen (außer man hat Kontakte). Es ist halt die große Unsicherheit ob die Yields nur für Tesla reichen oder auch für den Desktop-Markt.
Leider ist die Auslieferung eines Premium-Kunden nur eine hinreichende Aussage, da man eben nicht (sinnvoll) auf Yields & Kosten Rückschlüsse ziehen kann.

Mittlerweile hat AMD im Desktop schon so 6 Monate die Single-GPU-Performance-Krone. Damit haben sie schon die 6 Monate eingestellt, die AMD mit der 40nm bzw HD 5000/6000er-Ära erreicht hat. Und dabei hatte ich mal die 3 Monate vernachlässigt, wo HD7970 knapp hinter oder gleich auf war.

Egal ob GK110-Desktop mit Abstand (+15%) oder knapp (+0-10%) vor HD 8970 erscheint, es ist für Nvidia im Gegensatz zu früher ein Rückschritt.
Wobei das nur für die Performance gilt. Die Yield bleibt weiterhin wichtig. Denn sonst haben sie im Schlimmsten fall ein ähnliches Problem wie zu GT200-Zeiten, wo sie mit den Preis kaum runtergehen konnten.

Denk mal nach:
GF114 und GF110 liegen vom Transistorcount deutlich näher zusammen als GK104 und GK110. Das erste sind +50%, das zweite sind +100% ausgehend vom kleineren Chip. Während GF110 nur etwas niedriger takten musste als GF114, muss man voraussichtlich bei GK110 deutlichere Einschnitte vornehmen, eben weil er im Verhältnis mehr Transistoren hat.
Das brauchst mir nicht erzählen.
Aber bei dir hören sich deutliche Einschitte recht harmlos an, wenn du im nächsten Absatz von einer sicheren schnelleren Performance des GK110 vs HD 8970 ausgehst.
Es wäre mal sinnvoll mit Konkreten Daten/Einschnitten (Takt, TDP und/oder Performance) zu kommen, als mit No-Na-Ned-Thesen.

Das hast du falsch verstanden. Man verdient mehr, wenn man GK110 erst im professionellen Segment mit viel höheren Margen bringt als erst im Desktopsegment. Pro GPU mehr Gewinn, simpel.
Sehr simple, aber es erklärt eben nicht, warum sie diesesmal die Desktop-Karten nicht gleichzeitig rausbringen sondern unüblich viel später.
Du solltest immer den Bezug auf GK110-Desktop haben und nicht immer solche 0815-Theorie-These von dir geben, wenn du Verspätungen von GK110-Desktop erklären willst.

Auch das hast du falsch verstanden. GK104 vs GF114. Hier liegt die Verwandschaft, schließlich ist GK104 ausschließlich marketingtechnisch Nachfolger von GF110. Und hier passt der Sprung auch, die üblichen ca. 70%, z.B. 560 Ti vs 670. Praktisch selber Verbrauch, beides sind Midrangechips.
Ich habe garnichts falsch verstanden.
Du behauptest, dass GF104 vs GF114 eine doppelte Performance bei nur 35% Mehr-Stromverbrauch stattfand. Leider fand ich heraus, dass es statt +100% doch nur +35% war.

GK104 braucht ca. 36% mehr Strom als GF104:
http://www.3dcenter.org/artikel/eine...tromverbrauchs
Dabei ist zu beachten, dass er auch mehr als doppelt so schnell ist und auf Kosten des Verbrauchs hochgepusht wurde. Normal sind eher +80% ggü. dem Vorgänger bei ähnlichem Verbrauch, siehe GTX660 vs GTX460, wo das schon viel eher hinkommt.


Wenn ich von dir klare Falsch-Aussagen belegen kann, dann solltest du zumindestens das zugeben können und nicht weiter ein Verwirrspiel machen, indem du die Bezugspunkte änderst.

Was du mit z.B. 560 Ti vs 670 versteht glaube ich kein Mensch im Bezug auf GK110-Einschätzung.

Aha. Es ist also profitabel, die Konkurrenz 9 Monate alleine agieren zu lassen (HD5000 vs...nix) und in der Zeit rein gar nichts zu verkaufen bzw. zu Spottpreisen (macht die Boardpartner sicher froh)? Macht Sinn...
Man sollte halt wissen, dass a) HD 5870 6 Monate vor GTX480 kam und b) AMD mit 53 und 47 Mio. $ benahe Rekord-Gewinne im GPU-Bereich machten.
An dieser Aussage merkt man, dass du diese Information nie angesehen hast und irgendwas erzähltest.
http://ir.amd.com/phoenix.zhtml?c=74093&p=quarterlyearnings
Und schon garnicht erkenne ich den Bezug von spöttisch niedrigen Preise den HD 5870 und GK110-Desktop. Da die Preise mit 400-500$ jetzt wesentlich höher sind als damals mit 300$, sollte GK110 eigentlich wesentlich leichter zum einführen sein, als damals der GTX480.

Obwohl es mit den höheren Preisen einfacher ist, ist die EInführung von GK110 doch um 1Quartal nach hinten verschoben worden.

Im Gegenteil: Es ist profitabel, erst die kleinen Chips/Karten herzustellen und für hohe Preise zu verkaufen (294mm2 und Mini-PCB für 500 Dollar), später dann die großen für noch höhere Preise im Profisegment (550mm2 für 2000+ Dollar) und am Schluss die großen Chips, wenn die Yields anständig genug sind, dann schließlich im Desktopsegment. Das Hat Nvidia nach Fermi auch eingesehen, deshalb machen sie es mit Kepler genau so.
Zu glauben, dass Nvidia das damals nicht wusste, ist schon etwas naiv. Sie hatten eben ihre Gründe, warum sie es so nicht machten.

Zur Bandbreite:
Schön, dass jetzt auch du erkannt hast, dass Tahiti mit 256-bit bandbreitenlimitiert wäre.
Du hast nie verstanden, dass ich es eh erkannt habe.
Nur wenn du mir meine Aussagen & Modelle als Falsch vorwirfst, musst du es auch begründen können, da es sonst nach anfeindungen riecht;)

Wenn du damit eben keine Konkreten Aussagen Treffen kannst, zeigt das eben, dass du mit deiner Aussage selber nicht viel anfangen kannst.
Schließlich könnte deine Aussage ja auch falsch (für die Zukunft) sein oder gar nur für Prognosen unbrauchbar sein. Immerhin meint Unyu das Thaiti-Problem woanders zu sehen.

Kernaussage:
Kepler geht etwas effizienter mit Bandbreite um als Tahiti und wird aus dem 384-bit Interface daher mMn mehr rausholen.
Wenn man bedenkt, wie du meine konkreten Aussagen/Modelle kritisierst, muss ich schon ziemlich über diese Aussage lachen. Schließlich kann man sie ja nicht nachvollziehen, da du ja nicht angibst, wieviel Banbreite annähend nicht genutzt wird. Hoffentlich löst AMD dieses Problem nicht, gell.

Allgemeiner gings wohl nicht mehr, da diese Aussage bei 350W-Spiele und krotenschlechten Yields @ Sommer/Herbst 2013 auch diese Aussage zutreffen würde.

Aber bei dir muss man schon froh sein, überhaupt irgendwelche GK110-Aussagen zu bekommen. Seltsamerweise klingt es bei dir nichteinmal schlimm, wenn GK110-Desktop erst im Sommer 2013 kommen würde.

Nicht vergessen. Das Leben geht nach GK110-Desktop-Einführung weiter. Und dann ist bei der GK110-Einführung wichtig zu sehen, wie der Abstand zur Single-GPU-Performance-Krone (Performance-pro-mm²) und der Stromverbrauch (Performance-pro-Watt) ist und wo somit die GPU-Tendenzen für die Zukunft zeigen.

Zumindestens die Single-GPU-Performancekrone hat AMD in 28nm schon jetzt sicher länger gehalten als in der 40nm und 65/55nm-Zeit.
 
Zuletzt bearbeitet:
14 SMX, 6 GB und 384-bit:

http://www.anandtech.com/show/6421/...-299k-amd-x86-cores-and-186k-nvidia-gpu-cores

Takt liegt wohl bei 700-750 MHz.

Nö, denn K10 ist keine HPC-GPU, weil ECC & Co fehlt. Und schon garnicht erreicht man 3fache DP-Effizienz.

Die Folie lügt nicht. K10 ist auch Tesla. Und Tesla ist nicht nur HPC - nicht jedes Problem benötigt DP und ECC. Abgesehen davon ist es auch denkbar, dass die Verträge für viele K20 Deals ebenfalls früh unterzeichnet wurden und Nvidia die Einnahmen dieses entsprechende Quartal verbucht. Da steht ja nix von Release, sondern "Growth Drivers". Da beißt die Maus kein Faden ab.

Egal ob GK110-Desktop mit Abstand (+15%) oder knapp (+0-10%) vor HD 8970 erscheint, es ist für Nvidia im Gegensatz zu früher ein Rückschritt.

Nö, ist es nicht. Bei GF110 und Cayman war das genauso.

Sehr simple, aber es erklärt eben nicht, warum sie diesesmal die Desktop-Karten nicht gleichzeitig rausbringen sondern unüblich viel später.
Du solltest immer den Bezug auf GK110-Desktop haben und nicht immer solche 0815-Theorie-These von dir geben, wenn du Verspätungen von GK110-Desktop erklären willst.

Du verstehst simpelste Zusammenhänge nicht, sehr schade. Nochmal ganz langsam für dich:

GK110 kommt nicht "viel später", GK104 kam viel früher. Das ist ein Unterschied. Auf den Bezugspunkt kommt es an. Stell es dir so vor, als wäre bei Fermi GF104 vorgezogen, aufgepumpt und gegen HD5000 gelauncht worden. Es ändert nichts daran, dass das dicke Schiff nicht bei einem noch jungen Prozess gelauncht wird. Das war noch nie so:

  • 8800 GT (65nm): November 2007 -> GTX280 (65nm): Juni 2008
  • HD5870 (40nm): September 2009 -> GTX480 (40nm): März 2009
  • HD7970 (28nm): Januar 2012 -> Tesla K20 (28nm): Massenauslieferung ab September 2012.

Es bleibt dabei: Es hat sich nur eines geändert, nämlich eine Prioritätsverschiebung vom Desktopsegment zum Profisegment hin. Man könnte GK110 sicherlich auch jetzt schon als GTX780 bringen, aber was wäre der Nutzen? Man müsste Chips vom hochprofitablen Teslasegment abzweigen und billig verkaufen und man müsste alle anderen Karten darunter entsprechend im Preis senken. Welches Unternehmen ist so doof, um sowas zu tun? Stünde HD8000 jetzt vor der Tür, wäre das was anderes, aber Sea Islands kommt erst 2013. Also hat Nvidia im Desktop keine Eile. GK104 hält noch gut die Stellung.

Ich habe garnichts falsch verstanden.
Du behauptest, dass GF104 vs GF114 eine doppelte Performance bei nur 35% Mehr-Stromverbrauch stattfand. Leider fand ich heraus, dass es statt +100% doch nur +35% war.

Oh doch, hast du. Das hab ich nie behauptet! GK104 ist doppelt so schnell wie GF104:

Leg mir keinen Quatsch in den Mund. mein Zitat war:
GK104 braucht ca. 36% mehr Strom als GF104:
http://www.3dcenter.org/artikel/eine...tromverbrauchs
Dabei ist zu beachten, dass er (Anm.: GK104) auch mehr als doppelt so schnell (Anm.: wie GF104) ist und auf Kosten des Verbrauchs hochgepusht wurde. Normal sind eher +80% ggü. dem Vorgänger bei ähnlichem Verbrauch, siehe GTX660 vs GTX460, wo das schon viel eher hinkommt.

Welche Karten du jetzt exakt vergleichst, ist doch egal. Kernaussage ist, dass die Energieeffizienz sich im Vergleich zur ersten Fermi-Generation fast verdoppelt hat. Und das erwarte ich auch von einer GK-110 basierten GTX780 im Vergleich zur GTX480.

Man sollte halt wissen, dass a) HD 5870 6 Monate vor GTX480 kam und b) AMD mit 53 und 47 Mio. $ benahe Rekord-Gewinne im GPU-Bereich machten.
An dieser Aussage merkt man, dass du diese Information nie angesehen hast und irgendwas erzähltest.
http://ir.amd.com/phoenix.zhtml?c=74...rterlyearnings
Und schon garnicht erkenne ich den Bezug von spöttisch niedrigen Preise den HD 5870 und GK110-Desktop. Da die Preise mit 400-500$ jetzt wesentlich höher sind als damals mit 300$, sollte GK110 eigentlich wesentlich leichter zum einführen sein, als damals der GTX480.

Obwohl es mit den höheren Preisen einfacher ist, ist die EInführung von GK110 doch um 1Quartal nach hinten verschoben worden.

Wieder hast du mich nicht verstanden. Mit Spottpreisen war selbstredend die GTX285 gemeint, denn bis zur GTX480 hatte Nvidia nichts anderes, was sie HD5000 entgegenstellen konnten.

Ganz direkte Frage an dich. Du bist Unternehmer, du hast drei Möglichkeiten, welche nimmst du?

a) GK104-Karten für 500 Dollar verkaufen und GK110-Teslas für Tausende Dollar
b) GK104-Karten für 300 Dollar verkaufen und GK110-Geforces für 500-600 Dollar
c) 9 Monate lang gar nichts verkaufen, dann GK110-Geforces für 500 Dollar und GK104-Karten für 250-300 Dollar

Jeder sieht sofort, dass mit a) der größte Profit erwirtschaftet wird.

Zu glauben, dass Nvidia das damals nicht wusste, ist schon etwas naiv. Sie hatten eben ihre Gründe, warum sie es so nicht machten.

Denk nach:
Sie wussten es sicher früher, aber du kannst von einem Tag auf den anderen die Pläne komplett umstoßen, wenn du siehst, dass GF100 Probleme hat. Bei Kepler hat man die Pläne gleich von Anfang an so gemacht, dass GK104 zuerst und GK110 später kommt. Und das war eine richtige Entscheidung. Eigentlich ist es für mich völlig unverständlich, warum Nvidia vor GF100 nichts gebracht hat. Schließlich hat man wie schon erwähnt noch nie so große Chips gehabt (vor G80) oder man hat erst kleine Brötchen gebacken (8800GT). Wie kam man auf die bescheuerte Idee, 500+ mm2 in einem neuen problembehafteten Prozess als ersten Chip zu bringen, statt klein anzufangen wie AMD? Jetzt hat man draus gelernt mit Kepler.

Allgemeiner gings wohl nicht mehr, da diese Aussage bei 350W-Spiele und krotenschlechten Yields @ Sommer/Herbst 2013 auch diese Aussage zutreffen würde.

Quelle? Beleg deine Aussagen mal.
Die K20 haben 14 SMX@ca. 700-750 MHz bei 225W TDP. Damit wäre schon ein guter Sprung zur GTX680 drin. 350W...darüber lache ich nur.
 
Zuletzt bearbeitet:
boxleitnerb schrieb:
Quelle? Beleg deine Aussagen mal.
Die K20 haben 14 SMX@ca. 700-750 MHz bei 225W TDP. Damit wäre schon ein guter Sprung zur GTX680 drin. 350W...darüber lache ich nur.
Ich finde es auch lustig, wie du über diese angebliche lächerliche Aussage lachst.
Dass du eine Aussage machtest, wo eine GK110 von Top (250W) bis Flop (350W) reicht bzw. beinhaltet, zeigt eben, wie nutzlos deine Aussagen der letzten Seiten im Threads sind, die quasi jeder machen kann.

Nur wer entsprechendes Fachwissen hat, der grenzt die GPU mit einer Wahrscheinlichkeit ein. Wobei die Eingrenzung Sinn ergeben muss bzw. dem Sinn folgen kann und nicht nur aus heiterem Himmel gehofft wird.

An 350W kann ich eigentlich selber nicht so glauben.
Aber das waren die 250W des GTX480 genauso und der Sprung von 250 auf 350W entspricht fast dem von GTX285 auf GTX480.
Da es eben mal passierte, muss man es eben für möglich halten. Ich kann mich eben gut an den GTX480-Test erinnern, denn damals konnte ich zuerst auch nicht glauben, dass sowas möglich ist.

PS: Das schöne an Spekulieren ist, dass man mal schnell falsch liegt.
Falls HD 8800 nicht mit 32CUs sondern nur mit 28CUs (solche Gerüchte las ich erst vor kurzem) und HD 8970 nicht mit 2 Big-Grafik-Engines (= non 4 Rasterizer) dahertanzt, dann siehst die Welt wieder ganz anders aus.
Denn dann wäre die HD 8800 nicht 5-10% vor GTX680/780 sondern 5-10% dahinter.
Und HD 8970 wäre nicht mehr knapp hinter GK110 sondern mit Abstand, sodass der Strom-Mehrverbrauch quasi durch die Mehr-Performance abgedeckt ist und eventuelle 300+W nicht mehr als schlimm anzusehen wären.

Wer konkret spekuliert macht aufgrund der unsicheren Daten-Lage fehler, aber das ist eigentlich das Spannende am Spekulieren. Wer immer nur Recht haben muss, der hat natürlich ein Problem Fehler (= falsch-Aussage/Spekulation) zu machen.

Ich muss immer nur über jene lachen, die sich keinen Konkreten Aussagen trauen, aber sich gscheit über andere konkrete Aussage reden / kleinreden und sie noch ins lächerliche ziehen.

Welche Karten du jetzt exakt vergleichst, ist doch egal. Kernaussage ist, dass die Energieeffizienz sich im Vergleich zur ersten Fermi-Generation fast verdoppelt hat. Und das erwarte ich auch von einer GK-110 basierten GTX780 im Vergleich zur GTX480.
Leider ist das nach vielen vielen Postings die zweite Aussage, deren Sinn man folgen kann und man für eine Konkrete Aussage nutzen kann, was du wie üblich nicht machtest.
Warum die nie eine Konkrete Aussage machst ist mir etwas ein Rätsel, aber vielleicht liegt es darin, dass du Probleme hast Aussagen zu treffen die sich später als Falsch erweisen können.

Dann man ich mal eine konkrete Aussage:
Nehmen wir die verdoppelte Energie-Effizienz von GF104 und GK104 und legen es auf GTX480 und GTX780 um. Da es im CB keinen GTX480 im GTX680-Test gab, nehme ich GTX570-Performnace der so 1% schneller ist als GTX480.
https://www.computerbase.de/2010-12/test-nvidia-geforce-gtx-570/20/
https://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/12/
Also,
GTX680 ist fast 51% schneller als GTX570/GTX480
Wenn GTX780 doppelte Effizienz wie GTX580 erreichen will, dann wäre GTX780 bei 250W "nur" (200/151 =) 32,5% schneller als GTX680

32,5% bei 250W
Umgerechnet auf die spekulierten +50'% bedeuet das 150/132,5 * 250W = 283W also
50% bei 283%

Auch diese Aussage fällt benahe in meinen 300-350W-Rahmen rein, den du als lächerlich siehst.

10% mehr Spannung und 20% mehr Takt, und man könnte schon bei
210W*1,1*1,2 = 277W liegen. (Spannungsquadrat habe ich bewusst weggelassen)
Aber reichen 14SMX @ 850-900Mhz dann gegen HD 8970?

Deine ganz große Hoffnung liegt eben daran, dass Tesla keine ULV-GPUs sind.

PS: Es wäre nett zu erfahren, warum deine genannten K20 14SMX @ 700-750 Mhz haben, während der eigentliche K20 (Siehe News-Topic) nur 13SMX @ 705 Mhz hat.
Vielleicht haben sie im diesem speziellen Server noch TDP-Reserven gehabt, wodurch sie die K20 auf mehr SMX & Takt tunen konnten?


Ganz direkte Frage an dich. Du bist Unternehmer, du hast drei Möglichkeiten, welche nimmst du?

a) GK104-Karten für 500 Dollar verkaufen und GK110-Teslas für Tausende Dollar
b) GK104-Karten für 300 Dollar verkaufen und GK110-Geforces für 500-600 Dollar
c) 9 Monate lang gar nichts verkaufen, dann GK110-Geforces für 500 Dollar und GK104-Karten für 250-300 Dollar

Jeder sieht sofort, dass mit a) der größte Profit erwirtschaftet wird.
Wer sich da auskennt, sieht es nicht sofort.
Denn entscheidend ist dabei, wie viele Stückzahlen man in a) b) und c) verkaufen kann und das hängt von der Konkurrenz-Situation ab.
Mit b) könnte Nvidia viel mehr Profit machen, wenn sie mit diesen Preis wesentlich konkurrenzfähiger ist als die Konkurrenz, die dann nicht mit den Preis tiefer kann.
Und ganau das könnte blöderweise GK110 mit miesen Dies passieren.

Es bleibt dabei: Es hat sich nur eines geändert, nämlich eine Prioritätsverschiebung vom Desktopsegment zum Profisegment hin. Man könnte GK110 sicherlich auch jetzt schon als GTX780 bringen, aber was wäre der Nutzen?
Mit der Performance-Single-Krone kann man die High-End-GPUs teurer verkaufen, so wie es die letzte Jahre üblich war. Warum sollten die Leute das schlechtere/langsame Produkt kaufen? Wem die Performance & der Preis & dem Stromverbrauch egal ist, der kauft nur die Marke.

Nö, ist es nicht. Bei GF110 und Cayman war das genauso.
Das ist falsch.
Cayman bzw. AMD-GPU @ 40nm waren ganze 6 Monate vor Nvidia-GPUs.
Mittlerweile sind es jetzt schon über 6 Monate. Abgesehen davon, müsste GK110 ja noch weiterhin einen Performance-Vorsprung von +15% halten.

Da muss man hoffen, dass Unyu nicht reicht hat, dass das Thaiti-Front-End nicht limitiert und 15%-Performance (= 17,5% Steigerung) einbußt.
Denn dann würde HD 8970 mit +25% (CUs) * 17,5% schon 47% gegenüber zulegen und somit auf GK110 aufschließen.

Bei Kepler hat man die Pläne gleich von Anfang an so gemacht, dass GK104 zuerst und GK110 später kommt. Und das war eine richtige Entscheidung. Eigentlich ist es für mich völlig unverständlich, warum Nvidia vor GF100 nichts gebracht hat.
Genau das ist die Entscheidende Aussage, die zeigt, dass deine ganzen 0815-Wirtschaftsthesen und No-Na-Ned-Wirtschafts-Aussagen in den letzten vielen Posting nutzlos sind, weil du nicht weiß, warum Nvidia DAMALS es genau umgekehrt/anders gehandelt hat.
Denn wenn du die damalige Situation/den damaligen Grund nicht erklären kannst, dann kannst du eben auch nicht erklären, warum sie heute anders handeln.
 
Zurück
Oben