c2ash schrieb:
Hier mal eine schöne Grafik, wie sich die Performancesteigerungen der letzten GPU-Generationen zueinander verhalten haben.
GPU-Performance-Vergleich über viele Generationen
Das läuft fast analog zu den CPUs. Die Leistungssprünge sind nicht mehr so hoch wie vor 10 Jahren. Es gab schon einige Generationen wo der Leistungsgewinn unter 30% lag.
Warum sollten GPU-Entwickler bei der Entwicklung nicht in die selben Probleme laufen wie CPU-Entwickler? Im Endeffekt arbeiten beide letztendlich mit Silizium und die Rate der verbesserten Herstellungsstrukturen verlangsamt sich nicht erst seit gestern.
Der Gedanke ist prinzipiell richtig, ja …
Komplexität ohne Not
Allerdings darfst Du nicht vergessen, daß tatsächlich immer wieder irgend ein nutzloser bis wirkungsloser Blödsinn in das IP mit hinein genommen wird – welcher oftmals schlicht überflüssig ist und eigentlich vermeidbar
wäre – damit die Komplexität künstlich und ohne große Not gesteigert wird und die Fertigung an und für sich unnötigerweise verkompliziert, den Die selbst verteuert und den Fortschritt als solches erschwert. Grundsätzlich verkompliziert das die Maske, den Yield, steigert die Fertigungskosten und damit wird der schlußendlichen Chip
grundlos verteuert. Als solches wird die Fertigung wie auch das Endprodukt damit deutlich komplexer und kostspieliger, als es sein
müßte.
Des Kunden Last
Durch die anhaltend steigende Komplexität wird nicht nur die Chip-Ausbeute nach unten und damit der Preis in der letztendlichen Fertigung nach oben gedrückt, sondern auch die Leistungsaufnahme und der letztlich vom Kunde für das Endprodukt zu zahlende Preis. Steigende Komplexität und unnötige Teilbereich des Chips – die Zeche zahlt der Kunde, meist sogar mehrfach in Form der Stromrechnung.
Diese Kompliziertheit zelebriert hier insbesondere nVidia. Seit jeher wird bei der Fraktion Grün die Die-Größe künstlich und ohne zwingend nötigen Grund meist rein aus Gründen des Prestige ausgebläht und verkompliziert – die Kosten trägt der Kunde. Bei praktisch jeder Generation versucht‘s nVidia wieder, will mit einem unnötig großen Big-Chip durch die Wand, und daß, obwohl das weder die Fertigung, die Stromaufnahme noch die Komplexität wirklich erlauben.
Und bei praktisch jeder Generation die letzten Jahre fliegt damit besonders nVidia prominent auf die sprichwörtliche Schnauze und hat evidente Probleme mit der Ausbeute. Das war schon prominent bei
Fermi so, das hat
Maxwell wie
Pascall fortgesetzt und selbst wieder heute ist das (schon wieder) der Fall mit
Turing. Miserable Ausbeute aufgrund explodierender, weil gewollter Komplexität und damit durch schlechte Yields weil unbedingt Big-Chip – auch hier darf der Kunde wieder verdammt teif in die Tasche greifen. Der exorbitant überzogenen Kaufpreis ist ja in erster Linie gerade kausal der Ausbeute geschuldet, hoffe wir mal …
Teurer Egoismus
Die Folgen sind doppelt teure Produkte, welche nicht nur durch miserablen Yield sondern auch in Folge noch durch durch Knappheit selbst nach der Fertigung abermals verteuert werden. Dabei ist der Grund eigentlich schlicht jener des Egoismus –
wenn man es denn einmal so auf einen einfachen Nenner herunterzubrechen versucht.
PhysX etwa und deren Implementierung durch proprietäre und technisch hochkomplex zu fertigende
CUDA-Kerne wären beispielsweise überhaupt gar nicht vonnöten, wenn nVidia statt auf
CUDA eine offene Implementierung gemäß des
OpenCL-Standards
in Hardware nutzen würde (und nicht umständlich und kostenintensiv in Hardware zu implementierende Decoder/Encoder für
CUDA ↔
OpenCL). Der Haken ist bloß, daß
wollen sie gar nicht – denn dann hätte man ja keine proprietäre Implementierung mit denen man seine Kundschaft in ein geschlossenes Ökosystem zwingen könnte und gleichzeitig bewußt den Markt spaltet. Auch gäbe es kein
PhysX oder
GameWorks, mit dem man immer wieder am Punkt der Spieleentwickler (und später in Form der Spiele-Titel) versucht die Spielerschaft und damit den Markt spalten.
Unmittelbare Kosten
Die Ironie ist, daß jene immer wieder von nVidia so künstlich hochgezüchteten Big-Chips mit wahnsinniger Größe trotz alledem hinter flächenmäßig kleineren Dies bei AMD's Grafikkarten zurückstehen und trotz
größerer Die-Fläche eine
geringere Rohleistung haben. Bestes Beispiel war ja die Fury X, die ja mit 596 mm² für AMD-Verhältnisse zwar auf einem wirklich großen Big-Chip basierte und schier
rie·sig war, aber dennoch kleiner war, als es der
GM200 mit 601 mm² war, der die Basis für die
GTX Titan X ist.
Trotz 1% geringerer Die-Fläche hatte die
Fury X mit 8,6 TFLOPs dennoch eine um satte 40% höhere Rohleistung als eine
Titan X mit 'bloß' 6,1 TFLOPs. Aber nicht nur das; Selbst die Packdichte konnte AMD aufgrund der relativ geringen Komplexität auf 14,9 Millionen Transistoren je mm² erhöhen, wobei der
GM200 lediglich auf 13,3 Millionen kam – das Ganze bitteschön bei
i·den·tisch·em Fertigungsprozess! Beide GPUs wurden in TSMC's 28 mm HP aufgelegt.
GameWorks 2.0
Auch
Turing ist hier wieder ein paradebeispiel von gestaltgewordenem Egoismus … In Gestalt und unter Vorwand des Fortschritts. Tut mir wirklich leid, aber anders kann man es fast nicht beschreiben, jedenfalls
nicht wenn man das Ganze einmal
„strictly technical“ vesucht zu betrachten – wie Anandtech immer wieder so treffend beschreibt.
Als wolle man
mit aller Macht unbedingt etwas Proprietäres haben, damit man ein Alleinstellungsmerkmal besitzt, um in Folge nicht nur wieder elegant den Markt spalten zu können (weil nVidia-exklusiv), sondern es geht ja nVidia vornehmlich darum, daß die Effekte von
GameWorks so langsam aber sicher verebben und die Entwickler nicht mehr wirklich bereit sind, ihre propietäre Technik zu benutzen.
Zwar nehmen die Entwickler die ersten Koffer voll Geld zum Release wohl gerne mit (wer kann es ihnen verübeln?), aber danach sieht man doch immer wieder recht schnell, daß die Spielerschaft schlicht nicht bereit ist, sich diese hinterhältigen Bremsen à la
PhysX HairWorks & Co tatsächlich zu geben. In der Folge merken die Studios den Effekt ausbleibender Käufe doch recht sicher.
Und jetzt ist Turing da, um als neueste Reinkarnation von
GameWorks das Erbe desselben anzutreten. Diesmal heißt
PhysX also nicht länger
HairWorks sondern hört auf den Namen RT – made by
Tensor. Yay!
Nicht!
Nicht nur explodierte einmal mehr die Die-Größe und als Folge zwangsläufig implodierte der Yield. Nein, man ist sich Seitens nVidia derart sicher eine marktbeherrschende Stellung inne zu haben, daß man auch gleich noch die Preise für den Testballon
Turing mehr als verdoppelt.
Hohes Ross
Warum kein
Volta ohne
Tensor für den Consumer-Markt? Einfach die RT-Kerne weg und als überraschend kleinen Die (nochmal) auf 14nm, 16nm oder 12nm aufgelegt. Der Chip wäre phänomenal klein und effizient geworden – allerdings hätte man dann wahrscheinlich unweigerlich zugeben müssen, daß
Maxwell 4.0+RT,
pardon! Turing im Kern nichts anderes ist, als eine Rückentwicklung von
Pascal 2.0 Volta als
Maxwell 4.0 Turing in den Endkunden-Markt.
Ich komme so langsam selbst durcheinander!
Ich finde bei entsprechender Effizienz wäre die architektonische Basis aber mal sowas von vollkommen egal gewesen – solange der Fortschritt stimmt, hätte dies Keinem wirklich weh getan. Nagut, wahrscheinlich zumindest Jen-Hsun's Ego auf jeden Fall …
Anmerkung:
Es geht mir hier nicht darum, aufzuzeigen, wer den besseren Chip hestellen kann, sondern darum, daß Chipfläche aus Gründen des Egoismus und der Profitgier sinnlos geopfert wird – und zwar, nur damit man ein Alleinstellungsmerkmal besitzt. Auch spielt in dieser strikt technischen Betrachtung der Fakt keine Rolle, daß AMD die höhere Rohleistung selten bis gar nicht in Performance ummünzen kann.
Es geht mir hier allein darum, daß rein technisch betrachtet die Dies insbesondere bei nVidia ohne Not mit prinripiell unnötigen Ausführungseinheiten vollgestopft werden – auch wenn für solche Einheiten wie CUDA- oder Tensor-Cores in Folge (künstlich und aus Gründen der Wettbewerbsbehinderung) ein Markt im Sinne einer Endanwendung geschaffen werden möge.
Im Kern ist deren Existenz zumindest zum jetzigen Zeitpunkt schlicht nicht nötig und ihre verlustbehaftete Implementierung in Form von in die Höhe getriebenen Yields aufgrund kapitaler Die-Größe rechtfertigt keinesfalls (aufgrund fehlender Anwendung) weder den Preis noch deren bare Existenz – zumidest die nächsten zwei Jahre und erst Recht zu dem jetzt aufgerufenen Preis. Der Beitrag dreht sich denn auch primär formal um die Herstellung, Fertigung und zunehmende Komplexität von GPUs.
c2ash schrieb:
…
Dieses trotzig rotzige Verhalten !!einiger!! in dieser "Techn-Community" lässt mich an deren geistiger Haltung zweifeln. Nüchtern sachlich ist heutzutage schon lange out. Es ist trendy sich zu empören und sich entitled zu fühlen und sich quasi als Opfer von XY darzustellen. Da drängen sich Leute quasi selbst in eine bevormundete Stellung um dann zu sagen "wie können die mir nur sowas antun". Selbstständiges, verantwortungsvolles und gegenüber anderen Leuten respektvolles Denken und Handeln ist nur noch selten anzutreffen. Emotionen übernehmen den Verstand und somit sind keine sachlichen Diskussionen mehr möglich.
Ich finde den Zustand in diesem speziellen Bereich der Tech-Community wirklich traurig und erschütternd.
Pfui deibl.
Großes Lob an dieser Stelle hiefür! Trifft wie so oft den Kern der Sache.
In diesem Sinne
Smartcom