Erstmal danke an alle, die mit spekuliert haben.
Die 14 Jahre, die ich für die GraKa Leistung "gewettet" habe, waren einfach so aus dem Bauch heraus geschätzt. Deswegen jetzt nochmal etwas "wissenschaftlicher"
Also ich bin jetzt mal vom 3D-Center UHD Performance Index ausgegangen. Aktuelles Problem ist dabei, dass man wohl kaum über 3 Titan Produkte die über einen Zeitraum von knapp 3,5 Jahren veröffentlicht wurden, sinnvoll auf einen Zeitraum von vielleicht 10-15 Jahren extrapolieren kann. Zumal hier nur ein FullNode dazwischen liegt und ich nicht weiß, ob NVidia nochmal sowas wie Maxwell hinbekommen wird. Weiterhin betrachten wir hier ja die Titan Serie, die gewissermaßen für sich selbst steht.
Ich habe einfach wiegesagt über den Titan UHD Performance Index über der Zeit, normiert auf Titan XP = Jahr 0 bei 100% Index. Zwischen den Karten liegt jeweils ein Zuwachs von ca. 70%.
Von 4K auf 8K brauche ich die 4-fache Rechenleistung. Für 120fps nochmal das Doppelte (=800%). Von der Extrapolation abgeleitet komme ich demnach auf ca. 7,2 Jahre. Im Midrange Bereich ist die gleiche Leistung wohl so zwischen 1,5 bis 2,5 Jahre später zu haben. Ich nehm jetzt einfach mal 2 Jahre, ergo gesamt so 9 bis 10 Jahre. Ob man hier den Performance-Index mit wirklich resultierender Leistung gleichsetzen kann, mag ich bezweifeln. Daher gebe ich jetzt einfach mal pi*Daumen noch eine Generation, sprich 2 Jahre drauf und nochmal eine Generation für gestiegende Anfordungen von den Spielen, ergo ca. 13 bis 14 Jahre.
Also vom Prinzip her etwas optimistischer, als meine Bauchgefühl Schätzung. Es besteht natürlich die Frage, inwieweit in diesem Zeitraum noch zusätzliche Leistung benötigt werden wird, für schönere Grafik, und inwieweit sich das mit technologischen Verbesserungen, wie z.B. besserer Shaderauslastung durch Softwareseitige Entwicklungen in Waage hält. Vulkan/DX12 machen da schon was, aber nicht über das gesamte Leistungssegment gleichmäßig und auch nicht für alle Karten.
Weiterhin bleiben gewisse Hoffnungen bestehen, dass die Technik bis dahin neue Möglichkeiten eröffnet. Von der Architektur her würde ich da nicht viel erwarten, dass man durch ein neues Fertigungsverfahren plötzlich im gleichen Zeitraum mehr als ein FullNode-Äquivalent an Leistungszuwachs bekommt, bezweifle ich auch, da sich sowas ja langsam schon rumsprechen müsste. Ggf. bekommt man den HSA-Ansatz sinnvoll umgesetzt, sprich sehr gut skalierbare Rechenleistung über Parallelität von kleinen, günstigen Chips. Aber dass das in den nächsten 10 Jahren im Midrange ankommt, ist wohl auch unwahrscheinlich. Da müsste es ja schon in Bälde entsprechende Prototypen geben.
Shoryuken94 schrieb:
Ich glaube eher, dass sich die Grafikkarten vielleicht die nächsten 3,4 oder 5 Jahre noch stark steigern werden, aber spätestens wenn nicht mehr so fix kleinere Strukturbreiten verfügbar werden, wird das nicht mehr der Fall sein, da die letzten GPU Generationen Ihre mehrleistung fast ausschließlich aus dem Takt und der höheren Shaderzahl gezogen haben. Die Shaderzahl lässt sich ohne Strukturverkleinerung nur schwer steigern, vielleicht sehen wir ja aber auch irgendwann 800 oder gar 1000mm^2 große Chips und den takt kann man auch nicht unendlich steigern. Erst wenn man von Siliziumchips zu anderen materialien umschwenkt, wird man wieder starke steigerungen sehen, aber die Siliziumfertigung werden wir wohl in den nächsten 10 Jahren ans limit getrieben haben und so schnell wirds da auch keine nachfolge geben.
Wenn ich das richtig in Erinnerung habe, dann werden die zeitlichen Abstände zwischen FullNodes tendenziell eher größer. Man darf hier auch nicht nur betrachten, was technisch machbar ist, sondern muss die Frage stellen, ob es wirtschaftlich noch vertretbar ist. Nachdem, was man so von Insidern liest, sind die Kosten mittlerweile ja schon spürbar gestiegen, im Vergleich zu vergangenen Generationen. Intel hat ja auch Tick-Tock über den Haufen geworfen.
Weiterhin scheint die gesteigerte Shaderzahl auch nicht die reine Lösung zu sein, da sich damit ja wieder andere Probleme ergeben, siehe bspw. die Fury.
Bei den großen NVidia Karten gab es den letzten großen Sprung der Shaderanzahl von Kepler auf Fermi. Auf Maxwell waren es bspw. nur ca. +7%, auf Pascal nur +25%.
Die Fury hat ja ihre 4k Shader nicht ausgelastet bekommen, es sind dort also Flaschenhälse vorhanden. Selbst Hawaii mit 2,8k Shadern lastet ihre Shader unter DX11 auch nicht optimal aus. Schaut man auf P10, dann hat dieser ja ziemlich genau die gleiche Leistung, bei allerdings 2,3k Shadern.
Vitec schrieb:
vielleicht können aber auch Volta und Vega mit HBM 2 und dann hoffentlich auch bei NV AC und optimaler DX12 / Vulkan Unterstützung 2017/2018 mehr zulegen als diese 40% ?
Die Fury hat zumindest in ihrer Anfangszeit dank HBM oben rum ordentlich zugelegt in 4k.
Halte ich für ziemlich unwahrscheinlich. NVidia schafft es ja, ihre Architektur mit einer hohen Auslastung zu fahren, d.h., unterm Strich gibt es da keine allzugroßen ungenutzten Reserven. Durch AC verringert man ja letztendlich hauptsächlich die Abhängigkeit von der CPU, wenn ich das richtig sehe.
Und ob die Fury nun "so schnell" war, weil sie HBM hat, ist glaube auch eine etwas gewagte Aussage. Man muss es eher so sehen, dass die Fury nur mit HBM überhaupt halbwegs sinnvoll lauffähig ist.