TigerNationDE schrieb:
5090 600 Watt hust xD Finde die Entwicklung mega erschreckend. So viele kritisieren das seit Jahren, aber es geht immernoch in die gegenteilige Richtung. Weniger Verbrauch dient immer nur kurzzeitig zu Werbezwecken, so wie scheinbar beim 9000er Release hier.
Und wenn man sich anschaut wie man vor 20 Jahren gedacht hat:
https://www.computerbase.de/forum/threads/stromverbrauch-geforce-6800.83178/
Da sind Heutige karten Utopisch im Verbrauch, dafür kann man sich nen ineffizientes Multi-GPU setup sparen^^
Und die Karten zu drosseln ist heute auch kein Hexenwerk mehr, 1 Tool, 1 Regler, Fertig.
Bis wir 4090 Leistung auf ner Low Profile karte sehen werden bestimmt noch 8-10 Jahre vergehen (Sagt zumindest meine Glaskugel).
Die 4060 ist 8 Jahre älter als die 980TI und macht bei halbem verbrauch etwa doppelt so viel FPS, also Effizienz ist um den Faktor 4 Gestiegen was Leistung/Watt angeht.
Von der 9800GTX zur 8 jahre älteren 980TI Haben wir noch ca. den Faktor 10x
Die Sprünge im gleichen Zeitraum sinken also mit der Zeit. Wobei Natürlich Faktoren wie AI Upscaling und Frame Generation on top kommen. Aber gerade Framegen ist nicht für alle titel nur von Vorteil wegen dem Inputlag. Wobei das auch nur Stand heute ist.
Klar gibts oft verbesserungspotential, aber irgendwann ist man eben an Physikalische Limits gebunden.
Außer man findet ein Bug in der Physik um Daten in der Zeit zurück zu schicken.
Wie auch immer, was man feststellen kann ist dass die Entwicklungsschritte was leistung Pro Watt angehen erstmal kleiner werden bis auf unbestimmte Zeit, und deswegen muss man eben mehr Energie reinbuttern wenn die Balken länger werden sollen und die Chips nicht zu groß und damit in der Produktion fehleranfälliger.
Denn Müll zu Produzieren kostet auch Energie, nur halt nicht auf deiner Stromrechnung.