Powl_0 schrieb:
Aus dem technischen Fortschritt?
Ich spiele seit 2015 in 4K. Das ging damals auch mit einer 250W 980Ti. Seit 2017 spiele ich in 4K mit einer 250W 1080Ti.
Die GTX580 von 2011 kommt auch schon auf 250W. Nach deiner Logik müssten aktuelle Karten dann ja beim Kilowatt sein.
Ja, aber du spielst nicht in den Grafikdetails welche inzwischen möglich sind mit einer 1080TI.
Jahr für Jahr wird mehr aus den jeweiligen Engines herausgeholt und neue Features implementiert.
Aktuell spiele ich auch 4K mit einer 5700XT, aber zu welchem Preis? Es reicht eben nicht immer für hohe Einstellungen.
Natürlich reicht es für ein Witcher 3 beispielsweise auch mit anderen Grafikkarten für 4K mit teils hohen Details.
Aber du wirst mir doch nicht erklären wollen, dass du ein aktuelles Spiel mit aktuellen Engines und allen Features auf 4K mit Hoch oder Ultra spielen willst und das dies immer mit unter 250W möglich sein muss?
Ja, durch den Fortschritt schaffen wir es, dass in Zukunft vermutlich die Leistungswerte wieder fallen, aber das braucht erst wieder seine Zeit. Wer weiß was die nächsten Architekturen bringen oder Verfahren wie DLSS und Co. Ich wünsche mir es sehr, dass Grafikkarten sparsamer werden.
Wenn man sich heute keine Gedanken um Slider in den Grafikeinstellungen machen möchte und einfach die höchsten oder zweithöchsten Einstellungen zu nutzen, kommt man nicht drum herum, dass auch die Leistung steigt.
Und ja, seit den ersten 3dfx und RivaTnT und GeForce Karten ging die Leistung stetig nach oben.
Das hat nichts mit kw-Leistung Hysterie zu tun. Das ist der Lauf der Dinge.
Es war seit über 10 Jahren ausreichend ein 550 oder 650W Netzteil zu brauchen.
Jetzt sind es eben 650-850W für Spiele in 4K und Ultra Details (ohne DLSS / ggf. Raytracing).
Gerade der Raytracing Trend braucht einfach mehr Power - aktuell(!)
Nicht zu vergessen, dass der Mehrspeicher (sowie die Chipgröße) - damals 4/8GB heute vermutlich 16GB auch mehr Strom benötigt.