iron_monkey schrieb:
meine PCs verbrauchen seit Jahren.... 600W unter Last, nur früher für 1024x768 Pixel und nun für 3440x1440 Pixel
Er hat den gleichen Denkfehler wie du, ihr betrachtet irgedwelche absoluten Werte nicht die Effizienz!
Schau halt was Crysis in FHD mit SLI verbraucht hat
Du bist mit SLI/Crossfire und 600W aber auch eine Absolute ausnahme gewesen.
Ich hatte bei meinem Phenom II noch ein 300W Netzteil. Und nach dem Bulldozer (560W NT) mit Ryzen auch wieder nur ein 460W Netzteil.
Ich hab einen Kumpel der 2x RTX 5090 mit 32 Kern Threatripper wollte, und Sommer 2024 schauten wir auf Geizhals und konnten nur 3 Netzteile finden die überhaupt 1200W hatten.
Ich hatte mal eine Liste angefertigt, wo ich alle Verbräuche aller Gängigen Grafikkarten seit Radeon 9700 Pro bis heute aufgelistet habe. Finde die grad leider nicht.
Sah aber in etwa so aus.
Radeon 9700 Pro lage noch bei ca 35-50W.
Auch eine 6800GT hatte eine TDP von 67W.
Erst ab der Geforce 8 ging der verbrauch Historisch nach Oben, und lag bei einer 8800 GTS 640mb (Zu Release 2006 dass 2t teuerste und 2t schnellste Modell) 153W.
Und selbst dass ist ja ein Witz gegen die 480W die deine RTX 4090 verbraten kann.
Und jetzt mit der RTX 5090 wirds noch schlimmer.
Und mehr FPS pro Watt ist für mich kein Argument.
Die FPS pro Watt ist ja immer gestiegen, und dass sogar ohne mehr Strom aufwand.
Zb FX5700 Ultra vs 6600GT bei ca gleichem Verbrauch 240% der fps.
6600GT vs 7600GTS bei ca gleichem Verbrauch 220% der fps.
Leistung Pro Watt sollte nicht rechtfertigen dass wir irgendwann 2000W Grafikkarten benutzen.
Und diese simplen Gedanken habe ich bei den Lesern einfach mal mit vorrausgesetzt.
Dass jetzt hier einige nicht darauf kommen, und mich grundsätzlich falsch verstehen kann ich kaum nachvollziehen.