shinobin_xx
Cadet 3rd Year
- Registriert
- Jan. 2024
- Beiträge
- 32
Ich habe da eine kurze Frage, die sich zwar nicht nur auf die GPU beschränkt, aber die ist für die Höhe des Verbrauchs wohl am Relevantesten und auch der Hauptfaktor meiner Frage:
1. Nehmen wir mal meinen aktuellen, alten PC mit einer 1060 6GB und i7 4790K. Wenn ich den an die Grenzen bringen, zum Beispiel Medieval Dynasty auf Low-Mittel, dann schafft er mit Glück so seine 50-60fps, der Strommesser zeigt konstant 260W für den Verbrauch an, dauerhaft für die ganze Session.
2. Nun käme mein neuer PC: 7800x3D mit 4070 Ti Super.
Sagen wir mal, ich würde höhere Einstellungen wählen, von mir aus auch Ultra, sowie auf 60FPS begrenzen.
Nehmen wir an, die GPU ist damit 20-30% (oder einen realistischen Wert) ausgelastet, hat also nicht so viel zu tun.
Käme ich damit auf deutlich mehr Stromverbrauch als mit dem Alten?
Im TDP Vergleich in Relation zur Belastung der Karte sähe es so aus:
TDP 120 Watt (1060 6 GB) vs TDP 285 Watt (4070 Ti Super) entsprechen: Faktor 2,375.
Aber Auslastung 99% (1060 6B) vs Auslastung z.B. 30% (4070 Ti) entsprechen: Faktor 3,3.
Damit wäre rechnerisch die neue Karte effizienter bei besseren Bild und gleichen FPS.
Also die Kernfrage: Ein neueres und bei Last deutliche stromintensiveres System, dass aber sehr gering ausgelastet ist und dennoch hohe bis ultra Grafikeinstellungen darstellen kann, wird das dann am Ende das Stromlevel "wie vorher" in etwa halten können? Oder ist das eine Wunschvorstellung?
Vllt. ist es auch eine doofe Frage, aber das Thema kam bei mir schon oft auf.
Danke euch!
1. Nehmen wir mal meinen aktuellen, alten PC mit einer 1060 6GB und i7 4790K. Wenn ich den an die Grenzen bringen, zum Beispiel Medieval Dynasty auf Low-Mittel, dann schafft er mit Glück so seine 50-60fps, der Strommesser zeigt konstant 260W für den Verbrauch an, dauerhaft für die ganze Session.
2. Nun käme mein neuer PC: 7800x3D mit 4070 Ti Super.
Sagen wir mal, ich würde höhere Einstellungen wählen, von mir aus auch Ultra, sowie auf 60FPS begrenzen.
Nehmen wir an, die GPU ist damit 20-30% (oder einen realistischen Wert) ausgelastet, hat also nicht so viel zu tun.
Käme ich damit auf deutlich mehr Stromverbrauch als mit dem Alten?
Im TDP Vergleich in Relation zur Belastung der Karte sähe es so aus:
TDP 120 Watt (1060 6 GB) vs TDP 285 Watt (4070 Ti Super) entsprechen: Faktor 2,375.
Aber Auslastung 99% (1060 6B) vs Auslastung z.B. 30% (4070 Ti) entsprechen: Faktor 3,3.
Damit wäre rechnerisch die neue Karte effizienter bei besseren Bild und gleichen FPS.
Also die Kernfrage: Ein neueres und bei Last deutliche stromintensiveres System, dass aber sehr gering ausgelastet ist und dennoch hohe bis ultra Grafikeinstellungen darstellen kann, wird das dann am Ende das Stromlevel "wie vorher" in etwa halten können? Oder ist das eine Wunschvorstellung?
Vllt. ist es auch eine doofe Frage, aber das Thema kam bei mir schon oft auf.
Danke euch!