Wun Wun
Lt. Commander
- Registriert
- Juli 2015
- Beiträge
- 1.320
Guten Abend,
ich habe gerade meinen neuen Monitor (https://geizhals.de/acer-nitro-xv3-...04-um-hx3ee-p05-a1935862.html?hloc=at&hloc=de) ausgepackt und gleich mal verschiedene Spieletests gemacht. Diese lassen mich dabei etwas ratlos zurück. Ingame ist der Stromverbrauch der Grafikkarte (Vega 56) mit dem neuen Monitor bei gleicher Auflösung und gleichen Settings viel höher als mit dem alten (https://geizhals.de/asus-pb278qr-90lmga001t02251c-a1136279.html?hloc=at&hloc=de), was je nach Spiel bei Erreichen des Powerlimits z. T. auch niedrigere Framerates bedeutet.
Beispiel Witcher 3:
Alter Monitor (1440p60Hz):
Neuer Monitor(2160p120Hz):
Dass die 120/144 Hz im Idle einen höheren Stromverbrauch bedeuten, habe ich schon vermutet, aber dass der Unterschied unter Last so heftig ausfällt, hätte ich nicht erwartet. Ich muss da doch irgendentwas übersehen, oder? Ob FreeSync an oder aus ist, macht keinen Unterschied, ebenso wenig, wie wenn nur ein Monitor an der GPU angeschlossen ist.
ich habe gerade meinen neuen Monitor (https://geizhals.de/acer-nitro-xv3-...04-um-hx3ee-p05-a1935862.html?hloc=at&hloc=de) ausgepackt und gleich mal verschiedene Spieletests gemacht. Diese lassen mich dabei etwas ratlos zurück. Ingame ist der Stromverbrauch der Grafikkarte (Vega 56) mit dem neuen Monitor bei gleicher Auflösung und gleichen Settings viel höher als mit dem alten (https://geizhals.de/asus-pb278qr-90lmga001t02251c-a1136279.html?hloc=at&hloc=de), was je nach Spiel bei Erreichen des Powerlimits z. T. auch niedrigere Framerates bedeutet.
Beispiel Witcher 3:
Alter Monitor (1440p60Hz):
Neuer Monitor(2160p120Hz):
Dass die 120/144 Hz im Idle einen höheren Stromverbrauch bedeuten, habe ich schon vermutet, aber dass der Unterschied unter Last so heftig ausfällt, hätte ich nicht erwartet. Ich muss da doch irgendentwas übersehen, oder? Ob FreeSync an oder aus ist, macht keinen Unterschied, ebenso wenig, wie wenn nur ein Monitor an der GPU angeschlossen ist.