Wie sieht denn der Stromverbrauch bei 1440p@144hz aus? Das ist eigentlich das einzige, das mich interessiert. Bzw. Dual-Monitor mit eben diesem und einem 1080p@60hz Monitor. Ist 144hz das Problem, oder die kombinierten Pixel/s? Dazu ist es leider schlicht unmöglich Daten zu finden. 2x 2160p@60hz geht ja offensichtlich, da ist AMD sogar verdammt gut dabei, also geht dann auch 2160p@120hz oder eben 1440p@144hz? Kann da jemand von berichten oder kennt Testes, die diesen Fragen nachgehen?
Weil absolut alle Tests, die ich kenne, testen nur Dual-Monitor mit 2160@60hz oder ebene 144hz, aber nie andere Auflösungen.
Edit: Ok, ich habe endlich mal was dazu gefunden, zwar für Linux aber sollte denke ich auch prinzipiell für Windows gelten. Siehe Kommetar von Andrei Amuraritei vom 25. April
https://gitlab.freedesktop.org/drm/amd/-/issues/2315
DELL S2719DGF | SAMSUNG 75” Q95T | MCLK | PPT |
---|
2560x1440 60,144 | disabled | 96 | ~16W |
disabled | 3840x2160 100,120 | 96 | ~22W |
disabled | 3840x2160 60,50,30,25,24 | 96 | ~16W |
2560x1440 144 | 3840x2160 120,100 | 1249 | ~90W |
2560x1440 144 | 3840x2160 60 | 96 | ~22W |
2560x1440 144 | 3840x2160 50 | 96 | ~18W |
2560x1440 144 | 3840x2160 30 | 456 | ~42W |
2560x1440 144,60 | 3840x2160 25,24 | 96 | ~18W |
2560x1440 60 | 3840x2160 60,50,30,25,24 | 96 | ~18W |
2560x1440 60 | 3840x2160 100 | 1249 | ~90W |
2560x1440 60 | 3840x2160 120 | 96 | ~26W |
Solange man keinen 2160p@144hz Monitor (oder vermutlich 2 1440p@144hz Monitore) hat ist man von dem Problem vermutlich nicht (mehr) betroffen.
@Vitche Wäre es möglich statt 2160p@144hz - was imho eher eine Randerscheinung ist - ein eher realistisches Setup wie 1440p@144hz + irgendwas mit 60hz als 2. Monitor zu testen? Zumindest beim nächsten Mal. Kenne viele mit so etwas, inkl. mir, aber keinen mit einem 2160p@144hz Monitor. Und dass sich
nichts tut stimmt doch auch nicht wirklich, denn anscheinend existiert das Problem ja nicht mehr generell wie es zu Beginn der Fall war, sondern nur ab einer gewissen Pixelfüllrate. Darunter hat man natürlich noch den höheren Verbrauch bei z.B. Video, aber das ist für mich persönlich dann etwas, mit dem ich leben könnte. Nvidia kaufen wäre für mich einfach schlimmer* als 20W mehr auf Youtube.
*Alles unter der 4090 wirkt für mich einfach zu sehr künstlich beschnitten (z.B. "Speicherkrüppel" 4070 ti) und kundenfeindlicher, proprietärer Bullshit zur Quasimonopolverfestigung geht mir auf die Eier. Auf meiner 2060 geht Adaptive Sync z.B. nach wie vor nur mit extrem vielen Problemen, das haben die nur tokenmäßig in den Treiber eingebaut.