RTX 3080 Stromverbrauch bei mehreren Monitoren?

Trinoo

Commander
Registriert
März 2008
Beiträge
2.384
Hallo zusammen,

hat hier jemand von den 3080ern Besitzern mehrere Monitore im Einsatz? bezogen auf mein Anliegen, wären 3 perfekt, denn es geht mir um folgendes.

Meine Gigabyte Aorus Rtx 2080 Super genehmigt sich im Idle sagenhafte 75 Watt mit 3 Monitoren. (Rechner läuft ca 16h am Tag, da läppert sich das doch nach ner Weile)

Im Netz findet man diverse Berichte, die allerdings sagen, Nvidia hat diesen hohen Verbrauch seit dem Release von Treiber 416.81 am 08.11.2018 gefixt.
Der Verbrauch sollte nach dem Fix zwischen 16-21 Watt liegen...(Multimonitor, single Monitor ist nochmal deutlich geringer) und da ist meine mit 75 Watt doch deutlich drüber.
Mich nervt das schon eine ganze Weile (mehrere Wochen), doch da die 2080s den Besitzer wechselt sobald ich eine 3080 abbekomme, soll es mir im Grunde egal sein, sofern ich bei der 3080 nicht auch das gleiche Problem bekomme ;)

Ich nutze einen 27 Zoll, 165 Hz - Gsync kompatiblen Monitor in Kombination mit zwei 24 Zöllern ohne Gsync, 60 Hz. Alle über DP angeschlossen. Keine Unterschiedlichen Kabel.

Die Unterschiedlichen Frequenzen der Monitore sollen früher auch zu Problemen geführt haben, wurden aber auch vor Ewigkeiten angeblich gefixt

Bisherige Lösungsansätze dank des Internets:

Gsync deaktivieren ändert nichts.
Alle Monitore auf 60 Hz betreiben bringt auch nichts.
Gsync aktiv lassen und Fps auf 60 limitieren hat auch nichts gebracht.
Selbst der hoch gelobte Multi Display Power Saver bringt, ausser einem reduzierten Takt und nervige Grafikfehler auch nichts.
Natürlich hab ich auch schon versucht was die Karte macht wenn man nur einen Monitor oder zwei angeschlossen hat :)
Ergebnis: 2 Monitore = 47 Watt, 1 Monitor = 47 Watt im Idle und dies auch wenn ich Gsync deaktiviere und 60 Hz fahre.

Also kam mir die Idee, denn viel Möglichkeiten gibt es ja nicht mehr, das eventuell Gigabytes Kartendesign einfach irre schlecht ist, und das dies eben nur speziell bei dieser Karte auftritt.

Leider waren die 2 Mitarbeiter von Gigabyte, denen ich dieses Problem per Mail schilderte komplett überfordert, und ich hatte den Eindruck das sie den ersten Tag dort arbeiten, als Aushilfe... von der Putzkraft (nichts gegen Putzkräfte, nur haben die halt nichts in der technischen Abteilung verloren).
Das war mir dann nach über 14 Tagen Emailverkehr zu dumm und ich hab aufgegeben und mich grimmig verabschiedet.

Ideen und Erfahrungen bezüglich der 3080 sind willkommen :)
 
Brauchst du alle 3 Monitore zum zocken? Wenn nein würde ich den 3. über den 8700K laufen lassen. Irgendwie verbrauchen alle GraKas bei 3 Monitoren einiges mehr.
 
yxcvb schrieb:

Gut und schön, mir ging es jedoch um 3 Monitore und nicht um ein Dual Setup ;)

und die 75 Watt sind halt immer noch nicht die im Artikel erwähnten 55.
Und Idle sind es 47 anstatt 11 mit single Monitor


Darkscream schrieb:
Brauchst du alle 3 Monitore zum zocken? Wenn nein würde ich den 3. über den 8700K laufen lassen. Irgendwie verbrauchen alle GraKas bei 3 Monitoren einiges mehr.

ja nein, nicht zwingend, so mache ich es auch aktuell weil mich der Verbrauch im Idle einfach stört.
Wird einem wohl nichts anderes übrig bleiben wenn es keine andere Lösung gibt.

Dies löst allerdings das Problem nicht das selbst im Idle anstatt 11 Watt, 47 Watt anliegen.
 
Wie misst du denn die 47W?
Die sind nämlich nur für die GraKa und lassen sich als Privatperson nicht so einfach messen.
 
Darkscream schrieb:
Wie misst du denn die 47W?
Die sind nämlich nur für die GraKa und lassen sich als Privatperson nicht so einfach messen.

Gpu Z

1601313307887.png


HWinfo

1601313343753.png
 
Bin mir nicht sicher ob das richtig ausliest. Kannst du dein gesamtes System messen (Steckdose)?
 
Das hat mir geholfen

Ich bin von meiner 1080ti auf eine 2080ti umgestiegen und auf einmal 84-86 Watt.
Mit dem oben genannten Workaround komme ich auf immerhin <40Watt.

Angeschlossen habe ich einen 3440x1440@144hz per dp und einen 1080p 60Hz per hdmi Monitor.
Mit der 1080ti hatte ich das Problem nicht.
Im Treiber habe ich Optimale, sowie adaptiv ausprobiert (mit Neustart), keine Änderung!

Treiber und System sind aktuell (3800X X570, Ryzen Balanced)

<40Watt im Desktop Idle empfinde ich noch immer als zuviel.
Hat jemand weitere Ideen?
 
Zuletzt bearbeitet:
Kommt auf die Monitore an.
Wenn sie gleiche Auflösung und gleiche Geometrie haben, und eine VESA-Pixelclock an der Graka anliegt, dann bleibt die im 2D-Modus.

3 Monitore ist zu einfach gedacht. Wenn ich Deine Config schon sehe, würde ich sagen: KEINE CHANCE.
Egal welche Graka. Und schon bei 2 Monitoren wird die nicht mehr in den 2D gehen.

Das einzige, was Dir helfen könnte, ist der MultimonitorPowersaver von Orbmu2K

1601400634644.png

1601400655792.png


Obwohl es einen Schritt von Turing zu Ampere gab.

Turing
1601400942184.png

Ampere
1601400920578.png
 
Zuletzt bearbeitet:
Zurück
Oben