R390 Stromverbrauch mit drei Monitoren im Windowsbetrieb

[PfE] Bugfixer

Cadet 4th Year
Registriert
Nov. 2011
Beiträge
115
Hallo Gemeinde!

Da meine 760er so langsam in die Jahre kommt steht bei mir eine Aufrüstung an.
Ich verfüge über drei identische Monitore mit 1680*1050 die mit "+DVI und einmal
per HDMI - DVI - Adapter angeschlossen sind.
Von der Preislage her soll es eine Geforce 970 oder einer Radeon 390 werden.
Die beiden Karten sind ja ungefähr gleich schnell, ich tendiere aber wegen der
8GB im Vergleich zu den 3,5 GB der Nividia zur AMD - Karte.
Da ich seit den Zeiten einer Radeon 9700 keine AMD - Karten mehr hatte
und mit den Nvidia was Leistung und Stromverbrauch angeht sehr zufrieden bin
(760er im Hauptrechner, 750ti im Rennspielrechner) würde ich eigentlich gerne
bei Nvidia bleiben. Aber gerade in Hinblick auf den Anschluss mehrere Monitore
sind die vernünftig nutzbaren 3,5 GB mit Blick auf die Zukunft halt wirklich knapp.
Vor allem, da jeder angeschlossene Monitor 200MB RAM belegt, selbst wenn er im
Spiel dann gar nicht genutzt wird.....
Mit dem hohen Stromverbrauch unter Last kann ich dabei leben. Was mich
momentan noch vom Kauf abhält ist die Frage nach dem Stromverbrauch im
Multimonitorbetrieb. Ich hab etwas rumgegoogelt und nur einen Test gefunden.
In dem werden im 2 - Monitorbetrieb unter Windows bei der AMD - Karte
stramme 70 Watt Verbrauch angegeben.
Kann jemand, der diese Karte im Multimonitorbetrieb betreibt was dazu sagen?
Was habt ihr dabei für Erfahrungen?
 
Leerlaufverbrauch bei 3 Monitoren siehst du hier: https://www.computerbase.de/2015-09.../8/#diagramm-leistungsaufnahme-gesamtsystem_3
Ich hatte erst eine 390 und habe zur 970 gewechselt da der Surroundview Support (Nvidia) beim zocken besser als bei Eyefinity (AMD) ist - weniger Probleme Spiele auf 3 Monitoren zum laufen zu bringen, stabilerer Betrieb. Und beim zocken von Tomb Raider, Fallout 4, Borderlands und Co liegt meine Vram Auslastung bei 50-70fps im 1,5-3GB Bereich. Ich spiele mit 3 FHD Monitoren bei 6000x1080.
 
im betrieb mit mehr als 2 bildschirmen würde ich zu einer radeon greifen. zudem gibt es beim multimonitorbetrieb in zusammenhang mit nvidia noch einen nicht ganz unkritischen bug, hab es aber gerade nicht genauer parat. bitte einfach mal googlen. hatte das irgendwo im 3dcenter.org aufgeschnappt....
 
Danke für die fixen Antworten und den Link!!
108 Watt (NV) zu 132 Watt (AMD) verbrauch ist zwar da bei drei Monitoren, aber prozentual
nicht mehr so gross wie bei zwei Monitoren... hmmmm....
Kannst du konkret benennen, welche Problem du mit Eyefinity hattest?
Nutze ja bisher die drei Monitore an der 760er, da hab ich keine größeren Probleme
bei Nvidia entdeckt.
 
Bezüglich deiner Frage kann ich dir jetzt zwar keinen Tip geben, aber wollte zu dem Thema Stromverbrauch im Standby trotzdem noch was hinzu fügen.

In dem CB-Artikel sieht man ja das die 390er bei zwei oder drei Monitoren ordentlich Saft ziehen. Ich persönlich habe eine 290X, die sich in der Hinsicht ja ähnlich verhällt. Die Testbedingungen dafür können aber stark von deinen abweichen. In dem Testverfahren wird ja erläutert das bei 4K Auflösung gemessen wird. Ich verstehe das so, dass es auch für den Multimonitorbetrieb gillt.

Ich persönlich habe bei mir auch 2 Monitore mit 1680er Auflösung angeschlossen. Und ich messe beim Stromverbauch die selben Werte egal ob ich einen nur einen oder beide Monitore anschließe. Ich habe zwar keine anderen Monitore zur Verfügung um das zu testen, aber ich gehe davon aus, das diese Verbräuche stark davon abhängen wie viele Pixel (vermutlich in Zusammenhang bei wie viel Hertz) dargestellt werden sollen.

In der Hinsicht habe ich aber leider selbst keine Tests gefunden die irgendwelche Grenzen aufzeigen könnten bei denen es zum ansteigen des Verbrauchs kommt.
Ich erinnere mich nur noch das es eine Zeit lang so war das die Grafikkarten bei 144 Hz im Vergleich zu 120 Hz auf einmal einen sprunghaften Anstieg im Verbrauch hatten. Das war aber als 144 Hz Monitore noch recht neu waren und wurde glaube ich per Treiber gefixt.
 
Zuletzt bearbeitet:
[PfE] Bugfixer schrieb:
Nutze ja bisher die drei Monitore an der 760er, da hab ich keine größeren Probleme
bei Nvidia entdeckt.
Sollte bei den 2 bzw 3 Monitoren einer mit 144Mhz dabei sein fangen aktuelle Nvidia Karten an übel Strom zu ziehen. Bekannter Bug seit >1y, bisher nicht gefixed.
 
Ah okay!

Die drei Monitore sind ältere LG L227WT, alles noch 60 Hz.
Bin gerade darauf gestossen, dass bei AMD bei drei Monitoren einer
zwingend über einen Displayport mit aktivem Adapter angeschlossen
sein muss. Ich hab einen Adapter herumliegen, glaub aber nicht,
dass es ein aktiver ist.
Das Blatt wendet sich wieder gegen AMD, denn wenn ich jetzt auch
noch 20.- für nen Adapter dazulegen muss verliert das wieder an
Attraktivität :-)

Bei meinem Standardversand gibt´s nicht mal einen aktiven DP - DVI -
Adapter.... und sonst finde ich keinen unter 25.-
Sorry, hätte gerne AMD mal wieder mein Geld gegeben.
Aber der hohe Stromverbrauch in Kombination mit dem Zinober
wegen dem DP - Adapter der auch noch mal ordentlich kostet ist
mir dann doch zu doof. Dass die sowas auch nicht hinbekommen.
Selbst an meiner alten 760er laufen drei Monitore ohne Ferz.
Pech gehabt... der Wille war da... gibt´s halt wieder ne Nvidia :-)
 
Zuletzt bearbeitet:
Ehm bei der Nvidia brauchst du auch nen Adapter und wenn man bei 3 alten Monitore die zusammen locker 140-150 Watt brauchen sich wegen 30 Watt Gedanken macht weiß ich auch nicht mehr.

Fallout 4 zb braucht auf Full HD schon 3 GB Ram und wenn man das dann 3 Monitore dran hat sind das ganz schnell mal 5 GB und da braucht hier keiner mit 1,5 GB kommen das ist Quatsch.
 
1,5GB bezieht sich auf Borderlands, ich habe mehrere Spiele aufgezählt wenn du genau hinschaust.
Aber extra mal einen Screenshot jetzt gerade für dich sogar mit erhöhten Details (ultra, SSAO) aufgenommen, so komme ich nur noch auf 35fps und es wird mehr Vram belegt.
Einstellungen.pngFallout4_2016_01_25_15_40_53_376.jpg
 
Ja du bist jetzt bei 3GB und hast noch maximal 200-300mb Luft was nicht gerade viel ist. Zum glück ist Fallout nicht gerade der Ram killer aber es gibt Spiele die brauchen noch mal ein gutes Stück mehr.
 
Fallout ist mein Spiel mit dem höchsten Vram Verbrauch, auch im Vergleich mit Tomb Raider, und ich habe noch 1GB nach oben Luft. Mittels "ugrid" kann man wie bei Skyrim und Co auch den Vram Verbrauch nochmal deutlich hoch pushen (erhöht deutlich die Cpu Last) da mehr Umgebung geladen wird, muss man in der .ini einstellen. Hier mal mit mehr als 3,5GB Vram um zu zeigen, dass mit den neuen Treibern die 0,5GB langsamerer Vram keine fps Einbuße mehr bedeuten, im folgenden Bild mit ugrid 11 statt 5. Bei der GTX 970 wird einfach viel veralteter Mist im Netz von Leute verbreitet die nur nachplappern ohne eigene Erfahrungen einbringen zu können.
Fallout4_2016_01_25_15_58_07_774.jpg
 
Na-Krul schrieb:
Hier mal mit mehr als 3,5GB Vram um zu zeigen, dass mit den neuen Treibern die 0,5GB langsamerer Vram keine fps Einbuße mehr bedeuten,

Und das ist eine Lüge weil der Treiber gar nichts machen kann, wird mehr als 3,5 GB genutzt fällt die Bandbreite für den kompletten Ram extrem in den Keller was nicht direkt die FPS drückt aber sehr zu Microrucklern führt da die Framtime stark nach oben geht.

Dazu gibt es genug Videos wo man die Ruckler ganz klar erkennen kann und das ist dann alles andere als schön. Die verschwinden auch nicht einfach durch einen neuen Treiber.

Sorry das ich das jetzt so direkt sagen muss, wer aktuell eine GTX 970 kauft hat einfach einen an der Waffel!

Gerne eine GTX 960 oder 980 aber keine 970!
 
Ganz offensichtlich führt es nicht zu Mikroruckler und es ist auch müßig darüber mit jemandem zu diskutieren, der seine Meinung aus alten Artikeln bezieht. Ich persönlich habe die 390 und 970 gehabt und mich für die 970 aus genannten Gründen entschieden. Der TE hat 1. Hand Erfahrungen und kann damit nun anfangen was er möchte. Wenn du ausfallen wirst und das mit "einen an der Waffel haben" quittierst sagt das wohl mehr über dich als mich aus. ;)
 
Ob die Artikel alt sind oder nicht macht keinen Unterschied, die Ram Bandbreite wird langsamer und das hat Konsequenzen, der Treiber kann keine Hardware ändern das ist nun mal Fakt!
 
Das spielt doch gar keine Rolle, sobald mehr als 3,5 Gb genutzt werden, wird der Ram langsamer und zwar der komplette Ram nicht nur die letzten 0,5GB.

Aber da du das wohl nicht verstehen möchtest lass ich dich in deinem Traum und bin hier raus.
 
@EXTREM
Bei Windows 10 sieht das mit dem Vram auch nochmal anderst aus, ich würde Dir einfach mal empfehlen, den Usern die eine GTX 970 haben zu glauben was sie sagen. Du hast keine GTX 970 und willst uns erzählen wie die Grafikkarte funktioniert, ich habe unter Windows 10 schon mehr als 3,8 GB/Vram belegt und da hat auch nichts geruckelt. ;)
 
Zurück
Oben