GTX570 Dual-Monitor-Problem

Abe81

Rear Admiral
Registriert
Feb. 2011
Beiträge
5.679
Hallo,

ich habe gerade eine GTX570 bestellt und nun in einem Review folgendes gelesen:

Interessant ist übrigens auch, wie die Leistungsaufnahme mit mehreren Monitoren aussieht. War der Stromverbrauch der GTX 480 mit zwei angeschlossenen Monitoren und dem GeForce-256-Treiber noch exorbitant hoch, will Nvidia dieses Verhalten in der aktuellen Treiber-Version abgestellt haben. Solange dabei zwei Monitore mit derselben Auflösung und identischen Timings zum Einsatz kommen, seien demzufolge keine Probleme zu erwarten. Um das zu überprüfen, schlossen wir zwei Dell P2210H an die Karte an und maßen sowohl Leistungsaufnahme als auch die Temperatur. Hier die Ergebnisse:

- Ein Display (1920x1080), Leerlauf 190 W, 40° C
- Zwei Displays (1920x1080), Leerlauf 192 W, 45° C
- Zwei Displays (1 x 1920x1080, 1 x 1280x1024), Leerlauf 255 W, 56° C
(Quelle)

Das wäre ja ziemlich scheiße, da ich bei mir zwei Monitore mit unterschiedlichen Auflösungen angeschlossen habe. Einen Acer bei 1920x1080 und einen Samsung mit 1680x1050 - beides die nativen Auflösungen.

Die Temperaturen stören gar nicht so sehr, aber die erhöhte Leistungsaufnahme. Ich habe ein Seasonic X450-FL, das man zwar mit 90% Wirkungsgrad gut belasten kann, trotzdem habe ich ein wenig knapp kalkuliert.

Hat das jemand Erfahrungsberichte mit der GTX und zwei unterschiedlichen Monitoren?

Hat das jemand 'wegmodden' können, oder ist das ein unabänderbares Problem?
 
Ich verstehe nicht ganz, was das ganze mit deinem Netzteil zu tun hat. Die Karte wird wegen dem zweiten Monitor keinen höheren Maximalverbrauch haben, als nur mit einem. Sie geht nur nicht in den Stromsparmodus im Idle. Das 460FL sollte das locker wegstecken.
 
Auch Toms Hardware gibt die Leistungsaufnahme des Gesamtsystems an.
Also die W die du da siehst ist nicht alleine die Schuld der Grafikkarte...
Möglicherweise haben die, die Leistungsaufnahme der Bildschirme auch mit gemessen? Ich würde den Anstieg der Leistungsaufnahme sonst für extrem hoch halten..

Hab leider eine andere Grafikkarte von Nvidia (9600GT passiv), aber diese zieht bei mir (hab auch 2 Bildschirme) nicht viel mehr Strom als mit einem - auf jedenfall keine 50 W...

PS: Warum sollte sie net in Idle gehen können bei 2 Bildschirmen? Also bei mir tut sies..
Weiß aber net was Nvidia bei dem Treiber für Windows möglicherweise angestellt hat..
 
Das sind Dösköppe. 190 Watt Idle? Wohl mit Display gemessen, was? Mein 2600er SB mit GTX 460 liegt bei 80 Watt Idle mit einem Monitor
 
Im Multi-Monitor Betrieb takten die Karten leider nicht mehr so runter wie im Einzel-Monitor Betrieb. Es gibt aber eine manuelle Vorgehensweise (einmalig durchzuführen) und dann übernimmt ein anderes Programm das runtertakten auch für den Betrieb mehrerer Monitore. Siehe dazu den Link in meiner Signatur.

@peter01
Das ist aber schon seit Jahren das Problem bei nVidia, dass beim Einsatz mehrerer Monitore an einer Karte diese NICHT mehr gedrosselt wird! Bei AMD bin ich mir da nicht so sicher, meine aber dort geht das besser.
 
Zuletzt bearbeitet:
@Cyrezz: AMD hat das selbe Problem.

Einzig nVidia hat es für die 500er Serie etwas entschärft indem es zumindest bei gleicher Auflösung/Frequenz auch im Multimonitorbetrieb den Energiesparmodus schafft.

Leider sind halt Monitore mit unterschiedlichen Auflösungen mehr oder weniger Standard im Privatbereich.
 
Wie meine Vorredner schon sagten hast du zwei Möglichkeiten.
Möglichkeit eins:
Du nutzt den nVidia Inspector, um die Karte softwareseitig herunter zu takten.
Möglichkeit zwei:
Du nimmst eine zweite kleine Karte (wie z.B. eine G210 oder so, je nach Idle-Stromausnahme; mußt da mal ein bisschen rechnen ;) ) und steckst die zusätzlich in dein System (so wie ich das auch getan habe).

Nebenbei; deine Karte zieht im Multimonitormodus maximal etwa 50-70W mehr (im Idle).
Die von dir genannten Zahlen sind die ABSOLUTEN des gesamten Rechners ^^
Wenn dein Rechner also Volllast abkann, wird er im Idle so oder so keine Probleme haben.
 
Zuletzt bearbeitet:
Die Grafikkarte taktet nur in den Idlestate wenn beide Monitore die selbe Auflösung/Herzanzahl haben. Ansonsten bleibt die Karte auf "Halbmast" im Idle und das is bei so einer Karte halt nicht wenig.

Meine Asus GTX580 DCII hängt an 2x Samsung 16:10 Schirmen mit 1920x1200 59Hz und taktet komplett in den Idle state. (32° idle, Furmarklast 68°)
 
Bau dir ne billige PCIe Karte ein für den zweiten Moni. Muss ja nur nen Bild machen und keine Leistung (=weniger Verbrauch) haben. Ich hab meine GT210 voll runtergetaktet, muss wie gesagt nur nen Bild machen.
 
Stimmt, ich hatte - vor dem ersten Kaffee - einen Knick in der Logik. Wenn das Netzteil dem load der Karte standhält, stellt natürlich auch der höhere idle-Watt-Wert kein Problem dar.

Dennoch danke für die Tips. Eine zweite, billige Karte ist zwar eine Möglichkeit, aber zwecks besserer Belüftung der ersten Karte (mit MK-13 'drauf) und der Bequemlichkeit halber, werde ich einfach den Inspector nehmen.
 
Oder man nimmt ein Sandy Bridge, wartet noch auf den Z68 (oder nimmt ein H67 wenn man nicht übertakten will) und lässt den zweiten Bildschirm darüber laufen. So werde ich es jedenfalls machen, sobald der Z68 erscheint. Dann fliegt die 260er bei mir raus.
 
@andy 20: Sowas wird funktionieren? Ich hab mal in ein H55 versucht einen Sata 8x PCIe Controller einzubauen am 16x Slot und hab dann kein Bild mehr bekommen mit der integrierten Grafikeinheit. Statement vom Intelsupport war: sobald eine Karte gesteckt wird kein onboard/CPU Graka mehr möglich, da der PCI Bus zusammenhängt und nur eines von beiden dann aktiv ist. (war allerdings ein billiges bulk Intel Mobo)

@Visceroid: die 400er Serie hat dies mit den letzten Treibern auch hinbekommen, aber wie gesagt nur wenn beide die selbe Auflösung und Herzzahl haben. (ging mit meiner GTX 480 Amp nämlich auch)
 
Zuletzt bearbeitet:
Gravy schrieb:
@andy 20: Sowas wird funktionieren? Ich hab mal in ein H55 versucht einen Sata 8x PCIe Controller einzubauen am 16x Slot und hab dann kein Bild mehr bekommen mit der integrierten Grafikeinheit. Statement vom Intelsupport war: sobald eine Karte gesteckt wird kein onboard/CPU Graka mehr möglich, da der PCI Bus zusammenhängt und nur eines von beiden dann aktiv ist. (war allerdings ein billiges bulk Intel Mobo)

Ich hoffe das es funktioniert, aber mit der Meldung das man die HD3000 für den Desktop nutzen kann und bei einem 3D-Spiel die dedizierte GrKa einspringt, müsste es möglich machen.
Laut dem müsste es gehen: http://www.hartware.de/news_51534.html

Was Z68 aber haben wird, das sind die Übertaktungsfunktionen des P67 zusammen mit der Verwendung des HD-Graphics-Kerns in Verbindung mit einer Grafikkarte.

Quelle: http://www.golem.de/1103/81919.html
 
jo klingt für dein Vorhaben ganz intressant, wenn ich aber nen heimserver auch mal zum fernsehn verwenden will, weil er halt im wohnzimmer steht, dann hätte ich gern am pci-e bus nen guten adaptec raidcontroller und eben zum fernschaun die integrierte Grafiklösung...mal schaun

Back to Topic
 
Andy: Das wird aber aber nur über die im Artikel ausdrücklich genannten Zusatzchips gehen! Zudem muss die zugehörige Software installiert werden.

[FONT=arial, helvetica][FONT=arial, helvetica][FONT=arial, helvetica]LucidLogix’ Virtu Software ist derzeit die einzige Lösung im Desktop-Bereich, die einen Wechsel zwischen integrierter Grafik und dedizierter Grafikkarte ermöglicht[/FONT][/FONT][/FONT]

Du stellst es so dar als ob es nativ von den Boards unterstützt werden würde, was definitiv und belegbar falsch ist.

Es soll bald Mainboards geben die die von Notebooks bekannte Nvidia-Technik Optimus für Desktop-PCs nutzbar machen. Im Text steht auch was von einer AMD-Variante... Ob das dann besser klappt? Man(n) weiß es nicht.
 
Zurück
Oben