Grafikkarte dauerhaft im 3D-Modus bei zwei Monitoren?

!(2) PousaH

Lt. Junior Grade
Registriert
März 2006
Beiträge
279
Hallo
Ich habe eine GTX560 Ti und zwei Monitore angeschlossen.
Wenn ich in Windows nur einen Desktop an habe taktet sich die Grafikkarte automatisch runter auf 50mhz/200mhz wie sie es auch soll sobald ich aber über Windowstaste+P den zweiten Monitor zuschalte schaltet sich die Grafikkarte dauerhaft in den 3D-Modus und bleibt so lange darin bis ich den zweiten Monitor wieder ausschalte per Windowstaste+P.
Ist das normal bei Nvidia?
Hatte vorher nur AMD Karten meine letzte war eine AMD HD4890 die blieb auch bei zwei Monitoren im Sparmodus.
 
Ja das ist normal bei älteren Grafikkarten. Mitlerweile ist das wohl nicht mehr unbedingt der Fall. Zumindest macht meine 290X das nicht mehr.

In wie weit das jetzt normal ist das der Maximaltakt anliegt weiß ich bei der GeForce allerdings nicht. Meine alte 5870, hatte für 2 Monitore eine Zwischenstufe. Diese wurde zum Beispiel auch genutzt für BlueRay Wiedergabe wo der Takt dann auch angehoben wurde. Das war dann allerdings nicht der Maximaltakt wie er beim spielen genutzt wurde sondern wie gesagt eine Zwischenstufe. Ich würde erwarten das eine GeForce sich ähnlich verhalten sollte.
 
Lade dir den Nvidia Inspector. Damit kannst du einstellen, dass die Karte bei mehr als einem Monitor wieder runtertaktet.
Tutorials dazu gibt's im Netz.
 
oder stell die alte bei ebay rein und hole dir eine 280 für ca 180 €.
 
Zumindest macht meine 290X das nicht mehr.
dann wäre das die erste 290X die dieses Verhalten zeigt!
https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/10/
AMD hat es bisher nicht geschafft die Leistungsaufnahme auf Desktopniveau zu senken bei 2 Monitoren - auch bei BluRay-Wiedergabe hat AMD größere Probleme!

Bei nVidia hingegen geht das bei 2 Monitoren schon lange - da fängt das Problem erst bei 3 Monitoren an!
Ausnahme, Du besitzt einen 120/144 Hz Monitor, dann geht es auch schon bei einem Monitor nicht mehr in den Desktop-2D-Modus!
https://www.computerbase.de/2011-11/test-nvidia-geforce-gtx-560-ti-448-core/11/
Kannst Du hier sehen, dass bei 2 normalen Monitoren normalerweise keine Probleme sind - gleiche Stromaufnahme wie bei einem, bei einer GTX560ti!
 
Hast Du einen 120/144 Hz Monitor?
Wenn ja, ist das die Erklärung - wenn nein, ein individuelles Problem, was durchaus auch schon mal vorkommen kann!
Meine GTX780 hat sogar bei 2 Monitoren mit unterschiedlicher Auflösung kein Problem (ohne nVidia Inspector)!
Aber ok, es gibt so viele Custom-Karten, da mag es auch generelle Probleme deswegen geben - wird ja nicht bei jeder Karte getestet ob sie mehr Strom aufnimmt bei Multimonitor-Betrieb!
 
Zuletzt bearbeitet:
Ich hab zwei baugleiche Dell Displays und meine 290X taktet sauber runter im Desktop und verbraucht laut Messung auch nicht mehr Strom. Was auch immer CB da gemessen hat es stimmt so nicht mehr.
 
Lars_SHG schrieb:
dann wäre das die erste 290X die dieses Verhalten zeigt!
https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/10/
AMD hat es bisher nicht geschafft die Leistungsaufnahme auf Desktopniveau zu senken bei 2 Monitoren - auch bei BluRay-Wiedergabe hat AMD größere Probleme!

Zu Blue Ray kann ich nichts sagen da ich in dem Rechner nur ein DVD Laufwerk habe. Aber mit zwei Monitoren läuft sie in der Tat auf den selben 300 MHz wie bei nur einem angeschlossenem Monitor. Hatte mich auch gewundert da der Test etwas anderes aufzeigt. Ist mir auch erst aufgefallen als ich eine Verbrauchsmessung gemacht hatte und der PC (ohne Monitore) die selben 65-70 (meistens 67) Watt verbraucht hat egal ob ein oder zwei Monitore angeschlossen sind.
Die einzige Vermutung die ich dazu habe ist, dass es eventuell daran liegt das einer der Monitore über DVI und der andere über Display Port angeschlossen ist. Außerdem können beide Monitore nur 60 Hz, dass kann ja auch noch was ausmachen.
Aber bei weiterem unglauben kann ich gerne einen Screenshot nachreichen wenn ich später zu Hause bin.
 
Also das das "Normal" ist bei älteren Grafikkarten naja, die AMD HD 4890 ist wesentlich älter als die GTX 560 Ti und die hat es auch geschafft im Desktop mit zwei Monitor auf Sparmodus zu schalten.
Sind beides 60hz.
Werde mir mal Nvidia inspector drauf ziehn
 
und die hat es auch geschafft im Desktop mit zwei Monitor auf Sparmodus zu schalten.
Ja, weil es bei der Generation noch keinen richtigen Sparmodus gab, die viel ja nicht so stark ab im idle wie die heutigen Generationen!
Habe selber noch eine alte ATI 48xx zu Hause rumliegen und die zog enorme Mengen an Energie im idle wie auch unter Last!

edit: wenn ich mich recht erinnere - ATI 4850 Referenz, idle knapp 70° - Last 105°! Das zeigt schon recht deutlich das da reichlich Energie "verbrannt" wird.......
Die GTX560ti hingegen, hatte ich auch kurz da als Custom von EVGA war schön kühl dagegen - auch ein Vergleich Custom gegen Referenz natürlich nicht ganz fair ist!
 
Zuletzt bearbeitet:
hm meine HD4890 war im idle 37°C/60°C @Last & OC mit Stock-Kühler, muss wohl eine sehr gute Gehäusebelüftung/Airflow haben
(die GTX 560ti hat idle 25°C, also fast Raumtemp)

Also habe das mit dem GPU treshlot jetzt mal eingestellt und klappt auch jetzt nur meine Frage lädt der Display Saver die states die, die vom MSI Afterburner festgelegt werden oder die Nvidia Inspector internen habe die Karte nämlich eigentlich im OC Betrieb
 
Zuletzt bearbeitet:
Zurück
Oben