Starkes flimmern auf Monitor 2 beim Starten eines Spiels

l4dgtal4d

Cadet 4th Year
Registriert
Apr. 2013
Beiträge
118
Hey ich hab das Problem das wenn ich ein Spiel starte der 2.Monitor nach einer Zeit stark zu flimmern anfängt..
Ich hab ein Acer Aspire v3 772G mit Nvidia GT 750M und i5 4200M.
Der Labtop hat eine Auflösung von 1920x1080 und der Monitor 1600x900 verbunden über VGA.
Es ist eigentlich egal welches Spiel ich spiele es passiert bei jedem das der Monitor stark flackert.. manchmal passiert es auch das er einfach nur schwarz angezeigt Wirt und wenn man aus dem Spiel geht wieder der normale Desktop zu sehen ist der Flackert das hatte ich davor bei meinem Steingeschoss von Toshiba Satellite nicht und der hatte nur eine ATI Radeon HD 4200 ^^. In den Nvidia Treibern habe ich auch die Multidisplay Leistungsmodus an usw und bei den Intel einstellungen der GPU weis ich nicht was ich dort verändern soll.. hab leider keinen Rat was das sein könnte..
 
Es wird wohl am Speichertakt der Grafikrams liegen,
darum takten AMD-Desktopgrafikkarten bei Multimonitorbetrieb nie ganz auf Idle-Mode.
 
also kann ich dort nichts machen das das flackern/flimmern aufhört ?
 
Überwach mal den Speichertakt, ansonst einen höheren erzwingen.

Multimonitor-Betrieb


Seit die beiden Grafikkarten-Hersteller mittels Taktabsenkungen bei GPU und Speicher die Leistungsaufnahme ihrer Grafikboards im Idle-Modus deutlich senken können, kommt es leider zu einem Ärgernis, sobald man bei diesen Desktop-Boards einen zweiten Monitor anschließt. Die Taktraten werden entweder nicht mehr so tief oder überhaupt nicht abgesenkt. In aller Regel läuft der Speicher dann mit vollem Takt und vernichtet im Leerlauf schlagartig die erhofften Einsparungen.

Als Grund dafür nannte uns AMD, dass es im Betrieb mit mehr als einem Monitor zum Bildflackern kommen kann, wenn man den Speichertakt von GDDR5 absenkt. Die teils zu beobachtenden höheren GPU-Taktungen/ -Spannungen könnten dabei eine notwendige Zugabe für die Stabilität des Speichercontrollers sein.
 
Analoge Signale (Vga Stecker und Adapter) sind immer stark anfällig für Störungen und das Analogwandeln verursacht Qualitätsverlust.
Den Monitor mal digital per Dvi / hdmi / displayport anschließen wenn du beidseitig digitale Aus-/ Eingänge hast.


"Bei modernen, digitalen LCD-Flachbildschirmen ist, falls vorhanden, der digitale DVI-Anschluss vorzuziehen, da durch die Analogisierung des Bildes durch die Grafikkarte und die anschließende Re-Digitalisierung des Bildes im Displaycontroller unweigerlich Qualitätseinbußen entstehen."
http://de.wikipedia.org/wiki/VGA-Anschluss
 
Das Problem ist ja noch das der Monitor nur einen VGA Eingang hat..
 
hmm glaube dann wirste mit dem Monitor nicht mehr all zuviel Freude haben, ein "perfektes" (Analog) VGA Signal ist bei heutigen Grafikkarten einfach keine Priorität mehr. Wahrscheinlich wird da der billigste Ramdac der gerade zu beschaffen war verlötet sein und der schafft die Auflösung nicht oder wird von "Elektrosmog" gestört.

http://de.wikipedia.org/wiki/RAMDAC

Der RAMDAC ist entweder auf dem Grafikchip oder als externer Baustein realisiert.
Das Haupt-Leistungsmerkmal ist die Pixelfrequenz, also die Anzahl der Pixel, die der RAMDAC pro Sekunde umwandeln kann. Je höher diese Geschwindigkeit, desto höher kann die Auflösung und/oder die Bildwiederholfrequenz gewählt werden.
 
ok mhm aber so wenn ich den Computer neustarte ist fas flimmern nochnicht da dan ist das bild sogesagt so wie es sein solle aber wenn ich ein spiel starte oder etwas länger ein video schaue dan flimmert er wieder..
ich hab gerade getestet und zwar wenn die 750M GPU von Nvidia mehr als 55 Grad hat fängt das flimmern an und ab dan ist es auch immer da bis zum neustart
Ergänzung ()

Die lösung des Problems lag am Kabel o.O ich habe im Keller noch ein altes VGA Kabel [Damals von meinem UrAlten PC] Angeschlossen und siehe da ? es geht kein flimmern und mein 1600x900 Bildschirm kann nun auch aufeinmal mit 1920x1080 betrieben werden o.O ?
 
Zuletzt bearbeitet:
Zurück
Oben