AMD Karte (HD 7950) erkennt Monitor (mit VGA) nicht !

sh00ter999

Ensign
Registriert
Jan. 2009
Beiträge
179
Hey,

Habe einen acer P226HQV (absolut veraltetes Teil) PC Bildschirm der genau zwei Anschlüsse hat : Einen DVI und ein VGA.
Der DVI Anschluss am Monitor ist mit einem HDMI zu DVI Adapter verbunden der dann mittels HDMI Kabel zu meiner XBox 360 führt und ich wollte nun den VGA Anschluss für meinen PC verwenden. Am Monitor das VGA Kabel reingesteckt und unten an der Grafikkarte, aufgrund der Tatsache dass diese recht neu ist und kein VGA Anschluss hat, mit einem VGA zu DVI Adapter angeschlossen. Ich bekomme zwar ein Bild und es funktioniert alles wunderbar, nur leider erkennt mir weder Windows noch CCC meine wirklichen Auflösungen (1080p). Unter Windows' "Bildschirmauflösung" gibt er als Monitor "Nicht-PNP-Monitor" an und als Auflösungen nur max. 1600x1200 die recht verschwommen aussehen. (Bild)

Weiß jemand woran es liegen kann ?
*Neueste GrafikkartenTreiber hab ich installiert
*Hab versucht von der acer Seite einen bzw. den einzigen MonitorTreiber zu laden, jedoch schlägt die Installation der .inf fehl (Fehler)

Mir fällit nichts mehr ein... Ich will es eigentlich nicht wahr haben dass ich mit meinem VGA zu DVI Kabel keine 1080p Auflösung auswählen kann. Davor, bevor ich die Xbox 360 am Bildschirm angeschlossen hatte war der PC mit der Verbindung der Xbox am Bildschirm angeschlossen also mit Grafikkarte > HDMI Kabel > HDMI zu DVI Adapter > Monitor .. So ging es logischerweise mit der Auflösung und mit dem richtigen erkennen des Monitors.

Hoffe es kann mir vielleicht jemand weiterhelfen.
 
Kannst du nicht die Anschlüsse tauschen, also die Xbox per HDMI-auf-VGA-Adapter an den Monitor hängen und die GraKa einfach per DVI anschließen? Die Xbox kann doch ingame eh kein Full-HD, da brauchst du die Bandbreite garnicht. So würde ich es jedenfalls machen. Falls dann die Xbox kein Bild mehr gibt ist warscheinlich der VGA-Anschluss am Bildschirm kaputt...
 
Gibt es sowas überhaupt ? Einen VGA zu HDMI ? sonst hätte ich das ja gemacht nur ich hab keinen im Haus.
 
10€ is mir son Adapter nicht wert, da steck ich lieber ständig um...
Wär nur zu schön gewesen wenn es so eine Lösung gegeben hätte... Wollte eigentlich nur wissen ob mir das jemand bestätigen kann ob es wirklich daran liegt, dass ich einen VGA>DVI Adapter nehme für die PC - PC Monitor Verbindung.
 
Der VGA-Standard ist wirklich sowas von vorvorgestern (genaugenommen sogar von 1987; ab 2015 wird er endlich nicht mehr unterstützt, yes!), dass ich mir das sehr gut vorstellen kann - wer hätte auch damals ahnen können, dass irgendwann Full HD @60Hz dadurch soll? ^^
 
Japp, stimmt wohl.

Auf jeden Fall hab ich jetzt nach ewiger Zeit einen "WorkAround" bzw. eine Lösung herausgefunden und werde sie mal hier lassen für die Nachwelt !
Im neuesten CCC (AMD Catalyst Control Center) mit der Treiberversion 13.8 (Beta) im Menüpunkt "Meine VGA-Anzeigen" > "Eigenschaften (Meine VGA-Anzeige)" ganz unten in der GroupBox mit der Überschrift Monitorattribute den Haken bei der Option "EDID (Extended Display Identification Data) oder Treiber- Standardeinstellungen verwenden" rausmachen Bild.
Dann auf Übernehmen klicken und man kann unter Windows7's Bildschirmauflösung 1080p Auflösung auswählen und fehlerfrei anwenden ( so fern der Monitor das auch unterstützt natürlich ).
Falls das noch nicht klappt : Im AMD CCC unter dem Menüpunkt Meine VGA-Anzeigen > Bildskalierung den Haken bei "GPU-Skalierung aktivieren" rausmachen.
 
Zuletzt bearbeitet:
Zurück
Oben