Hallo,
ich hatte zuvor eine AMD Radeon RX 480 und habe aktuell eine Geforce GTX 1070 eingebaut. Davor und zwischendrin hatte ich die Intel IGPU benutzt. Beim Wechsel von IGPU zur Polaris und zurück ist mir jedesmal ein scheinbarer aber doch recht deutlicher Unterschied in der Bildqualität aufgefallen, auch wenn die Farbraumeinstellungen usw. dieselben waren. Bei der 1070 fällt mir auf, dass die Bildqualität geringer ist als bei AMD, aber kein Unterschied besteht zur Intel IGPU.
Ich weiß, dass eignetlich bei gleichen Einstellungen und gleichem Ausgabegerät kein Unterschied bestehen sollte, ich merke trotzdem einen. Spiele wirken dadurch irgendwie matt und weniger immersiv. Es sieht völlig "normal" aus, also ohne merkliche Fehler oder Mängel, aber nicht ganz so kontrastreich und detailliert.
Man kann sich auch daran gewöhnen, aber gerade eben habe ich wieder einen Test gemacht, mit der System Shock-Alpha Demo (die auf sehr knallige Farben setzt), den ich zuvor nicht gemacht hatte. Mit Helligkeits- oder Monitoreinstellungen hat es soweit ich weiß auch nichts zu tun. Ich besitze einen Eizo Foris FS2333 mit HDMI-Anschluss.
Meine Frage bezieht sich nun darauf, ob irgendjemand, der aktuelle AMD und Nvidia-Grafikkarten zeitnah benutzt hat oder noch benutzt, einen guten Monitor hat und der auch auf die Bildqualität achtet, ebenfalls irgendeinen Unterschied festellen kann, und zunächst weniger darauf, woran es liegen mag.
Ich hatte am Anfang auch jeweils den Eizo und den Nvidia-Support gefragt, ob es irgendetwas mit 10-Bit-Unterstützung zu tun haben könne, aber anscheinend funktioniert das mit der 10-Bit LUT ganz anders als mit "10-Bit Farben", also wohl Fehlanzeige...
ich hatte zuvor eine AMD Radeon RX 480 und habe aktuell eine Geforce GTX 1070 eingebaut. Davor und zwischendrin hatte ich die Intel IGPU benutzt. Beim Wechsel von IGPU zur Polaris und zurück ist mir jedesmal ein scheinbarer aber doch recht deutlicher Unterschied in der Bildqualität aufgefallen, auch wenn die Farbraumeinstellungen usw. dieselben waren. Bei der 1070 fällt mir auf, dass die Bildqualität geringer ist als bei AMD, aber kein Unterschied besteht zur Intel IGPU.
Ich weiß, dass eignetlich bei gleichen Einstellungen und gleichem Ausgabegerät kein Unterschied bestehen sollte, ich merke trotzdem einen. Spiele wirken dadurch irgendwie matt und weniger immersiv. Es sieht völlig "normal" aus, also ohne merkliche Fehler oder Mängel, aber nicht ganz so kontrastreich und detailliert.
Man kann sich auch daran gewöhnen, aber gerade eben habe ich wieder einen Test gemacht, mit der System Shock-Alpha Demo (die auf sehr knallige Farben setzt), den ich zuvor nicht gemacht hatte. Mit Helligkeits- oder Monitoreinstellungen hat es soweit ich weiß auch nichts zu tun. Ich besitze einen Eizo Foris FS2333 mit HDMI-Anschluss.
Meine Frage bezieht sich nun darauf, ob irgendjemand, der aktuelle AMD und Nvidia-Grafikkarten zeitnah benutzt hat oder noch benutzt, einen guten Monitor hat und der auch auf die Bildqualität achtet, ebenfalls irgendeinen Unterschied festellen kann, und zunächst weniger darauf, woran es liegen mag.
Ich hatte am Anfang auch jeweils den Eizo und den Nvidia-Support gefragt, ob es irgendetwas mit 10-Bit-Unterstützung zu tun haben könne, aber anscheinend funktioniert das mit der 10-Bit LUT ganz anders als mit "10-Bit Farben", also wohl Fehlanzeige...
Zuletzt bearbeitet: