schlechtere Bildqualität bei niedrigerer Auflösung als nativ?

Die wilde Inge

Commander
Registriert
Aug. 2009
Beiträge
2.110
Hallo,


mein Bildschirm kann 2560x1080 (21:9), ich hätte jetzt die Möglichkeit den zu ersetzen gegen einen mit 3440 x 1440p, auch 21:9, aber meine GTX 1060 packt kein beinahe-UHD. Ich würde die Spiele dann weiter auf 2560x1080 spielen.

Ich habe irgendwie in Erinnerung dass es früher mal hieß: Wenn die Ausgabe unter der nativen Auflösung ist, wird die Qualität dadurch schlechter. Ist das immer noch so? Wird 2560x1080 auf 3440 x 1440 unscharf aussehen?

Testen kann ich leider nicht, da mir keine geringe Auflösung als 2560x1080 angeboten wird.


Die Bildschirme sind auf 1" identisch.


Danke
 
Es ist immer noch so und es wird auch immer so bleiben. Weil eben skaliert werden muss.
 
natürlich sieht das schlechter aus, sofern du nicht mit schwarzen balken spielst.
 
Aber es gibt auch schon immer die Möglichkeit Pixelgenau (also mit Balken) oder im Fenster zu zocken.
DA verliert man nur Fläche, aber keine Bildqualität. Nur vergessen das immer alle :-)

Sobald der höher aufgelöste Monitor auch noch physikalisch größer ist, als der niedrigauflösende, ist es von der Fläche her sogar GAR KEIN Unterschied.

Und ich bezweifle ja dass Deine Graka irgendwas technisch "nicht packt". Das sind meistens die Ansprüche der User die nicht gepackt werden, schließlich haben die Games ja alle Regler, die man bedienen kann.

Ich nutze z.b. meinen 40" 16:9 UHD-Monitor gerne in 3820x1648 wenn es das Game weiterbringt. Nebenbei gibt es 25% weniger Pixel darzustellen^^



Ich glaub rein rechnerisch wäre das ein 38" 21:9 den ich dann da zu stehen hätte.
 
Zuletzt bearbeitet:
Naja unscharf werden die Spiele jetzt nicht aussehen aber eben auch nicht so gut wie in der nativen Auflösung. Kommt auch immer drauf an welcher Monitor. Es gibt welche die können besser interpolieren als andere.
 
ja das nennt sich Interpolation und verschlechtert die Bildqualität.
Aber Achtung, nicht jede Auflösung wird gleich gut/schlecht skaliert.
Das kommt ein bisschen auf das Verhältnis drauf an.

Z.B von 4k auf Full-HD geht relativ gut, da es ein gerades vielfaches ist (Faktor 2 je Achse).
Von 3440x1440 auf 2560x1080 dürfte nicht so super klappen.

Lies dir doch Tests u.A bei prad.de zu diversen Bildschirmen.
Dort wird das immer getestet. Für Office, Surfen usw. dürftest du die höchste Auflösung problemlos nutzen können.
Wenn mal ein Game nicht mitmacht, kannst du dort tiefer stellen. Das wäre gerade da nicht schlimm.
 
Kommt auch immer drauf an welcher Monitor. Es gibt welche die können besser interpolieren als andere.
Die Frage ist ... warum lässt man nicht die Graka interpolieren? Da ist die Qualität immer die gleiche. Da braucht man sie über die Fähigkeiten des Monitors gar keine Gedanken zu machen.
 
Weil das Panel in Pixel aufgeteilt wurde, wird es gezwungenermaßen unscharf, wenn nicht jeder Pixel des Monitors genau einen deckungsgleichen Pixel von der Grafikkarte erhält.
CRTs (Röhren) damals hatten nach meinem Wissen keine native Auflösung oder eben ein Pixel-Panel. Die wurden nicht so unscharf. Der Elektronenstrahl selbst hatte das Raster erstellt.
 
HisN schrieb:
Die Frage ist ... warum lässt man nicht die Graka interpolieren? Da ist die Qualität immer die gleiche. Da braucht man sie über die Fähigkeiten des Monitors gar keine Gedanken zu machen.

Vielleicht kann ihm jemand sagen, wie die Option bei Nvidia heißt.
Bei AMD heißt das GPU-Skalierung.

Dann kann man ja am alten Monitor mal eine ungünstige Auflösung einstellen und gucken, wie gut das funktioniert.
 
HisN schrieb:
Aber es gibt auch schon immer die Möglichkeit Pixelgenau (also mit Balken) oder im Fenster zu zocken.
DA verliert man nur Fläche, aber keine Bildqualität. Nur vergessen das immer alle :-)

Nicht jeder Monitor verfügt über eine 1:1 Bilddarstellung ;-)
 
Auch das erledigt die Graka und nicht der Monitor. Genau das gleiche wie bei der Interpolation.



Oder sollte es echt "Monitore" geben, die das ignorieren?
 
@Hisn,

mit "nicht packen" war selbstverständlich gemeint, dass die Grafikkarte ein Spiel, welches in fHD mit 60fps läuft, bei gleichen Details kaum in QHD mit 60fps darstellen wird können.
Ich kaufe mir ja keinen höheraufgelösten Monitor um dann nur noch in stark reduzierten Details 'ordentlich' spielen zu können. Das wäre dann ja schon ziemlich fragwürdig.
Dann gilt wohl probieren geht über studieren.
 
Du kannst doch jetzt schon alles "ausprobieren" um es abschätzen zu können was übrig bleibt.
Alle aktuellen Grakas können VSR bzw. DSR um höhere Auflösungen zu simulieren. Du kannst ganz genau sehen was Deine Graka "packt", und ob das für Dich ausreicht. Ist ja nur ne Standpunkt-Frage^^


Ich hab WQHD leider übersprungen aber als ich vor zwei Jahren meinen 2560x1600er Monitor durch einen UHD-Monitor ersetzt habe, da hat mir die Auflösung mehr Freude bereitet als die Pseudo-Effekte der Software wenn ich sie mit Ultra betrieben habe. Besonders gefallen hat mir, dass ich die Kanten-Erraten und Weichmatsch-Filtern fast komplett abstellen konnte.
 
Zurück
Oben