Generelle Frage: Auflösung vs. Antialiasing

Also Die Frage ist Ja noch immer dieselbe!

Ist es besser einen 27 Zoll Monitor mit 1920x1080 zu kaufen!
Oder ist es doch besser einen 27 Zoll oder größer mit 4K zu kaufen!

Wird die Qualität, wenn die Auflösung in Spielen reduziert wird, trotzdem besser sein, als bei einen 27 Zoll Monitor?

Ich lese immer, dass es nicht gut ist die Auflösung zu reduzieren!
Ich lese aber auch, dass 1920x1080 auf 27 Zoll auch nicht so super sind, und man höhere Auflösungen nehmen sollte!

Also was ist jetzt besser!

Erhalte ich mit einen 27 Zoll Full HD Monitor, eine bessere Qualität, als wenn ich einen 27 Zoll Monitor mit 4K auf Full HD runterregel?

4K möchte ich nur im Office benutzen und nicht in Spielen!!!
 
Wenn Du 4K in Spielen gesehen hast, willst Du kein 1920x1080 mehr.
 
Spiele nicht nativ sehen immer bescheiden aus.
1080p auf 27" lässt alles bescheiden aussehen, zwar weniger als nicht native Spiele aber trotzdem.
 
ob full hd auf 4k schlecht aussieht, hängt davon ab, wie jedes einzelne modell die umsetzung schafft. daher würde ich mir bei seinem solchen vorhaben die modelle bzw ihre tests genauer anschauen.
prad.de schreibt im test unter "interpolation" zum

- Samsung U24E590D
Bei der Interpolation der Full-HD-Auflösung 1080p hat der Samsung U24E590D leichtes Spiel, da hier lediglich die Pixel in Höhe und Breite dupliziert werden. Das Gleiche gilt für die 720p-Auflösung – hier wird mit Faktor 3 ein ganzzahliger Multiplikator für die Umrechnung verwendet. Insofern überrascht es also nicht, dass das Ergebnis bei Gittergrafik wie auch bei der Textdarstellung ausgezeichnet ist.

- Samsung U32E850R
Aber auch die sehr bedeutende HD-Auflösung 1.920 x 1080 ist bis auf einen minimalen Unschärfeeindruck als sehr gut zu bezeichnen, vor allem, weil auch noch die feinen Linien unserer Testgrafik zu erkennen sind. Bereits hier leistet der Schärferegler einen sehr guten Dienst, wenn er bis auf Anschlag auf den Wert 100 gestellt ist. So wird das Bild noch etwas schärfer und könnte fast als native Auflösung durchgehen. Die kleine HD-Auflösung 1.280 x 720 verliert dagegen bei der Bilddarstellung. Die feinen Striche verschwimmen ineinander, und das Kreuz ist schon recht unscharf geraten. Es sollte aber angemerkt werden, dass diese Aufgabe von vielen Geräten mit einer nativen HD-Auflösung nicht besser gemacht wird, was für eine gute Wertung reicht.

- ASUS ROG Swift PG27AQ
Da der ASUS PG27AQ über eine native Auflösung von 3840 x 2160 Pixeln verfügt, jedoch ein großer Teil an Software und Spieleklassikern bestenfalls für die HD-Auflösung von 1920 x 1080 Pixel optimiert sind, ist es wichtig, angemessen auf kleinere Auflösungen reagieren zu können. Kurioserweise ist dies mit Bordmitteln des Displays aber überhaupt nicht möglich, denn es existieren keinerlei Bildeinrichtungsoptionen im OSD-Menü. So ist man auf die Optionen der Grafikkarte über die NVIDIA-Systemsteuerung angewiesen. Die Aussage über die Interpolationsfähigkeit des Monitors kann hier demnach nur bedingt geklärt werden.

Bei nativer Auflösung gibt der PG27AQ natürlich ein sehr scharfes Bild wieder, aber auch die HD-Auflösung wird sauber runterskaliert. Das Gitter unserer Testgrafik zeigt auch hier die feinen schwarzen Striche, ohne dass diese in irgendeiner Weise zulaufen. Das ist schon eine sehr gute Leistung, da man bedenken muss, dass jetzt eine Menge mehr Platz zur Verfügung steht und dieser irgendwie aufgefüllt werden muss.

Auch das Kreuz mittig des Gitters wirkt sehr schön scharf und akzentuiert. Bei der kleinen HD-Auflösung von 1280 x 720 Pixel ist dann aber auch die Grenze des Machbaren erreicht. Hier zeigen sich die feinen Striche des Gitters nur noch als eine Fläche mit Nuancen in hellem und dunklem Grau. Ebenso wirkt das Kreuz nun unscharf und verwaschen. Bei vielen Monitoren lässt sich noch ein wenig mit dem Schärferegler nachhelfen. Dieser ist jedoch auch nicht vorhanden.

- ASUS ProArt PA329Q
Die Schärfe bei nativer Auflösung ist nicht zuletzt dank der 4K-Auflösung erwartungsgemäß sehr gut. Bei 1280 x 720 sieht man, dass die notwendige Pixelvergrößerung hauptsächlich durch zusätzlich eingefügte graue Bildpunkte bewirkt wird. Dies führt zu etwas fetteren Konturen mit leichtem Unschärfeeindruck. Farbsäume treten nicht auf.

Am DisplayPort konnten auch 4:3- und 5:4-Auflösungen problemlos dargestellt werden. Allerdings werden diese Auflösungen immer auf das Vollbild gestreckt und somit nicht verzerrungsfrei dargestellt. Eine Einstellmöglichkeit für 1:1- oder seitengerechte Darstellung haben wir im OSD bzw. Handbuch vergeblich gesucht.

In allen interpolierten Auflösungen sind die Lesbarkeit von Texten und die Abbildung der Testgrafik – dem Skalierungsgrad entsprechend – gut bis sehr gut. Die unvermeidlichen Interpolationsartefakte fallen gering aus. Auch Texte mit fetten Buchstaben bleiben gut leserlich.
 
warum hängt man sich bei der Interpolation am Monitor auf und lässt es nicht die Graka machen? Sieht immer gleich (schlecht) aus.
 
das ist ne sehr gute frage!

prad schreibt ja auch immer wieder, dass bei einem schlecht interpolierenden monitor, die grafikkarte den job einfach übernehmen soll. deshalb könnte man ja auch einfach davon ausgehen, dass die treiber der grafikkarten den job ganz ordentlich machen.

aber wie gut ist denn die interpolation der grafikkarten?

gibt es da große unterschiede zwischen amd und nvidia?

warum wird das nicht getestet?

und natürlich: hat da jemand erfahrungen?

das ist echt ein leidiges thema und es kommt immer wieder bei der diskussion um 4k monitore auf, gerade weil es auch modelle gibt, welche die scheinbar so simple full hd zu 4k interpolation nicht gescheit können...
 
HisN schrieb:
warum hängt man sich bei der Interpolation am Monitor auf und lässt es nicht die Graka machen? Sieht immer gleich (schlecht) aus.

Falsch, wenn es die Grafikkarte macht bzw. wenn "richtig" interpoliert wird, dann endet das ganze in einem unscharfen Bild. Eben so, wie wenn man in einem Bildbearbeitungsprogramm etwas hochskaliert.

Manche Monitore können aber so skalieren, dass FullHD genauso scharf aussieht, als hätte der 4K Monitor native 1080p. Das funktioniert, indem eben nicht versucht wird, zu interpolieren sondern es wird einfach nur 1 Pixel mit 4 Pixeln dargestellt. Das nennt sich Nearest neighbor Verfahren. Die einzelnen Pixel werden damit einfach nur vergrößert. Somit findet eigentlich rechnerisch keinerlei Interpolation statt und so kommt es auch zu keinerlei Unschärfe. Im Vergleich zu 4K ist das Bild dann einfach nur etwas Pixeliger, aber nicht unscharf. Das ganze funktioniert eben nur, wenn man die Pixeldichte pro achse verdoppelt. Wie hier mit dem Sprung von 1080p auf 4K. Bei ungeraden faktoren funktioniert das nicht, da hat man dann Moire und flimmer effekte, wenn nicht vernünftig interpoliert wird.

Das dumme ist nun, dass die meisten Monitore einfach immer interpolieren. Das funktioniert mit jeder Auflösung fehlerfrei, aber sorgt wie gesagt für Unschärfe, je nachdem, wie klein die Ausgangsauflösung ist.
Dass der Monitor nur bei 1080p keine Interpolation verwenden soll muss also explizit so vom Hersteller vorgegeben werden.


Das Problem an sich ist schon sehr alt. Für Retro Konsolen gibts es sogar extra Scaler, die auf diese Weise den Pixellook beibehalten. Denn wenn man so ne alte Konsole an nen aktuellen TV schließt, versuch dieser eben alles zu interpolieren, sprich, fehlende Pixel werden durch Mittelwerte hinzugerechnet. Das endet in unscharfem Matsch, anstatt sauberem Pixellook.
 
Zuletzt bearbeitet von einem Moderator:
Und die Graka kann kein "nearest neighbor"?
 
Wär mir zumindest nicht bekannt, dass man das im Treiber einstellen kann. Da kann man Skalieren ja/nein auswählen und das wars. Und da wird eben immer interpoliert. Was natürlich für die meisten Auflösungen sinnvoll ist.
 
Laggy.NET schrieb:
Falsch, wenn es die Grafikkarte macht bzw. wenn "richtig" interpoliert wird, dann endet das ganze in einem unscharfen Bild. Eben so, wie wenn man in einem Bildbearbeitungsprogramm etwas hochskaliert.

Manche Monitore können aber so skalieren, dass FullHD genauso scharf aussieht, als hätte der 4K Monitor native 1080p. Das funktioniert, indem eben nicht versucht wird, zu interpolieren sondern es wird einfach nur 1 Pixel mit 4 Pixeln dargestellt. Das nennt sich Nearest neighbor Verfahren. Die einzelnen Pixel werden damit einfach nur vergrößert. Somit findet eigentlich rechnerisch keinerlei Interpolation statt
"1 pixel mit 4 pixeln darstellen" ist nichts anderes, als eine umschreibung für interpolation und "nearest neighbor" ist eine von vielen arten der interpolation. so wie der monitor diese per software berechnet, so kann auch der computer per software bzw. treiber der grafikkarte diese berechnung übernehmen. potentiell ist dabei der rechner aufgrund seiner rechenleistung sogar im vorteil, obwohl diese berechnung nicht so aufwändig ist, dass sie nicht auch der monitor schafft.
 
PaladinX schrieb:
Bei einem 24"er kann das durchaus zutreffend sein, aber bei 27"+ brauchst auch bei 2160P noch AA, weil (zumindest in meinen Augen) sonst nicht annehmbar ist.
 
Ich brauche schon bei 1440p nur noch maximal 2x AA... :schluck:
 
Bei 1440p und 27" braucht es AA um keine Kanten mehr zu sehen. Und das spürt dann auch eine 980 Ti.
 
PaladinX schrieb:
Ich brauche schon bei 1440p nur noch maximal 2x AA... :schluck:
Sicherlich nicht, wenn ich mit FXAA+8xMSAA mit aktiviertem MFAA (Also effektiv 16xMSAA) erst ein wirklich flimmer- und kantenfreies Bild bei 1440p habe. (Zumindest fällt alles darunter doch recht stark in Rainbow Six Siege auf)
Das kann ich zwar auch mit anderen Filtern bei weniger Performanceanspruch erreichen, nur dann ist das Bild verschwommen/matschig.
Ausser du sitzt 2m von einem 27 Zoll entfernt, dann reicht auch 2xMSAA.

Ps: Spiele selbstverständlich nicht mit 8xMSAA, dafür reicht ne 980 Ti nicht aus und meine kommende 1080 wohl auch nicht. In der Regel spiele ich auch mit 2x/4xMSAA um noch auf +-60Fps bei Ultra Settings zu kommen und das sieht auch schon ausreichend aus. Allerdings ist es falsch zu behaupten mehr als 2x bräuchte man nicht, solange man mit mehr noch deutliche Verbesserungen sieht.
 
Zuletzt bearbeitet:
PaladinX schrieb:
Hier bestätigt Prad.de dass die hohe Auflösung AA unnötig macht
pixeldichte :rolleyes:

Das ist nicht (allein) von der Auflösung oder der Monitorgröße abhängig, sondern das Zusammenspiel macht es aus.
4k auf 60" und ich wette ihr seht noch Treppchen ;)
Ergänzung ()

TheDarkness schrieb:
In FPS Spielen war die Frostbite Engine schon immer recht sparsam für das Gebotene.
Battlefield 3, 4 und Battlefront laufen zbs. alle mit einer 1300mhz 980 TI auf max (dh. ultra +4x msaa) in 1440p mit 80+ fps, meistens im +-100fps Bereich.
Und von dem was man so hört über Battlefield 1, soll das mit ner 1070 in 1440p max mit über 60fps laufen.
Denke nicht, dass Mass Effect höhere Anforderungen als Battlefield haben wird.
hab auf Ultra und 4x msaa mit (glaube ich oO) 1350 mhz 120 fps min., auf meinen reduzierten multiplayer Einstellungen sinds 150 min fps. kanns sein das das stark map abhängig ist ? ^^
kenn die werte grad aus dem kopf, weil ichs gestern erst getestet hab. ist btw sogar cpu limitiert. karte war bei 150 fps nur zu 78% ausgelastet...also da geht noch ne menge. bin gespannt auf BF1 :>
 
@cruse
Wenn du Battlefield 3 oder Battlefront meinst dann hab ich ähnliche FPS.
Bei Battlefield 4 waren meine Fps aber praktisch nie im 120+ Bereich bei gefüllten Maps.
Auch ist die GPU immer zu 99% ausgelastet mit einem I7-4790K@4.5Ghz.
 
PaladinX schrieb:
Ich brauche schon bei 1440p nur noch maximal 2x AA... :schluck:

Jop wenn überhaupt bei vielen braucht man das garnicht mehr.
Und bei CoD z.b reicht noch nicht mal nen 4K Monitor aus...

Kommt auch immer aufs Spiel an.

Sumarum Auflösung>AA.
 
smooth el 4a schrieb:
"1 pixel mit 4 pixeln darstellen" ist nichts anderes, als eine umschreibung für interpolation und "nearest neighbor" ist eine von vielen arten der interpolation. so wie der monitor diese per software berechnet, so kann auch der computer per software bzw. treiber der grafikkarte diese berechnung übernehmen. potentiell ist dabei der rechner aufgrund seiner rechenleistung sogar im vorteil, obwohl diese berechnung nicht so aufwändig ist, dass sie nicht auch der monitor schafft.

Nein, das ist eben streng genommen keine Interpolation, da keine Pixel hinzugerechnet werden. Die Pixel werden einfach nur vergrößert, aus einem Pixel werden vier. Es werden keine Mittelwerte berechnet. Letzteres tut jedes andere interpolationsverfahren.

http://www.graphics.com/article-old/anti-aliasing-and-resampling-artwork-part-2

Nearest neigbor calculation isn't actually a method of interpolation. An application chooses the same color value for neighboring pixels in an enlarged image as the original color found at any given pixel. Therefore, if the center of our hypothetical 3 by 3-pixel painting is 50% black, and we enlarge the painting 200% through nearest neighbor calculation, the center of the painting would contain 4 pixels that are 50% black. No anti-aliasing is produced using nearset neighbor calculations because no color averaging – no new pixel colors – are added to the new image.

Das ist eben der unterschied. Durch die simple vergrößerung der Pixel entsteht keine Unschärfe.
Wenn aber mittelwerte berechnet werden, dann wirds unscharf.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben