Bildqualität von 1080p auf 1440p Monitor VS 4k TV

MiSo_GloDnY

Cadet 1st Year
Registriert
Dez. 2024
Beiträge
13
Hallo,
wenn ich meinen PC an meinen 1440p Monitor anschließe und mit 1080p Auflösung spiele ist das Bild sehr unscharf/blurry. Spiele ich dagegen mit demselben PC auf 1080p an meinem LG Oled TV ist das Bild völlig in Ordnung, aber natürlich nicht so gut wie in 4k.

Warum ist das Bild am TV trotz 1080p am TV besser als am Monitor?
 
Weil der vermutlich 4K Auflösung hat und sich das geradzahlig skalieren lässt.
 
  • Gefällt mir
Reaktionen: DoNG und iSight2TheBlind
Weil 4K mit 3840 x 2160 Pixeln ein ganzzahliges Vielfaches von 1080p bzw. 1920x1080 Pixeln ist.
Du hast doppelt so viele Pixel in der horizontalen und vertikalen Achse. Dadurch wird wird ein Pixel (1x1) des Quellmaterials auf 2x2 Pixel am Panel dargestellt. Das Seitenverhältnis bleibt, allerdings wirkt es auf dem Panel nicht mehr so fein.

Bei 1440p gibt es kein gerades, sondern ein Verhältnis von 1,33. Das zerstört das ursprüngliche Verhältnis und das Bild wird in der horizontalen und vertikalen gestreckt. Viele Bildschirme unterstützen aber die Darstellung im Originalverhältnis, sodass du mit schwarzen Rändern arbeiten kannst.
 
  • Gefällt mir
Reaktionen: DoNG
inter2k3 schrieb:
Weils bei 4k ein ganzzahliger Faktor ist und bei 1440p nicht
Bei einem Super Resolution Scaler ist die Schärfe unabhängig davon ob der Teiler ganzzahlig ist oder nicht. Der Unterschied ist, dass der Fernseher einen solchen Scaler besitzt und der Monitor nicht.
 
@Incanus Ich habe nichts gegenteiliges behauptet. Hier wird behauptet, dass das Bild auf dem TV bei gleicher Basisauflösung schärfer mit einem ganzzahligen Multiplikator aussieht. Die Aussage stimmt bei einem Super Resolution Scaler nicht.
 
Du stimmst zu und widersprichst gleichzeitig?
Was soll zudem ein ‚Super Resultion Scaler‘ sein? Das kenne ich eher aus Bildbearbeitungsprogrammen.
 
Wo siehst du einen Widerspruch? Die native Basisauflösung bleibt die gleiche. FSR 1 ist z.B. ein Super Resolution Scaler, der vergleichbar mit denen in TVs ist. FSR ist nicht auf ganzzahlige Faktoren beschränkt, wie z.B. bilineare Skalierung, die nicht Fourierkorrekt ist.
 
Zuletzt bearbeitet:
Incanus schrieb:
Du stimmst mir zu, dass es mit nativer Auflösung immer besser aussieht 7nd wiederholst dann wieder, dass es egal sei.
Wo behaupte ich, dass die native Auflösung schlechter aussieht? Wir reden hier immer von einer nativen Auflösung von 1920x1080. Ich rede von Faktoren. Ein Super Resolution Scaler skaliert nicht unscharf, wenn die Faktoren nicht ganzzahlig sind.
Incanus schrieb:
Aber nicht im Fernseher, sondern im PC mit der AMD Grafikkarte.
Die Super Resolution Scaler in TVs sind heute sogar besser als FSR. Ich würde FSR mit den Scalern in TVs von 2015 vergleichen.
Ergänzung ()

Es wäre noch interessant zu wissen, welche GPU der TE besitzt. Auf AMD GPUs kann man z.B. mit RSR das Ergebnis deutlich verbessern. Auf Nvidia GPUs dürfte das Bild auch schärfer aussehen, wenn man die GPU Skalierung statt der Monitorskalierung verwendet.
 
Zuletzt bearbeitet:
Unabhängig davon, ob nun Bildverbesserer (FSR, RSR, DLSS, Upscaler vom TV) verwendet werden, stimmt die Aussage in #2 & #3, dass 4k (2160p) eben ein ganzzahlig Vielfaches von HD (1080p) ist. Dadurch ist dann ein Pixel einfach 2x2 statt 1x1, was natürlich besser aussieht, als 1.33x1.33 (bei 1440p), weil 0.33 Pixel gibt es nicht.
 
DoNG schrieb:
Dadurch ist dann ein Pixel einfach 2x2 statt 1x1, was natürlich besser aussieht, als 1.33x1.33 (bei 1440p), weil 0.33 Pixel gibt es nicht.
Die Aussage stimmt z.B. dann, wenn der Fernseher Integerskalierung verwendet und der Monitor bilinear skaliert. Der LG OLED besitzt einen Super Resolution Scaler, der ein besseres Ergebnis als Integerskalierung produziert. Hätte der Monitor auch einen Super Resolution Scaler, dann behaupte ich, dass dieser Thread nie erstellt worden wäre, denn ein Super Resolution Scaler benötigt keine ganzzahligen Skalierungsfaktoren um ein scharfes Bild zu erzeugen.
Hier ist z.B. ein Test von AMD RSR, der zeigt, dass die Schärfe des Ergebnisses nicht davon abhängig ist, wie der Skalierungsfaktor ist, sondern einfach davon wie hoch die Ausgangsauflösung ist: Techpowerup: AMD Radeon Super Resolution RSR Quality & Performance Review
 
  • Gefällt mir
Reaktionen: Odessit
Ja, wenn "Bildverbesserer" aktiv sind. Will man aber oftmals bei Spielen nicht, da diese die Anzeigelatenz erhöhen. Es gibt keine 0.x Pixel, auch nicht bei LG OLED.

Wird einfach nur der Pixelbrei ausgegeben, dann wird 1080p auf 2160p immer besser aussehen, als auf 1440p, da es ganzzahlig skaliert werden kann.

Will man auf 1440p ausgeben, könnte man vielleicht mit 720p als Ausgangsauflösung ein besseres Bild als mit 1080p erhalten, einfach weil 720p wieder ganzzahlige Skalierung ermöglicht.
 
DoNG schrieb:
Ja, wenn "Bildverbesserer" aktiv sind. Will man aber oftmals bei Spielen nicht, da diese die Anzeigelatenz erhöhen.
Den Super Resolution Scaler kann man nur bei ganz wenigen Fernsehern überhaupt deaktivieren. Der gehört nicht zu den "Bildverbesserern", die die Latenz erhöhen. Ich habe bisher nur ein paar Panasonic TVs gesehen, bei denen man auf Integerskalierung umschalten kann. Ich wüsste aber nicht warum man das tun sollte, denn das Ergebnis ist weniger scharf als der Super Resolution Scaler. Das ist wahrscheinlich auch der Grund warum diese Option nicht verbreitet ist.
 
Sry, dass ich mich hier einmische, aber wenn wir bei PC Monitoren bleiben und nicht dlss oder fsr verwenden. Sieht 1080 p auf einem 4k Monitor besser aus als 1440 p auf einem 4k Monitor?
 
@Incanus Die Latenz durch den Scaler ist jedenfalls vernachlässigbar gering. Wenn man sich z.B. den LG C4 ansieht, dann ist da praktisch kein Unterschied in der Latenz zwischen 1080, 1440 und 4k zu sehen.
 
Das kann aber nur bedeuten, es gibt keine detaillierte Neuberechnung, was uns wieder zu der Theorie mit den glatten Faktoren bringt.
 
Zurück
Oben