2160p Supersampling auf 1080p Bildschirm - Verständnisfrage

Robman86

Lt. Junior Grade
Registriert
Sep. 2012
Beiträge
370
Hallo,

ich habe da noch eine kleine Verständnisfrage bezüglich Supersampling, z.B. mittels Nvidia DSR, auf einem 1080p Bildschirm.

Bei vielen Spielen ist DSR 4,00, also 2160p, deutlich schicker / schärfer auf einem 1080p-Bildschirm als natives 1080p auf meinem 1080p-Bildschirm.

Bei manchen Spielen jedoch erkenne ich nur minimale Unterschiede, dann sind nur Details im Hintergrund feiner / schärfer. Es ist kaum der Rede Wert - die Mehrleistung steht jedenfalls dann in absolut keinem gesunden Verhältnis (z.B. 30 statt 60 fps).

Nun frage ich mich, ob es in diesen Fällen an meiner geringen 1080p Auflösung vom Bildschirm hängt. So wie ich das aber verstanden habe, sind bei einem nativen 2160p-Bildschirm im Vergleich zu 4,00 DSR/Supersamling ja "nur" die PPI höher, also vorallem Vorteile bei geringeren Abständen / ab einem gewissen Abstand. Ich habe aber genug Abstand (4 Meter bei 75 Zoll), so dass ich denke dass ein richtiger 2160p Bildschirm bei Games (bei Filmen/Serien schon) keine Vorteile bringen würde (wie gesagt: 2160p Supersampling/4xDSR auf 1080p Bildschirm im Vergleich zu nativen 2160p auf einem nativen 2160p Bildschirm).

Ist das so richtig? Gibt es bei manchen Spielen (z.B. Witcher 3) also wirklich nur minimale Unterschiede? Ist aber auch eines der wenigen Spiele, die man in 1080p ziemlich scharf erleben kann. Oder gibt es mit einem 2160p Bildschirm, egal bei welchem Abstand, doch noch weitere Vorteile gegenüber 2160p-Supersamling auf einem 1080p-Bildschirm?

MfG
 
Ein FullHD Monitor hat immer nur 1/4 der Pixel im Vergleich zu einem 4k Monitor. Da kann man sich drehen und wenden, wie man will. Man bekommt auch nicht mehr Details mit DSR. Die Pixelanzahl ändert sich eben nicht.

Was man bekommt. Man kann zB auf Anti Aliasing verzichten. Weil in 4K gerendert wird. Man bekommt - je nach Spiel - ein vielleicht schärferes Bild. Oder das Bild wird schlechter. Kann auch passieren, eben je nach Spiel und Engine.

Bei 4K DSR auf einem FullHD Monitor muss der Monitor eben 3/4 der Pixel unter den Tisch fallen lassen. Und das kann eben auch zu einem schlechteren Bild führen. Eben immer vom Spiel, den Einstellungen und der Engine abhängig.

Aber man kann 4K DSR auf einem FullHD Monitor nicht mit nativem 4K auf einem 4K Monitor vergleichen. Einmal hast Du 2.1 Mil Pixel, und einmal hast Du 8.3 Mil Pixel.
 
Ja, mehr details wirst du nicht sehen können.
Verschlechtert werden sollte das Bild aber nicht.

Was der Hauptvorteil ist, dass Flimmern von Texturen, Kanten, Zäunen, Vegetation etc deutlich gemindert wird.
Bei älteren Spielen bestehen runde Objekte auch aus mehreren Polygonen, und sind "runder" (ist mir ganz am Anfang von Bioshock 1 Remaster aufgefallen).

Am deutlichsten ist mir DSR bei FF13 Lightning Returns aufgefallen. Dort aber nicht über DSR, sondern über die integrierte Downsampling funktion vom Game Launcher selbst (btw, einer der besten Konsolen ports, die ich JE gesehen hab.).
Im Launcher direkt einfach von Full HD auf 4k UHD umstellen, und eine Option weiter von "nicht skalieren" auf "skalieren", damit das komplette Bild an den Monitor runter skaliert wird.

Bei einigen Rüstungen hat man das bei den Texturen gesehen, flimmern von umrandungen etc so ziemlich völlig beseitigt.
 
@ Blubbs ...

DSR von Nvidia wird alles auf der Grafikkarte gemacht und am Ende kommt dann ein 1080P Signal zum Monitor.

Hatte ich auch eine Zeit lang anders in Betracht gezogen ist aber so.

Da die Grafikkarte mit speziellen Filtern noch nachbearbeiten kann eh sie das Bild rüberschickt.

http://www.nvidia.de/object/dsr-technology-de.html
 
Danke schonmal für eure Antworten.

Das bedeutet ja, dass ich einen größeren Unterschied sehen würde, wenn ich mir das beispielhaft genannte Witcher 3 mal auf einem 4k-TV ansehe. Ein Kumpel hat einen.. ich werde mir das mal anschauen.
 
Der Vorteil von DSR/SSAA/Downsampling ist, dass pro Pixel vier Farbinformationen verwendet werden, statt einer (von UHD auf FullHD). Dadurch wird Kantenflimmern fast vollständig eliminiert. Hat ein Spiel vorher schon kaum Probleme mit flimmern oder hat es so schon gute AA-Modie an Board, bringt das natürlich weniger, als bei Spielen, die stark flimmern.
Echtes 4k ist dann wieder was anderes. Du hast dann mehr Details, weil mehr Pixel, aber wieder nur eine Farbinformation pro Pixel. Wobei dann, wegen der höheren PPI, das Aliasing (deutlich) weniger auffällt.
 
1080p@4k downsampling kommt echtem 4k näher, als manche Leute es gern hätten...mir hats fast die Sprache verschlagen, als ich GTA@4k gespielt hab. Das sah gar nicht mehr aus wie mein Monitor. Endlich kein Flimmern mehr und trotzdem alles scharf. Bei War Thunder siehts auch zum umwerfen aus. Ich mach das mit Nvidia DSR, allerdings ist 4k die einzige Einstellung, die wirklich sehr gut aussieht. Die Faktoren 1,78 und 2,25 sind nur mässig.

Ich probier alles auf 4k zu spielen, selbst, wenn ich dafür ne Menge anderer Einstellungen runter drehen muss. Klar sieht echtes 4k noch nen Tick knackiger aus...trotzdem erstaunlich, was in einem 1080p alles drinsteckt, wenn mehr Rechenleistung aufgewendet wird. Und wenn man ein Spiel mega-GPU-intensiv ist, hat man wenigstens natives 1080p, besser als von einem 4k Bildschirm auf 1080p runterstellen zu müssen.
 
xxMuahdibxx schrieb:
@ Blubbs ...

DSR von Nvidia wird alles auf der Grafikkarte gemacht und am Ende kommt dann ein 1080P Signal zum Monitor.

Habe ich auch nicht gesagt. Sicher, genau so arbeitet Downsampling schon immer. Bei nVidias DSR, bei AMDs VSR oder auch zuvor, als die Treiber es selbst noch nicht konnten. Wäre es anders, würde der Monitor nichts anzeigen. Da kommt dann Out of Range füttert ihn man mit einem Signal, größer als seine native Auflösung.
 
wenn ich bei meinem Monitor direkt 2560x1440 mitgebe, macht er das mit ohne zu murren. Bei 3840x2160 stürzt er ab.
 
@ Blubbs

BlubbsDE schrieb:
Bei 4K DSR auf einem FullHD Monitor muss der Monitor eben 3/4 der Pixel unter den Tisch fallen lassen.


nein du hast nicht gesagt der Monitor Interpoliert oder schmeisst pixel weg .. oder halt doch irgendwie.
 
Teilweise sind die Details bei 4K DSR @1080p auch höher. Ich kenne mich mit den Rendertechniken nicht aus, aber ich kann mir vorstellen das die 4 Farbinformationen pro Pixel feinere Details bedingen. Gerade bei Gta 5 ist es mir aufgefallen, natürlich nicht in den Texturen sondern in 3d gerenderten Dingen wie den Bäumen. Gut möglich das es sich wie bei der Fotografie verhält, da wirken 20mp Fotos auf dem TV wiedergegeben auch deutlich detailreicher als 2mp Bilder da pro Bildpunkt deutlich mehr Informationen zur Verfügung stehen. Nicht ohne Grund spricht man in der Fotografie bei der Auflösung von Linienpaaren pro mm Bildhöhe und nicht von Megapixel, denn die beschreiben lediglich das Maß der Bildgröße und begrenzen die Auflösung, bestimmen Sie aber nicht. Ein 4k TV wäre bei 4m Distanz jedoch auch bei 75 Zoll Unfug, auf die Distanz löst das Durchschnittsauge nicht einmal Fullhd vollumfänglich auf
 
Der einfachste und beste Test wäre wohl einen 4k-Monitor direkt neben einem 2k-Monitor zu stellen und dann entsprechend die gleichen Spiel-Szenen in 2k und 4k gleichzeitig auszugeben, also jeweils die native Auflösung. Ich erwarte mir dann einen deutlichen Unterschied, den ich aktuell leider auf meinem 2k-Bildschirm nicht sehe, zumindest nicht in modernen Engines.
 
So habe entsprechend (direkt nebeneinander) verglichen. Die Optik ist meines Erachtens kaum besser als 4k-Supersampling auf einem 2k-Monitor.

Das Wichtigste sind die Texturen bzw. die Engine allgemein. Unterm Strich kann ich für mich festhalten, dass sich die geringe Mehroptik bei nativem 4k (selbst von 2k-Standard ausgehend) für die benötige Mehrleistung überhaupt nicht lohnt. Man kann also getrost warten bis es irgendwann Standard wird. Bei älteren Spielen einfach Supersampling nutzen oder generell bei allen Spielen, wenn man Mehrleistung überhat.

Aber auf keinen Fall wegen der geringen Mehroptik so große fps-Verluste hinnehmen und / oder dafür extra nen nativen 4k-Bildschirm kaufen.

Das Ganze gilt natürlich für normalen Sitzabstand. Wenn man extrem nah dran sitzt dann sieht das vielleicht anders aus. Diesen Anwendungsfall gibt es jedoch bei mir nicht.

MfG
 
Zuletzt bearbeitet:
Bestätigt wohl die vermutung, dass sich 4k hauptsächlich dann lohnt, wenn die Pixeldichte klein bleibt --> großes Display.
Somit wird man viel mehr Arbeitsfläche haben.
Wenn man auf 24-27" auf 175-200% skalieren muss, ist der Platz ja futsch.

Müssen wir wohl Hisn nacheifern, und uns nen 40"er hinstellen :D
 
man kann mit der Technik auf jeden Fall aus 1080p Monitoren noch ne Menge rausholen...seit dem ich das benutze, find ich auch nicht mehr, dass grosse Karten sinnlos sind für FHD. War Thunder spiel ich momentan @4k, sieht klasse aus, nur leider ist die Schrift und die menüs halt viel zu klein und damit pixelig.
 
Zurück
Oben