Downsampling: wie genau funktioniert das?

zeedy

Captain
Registriert
Dez. 2012
Beiträge
3.816
Hey Leute, ich habe schon gegoogelt, aber mehr als "höhere intern gerenderte Auflösung wird auf die Monitorauflösung herunterskaliert" finde ich nicht.

Mich interessiert, was da genau passiert. Ein Kumpel behauptet, dass das Quatsch ist weil die Pixel des Monitors unverändert bleiben und nur eine Farbe darstellen können, also nicht mehrere gleichzeitig. Dem stimme ich ja zu nur merke ich sehr wohl einen Unterschied ob ich in 1080p oder in 2160p spiele. Er aber nicht. Ist natives 4K sichtbar besser als downsampletes 4K?
 
Natürlich ist natives 2160p besser als eines, das von 2160 auf 1080 per downsampling reduziert wurde.

Beim Downsampling wird das Bild in UHD berechnet und dann auf FHD runtergerechnet, es fallen also die Hälfte der Pixel weg.
Das kann man in keinster weise irgendwie kompensieren oder leugnen.
Der Vorteil beim Downsampling ist, das man sich Sachen wie Kantenglättung (was im Grunde ja auch nur eine Art Downsampling ist) schenken kann, das Bild sieht besser aus.

Frisst allerdings auch ordentlich Rechenleistung.
 
1. Ja natives 4k ist (deutlich) besser als FullHD. Hast ja auch vier mal so viel Pixel.

2. Über Algorithmen wird die Farbinformation der vielen Pixel zu verrechnet, dass man die Farbe des "echten" Pixel erhält. Ähnlich wie bei SSAA oder DSR/VSR.
Bei 4k auf FullHD wird also die Farbinformation eines Pixel aus vier berechneten Pixeln gewonnen.
 
zeedy schrieb:
Ist natives 4K sichtbar besser als downsampletes 4K?
Nativ ist natürlich besser als downsampling. Aber ein Unterschied ist trotzdem deutlich sichtbar. Wenn man so will, kann man das fast wie eine Kantenglättung bezeichnen. Ein wenig kann man im Grafikkartentreiber selbst noch tunen mit der DSR-Glättung z.B.
Bei meinem Monitor spiele ich z.B. auch oft mit einer 5K Auflösung, da mein Monitor eine Auflösung von 2560x1440 hat.
 
Zuletzt bearbeitet:
die Frage ist einfach was macht der Monitor selber mit den Bilddaten .... und die betrachtet dein Freund nicht und kennt sie wohl auch nicht.

@ Mykoma es fallen nicht die Hälfte der Pixel weg ... sondern es wird aus 4 Pixel ( Farben ) eine Mischfarbe und die wird dargestellt ... somit wird das gesamte Bild geglättet.

Da solch eine Glättung natürlich einen gewissen Farb und Schärfeverlust hat sollte man nicht ausser acht lassen ( es wird ja eine Mischfarbe dargestellt )

Mit AA Modi kann man das ein wenig vergleichen ... Problem dabei ist das nicht jeder AA Modi alles auf dem Bild erfassen können z.b. Transparente Texturen.

Daher macht es Sinn über Downsampling ohne AA Modi zu gehen.. man hat ein gleichmäßig verbessertes Bild.

Und ja Natives 4k sieht wieder besser aus ... weil einfach 1 Bildpunkt bei 1080p bei gleicher Bildschirmgröße so groß ist wie 4 bei 2160p !
Man verliert weniger Schärfe und erhält klare genaue Farben. Da die Bildpunkte auch kleiner sind hat man ja auch weniger Treppeneffekte bei den Texturkanten.
 
Aha interessant, dass da eine Mischfarbe aus mehreren Pixeln kreiert wird, hab ich nicht gewusst.Aber dennoch schwer vorzustellen, dass das zu weniger Kantenflimmern führt. Im Grunde werden die Kanten bzw das gesamte Bild einfach unscharf oder?
 
Aber genau deshalb Flimmert es wenig. Weil die Pixel statt von schwarz auf weiß erst auf Grau springen. Und so kommt es zu deutlich weniger flimmern.
main-qimg-10856ecbea4f439fb9fb751d41ff704a.png
 
Zuletzt bearbeitet:
Nehme ich aber einen Screenshot auf, hat er die intern gerenderte Auflösung. Wurde also noch nicht herunterskaliert und deswegen schärfer, richtig?
Schon krass wie unfassbar schnell diese Anpassung an die Monitorauflösung erfolgt.
 
Zum einen haben Monitor spezielle Hardware für sowas, zum anderen ist das runterrechnen relativ simpel.
 
xxMuahdibxx schrieb:
@ Mykoma es fallen nicht die Hälfte der Pixel weg ... sondern es wird aus 4 Pixel ( Farben ) eine Mischfarbe und die wird dargestellt ... somit wird das gesamte Bild geglättet.

Ja, das ist das, was ich damit ausdrücken wollte. hab's blöd formuliert :/
 
Kantenflimmern an sich ist ja nur ein Syndrom des gesamten allgemeineren Abtastproblems.
Denn innerhalb der Bildfläche eines jeden Pixels existiert ein Helligkeits- bzw. Farbverlauf. Jedoch kann der Monitor Definitionsgemäß für jeden Pixel nur eine Farbe darstellen. Deshalb muss die GPU anhand des Helligkeitsverlauf für jeden Pixel die mittlere Farbe bzw. Helligkeit innerhalb der Bildfläche des Pixels berechnen, da die diese die Bildfläche des Pixels am besten repräsentiert. Die Berechnung eines Mittelwertes über den Farbverlauf innerhalb der Bildfläche ist eine Integration, die sich in der Regel nur numerisch lösen lässt.

Im einfachsten Fall approxmiert die GPU die mittlere Farbe des Pixels durch den Farbwert am Mittelpunkt des Pixels. Dies erzeugt jedoch dementsprechend große Fehler, wenn der Farbwert am Mittelpunkt des Pixels stark von der mittleren Farbe des Pixels abweicht. Dies ist zum Beispiel an kontrastreichen Polygonkanten der Fall, die circa halb über einen Pixel verlaufen: Entweder das Polygon beinhaltet den Mittelpunkt, dann hat der Pixel die Farbe des Polygons, oder das Polygon verfehlt den Mittelpunkt, dann hat das Polygon keinen Einfluss auf die Farbe des Pixels. Die korrekte Lösung in diesem Fall, nämlich dass das Polygon die Hälfte der Farbe des Pixels beiträgt, wäre bei einem Farbwert pro Pixel nicht möglich. Der Fehler lässt sich nun minimieren, indem die GPU eben mehrere Farbwerte pro Pixel berechnet und diese dann mittelt (im Prinzip die Anwendung der Mittelpunktsregel https://de.wikipedia.org/wiki/Mittelpunktsregel). So kann zum Beispiel bei 4 Farbwerten pro Pixel, eine Polygonkante, die halb über einen Pixel verläuft, auch in etwa die Hälfte zur Farbe eines Pixels beitragen, was bei einem Farbwert pro Pixel nicht möglich gewesen wäre.
 
Nilson schrieb:
Zum einen haben Monitor spezielle Hardware für sowas, zum anderen ist das runterrechnen relativ simpel.

Genau das ist es ... der Monitor muss ja nichts neu Berechnen an Gemotrie sondern einfach 4 Farben in einen Topf mischen ... das macht er instant.
 
Danke für die Antworten. Also wird die mittlere Farbe der Pixel von der GPU oder doch vom Monitor berechnet?
 
Von der GPU, da die Scaler in den Monitoren in der Regel nichts mit einer höheren Auflösung anzufangen wissen, und zudem da die Datenübertragung zwischen GPU und Monitor schnell zum Flaschenhals werden kann.
 
Bei reinem Downsampling macht es der Monitor. Deshalb gibt es da Limitierungen durch jenen und die verwendete Verbindung. Bei DSR /VSR /SSAA macht es die Grafikkarte
 
Wenn ich also mit DSR/VSR in 4K spiele, dann merke ich das nur an den unspielbaren fps, richtig? Denn das Bild wird ja nur unscharf, mit 4K hat es bei der Bildausgabe nichts zu tun. Wäre es da nicht sinnvoller einfach MSAA oder andere AA Modi zu aktivieren, wenn sie vorhanden sind? Dann muss ich zumindest nicht meine Desktopsymbole ständig an die gewünschte Position zurückziehen.

Schade, und ich fands immer so cool in 1440p zu zocken :D
 
DSR/VSR sind im Prinzip ein Treiberhack dafür, um in jedem Spiel Super-Samping-Anti-Aliasing zu ermöglichen, ohne dass dieses nativ vom Spiel unterstützt werden muss. Und wie immer gilt, dass Super-Samping-Anti-Aliasing der qualitativ beste Anti-Aliasing-Modus ist. Denn alle anderen Anti-Aliasing-Vertreter wie MSAA oder Screen-Space-Anti-Aliasing besitzen konzeptbedingt immer denjenigen mathematischen Nachteil, dass sie für die Glättung weniger Informationen besitzen als Super-Samping-Anti-Aliasing. Zudem neigt Super-Samping-Anti-Aliasing trotz weicherer Kanten nicht in dem Sinne zur Unschärfe, dass es die effektive Auflösung des Bildes reduziert, wie es bei Weichzeichnern ala Tiefenunschärfe oder Screen-Space-Anti-Aliasing der Fall ist.

Ingesamt ist AA aber ein sehr umfassendes Problem in der Computergraphik. Viele AA Sachen werden interessanterweise von Spielern ja nicht einmal als solches wahr genommen oder als gegeben angesehen, wie Texture-Anti-Aliaising (aka Mipmapping oder anisotropes Filtern) oder Temporales-Anti-Aliasing (aka Motion Blur). So richtig merkt man es erst, wenn man mal sein erstes 3D Programm schreibt und sich ständig wundert wieso das so richtig scheiße verrauscht ausschaut.
 
Zuletzt bearbeitet:
Die Downsamplingauflösung wird anscheinend auch auf den Desktop übertragen, weshalb sich die Desktop Symbole ständig verschieben. Kann man das eigntlich irgendwie verhindern?
 
mit Ultramon z.b. oder derivaten davon.
 
Zurück
Oben