Was ist der Sinn von Downsampling?

CloakingDevice

Lieutenant
Registriert
Juli 2010
Beiträge
1.006
In letzter Zeit lese ich immer mehr von Downsampling und es wird oft als super AA-Alternative verkauft, aber irgendwie erscheint mir das doch sehr unsinnig.

Da kaufen Leute für viel Geld eine oder gar mehrere gute Grafikkarten, rendern die Spiele in (teils nur nahezu) doppelter Auflösung und lassen die Grafikkarte das Ergebnis wieder herunterskalieren damit ihre 100€ FHD Monitore damit klarkommen.

Warum macht man sowas, statt noch ein wenig mehr Geld für einen doch schon erschwinglichen Bildschirm mit entsprechend hoher Pixeldichte zu investieren? Kann mir jemand den Nutzen bzw. Mehrwert von Downsampling erklären?
 
Wie Du bessere Bildqualität erreichst, ist doch an sich wurst.
Hauptsache Du erreichst sie. Ob nun durch Downsampling oder einen höher aufgelösten Monitor (hoffentlich kein schrottiges TN-Panel) sei dahingestellt.
 
Was ist der Mehrwert von 16x AA oder Details auf Ultra?
Man könnte doch bei der Graka sparen und sich einen Bildschirm mit mehr Auflösung darum kaufen.
Genau das selbe...
 
Oder nimm Games wie z.B. The Crew. Das hat ein saumäßiges Anti Aliasing, selbst auf höchster Stufe hast du da noch extreme Treppchenbildung. Mit Downsampling kannst du da noch Einiges retten. Zumindest wenn es dir das wert ist. :)
 
ranzassel schrieb:
Mit Downsampling kannst du da noch Einiges retten. Zumindest wenn es dir das wert ist. :)
... und wenn das game vernünftig damit skaliert, sprich das HUD nicht absolut unbrauchbar wird, was leider oft der fall ist :/
 
CloakingDevice schrieb:
In letzter Zeit lese ich immer mehr von Downsampling und es wird oft als super AA-Alternative verkauft,[...]

Weil es eben genau das ist. Ein 4k Bild auf FullHD runter gerechnet ist ruhiger (kein Kantenflimmern etc.) als wenn man es direkt auf 4k ausgibt. Dazu sind die meisten 4k Monitoren noch nicht Gaming tauglich (Inputlag, Reaktionsszeiten etc.). Und es geht mit bereits vorhandener Hardware. Vorallem ältere oder Grafisch weniger anspruchsvolle Spiele (*hust*schlechter Konsolen Port*hust*) gewinnen dadurch einiges an Qualität.

Wobei man hier dann Downsampling, DRS/VSR, SSAA unterscheiden muss. Haben alle das gleiche Ziel, aber verschiedene Ansätze.
 
Zuletzt bearbeitet:
Die Sache ist einfach die:
Du hast 350€, eine GraKa mit der alles auf mittleren Einstellungen läuft und einen 1080p Monitor. Jetzt möchtest du diese 350€ investieren und hast 2 Optionen.
Option 1:
Vernünftiger 1440p Monitor und alte GraKa behalten, das heißt die Spiele laufen nur noch auf niedrigen Einstellungen bei 1440p oder es sieht scheußlich aus wenn der Monitor ein 1080p Bild ausgeben soll.

Option 2:
Man holt sich eine 290(X) oder 970 und behält den 1080p Monitor und erhält mehr Frames und Qualität durch Downsampling.

Für mich klingt Option 2 viel besser ;-)
 
@HisN
Völlig am Thema vorbei. Mir geht es darum dass man die 2160p auch nativ ausgeben könnte. Wieso also skalieren? Also nicht entweder oder, sondern beides.

@Theobald93
Das ergibt überhaupt keinen Sinn. Bei der Grafikkarte sparen und gleichzeitig einen 2160p Monitor anschließen. Niemand will mit 13 FPS zocken. Aber wenn ich bereits viel Geld in die GPU investiere, warum sollte ich dann auf die gewonnene Schärfe und Bildqualität verzichten indem ich einen FHD Bildschirm verwende? Den Frames kommt das jedenfalls nicht zugute.

@ranzassel
Selbes Problem wie bei deinen Vorrednern. Ich sage ja nicht, dass Downsampling als AA-Alternative scheitert, ich begreife nur nicht warum man sich nicht einen Monitor zulegt, der die berechnete Auflösung wirklich unterstützt. Auch Downsampling resultiert in einem gewissen Qualitätsverlust, der je nach Filteralgorithmus unterschiedlich stark ausgeprägt ist. Natürlich ist der Verlust beim Herunterskalieren gering, aber eben existent. Also wozu überhaupt skalieren?

@Nilson
Dein Beitrag beantwortet meine Frage bisher noch am besten. Mehr Kantenflimmern bei nativer Auflösung kann ich aber nicht bestätigen. Das erscheint mir auch von theoretischer Seite ein wenig unlogisch. Wenn du Quellen und technische Erklärungen hast, die diese Behauptung stützen wäre ich sehr dankbar dafür.

Inputlag, Reaktionszeiten und dergleichen sind Argumente die ich durchaus nachvollziehen kann.

@poi
Ok, wenn ich jetzt nur genau diese 350€ habe, dann ist Option 2 klar die bessere. Wenn ich aber bereits so viel Wert auf Grafik lege, dass ich derartig viel Geld für eine GPU ausgebe, dann sollte ich zumindest mittelfristig auch den Kauf eines neuen Monitors erwägen.
 
Zuletzt bearbeitet:
Kanntenflimmern kommt daher, dann ein Pixel "auf der Grenze" zwischen zwei Farben liegt und deswegen zwischen beiden hin und her springt. Und das tritt auch bei 4 k auf.

Nehmen wir das extrem und er liegt genau auf einer Grenze zwischen schwarz und weiß. Dann ist er mal weiß und mal schwarz. Das fällt auch bei 4k auf (klar nicht so stark). Durch Downsampling , DSR/VSR, SSAA wird er aber grau, da umliegende Pixel miteinbezogenen werden. -> Er bleibt Grau -> Kein Flimmern.
 
Der Pixel hat aber nur noch ein Viertel der Fläche. Oder anders ausgedrückt, auf einer normierten Fläche habe ich vier mal so viele Pixel.

Liegt ein 1080p Pixel beispielsweise genau auf einer horizontalen Grenze zwischen schwarz und weiß, so resultiert das in je einem ganzen schwarzen und weißen 2160p Pixel. Durch das feinere Gitter treten die Farbwechsel bereits seltener auf. Dazu kommt, dass die nach wie vor auftretenden Farbwechsel aufgrund der geringeren Pixelgröße weniger stark ins Auge fallen.

Downsampling löst das Problem auch, womöglich sogar besser, aber keinesfalls mit deutlicher Überlegenheit. Das wäre mir persönlich nicht den Verlust an Bildschärfe wert. Aber das ist letztlich eine sehr subjektive Entscheidung.
 
Hab ja nie "deutlich" gesagt. Je höher die Auflösung, desto kleiner der Effekt.
Aber man muss ja nicht mit 2x2 Downsampeln. Schon kleinere Faktoren wie 1,25x1,25 (also nur die 1,5 Fache Anzahl der Pixel statt das 4 fache) oder 1,5x1,5 reduziert Kanten flimmern deutlich.
 
CloakingDevice schrieb:
@HisN
Völlig am Thema vorbei. Mir geht es darum dass man die 2160p auch nativ ausgeben könnte. Wieso also skalieren? Also nicht entweder oder, sondern beides.

Dann brauchste aber auch ne dickere Graka. Was willst Du eigentlich?
Das man ne dickere Graka UND einen dickeren Monitor kauft?

So macht man halt nur eins von beidem.

Und das Textur-Flimmern bekommt man nun mal nur über eine Textur-Filterung in den Griff. Da kann der Monitor noch so hochaufgelöst sein. Wenn da zu viele Kontrastkanten aneinanderkleben, dann flimmerts.
 
Zuletzt bearbeitet:
@HisN
Genau, das erscheint mir wesentlich sinnvoller als sich dauerhaft mit Downsampling zu begnügen. Wenn das Geld gerade nicht reicht ok, aber die Artikel wollen einem ja irgendwie glauben machen, dass das der Weisheit letzter Schluss ist. Und ich suche nach echten, technischen Vorteilen von 4k-2k Downsampling gegenüber nativem 4k.

Es stimmt auch nicht, dass man dem Kantenflimmern nicht über die Auflösung beikommen kann, vgl. meine Ausführungen weiter oben. Je feiner das Gitter desto besser die Approximation, also umso ruhiger das Bild.
 
Ich sag mal so: warum 400 Euro für ne GPU und nochmal 400 Euro für nen Monitor mit 4k ausgeben, wenn ich für die Hälfte (also nur die GPU) fast die selbe Bildqualität kriege? Ich wollte mir zum Beispiel einen neuen 4k Monitor holen, brauche ich jetzt aber nicht mehr, ich hab ja downsampling. So kann ich die 400 Euro für was anderes ausgeben ;).

Ich verstehe eher den Sinn dahinter nicht doppelt Geld auszugeben wenn das gar nicht nötig ist?
 
Zurück
Oben