Baal Netbeck schrieb:
Ich verstehe was du meinst, aber in Spielen sehe ich das nicht so kritisch, da der Inhalt auf den Monitor skaliert wird und nicht auf die Auflösung.
Schrift die in 1080p 2 Pixel breit ist, ist in 4K 4 Pixel breit..... gleiche Bildschirmdiagonale vorausgesetzt, ist der Strich am Bildschirm gleich breit und du brauchst nicht mehr Hz.
Es wird natürlich mit höherer Auflösung nicht auf einmal unschärfer, aber mit höherer Auflösung ergeben auch höhere Bildwiederholraten Sinn. Vereinfacht gesagt, die Auflösung gibt vor, wie scharf es im Standbild sein kann, eine unzureichende Bildwiederholrate reduziert die Schärfe in Bewegung. Der Schwellwert für "unzureichend" verschiebt sich mit der Auflösung. Alles unter der Annahme, das man für ein Objekt gleicher Winkelgeschwindigkeit immer <= 1 Pixel/s an Unschärfe haben will.
Aus praktischer Sicht würde ich auch zustimmen, das 1000Hz locker genug sind. Text beim Scrollen wäre nicht knackscharf, aber schärfer als nötig um ihn lesen zu können. Und gibt ja viele Leute die heute noch 1080p 60Hz nutzen und damit zufrieden sind. Man
braucht kein Display das die Grenzen der menschlichen Wahrnehmung übertrifft. Ich hätte trotzdem gerne eins
Spannend wäre zu wissen, wo das echte Limit der menschlichen Wahrnehmung ist. Naiv betrachtet könnte man das aus der Sehschärfe (max 2,0) und der Folgegeschwindigkeit (max 100°/Sek) ableiten, aber evtl ist das Sehvermögen während einer Folgebewegung beeinträchtigt, wodurch ein geringerer Wert ausreichen könnte. Und bestimmt übersehe ich noch andere Faktoren.
Ein anderer Aspekt: Wenn das Spiel im Extremfall in 720p berechnet und mit zB DLSS SR auf 6K aufgeblasen wird, erübrigt sich der Kampf um die letzte Bogensekunde an Bewegungsschärfe. Zumindest mit den aktuellen Versionen von DLSS, FSR, XeSS und PSSR ist SR einfach noch nicht präzise genug und hat zu viele Artefakte und Unschärfe. Was unter solchen Umständen trotzdem extrem hohe Bildraten rechtfertigen könnte, abgesehen von der potentiellen Reduktion von Schlieren, wenn das TAA/SR eine fixe Zahl als history sample count verwendet, wäre hochwertige Zwischenbildberechnung oder besser Frame Reprojection. Die neuen "Fake-Frames" würden auf Basis des hochskalierten Frames erzeugt und könnten daher Pixel-genaue Bewegtdarstellung liefern. Das ist auch der einzige Weg den ich sehe um zukünftig abseits von einigen wenigen E-Sports Titeln solche Bildschirme auszureizen. Valorant schafft zwar >700fps, aber normalere Spiele würden dann native 45-300fps liefern, je nach Spiel und Anspruch, der Rest wird extrapoliert. Wäre schön, wenn NVidia was in der Richtung mit DLSS 4 macht, auch wenn ich fürchte, dass das erst ein oder zwei Gens später kommen wird.
NikkyD schrieb:
Wenn ein Monitor einen gtg Wert von 1 ms schafft, warum lässt man dann die Pixel nicht 1 ms leuchten und dimmt sie dann 9 ms lang bis einer neuer Wert kommt ?! Das wäre dann extrem ähnlich einem CRT ?!
Das gibt's, nennt sich je nach Implementierung backlight strobing, black frame insertion, Ultra Low Motion Blur (Nvidia), ELMB (Asus), DyAc (Zowie), etc.
Kostet Helligkeit, manche Menschen sind empfindlich fürs Flickern, außerdem sehr schwierig mit VRR zu synchronisieren, weshalb die älteren Implementierungen alle nur mit fixer refreshrate funktionierten. Trotzdem eine tolle Technik, die es auch schon seit über 10 Jahren gibt. Laut Blurbusters ist ein 360Hz Bildschirm mit sauber implementiertem backlight strobing sehr vergleichbar mit einem 1000Hz Bildschirm.
Um das Flicker Problem zu mildern gibt es als alternative zu BFI
interessante Ansätze aus der CRT Emulation.