Blumentopf1989 schrieb:
Tatsächlich konnte ich noch einmal einen guten Unterschied zwischen 144hz und 240hz feststellen können. Ob das bei einem Wechsel von 240 auf 360hz dann auch noch der Fall wäre, keine Ahnung.
Leider habe ich nur einen 60Hz Monitor, der mir für Office Arbeiten aber reicht. Ich zweifele nicht daran, dass auch viel höhere Frequenzen einen Positiven Einfluss haben. Ich könnte mir aber vorstellen, dass der Unterschied zwischen 240 und 360Hz nicht dadurch kleiner wird, weil der Mensch es nicht wahrnehmen kann, sondern weil dann Effekte wie Ghosting mehr ins Gewicht fallen. Selbst TN Panels liegen da oft noch im Bereich von 5ms white to black. Und der Anteil der Vorverarbeitung wird relativ gesehen größer (da ist bestimmt auch noch Potential). Im Moment würde ich darauf keine Priorität legen, auch wenn ich es schade finde, dass in den Monitorklassen, die ich beobachte noch 60Hz ein Standard ist. Da ist noch viel Luft nach oben. Für statische Inhalte ist dann die Auflösung und Farbdarstellung mir aber wichtiger.
Blumentopf1989 schrieb:
Mehr als 24 Zoll machen bei der Auflösung halt gar keinen Sinn, das ist sonst absoluter Pixelbrei.
Ich frage mich auch, warum es gleichzeitig Smartphones mit 4K Auflösung gibt, aber am PC die Auflösung, bei der man im Design für jedes Pixel kämpft, noch weiter reduziert wird. Man muss sich vielleicht mal verdeutlichen, dass der Text nur wegen Tricks wie Suppixelrendering erst halbwegs OK aussieht.
https://de.wikipedia.org/wiki/Subpixel-Rendering
"Weiterhin wird die Darstellung von vielen Benutzern als unscharf empfunden. Das unbewusste Bemühen des Auges, das künstlich unscharfe Schriftbild zu fokussieren, kann zu Ermüdungserscheinungen
[3] und Kopfschmerzen
[4] führen. "
Das sollte man vielleicht den Gegnern von höheren Auflösungen mal mit den vergrößerten Bildern verdeutlichen, die Zeigen, welche Tricks da schon benutzt werden. Ich frage ich auch, ob es nicht passieren könnte, dass mal ein Monitor falsch angesteuert wird und es dann durch diese Tricks schlimmer wird.
Aber ich habe auch schon Monitore gesehen, die jedes Bild wie ein Gif dargestellt haben und die Besitzer haben es nicht einmal gemerkt. Einige Menschen sind sehr leidensfähig und gehen Missstände oft nicht an. Wenn sie dadurch nicht eingeschränkt werden, könnte man es verstehen (wenn einem Programmierer der Text in einer anderen Farbe erscheint, wäre es kein Problem, solange das konsistent ist). Aber manchmal leiden Menschen und ändern trotzdem nichts.
Zum Thema, dass der mensch nur <30 Bilder pro Sekunde aufnehmen kann:
0ssi schrieb:
Wo kommt dieser Mythos eigentlich her und wieso verbreitet man solchen Unsinn ?
Ab 1888 gabs Filmkameras aber die konnten nur 15FPS also ruckelige s/w Stummfilme.
Später dann 24FPS weil
ab dieser Framerate eine Bewegung als relativ flüssig erscheint.
Daran hält die Filmindustrie bis heute fest. Nur eine Zwischenbildberechnung hilft etwas.
Das hängt auch etwas von der Auflösung und Schärfe ab. Wenn man ein Bild so stark weichzeichnet, dass man praktisch nur noch einen wabernden Farbverlauf zwischen 10 Punkten hat, die sich auch nur sehr langsam im Farbspektrum bewegen, dann sehen auch schon weniger Bilder flüssig aus, glaube ich.
Irgendwie sowas, wie diese Plasmas:
Aber ich stehe voll auf deiner Seite. Dieses Argument ist theoretischer Natur. Wir schauen auf Bilder, die deutlich schärfer sind, als dass man nur eine Hand voll Punkte identifizieren könnte. Mir kommt es auch so vor, als wären schon seit den HD-Auflösungen Kameraschwenks unpopulärer geworden, weil sie oft starkes Ruckeln zeigen. Mit 4K wird das sicher nicht besser. Vielleicht wäre es auf großen Monitoren für die Zuschauer noch immer unangenehm, aber es würde nicht so heftig ruckeln, wenn deutlich über >30hz mit einer kontinuierlichen Framerate dargestellt werden würden.