Aber warum ausgerechnet 24 Bilder pro Sekunde? Weils in Kino und Fernsehen auch so ist? Da wünscht sich sogar ein James Cameron endlich 48 Bilder pro Sekunde. Zu recht, denn die Geräte haben immer kürzere Nachleuchtzeiten, die das Bild verwischt erscheinen lassen und dadurch dafür sorgen, daß Bewegungen flüssig wahrgenommen werden. Dazu kommt noch die aufnahmeseitige Bewegungsunschärfe, denn auch während der Belichtungszeit bewegen sich Objekte. Bei Spielen fällt eben dieser aufnahmeseitige Verwischeffekt weg. Wie dann 24 bis 30FPS noch füssig wahrgenommen werden können ist mir ein Rätsel. Es gibt durchaus Titel, da merkt man den Unterschied. Ich bin in der glücklichen Position, in der Closed Beta eines Spiels zu sein, welches die ganze Thematik hervorragend demonstriert. Unter 50 FPS brauche ich erst gar nicht anfangen, denn es ist so ruckelig, daß ich kaum was treffe.
Die Unterschiede zwischen Film und Spiel kann sich jeder selbst ansehen. Bei der Wiedergabe einer Bewegung per DVD oder Bluray einfach mal Pause machen und das Standbild betrachten. Es ist unscharf. Dann einfach aus einem 3D Shooter aus einem Kameraschwenk heraus einen Screenshot anfertigen und diesen mit einem Bildbetrachter ansehen. Der Screenshot ist scharf.
Siehe
http://www.variety.com/article/VR1117983864.html?categoryid=1009:
Because people have been asking the wrong question for years. They have been so focused on resolution, and counting pixels and lines, that they have forgotten about frame rate. Perceived resolution = pixels x replacement rate. A 2K image at 48 frames per second looks as sharp as a 4K image at 24 frames per second ... with one fundamental difference: the 4K/24 image will judder miserably during a panning shot, and the 2K/48 won't. Higher pixel counts only preserve motion artifacts like strobing with greater fidelity. They don't solve them at all.
Und siehe
http://en.wikipedia.org/wiki/Frame_rate:
The actual amount of motion blur needed to make 24 frames per second smooth eliminates every remnant of detail from the frames.
Deswegen, und aufgrund eigener Erfahrungen, verstehe ich nicht, warum sich die 24FPS / 30FPS These so hartnäckig hält. Natürlich kommt es auch darauf an, wie groß die Helligkeitsunterschiede zwischen zwei Frames sind. In kontrastreichen Szenen fallen mit niedrigen FPS Werten wiedergegebene Bewegungen deutlicher auf als in kontrastarmen Szenen, einfach weil die Helligkeitsunterschiede zu hoch sind. Das muß ausgeglichen werden, und das geht nur durch einen Unschärfefilter im Postprocessing, durch welchen Details verloren gehen, oder durch mehr Frames pro Sekunde.
Deshalb sind die meisten Grafikkartenbenchmarks wertlos, erlauben sie doch nur den Vergleich von Karten untereinander, nicht aber, mit welchen Detaileinstellungen ein Spiel betrieben werden muß, um eine bestimmte FPS Grenze nicht zu unterschreiten. Nicht die höchsten erzielten Werte oder Durchschnittswerte sind von Belang, sondern die niedrigsten Werte, die eine Grafikkarte in einer bestimmten Szene liefern kann. Auf
www.hardocp.com haben sie die Problematik erkannt und in ihren Benchmarks darauf reagiert. Sonst noch wo?