TenDance schrieb:
Alter Schwede, könnt ihr sowas nicht per Suchmaschine zu Tage fördern? Wikipedia? Lexika? Schulbildung?
Hmm, könnte bei Dir aber auch nicht schaden. Wer im Glashaus sitzt... sollte nicht mit Steinen werfen.
- Filme haben genau deswegen ~24 Bilder pro Sekunde weil Zelluloid (das Filmmaterial) vor 100 Jahren schweineteuer war und bei dieser Durchlaufgeschwindigkeit das Bild so einigermaßen bewegt erschien. Irgendwelche andere Kriterien gab es nicht
Das ist so nicht ganz korrekt. Natürlich war Kostenbegrenzung ein Kriterium, einige Filme wurden zuvor sogar nur mit 18fps gefilmt, aber Hauptkriterium war natürlich die menschliche Wahrnehmung. Für Fliegen hätte das Kino ganz anders aussehen müssen...
Ähnlich sieht es mit dem Opsin im Auge aus. Stell Dir vor das wäre ein gebogenes Stück irgendwas (Metall oder was-auch-immer) was grad so in Position gehalten wird. Trifft ein Lichtquant darauf, springt das in eine andere Position - das ist dann die Wahrnehmung, denn das Ding ist "gereizt".
Das Rhodopsin wird durch eine chemische Reaktion quasi "gebleicht".
Es zerfällt bei Belichtung in in Opsin und trans-Retinal.
Opsin und ein second messanger erhöhen dann die Membrandurchlässigkeit für Na+ Ionen.
Die Zeit der Ionenwanderung stellt aber hier sicherlich nicht den limitierenden Faktor dar, denn die Regeneration des Rhodopsins dauert schon "ganz schön lange" im Vergleich
[/quote]Das mal so als Ansatzpunkt. Je nach Opsin brauchtest Du ca. 20 - 50 Quanten um eines davon zu flippen, wenn ich mich recht entsinne und die Wahrnehmungsschwelle lag irgendwo bei knapp unter 75Hz. Sprich: bei mehr als 75 FPS bist Du eine Fliege um das noch erkennen zu können.[/quote]
Was zu erkennen? Bildrate oder Bildwiederholrate?
Und warum haben Fernseher 100Hz, fragt ihr? Ganz einfach, weil 50Hz zuwenig war aber das Signal in 50Hz gesendet wird. Was macht man? Richtig, man verdoppelt die Frames - denn sonst müsste man künstliche Frames errechnen was a) scheisse aussieht und b) in den 90ern noch nicht in Deinem Fernseher gesteckt hat.
Manche Röhren-Fernseher haben 100Hz. Dort war es einfach die Verdopplung (in der Regel).
Um die Bildwiederholrate zu erhöhen.
Aber Bildwiederholrate<>Bildrate.
Die Hz-Angaben von LCD und Plasmafernsehern mit denen geworben wird haben damit NICHTS zu tun.
Doch. Geht halt auch um Bildwiederholrate. Notfalls mit zwischenberechneten Bildern.
Aber ich versuche es mal mit Back-On-Topic:
qwasyxedc schrieb:
Das Auge sieht rund 24 Bilder pro Sekunde. Werden am PC mehr als 24 Bilder dargestellt kann das Auge keinen Unterschied erkennen.
Doch.
- sieht das Auge mehr (in den Randbereichen reagieren die Stäbchen sogar auf viel schnellere Helligkeits-Wechsel)
- Es gibt einen Unterschied zwischen Bildwiederholrate und Bildrate. Nimm' ein Daumenkino. Nur weil Du bei 15-20 Bildern/Sekunde schon den Eindruck von Bewegung statt Einzelbildfolge wahrnimmst, heißt dass nicht, das mehr nicht flüssiger aussehen.
- Das menschliche Auge hat keinen Shutter, d.h. Bildinformationen werden kontinuierlich wahrgenommen, so dass z.B. ein horizontal durch's Bild fliegender Ball bei 24 fps nur 24 Positionen pro Sekunde auf der Netzhaut abbildet, in der Realität aber permanent (da nicht alle chemischen Reaktionen zeitgleich stattfinden).
- In Summe sehen wir nicht in Einzelbildern, sondern permanent. Die Quantisierung unserer Wahrnehmung begegnet uns überall. Z.B. beim Hören 44.100 Samples/Sekunde, 16 Bit/Sample) bei CD Audio Stereo), beim Farbsehen (8 Bit pro Farbkanal -> max. 16,7 Millionen Farben). Es muss eine unfassbar große Datenmenge runtergebrochen werden auf das Minimum, welches wir benötigen, um den gleichen oder einen ähnlichen Eindruck zu erhalten.
Bei 24 FPS (Bilder pro Sekunde) lautet die Aussage weiter: Da das Auge und die Hz des Monitors nicht synchron sind kann das Bild ruckeln (bei 24fps).
Ruckeln und Flimmern. Weswegen im traditionellen Kino der Projektor die 24 Hz Bildrate auch mit 48 Hz Bildwiederholrate zeigt. Und wegen dieses Ruckelns wird von guten Kameraleuten der horizontale Schwenk mittlerer Geschwindigkeit möglichst gemieden.
Bei 60 Bilder pro Sekunde kann jedoch kein Unterschied zu 100 Bilder pro Sekunde erkannt werden. So lautet die allgemeine Aussage.
Nicht ganz korrekt, weil ungenau. Wenn ein und dasselbe Bild (oder eine Folge mit nur minimal voneinander abweichenden Bildern -> wenig Bewegung) gezeigt wird, mag das stimmen, aber bei viel Bewegung erkennen wir das Ruckeln (siehe oben).
Da es bei Realaufnahmen mehr oder weniger Bewegungsunschärfen gibt, fällt das nicht ganz so auf (Motion Blur bei Animationen mit 24fps halte ich für zwingend notwendig
), bei Computerspielen hingegen wird Bewegungsunschärfe häufig nicht umgesetzt. Daher fehlen uns Bilder.
Allgemein hier: Von welchen Bildern pro Sekunde wird gesprochen? Von den generierten fps aus dem Spiel, von den dargestellten fps (und da von Bildwiederholrate oder von Bildrate)?
Ich weiß das es einen Haken hat kann es aber nicht logisch erklären. Das einzige was ich garantiert weiß ist das ich sehr wohl bei verschiedenen Spielen einen Unterschied der "Flüßigkeit" erkennen kann, je nachdem ob es 30, 60 oder 100 FPS sind.
Nimm an Du bewegst Dich sehr schnell (z.B. Rotation durch schnelle Mausbewegung) und die Gegner bewegen sich ebenfalls. Vereinfacht gesagt siehst Du bei einem Spiel, welches auf 30 fps kommt dann im Zweifelsfall/worst case Positionsdaten, welche 33ms "alt" sind.
Hinzu kommen Hardware-Lags, Übertragungszeit der optischen Informationen durch unseren Sehapparat, Auswertung des Gehirns (da laggt es bei mir bei Egoshootern wohl am meisten...).
D.h. ganz so einfach zu pauschalisieren ist das nicht.
Besonders bei Ego-Shootern finde ich den Spielfluß mit 100 fps deutlich besser als mit 30. Jeder der dafür ein bisschen Gespür hat wird mir zustimmen. Ich kann es aber nicht erklären und würde deshalb hier die Leute bitten mir zu erklären wieso dem so ist.
Ich hab's versucht