Mehr als 30 fps bringen nichts weil...

qwasyxedc

Ensign
Registriert
Dez. 2009
Beiträge
252
Hallo,
Erstmal hoffe ich, dass dieses Forum das Thema halbwegs trifft. Es geht um diese ewig gestellte Frage: Das Auge sieht rund 24 Bilder pro Sekunde. Werden am PC mehr als 24 Bilder dargestellt kann das Auge keinen Unterschied erkennen. Bei 24 FPS (Bilder pro Sekunde) lautet die Aussage weiter: Da das Auge und die Hz des Monitors nicht synchron sind kann das Bild ruckeln (bei 24fps). Bei 60 Bilder pro Sekunde kann jedoch kein Unterschied zu 100 Bilder pro Sekunde erkannt werden. So lautet die allgemeine Aussage.

Ich weiß das es einen Haken hat kann es aber nicht logisch erklären. Das einzige was ich garantiert weiß ist das ich sehr wohl bei verschiedenen Spielen einen Unterschied der "Flüßigkeit" erkennen kann, je nachdem ob es 30, 60 oder 100 FPS sind. Besonders bei Ego-Shootern finde ich den Spielfluß mit 100 fps deutlich besser als mit 30. Jeder der dafür ein bisschen Gespür hat wird mir zustimmen. Ich kann es aber nicht erklären und würde deshalb hier die Leute bitten mir zu erklären wieso dem so ist.

lg
qwasyxedc
 
Spontan würde ich sagen, dass die Bilder bei einem Spiel nicht im gleichen Abstand produziert werden. Dann kann zwischen zwei Bildern eine so lange Pause entstehen, dass du ein Ruckeln wahrnimmst. Mit zunehmender FPS-Zahl ist die Wahrscheinlichkeit immer geringer, dass ein solcher Abstand auffällt. Es macht also einen Unterschied zwischen 30 und 100 FPS, eben weil ein Spiel kein Film ist, bei welchem die Bilder in exakt gleichem Abstand dargestellt werden.
 
Das hat 2 Gründe der 1. Wäre das das Auge 24 perfekt auf einander folgende Bilder innerhalb einer Sekunde wahrnimmt... Dies zollt aber nur wenn diese einen perfekten gleichen Abstand zum jeweiligen Frame haben, das heisst es klappt nicht wenn der 1. Frame in Sekunde 0.001 geschieht und die anderen 23 in Sekunde 0.977 geschehen, dies sind zwar 24 fps aber alles andere als flüssig.

Letzteres ist es wichtig zu wissen wie das Auge funktioniert, nämlich die belichtungszeit....
Im resolute wird permanent ein konstantes Bild auf unsere Augen geworfen und man sieht dabei alles mit " bewegungsverzerrung" kennst du sicherlich von Spielen als grafischen Effekt...
Dies sorgt dafür das wir keine Brüche in Bewegungen wahrnehmen, aber auf dem Monitor wird uns nur gezeigt das ein Auto mehr und mehr näher an Punkt b. Ist. Dabei sehen wir das Auto erst bei 2 Meter. Dann bei 3 Meter dann bei 4 Meter.... Aber wir sehen nicht was dazwischen geschieht.

Im reallife sehen wir alles, also auch was dazwischen passiert, zwar nehmen wir nicht wirklich alles wahr, aber das übernimmt die bewegungsverzerrung fur uns.

Nebenbei liegt es auchnoch am Monitor, er flimmert nämlich was auch dafür sorgt das es unflussig aussieht, dies spielt aber bei neueren Geräten mittlerweile eine untergeordnete Rolle, sie besteht aber immernoch.

Auch ein wichtiges Thema um das zu verstehen sind mickroruckler, das würde ich mir auchmal genauer angucken.

Ich hoffe ich konnte helfen.
Behaltet eure rechtsxhriebfehler fur euch, ich hab auf dem Handy geschrieben da ist es neunmal so.
 
Bin zwar kein Experte aber habe jahrelang CS 1.6 gespielt. Hier meine Erfahrungen:

Ich habe immer mit exakt 85 FPS gespielt, aus dem einfachen Grunde, weil ich für mich das beste Feeling gefunden hatte mit dieser Bildrate. Mit 60 FPS war es mir zu schwammig und die obligatorischen 100 FPS beeinflussten meine Spray-Control.

Ein weiteres Paradebeispiel für mich ist CoD4, mit 125 FPS ist es ein gänzlich anderes Gefühl als mit 60 FPS oder gar weniger zu spielen.

Der Bildschirm spielt allerdings auch eine sehr große Rolle. Auf 120Hz Geräten spielt es sich wie auf einem Röhrenmonitor, ein himmelweiter Unterschied zum 0815 TFT @ 60 Hz den ich momentan besitze.

Meine Vermutung ist, die jeweiligen Spiele-Engines lassen mehr Operationen pro Sekunde zu, je höher die Bildrate ist. Mit den Augen hat das garnichts zu tun.
 
qwasyxedc schrieb:
Jeder der dafür ein bisschen Gespür hat wird mir zustimmen. Ich kann es aber nicht erklären und würde deshalb hier die Leute bitten mir zu erklären wieso dem so ist.
Weil die Aussage "das Auge kann nur 24 FPS sehen" falsch ist.

Das bezieht sich auf Filme die mit 24 FPS laufen. Allerdings sind die Einzelbilder bei raschen Bewegungen verschwommen (geht, denke ich mal auf die Belichtungszeit zurück und wird am PC per Motionblur imitiert) womit der Film dann trotzdem mehr oder weniger flüssig vorkommt.

Meiner Meinung nach kann das Auge unendlich viele FPS wahrnehmen, allerdings macht es ab einem gewissen Grad einfach keinen Unterschied mehr.
Davon abgesehen hängt es von der Situation ab:
Ein schneller Shooter braucht bei mir >60 FPS, wohingegen Strategiespiele schon bei 20-30 FPS recht ruckelfrei rüberkommen. (wobei das nochmal jeweils vom Spiel und der jeweiligen Person abhängt)
 
Zuletzt bearbeitet:
Diesen Komischen Irrglauben mit den 24fps und das Menschliche Auge ist leider extrem verbreitet, kommt immer wieder vor das es etliche in chats behaupten, aber es ist einfach nur falsch.
Ohne MotionBlur wäre z.b. nen Film mit 24 fps ne perverse ruckel Orgie, wer nen Horizontalen Kamera Schwenk in 24 FPS sieht und sagt es sei flüssig sollte sich echt sorgen machen :D
 
Alter Schwede, könnt ihr sowas nicht per Suchmaschine zu Tage fördern? Wikipedia? Lexika? Schulbildung?

Fakt sind zwei Dinge:

- Filme haben genau deswegen ~24 Bilder pro Sekunde weil Zelluloid (das Filmmaterial) vor 100 Jahren schweineteuer war und bei dieser Durchlaufgeschwindigkeit das Bild so einigermaßen bewegt erschien. Irgendwelche andere Kriterien gab es nicht - es ging dabei nur darum meterweise Filmrolle zu sparen. Und selbst ein verkorkster Standard hält sich... siehe Internet.

- Augen können auch nicht "unendlich" viele Frames wahrnehmen. Zum einen haben Nerven eine gewisse Obergrenze welche Frequenz sie weiterleiten können. Wenn die Ionen alle die Seiten gewechselt haben und nicht ausreichend schnell zurückgepumpt werden um das passende Potential bereitzustellen, ists Essig. Ähnlich sieht es mit dem Opsin im Auge aus. Stell Dir vor das wäre ein gebogenes Stück irgendwas (Metall oder was-auch-immer) was grad so in Position gehalten wird. Trifft ein Lichtquant darauf, springt das in eine andere Position - das ist dann die Wahrnehmung, denn das Ding ist "gereizt". Jetzt hast Du nicht beliebig viele von den Dingern im Auge und der Mechanismus der da wieder den Bereitschaftszustand herstellt kann leider auch keine Wunder vollbringen.

Das mal so als Ansatzpunkt. Je nach Opsin brauchtest Du ca. 20 - 50 Quanten um eines davon zu flippen, wenn ich mich recht entsinne und die Wahrnehmungsschwelle lag irgendwo bei knapp unter 75Hz. Sprich: bei mehr als 75 FPS bist Du eine Fliege um das noch erkennen zu können.

Zu guter Letzt: auch das Gehirn hat eine gewisse Kapazitätsgrenze. Sicher mag der eine oder andere seiner Selbstauffassung nach keinerlei Beschränkung unterliegen, aber man kann ein Gehirn nunmal nicht nach Belieben mit Reizen fluten und erwarten dass die Verarbeitung hinterherkommt.

P.S.: Und warum haben Fernseher 100Hz, fragt ihr? Ganz einfach, weil 50Hz zuwenig war aber das Signal in 50Hz gesendet wird. Was macht man? Richtig, man verdoppelt die Frames - denn sonst müsste man künstliche Frames errechnen was a) scheisse aussieht und b) in den 90ern noch nicht in Deinem Fernseher gesteckt hat.

P.P.S.: Die Hz-Angaben von LCD und Plasmafernsehern mit denen geworben wird haben damit NICHTS zu tun. Technisch völlig andere Prinzipien werden da für Marketingzwecke vergewaltigt.
 
Naja es wurde jezt öfters gesagt das man mehr als 24 frames wahrnimmt, richtig wie falsch. :D
Mit 24 frames it gemeint das du bei 24 genaue. Bildern erkennen würdest wenn einer der frames Schwarz wäre o.Ä.,...
Bei 30 würdest du den einen schwarzen nicht wahrnehmen aber auch bewegungsverzerrung währe es trotzdem flüssig.
Falsch ist nur das unser Auge 24 fps angeblich flüssig empfindet. 24 bezieht sich lediglich auf das oben genannte.
 
24 FPS ruckelt , man sieht lediglich keine standbilder.
Ab 120 wird es schwer zu sagen ob es noch flüssiger wird.

Schmeiß Counterstrike an und limitier die FPS, dann zock es mit 200 FPS.
Wirst schon sehen
 
Bei mir ruckelt es noch, wenn es 30 FPS sind. Ich fühle mich erst mit 40 FPS wohl. Das merk ich sehr stark, wenn ich Battlefield3 mit Ultra spiele und nur 30 FPS habe. Dasselbe gilt für Crysis2. Wenn ich mehr als 40 habe, kommt es mir erst richtig flüssig vor und dann fühle ich mich auch erst richtig wohl.

Was noch ein extremer Unterschied ist, wenn ich MW2 spiele, bei dem ich meist 120FPS habe. Als ich meine Graka hatte, da hab ich erst gedacht: "WTF? Wieso fühlt sich das so verdammt schwammig an?" Das war sonst alles wie sonst auch. Aber die Bildrate hat es extrem beeinflusst. Ich hatte sonst 30-35 um den dreh.

Bei mir ist das Moto: Weniger als 40FPS kommt mir nicht auf den Schirm. Da sind mir die 5 FPS lieber, als etwas schickere Schatten :D
 
Zuletzt bearbeitet von einem Moderator:
dann hab ich wohl Alien Augen,denn ich sehe deutliche Unterschiede zw. 30,60,100 fps.
 
24 ideal aufeinander abgestimmte Bilder/Sekunde sind das absolute Minimum um den Eindruck fließender Bewegung darzustellen.
Da darf aber nichts quer über den Bildschirm flitzen, bzw. sich schnell bewegen.
Die Engines liefern aber alles andere als ideale Bildabfolgen, daher können die FPS gar nicht hoch genug sein.
Nicht umsonst muß man bei großen Bildschirmen Bilder dazwischenrechnen, damit ein Fußball nicht in 20cm Hüpfern über den Schirm hoppst.
Samsung hat jetzt schon 1000Hz im Angebot. :)

An sich können unsere Augen an die 65 FPS wahrnehmen, wenn die Signale keine Nachleuchtzeit haben, Stroboskop z.B.
Eine Stubenfliege sieht mit 250FPS.
 
Zuletzt bearbeitet:
Die 1000HZ sind aber interpoliert,...
Zwar werden 1000 HZ abgegeben, aber damit niemand was falsches denkt eräutere ich das mal:
die 24 oder 60 Frames die an den Fernseher gesendet werden, werden eingescannt und es werden dann nochmal Bilder erstellt, die dazwischen gewesen sein könnten...
Also der Prozessor des Fernsehers versucht zu erraten was zwischen den Bildern passiert ist, quasi eine Digitale Bewegungsverzerrung,... klappt zwar ganz "ok", aber dies ist momentan wirkich nur mist, zumal der Fernseher es nicht schafft 1000 vorgegebene frames abzuspielen...
 
@Mumbira
Eh klar, der Fernseher sucht sich aus den 1000 die passensten aus und schiebt sie zwischen den Keyframes ein.
Der Fernseher berechnet dabei auch nur das am Bild neu, das sich deutlich verändert hat, z.B den fliegenden Ball der sich viel schneller verändert als das restliche Bild.

Die tatsächliche Anzeige arbeitet mit 100hz/120hz, was auch viel besser ist als 60hz beim PC, weil dadurch auch langsame MV-Panels nicht störend nachleuchten können, weil es schneller neu angesteuert wird, als die Nachleuchtzeit wäre.
Völlig im A... ist so natürlich der Input-Lag.
 
Zuletzt bearbeitet:
Ja, trozdem ist es nunmal interpoliert und daher auch Schwachsinn.^^
Statt einfach mal dafür zu sorgen, dass alle Pixel einzeln angesteuert werden, wie bei AMOLED, aber bitte nicht AMOLED, weil es die Farben verfälscht, versuchen die einfach mehr HZ reinzubringen, zum kotzen!
 
Sie bringen nicht mehr Hz rein, sondern glätten die Übergänge und unterdrücken Schlieren.
Da hälfe auch keine einzelne Ansteuerung der Pixel, nur Bildmaterial mit möglichst hohen FPS aufgenommen.
Gehen tut das, nur die Datenmenge steigt enorm.
 
Zuletzt bearbeitet:
Mit interpoliert meine ich falsche 1000 Hz.
Diese eingeschobenen gehen manchmal aber auch richtig in die Hose, wenn du dir das mal angeguckt hast.^^
Einzelne Pixel hätten zur Folge das kein stroposkop Effekt entsteht, aber ok ist jezt langsamm zu offtopic.
 
@Mumbira
Ja, stimmt alles was du sagst.
Offtopic kanns gar nicht werden, weil das Thema schon 3000x durchgekaut wurde.
:)
 
Stimmt auch wieder, naja bin mal mein bett durchkauen.^^
 
TenDance schrieb:
Alter Schwede, könnt ihr sowas nicht per Suchmaschine zu Tage fördern? Wikipedia? Lexika? Schulbildung?
Hmm, könnte bei Dir aber auch nicht schaden. Wer im Glashaus sitzt... sollte nicht mit Steinen werfen.

- Filme haben genau deswegen ~24 Bilder pro Sekunde weil Zelluloid (das Filmmaterial) vor 100 Jahren schweineteuer war und bei dieser Durchlaufgeschwindigkeit das Bild so einigermaßen bewegt erschien. Irgendwelche andere Kriterien gab es nicht
Das ist so nicht ganz korrekt. Natürlich war Kostenbegrenzung ein Kriterium, einige Filme wurden zuvor sogar nur mit 18fps gefilmt, aber Hauptkriterium war natürlich die menschliche Wahrnehmung. Für Fliegen hätte das Kino ganz anders aussehen müssen...

Ähnlich sieht es mit dem Opsin im Auge aus. Stell Dir vor das wäre ein gebogenes Stück irgendwas (Metall oder was-auch-immer) was grad so in Position gehalten wird. Trifft ein Lichtquant darauf, springt das in eine andere Position - das ist dann die Wahrnehmung, denn das Ding ist "gereizt".
Das Rhodopsin wird durch eine chemische Reaktion quasi "gebleicht".
Es zerfällt bei Belichtung in in Opsin und trans-Retinal.
Opsin und ein second messanger erhöhen dann die Membrandurchlässigkeit für Na+ Ionen.
Die Zeit der Ionenwanderung stellt aber hier sicherlich nicht den limitierenden Faktor dar, denn die Regeneration des Rhodopsins dauert schon "ganz schön lange" im Vergleich ;)

[/quote]Das mal so als Ansatzpunkt. Je nach Opsin brauchtest Du ca. 20 - 50 Quanten um eines davon zu flippen, wenn ich mich recht entsinne und die Wahrnehmungsschwelle lag irgendwo bei knapp unter 75Hz. Sprich: bei mehr als 75 FPS bist Du eine Fliege um das noch erkennen zu können.[/quote]
Was zu erkennen? Bildrate oder Bildwiederholrate?

Und warum haben Fernseher 100Hz, fragt ihr? Ganz einfach, weil 50Hz zuwenig war aber das Signal in 50Hz gesendet wird. Was macht man? Richtig, man verdoppelt die Frames - denn sonst müsste man künstliche Frames errechnen was a) scheisse aussieht und b) in den 90ern noch nicht in Deinem Fernseher gesteckt hat.
Manche Röhren-Fernseher haben 100Hz. Dort war es einfach die Verdopplung (in der Regel).
Um die Bildwiederholrate zu erhöhen.
Aber Bildwiederholrate<>Bildrate.

Die Hz-Angaben von LCD und Plasmafernsehern mit denen geworben wird haben damit NICHTS zu tun.
Doch. Geht halt auch um Bildwiederholrate. Notfalls mit zwischenberechneten Bildern.

Aber ich versuche es mal mit Back-On-Topic:
qwasyxedc schrieb:
Das Auge sieht rund 24 Bilder pro Sekunde. Werden am PC mehr als 24 Bilder dargestellt kann das Auge keinen Unterschied erkennen.
Doch.
  • sieht das Auge mehr (in den Randbereichen reagieren die Stäbchen sogar auf viel schnellere Helligkeits-Wechsel)
  • Es gibt einen Unterschied zwischen Bildwiederholrate und Bildrate. Nimm' ein Daumenkino. Nur weil Du bei 15-20 Bildern/Sekunde schon den Eindruck von Bewegung statt Einzelbildfolge wahrnimmst, heißt dass nicht, das mehr nicht flüssiger aussehen.
  • Das menschliche Auge hat keinen Shutter, d.h. Bildinformationen werden kontinuierlich wahrgenommen, so dass z.B. ein horizontal durch's Bild fliegender Ball bei 24 fps nur 24 Positionen pro Sekunde auf der Netzhaut abbildet, in der Realität aber permanent (da nicht alle chemischen Reaktionen zeitgleich stattfinden).
  • In Summe sehen wir nicht in Einzelbildern, sondern permanent. Die Quantisierung unserer Wahrnehmung begegnet uns überall. Z.B. beim Hören 44.100 Samples/Sekunde, 16 Bit/Sample) bei CD Audio Stereo), beim Farbsehen (8 Bit pro Farbkanal -> max. 16,7 Millionen Farben). Es muss eine unfassbar große Datenmenge runtergebrochen werden auf das Minimum, welches wir benötigen, um den gleichen oder einen ähnlichen Eindruck zu erhalten.

Bei 24 FPS (Bilder pro Sekunde) lautet die Aussage weiter: Da das Auge und die Hz des Monitors nicht synchron sind kann das Bild ruckeln (bei 24fps).
Ruckeln und Flimmern. Weswegen im traditionellen Kino der Projektor die 24 Hz Bildrate auch mit 48 Hz Bildwiederholrate zeigt. Und wegen dieses Ruckelns wird von guten Kameraleuten der horizontale Schwenk mittlerer Geschwindigkeit möglichst gemieden.

Bei 60 Bilder pro Sekunde kann jedoch kein Unterschied zu 100 Bilder pro Sekunde erkannt werden. So lautet die allgemeine Aussage.
Nicht ganz korrekt, weil ungenau. Wenn ein und dasselbe Bild (oder eine Folge mit nur minimal voneinander abweichenden Bildern -> wenig Bewegung) gezeigt wird, mag das stimmen, aber bei viel Bewegung erkennen wir das Ruckeln (siehe oben).
Da es bei Realaufnahmen mehr oder weniger Bewegungsunschärfen gibt, fällt das nicht ganz so auf (Motion Blur bei Animationen mit 24fps halte ich für zwingend notwendig :)), bei Computerspielen hingegen wird Bewegungsunschärfe häufig nicht umgesetzt. Daher fehlen uns Bilder.
Allgemein hier: Von welchen Bildern pro Sekunde wird gesprochen? Von den generierten fps aus dem Spiel, von den dargestellten fps (und da von Bildwiederholrate oder von Bildrate)?

Ich weiß das es einen Haken hat kann es aber nicht logisch erklären. Das einzige was ich garantiert weiß ist das ich sehr wohl bei verschiedenen Spielen einen Unterschied der "Flüßigkeit" erkennen kann, je nachdem ob es 30, 60 oder 100 FPS sind.
Nimm an Du bewegst Dich sehr schnell (z.B. Rotation durch schnelle Mausbewegung) und die Gegner bewegen sich ebenfalls. Vereinfacht gesagt siehst Du bei einem Spiel, welches auf 30 fps kommt dann im Zweifelsfall/worst case Positionsdaten, welche 33ms "alt" sind.
Hinzu kommen Hardware-Lags, Übertragungszeit der optischen Informationen durch unseren Sehapparat, Auswertung des Gehirns (da laggt es bei mir bei Egoshootern wohl am meisten...).
D.h. ganz so einfach zu pauschalisieren ist das nicht.

Besonders bei Ego-Shootern finde ich den Spielfluß mit 100 fps deutlich besser als mit 30. Jeder der dafür ein bisschen Gespür hat wird mir zustimmen. Ich kann es aber nicht erklären und würde deshalb hier die Leute bitten mir zu erklären wieso dem so ist.
Ich hab's versucht ;)
 
Zuletzt bearbeitet:
Zurück
Oben