• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Ubisoft nennt 30 FPS „filmischer“

eyefinity87 schrieb:
Ehm. Die riesen Hertz Angaben vom Fernseher dienen nur dem noch flüssigeren, flimmerfreien Darstellen.

Flimmerfrei? Spielst du auf Röhre? AFAIK könnte ein LCD oder Plasma mit 1 Hz laufen und würde trotzdem nicht flimmern, das flimmern kommt vom zeilwenweisen Bildaufbau. Ruckeln würde das natürlich ;)

Zum Thema: 30FPS dürfte tatsächlich für viele Genres reichen, bei Action Adventures sehe ich das aber eher genauso kritisch wie bei Shootern....
 
CD schrieb:
Das letzte mal als ich mit einer fps-gekoppelten Engine konfrontiert war hieß das Spiel GTA (und zwar GTA 1, liebe Jugend) und das Jahr war 1997. Seither sind 17 Jahre vergangen und die Industrie serviert uns wieder (oder immernoch?) solche - ich nenne es mal "interessante" - Kreationen.

Dann hast du aber anscheinend danach extrem wenig gezockt. Alle idtech Engines z.B. binden ihr Verstaendnis von Zeit an die Anzahl von FPS. Deren Abkoemmlinge uebrigens auch. Bestes Beispiel duerfte immernoch q3dm13 sein, wo man ein paar Jahre nach dem offiziellen Release festgestellt hat, dass man auf nen Plateau springen konnte, wenn man stabil mehr als 90fps hatte. Die Interpolation zur Bestimmung der Sprunghoehe war einfach ausgedrueckt genauer und der server hat es akzeptiert.

Das liegt einfach daran, dass man einen konstanten Zeitgeber unabhaengig von "tiefen" OS-Methoden benoetigt. Da man sowieso schon die groben Werte von GPU-Leistung hat, kann man es eben auch daran festmachen. Das faellt uns heute nur nicht so sehr auf, weil das Wachstum an Leistung eben nicht so krass war, wie z.B. am Ende der 90er. Sofern das Wachstum noch einmal so passieren sollte, wird auch jeder das mit aktuellen Titeln erleben, sofern sie nicht FPS-limitiert sind.

Zum Thema insgesamt:
Ich stimme da noxon zu. Man kann nunmal nicht alles haben und keine Konsolengeneration (afaik) hat bisher im ersten Jahr richtige Spruenge in Sachen Optimierung gemacht. Ja, wir wissen alle, PC master race, bla bla. Aber die definiert einfach nicht mehr den Markt. Die Zeiten sind vorbei, wo man sich ne Geforce kaufen musste, um q3 vernuenftig zu zocken. Ich wage zu behaupten, dass dieses Phaenomen erst wieder eintritt, wenn 4K oder VR massentauglich wird (und wir sind nichtmal bei 1080p als Durchschnitt).
Momentan ist es eher so wie bei CoD:Ghosts: Laeuft gut auf Konsolen, der PC-Port ruckelt sich bloed, selbst auf moderner Hardware (mag gefixxt sein, mittlerweile). WTF? ABER ICH HAB DOCH TAUSENDE VON EUROS IN MEINEN MASTERRACE PC GESTECKT?!!! Persoenliches Pech. Selbst schuld, wer aus privaten Ueberzeugungen den Markt ignoriert und vorsaetzlich auf das falsche Pferd setzt. Zu offensiv? Nehmen wir ein Beispiel, wo nicht die PC-Fassung ein Konsolenport ist:
Diablo 3. Definitiv nicht firsthand Konsole. Ruckelt trotzdem auf jedem aktuellen PC in Akt 3. Kommt einfach daher, dass dort schlampig gearbeitet wurde. Das sollte spaetestens der Moment sein, wo einem auffaellt, dass PC-Fassungen anfaelliger fuer framedrops sind und eben genau das ist, was ein fluessiges Erlebnis torpediert.
Ich persoenlich hab mich damit abgefunden und entscheide genrespezifisch. Nicht die Enthusiast-Hardware kaufen, zur Not lieber mit konstanten 30 fps auf der one zocken. Titel werden fuer PC nur noch gekauft, wenn das Genre es erzwingt.
 
Aber..aber...aber Kinofilme sind doch immer mit 24fps. Warum 30??
Also das muss Ubisoft jetzt schön näher erläutern? ^^
 
Prollpower schrieb:
Aber denke ein alter CRT sollte den Unterschied aufzeigen... viele wissen gar nicht wie viel entspannter das Arbeiten bei 75 oder 85 Hz war als bei 60... Das sollte der Theorie entgegenwirken es gäbe kein merkbarer Unterschied zwischen 60/120Hz.
Nur weil ein LCD anders arbeitet als ein CRT, denke ich nicht, das es ein unterschied ausmacht, ob das Auge/Hirn den Unterschied ausmacht.

Oh doch, das macht einen riesigen Unterschied. CRT ist low persistance wie der Schirm, den sie ins Oculus Rift bauen werden. Niedrige Hz bei einem CRT Schirm = Flackern, das sehr unangenehm sein kann. Niedrige Hz/fps bei einem LCD = Geschmiere und Geruckel überall.

Da der CRT eben das Bild nur sehr sehr kurz anzeigt, schlägt ein 75Hz CRT dann auch jeden normalen 120Hz LCD. Sobald der CRT kein Flackern mehr hat, ist er nahezu perfekt. Motion Blur gibt es einfach nicht, stattdessen flackert es eben.
 
Dann hast du aber anscheinend danach extrem wenig gezockt. Alle idtech Engines z.B. binden ihr Verstaendnis von Zeit an die Anzahl von FPS. Deren Abkoemmlinge uebrigens auch. Bestes Beispiel duerfte immernoch q3dm13 sein, wo man ein paar Jahre nach dem offiziellen Release festgestellt hat, dass man auf nen Plateau springen konnte, wenn man stabil mehr als 90fps hatte. Die Interpolation zur Bestimmung der Sprunghoehe war einfach ausgedrueckt genauer und der server hat es akzeptiert.

Das ist aber was anderes.

Dein Quake 3 wird nicht plötzlich doppelte Gamespeed nur weil du es in doppelter fps spielst.

Ergo : Nein Quake 3 ist die Gamespeed unabhängig von der fps.
 
thes33k schrieb:
(und wir sind nichtmal bei 1080p als Durchschnitt)

In welchem Jahrtausend lebst Du? 1080p ist in Sachen TV wie auch IT das Maß der Dinge. 4k/UHD ist nicht ohne Grund ein vielfaches von Full-HD, sondern weil 1080p eben der am Markt zu 99% vertretene Standard ist und 4k-Material damit ohne Aufwand abwärtskompatibel ist.
Es ist sogar schon soweit gekommen, dass die Displayhersteller es bedauern den Markt dermaßen auf 1080p festgefahren zu haben, weil sie damit die Progression der Pixeldichte oder auch Auflösungen behindert und sich somit, bis es 4k gab, einem kompletten Markt an aufrüstwilligen Kunden verschlossen haben.

Blablabla, 30 FPS ist filmischer... am Arsch! Erstens sind Filme in 24p gedreht, also 23,96 FPS. Und das auch nicht weil das so supertoll ist, sondern weil das die langsamste vertretbare Geschwindigkeit war um einen Film zu drehen - schneller wollte man in den 20er Jahren nicht weil das Filmmaterial so sündhaft teuer war.
Selbst die Filmindustrie hat eingesehen was uns Kunden seit Jahren nervt: bei schnellen Bewegungen oder Kameraschwenks zerbröselt das Bild. Klar ist 24p "filmischer", weil wir uns daran gewöhnt haben assoziieren wir den Film damit. Aber das ist nichts positives. Wer Flugangst hat assoziiert auch Angstgefühle mit dem Flugzeug, das ist jetzt aber kein Grund dass sich die Bahn bemüht diese Angstgefühle auch in ihren Hochgeschwindigkeitszügen hervorzurufen damit die Leute sich wie im Flugzeug fühlen.

Ach ja: weil Bildwiedergabegeräte kein "30p" kennen, wird das einfach hochgerechnet auf 60Hz. 60Hz ist eine brauchbare Bildwiederholrate, nicht 30Hz. 30Hz ist nur das Sparprogramm weil man 60Hz nicht hinbekommen hat und 30Hz dann ein schöner gemeinsamer Nenner zum hochrechnen ist...
 
thes33k schrieb:
[...]Das sollte spaetestens der Moment sein, wo einem auffaellt, dass PC-Fassungen anfaelliger fuer framedrops sind und eben genau das ist, was ein fluessiges Erlebnis torpediert.
Ich persoenlich hab mich damit abgefunden und entscheide genrespezifisch. Nicht die Enthusiast-Hardware kaufen, zur Not lieber mit konstanten 30 fps auf der one zocken. Titel werden fuer PC nur noch gekauft, wenn das Genre es erzwingt.
Es ist zwar leider nicht mehr so wie früher, aber zumindest für mich haben PC Spiele nach wie vor noch genug Vorteile:
  • Mods
  • Fan Patches
  • Anpassung der Grafikqualität, wie AA, Downsampling, usw.
  • 3D und Multi-Monitor Setups
  • größere Auswahl an Eingabegeräten
  • VR

Besonders die ersten zwei Punkte sind mir am wichtigsten. Ich kann alte Klassiker nochmal mit aufgebohrter Grafik und neuen Leveln spielen. Auf Konsolen gibt es das nur bei ehemals populären Spielen und man muss dafür blechen.
 
manche vertragen zu flüssige spiele ab 60fps nicht. dazu gehöre ich auch, gemerkt habe ich das bei last of us für ps4. das spiel liefert zu viele bilder pro sekunde, ich empfand das als unangenehm und zu sauber

bei assassins creed sind 30fps wirklich besser, bei den konsolen zumindest, da man das spiel mit dem controller steuert und 30fps für diese steuerungsart deutlich besser geeignet sind

last of us hat sich wie geölt gespielt, zu clean für eine raue atmo. wie eine ungesalzene suppe. ein leichtes angenehmes ruckeln gibt so einem spiel die gewisse würze.

sowas verstehen einige menschen aber nicht, dieser thread beweist es


geiler voodoo :lol:
ich kenne kein einziges konsolenspiel das mit 30 fps flüssig läuft.

Blablabla, 30 FPS ist filmischer... am Arsch! Erstens sind Filme in 24p gedreht, also 23,96 FPS. Und das auch nicht weil das so supertoll ist, sondern weil das die langsamste vertretbare Geschwindigkeit war um einen Film zu drehen


neue filme werden mit bis zu 60 fps in 4k gedreht.
die neuesten filmkameras um die 20.000€ aufwärts schaffen sogar mehr >> 6k 60 fps.

es limitiert da nur der blue ray speicherplatz - dvd sowieso.
rechne mal aus ... 50 mbit komprimierung bei 6k und 60 fps ..


hier mal der vergleich mit einer "billigen" go-pro

https://www.youtube.com/watch?v=-nU2_ERC_oE
 
Zuletzt bearbeitet:
psYcho-edgE schrieb:
Warum es exakt 60 sind weiß keine Sau, vielleicht technische Gründe, vielleicht ökonomische Gründe. Hat sich halt so ergeben.

Synchronisation zum Stromnetz (USA). Bei uns waren im TV 50hz das Maß der Dinge.
 
Weil die es nicht schaffen auf 60 frames zu bringen sagen sie 30 fps ist filmischer.
Ja klar nach der logic klingen 4bit soundkarten besser als 32bit soundkarten.
Wozu brauchen wir dann 140mhz Monitore was haben sich da die hersteller gedacht?
Wir gucken ja anscheinend nur filme

Reine PR. Das ist kein 24p blueray film sondern ein spiel. Soweit ich denke oder ist es doch kein spiel sondern ein Film?

Wenn 30 fps filmiger wäre wurden die leute nicht gleich rausrennen und umsummen an geld in neue grafikkarten stecken.

Zu guter letzt es gibt spiele die keine 60fps brauchen wie 2d Spiele. GTAV ruckelt ohne einen 400 Hertz Motion filtering Fernseher sehr deutlich stark. Die next gen konsolen haben zu wenig rechenleistung für 60fps.

Reinste PR und schön redung eines Produktes.
 
Bahh 30 fps. Das hatte ich das letzte mal bei jade empire. Einem Spiel mit schnellen kämpfe. Konnte man zwar umgehen, dann gab es Probleme mit den Animationen. Und so schwach sollte die Konsole eigentlich nicht sein.

Ich hab einen phenon 2 mit einer 7950. Der reicht auch für 60 fps und full-hd. Und das bekommen Konsolen nicht hin? Deren Leistung ist ähnlich hoch und wie Mantel bewiesen hat kann man durch Optimierungen die cpu stark entlasten.
 
Zuletzt bearbeitet:
also ich persönlich bin mit 30fps zufrieden :D

ubisoft mag ich aber trotzdem nicht.
 
60 fps sind (meiner Meinung nach) generell vorzuziehen. Egal um was für ein Spiel es sich handelt. Punkt.

Es mag eventuell gewisse Ausnahmen geben, hauptsächlich bestimmte Genres, in denen es keine große Rolle spielt, ob nun 30 oder 60 oder wieviel fps auch immer. Und in einem Videospiel brauche ich keine filmische Framerate, die soll dort bleiben, wo sie hingehört, in Filmen.
 
PaladinX schrieb:
Ach, und uns Konsumenten traut man nicht zu, zu entscheiden, ob uns 30 oder 60 fps besser gefallen? Bwahaha!

Naja. Wenn ich hier einige Dinge lese, dass man den Unterschied von 120Hz zu 144 erkennt...

Dennoch stimme ich den Vorrednern zu: Ubi hat versagt und es kommt eine lächerliche Erklärung.
Und solche Leute bekommen ne Menge Moos.

Bitte Leute, nicht kaufen!
 
Zitat Postman
"Jeder neue HD Fernseher unterstützt mittlerweile 100 Hertz aufwärts.
Dadurch sollen die Kamerafahrten zwar flüssiger wirken, für mich als Cineast wirkt aber dadurch jeder Film wie eine billigere Fernsehproduktion. Das erste was ich also bei einem neuen HD Fernseher mache, ist die Herzerhöhung inaktiv zu setzen.Jeder neue HD Fernseher unterstützt mittlerweile 100 Hertz aufwärts.
Dadurch sollen die Kamerafahrten zwar flüssiger wirken, für mich als Cineast wirkt aber dadurch jeder Film wie eine billigere Fernsehproduktion. Das erste was ich also bei einem neuen HD Fernseher mache, ist die Herzerhöhung inaktiv zu setzen."

Du sprichst mir aus der Seele, genau so mache ich es auch immer.
 
jeder neue hd fernseher unterstützt mittlerweile 100 hertz aufwärts.

nicht nativ sondern interpoliert.

es gibt ganz wenige fernseher mit echten 100 hz ab 1500€ aufwärts; alle anderen haben 50 hz und restliche "werbeangaben" sind voodoo.

bei LG zum beispiel geht es erst ab der 7 serie bei bestimmten modellen mit echten 100 hz panelen los.
und der 4K aus der 9 serie hat echte 200 hz um schlappe 15.000€.

interpolieren kann jeder fernseher softwareseitig; hat mit der hardware überhaupt nichts zu tun.
 
Zuletzt bearbeitet:
DaysShadow schrieb:
Edit @Postman: Beim TV kann ich es tatsächlich auch nicht leiden, da wirkt das 100 Hz Bild total seltsam. Das liegt aber daran, dass das Material auch gar nicht für diese Wiedergaberate gedacht ist, oder?

Kommt drauf an, bei Sendern wie Nat Geo HD habe ich bei 1080i Flackerei und Ruckeln trotz "Superduper" 1200Hz.
Bei Material in 24p jedoch nicht.
Abhilfe schafft da nur der mitlerweile tote Plasma, große OLEDs konnte ich noch nicht ausgiebig testen:D

@ topic: Bei mitlerweile weit verbreiteten FHD Displays in >55" hätte ich lieber in 1080p investiert und ein paar Effekte herunterjustiert.
Aber das wissen die Experten von Ubi sicherlich besser:evillol:

Da die PS4 aber ~30% GPU Performance mehr hat sollte die doch dann dicke die 1080p schaffen oder läuft umgekehrt die Xbone Version in 766 oder gar 720p?
 
Zuletzt bearbeitet:
De-M-oN schrieb:
Das ist aber was anderes.

Dein Quake 3 wird nicht plötzlich doppelte Gamespeed nur weil du es in doppelter fps spielst.

Ergo : Nein Quake 3 ist die Gamespeed unabhängig von der fps.

Du hast natuerlich recht, dass nur 2x FPS nicht automatisch 2x Gamespeed bedeutet. Da hat EA geschlampt, da sie alle Berechnungen daran festgemacht haben. Aber nur um dir zu zeigen, dass idsoftware sehr wohl engines an hardcoded values und deren Berechnung bindet:

https://github.com/raspberrypi/quake3/blob/master/code/server/sv_main.c#L809

frameMsec wird anhand von sv_fps und timescale definiert (paar Zeilen drunter wird definiert, dass es niemals unter 1ms darf, weshalb sv_fps ueber 1000 nichts bringt).
In Zeile 860 geht dann der interessante Part los: Dort macht id nen syscall, um die aktuelle Startzeit zu definieren. Das wird spaeter (Z882) verwendet, um time_game zu bestimmen, was eine var ist aus qcommon. Das ist quasi das Gemeinwohl zwischen server und client code. Man muss jedoch beachten: In Zeilen 872-879 passiert das eigentliche handling, von dem was in einem frame passiert und nichts davon ist an syscalls gebunden. Genau dort liegt die Krux. Wenn du sv_fps auf 10000 erhoehst (und der default ist nur ein Vorschlag von id), die Sperre von frameMsec < 1 entfernst und dann testest, wirst du Hoelle auf Erden erleben (sofern das dann ueberhaupt noch laeuft). Es ist aufgrund von performance eben nicht auf echte Zeitgeber gebunden. Diese kleinen Kniffe (auch zuhauf in qcommon zu finden) sorgen dafuer, dass selbst bei steigender Rechenleistung Resultate gleich bleiben.
Um id zu zitieren:
Code:
                // The existing Sys_Sleep implementations aren't really
		// precise enough to be of use beyond 100fps
		// FIXME: implement a more precise sleep (RDTSC or something)
Summa summarum: Da der client code und auch renderer ebenfalls auf syscalls moeglichst verzichten, sorgen nur hardcoded Limitierungen dafuer, dass man im allgemeinen nichts merkt. Jeder Punkt, wie z.B. die Rundung von Z-Koordinate, der uebersehen wurde zu limitieren, wird mit zunehmender Leistung schlimmer. Waehrend der ersten q3tests haben sogar dirty-hacks fuer timescale gefehlt, sodass einzelne clients ihr eigenes Mass an vergangener Zeit dem server definieren konnten.

TenDance schrieb:
In welchem Jahrtausend lebst Du? 1080p ist in Sachen TV wie auch IT das Maß der Dinge.
http://store.steampowered.com/hwsurvey
In dem Jahrtausend. Zwar ist 1080p mit 33,31% die groesste Menge, aber gibt noch genug darunter. Selbst wenn man 1080p+ zusammenrechnet, macht das noch keine absolute Mehrheit aus. Bei TVs ist das schwieriger, da man dort nicht so einfach an Zahlen kommt (afaik). Ich wage aber zu behaupten, dass Sony, MS und Nintendo ziemlich gut wissen, was ihre Durchschnittsaufloesung ist.
 
Klar kann man die FPS reduzieren aber auf Kosten der Grafik ist nichts neues, nur wie wollen sie die Kunden erklären das die Konsolen keine 2k 4k kann denn, in den USA hat jeder Fernseher schon 4k das war schon immer so das die USA Vorreiter sind.

Das gleiche kann man bei den Monitoren beobachten 2k 4K wird bald Standard sein wenn man eine neue Konsole entwickelt dann sollte man schon voraus denken. Das Problem ist Sony & MS wollten sparen deswegen wurde bei der Grafikkarte gespart die XBOX One hat zu wenig Grafikspeicher die Sony hat bissel mehr deswegen kann die PS4 auf 1080p gehen mehr Luft hat die aber auch nicht so das bei Multiplayer auch keine 1080p möglich sind wegen der FPS wäre eine Dia Show.

Also kann man die Konsolen als größten Flop der Geschichte ansehen zum Vergleich Die alte PS3 mit IBM Cell Processor ist so stark das die Air Force im Cluster Satelliten Bilder auswertet.

33193.jpg


Mehr infos zum Cluster
http://moss.csc.ncsu.edu/~mueller/cluster/ps3/
 
Zurück
Oben