.Snoopy. schrieb:
Die nur 10 FPS sind immerhin 33% mehr an FPS, und 33% ist eine ganze Menge. Die sind dann auch zu spüren.
40 FPS hat eine Frametime von 25 ms und liegt exakt in der Mitte zwischen 16,66 ms (60 FPS) und 33,33 ms (30 FPS).
Somit liegen 40 FPS genau auf halbem Wege zwischen 30 und 60 FPS, was die wahrgenommene "smoothness" betrifft.
Kurz gesagt sind 40 FPS also 50% smoother als 30 FPS.
Das ist schon signifikant.
Ich persönlich würde 40 FPS auf Konsole auch begrüßen. Zumindest wenn VRR wie eben bei der PS5 in diesem FPS Bereich nicht möglich ist (sonst würde ich VRR bevorzugen).
Allgemein kann man sich an 40 oder 30 FPS auch relativ schnell gewönen, auch wenn ich am PC meist mit 80-100 FPS spiele. Vor allem helfen auf der Konsole Motion Blur und die meist gegenüber PC deutlich optimierte Eingabelatenz (jap, die Latenzen sind bei einem 30 FPS Limit am PC meist höher als auf Konsole, deswegen sind 30 FPS am PC auch meist besonders schlecht).
incurable schrieb:
Schade, dass Sony so am Silizium gespart hat, dass die Ära der 60fps Spiele auf ihrer 8K (!) / 120fps Konsole schon mit dem Ende der Spielentwicklung für die Vorgänger in der Breite ein Ende finden wird.
Microsoft hat da mehr investiert, leider auch nicht genug, um nennenswert besser dazustehen.
In dem Jahr bevor die PS5 und die Series X released wurde, kamen viele Gerüchte auf, welche Hardware verbaut sein sollte. Nämlich Gerüchte über Hardware die von RTX2070 bis RTX2080ti reichten.
Die Leute hier im Forum haben laut gelacht und die Gerüchte als maßlos übertrieben und technisch (Leistungsaufnahme, notwendige Kühlung, Gehäusegröße) sowie preislich (so eine Konsole würde über 1000€ kosten) unmöglich machbar bezeichnet.
Trotzdem kam es genau so. Da AMD Chips verbaut sind, die natürlich je nach Spiel etwas unterschiedlich im Vergleich zu Nvidia performen schwankt der Vergleich natürlich mal nach oben mal nach unten. Aber im Groben ist die PS5 in etwa zwischen RTX2070 und 2070S und die SeriesX zwischen RTX2080 und 2080S. Die Gerüchte sind also voll zutreffend gewesen und die Leistung ist deutlich höher, als die meisten vor Release bzw. vor der offiziellen Vorstellung für möglich gehalten haben.
Ich weiß wirklich nicht, was man daran jetzt noch kritisieren kann. Dass man vielleicht ne 1000 oder 2000€ Konsole eher kaufen würde und gar nicht die Zielgruppe ist vielleicht. Aber für die 399 bzw 499, haben Sony und Microsoft mal sowas von overdelivered... Ein vergleichbarer PC kostet halt in der Tat das doppelte...
AGB-Leser schrieb:
Ich bin mir ziemlich sicher, dass jedes Panel von 1Hz bis zur bestimmten Grenze darstellen können. Nur die HDMi-Speizifkation verbietet das.
Ja, die Spezifikation verbietet das (wobei ich mir da bei HDMI 2.1 VRR nicht sicher bin)
Aber das Panel muss oft genug refreshed werden, damit die Anzeige erhalten bleibt. Ansonsten wäre es wahrscheinlich mit jedem Panel möglich ja, aber der limitierende Faktor ist da nicht das Panel, sondern der Scaler, der die Bilddaten und Takt verarbeitet. Der muss das alles können. Deswegen hat ja Nvidia anfangs Gsync Module verbaut, die genau dieses Bauteil im Monitor ersetzen. Man brauchte eben ein Gsync Modul und kein Gsync Panel (auch wenn das da weitere Probleme wie Flackern geben kann)
SavageSkull schrieb:
Sind denn die Frametimes so stabil in Stein gemeiselt, dass man das so pauschal auf die Framezeiten runterbrechen kann?
Beim PC wird kaum ein Frame dieselbe Berechnungszeit haben, wie der vorhergehende Frame.
Und gerade in dem "low" Bereich wären Sprünge in den Frametimes extrem deutlich.
SavageSkull schrieb:
Sind denn diese FPS so stabil das sie auch immer in 25ms gerendert werden können? Der Gedanke, dass die 40FPS genau in 120Hz reinpassen, funktioniert ja auch nur, wenn man auch immer, also wirklich immer 40 Frames schafft. Kommt da einmal 39, 38 oder noch weniger rein, ist der Witz von dem Modus ja wieder weg.
Beim PC hat man ja dagegen nie stabile Frametimes.
JMP $FCE2 schrieb:
Keine übliche 3D-Engine kann in jeder Situation die Framerate stabil halten, starke Schwankungen sind normal.
"Feste 40 fps" bedeutet, dass das Spiel z.B. 80% der Zeit 60 fps oder mehr erreichen könnte, diese aber unterschlägt. Und das ist mir entschieden zu schlecht, da ist VRR das weit geringere Übel.
Also zuersteinmal kann man dieses Problem schon immer schlichtweg mit Vsync umgehen. Vsync sorgt dafür, dass ein neues Frame IMMER perfekt im Monitortakt synchron ausgegeben wird. Daran kann nichts rütteln.
Das was du z.B. mit CapFrameX an Frametimes misst hat außerdem NICHTS mit der Ausgabe am Display zu tun. Selbst ohne Vsync kann die Displayausgabe deutlich glatter sein, als das was dir CapFrameX anzeigt und umgekehrt, siehst du in CapFrameX mit Vsync plötzlich unregelmäßige Frametimes, selbst wenn deine 0,01% lows uncapped bei 500 FPS wären und du mit Vsync perfekte 60 Hz ausgeben würdest.
CapFrameX ist ein performance Analyse Tool das sehr früh in der Renderpipeline greift. Willst du die Bildausgabe messen musst auf auf MSI Afterburner setzen oder den Monitor abfilmen. (Afterburner wird dir dann bei einem 40 FPS Cap auch eine perfekt waagrechte linie anzeigen, selbst wenn dir CapFrameX 0,1% lows von meinetwegen 35 FPS anzeigt). Die beiden Tools erfüllen einfach ganz unterschiedliche Zwecke und man darf sich nicht verleiten lassen, falsche Schlüsse zu ziehen.
Praktisch wird das bei diesem 40 Hz Mode auf Konsole so aussehen, dass ein 120 Hz Signal ausgegeben wird. Das Spiel nutzt dann Vsync und zugleich ein festes 40 FPS limit. Durch die Kombination aus 40 FPS Limit + Vsync wird eben garantiert, dass wirklich exakt alle 8,33 ms ein Bild an den Monitor ausgegeben wird und sich immer nur nach drei Bildern der Bildinhalt ändern kann. Ergo 40 FPS.
Also für das perfekte Framepacing ist gesorgt. Das ist ziemlich leicht zu bewerkstelligen. Funktioniert ja seit jeher genauso mit 30 FPS,
Natürlich muss das Spiel zugleich dann auch mit mindestens bzw. konstant 40 FPS laufen (wie gesagt, rein performancemäßig, über glatte Frametimes brauchen wir uns an der Stelle keinerlei gedanken mehr machen) und darf nicht ständig auf 39 oder 38 FPS fallen, denn wenn nur ein Frame fehlt, würde man das sofort als Ruckler sehen können.
Und da kannst du auch ziemlich sicher sein, dass die 40 FPS bzw. in anderen Spiele 30 FPS eingehalten werden (die Entwickler planen schon genug performanceoverhead ein, uncapped würde das Spiel dann wahrscheinlich mit 45-50 FPS im Schnitt laufen) Und Digital Foundry testet das ja auch immer. Und selbst wenn denen in der Analyse mal auffällt, dass die 40 FPS nicht konstant gehalten werden, dann sind das meist nur gewisse Stellen oder Situationen im Spiel. Das heißt trotzdem, dass du in der Praxis 99,9999...% der Spielzeit durchgängig die 40 FPS oder halt auch 30 FPS in anderen Spielen hast und ne perfekt saubere Ausagabe. Dass Spiele das Performance-Ziel deutlich verfehlen und es ständig zu rucklern kommt, kommt bei manchen Spielen vor, da ist Kritik dann auch berechtigt, ist aber eher die Ausnahme als die Regel. Idr. haben die Entwickler heutuztage ein Auge darauf. Zu PS3 zeiten war das noch ganz anders. Da wurden auch Spiele mit 20-30 FPS schwankend ausgeliefert. Unspielbar.
theGucky schrieb:
Und es ist schade, das die PS5 keine 1440p darstellen kann. Das wäre der bessere Kompromiss als 40FPS.
Die PS5 kann in 1440p bzw. jeder beliebigen Auflösung das Bild berechnen. Die Ausgabe ans Display kann aber nur mit den im TV Bereich üblichen Standards von 1080p oder 4K erfolgen. Sony hat das einfach mal so festgelegt. Jedes Spiel, das also intern in 1440p oder irgend einer dynamischen Auflösung rechnet muss das Bild erstmal auf 4K hochskalieren, bevor es in die Ausgabe geht.
Ist vermutlich auch eher ne Softwarelimitierung seitens Sony und höchstwahrscheinlich keine Hardwarelimitierung.
Ripcord schrieb:
Wenn etwas auf der Verpackung steht, dann sollte das auch drin sein. Von entweder 4k oder 120 FPS steht jedenfalls nichts auf dem Karton.
Auf dem Karton steht nur, was das Gerät technisch unterstützt. Nicht mehr und nicht weniger. Da geht es primär um die HDMI Spezifikation und Kompatibilität mit Anzeigegeräten.
Das 4K 120 Hz Logo auf der Verpackung hat rein gar nichts mit der zu erwartenden performance zu tun, denn das Logo ist ein HDMI Forum Logo und kein GPU Benchmark Logo.
Ist schade, dass sich manche davon in die Irre führen lassen, aber wenns um technische Spezifikationen geht, dann muss sowohl der Kunde als auch der Hersteller es sehr genau nehmen. Anders funktionierts halt nicht.
Schalk666 schrieb:
Interessantes Thema, war ja lange ein uncapped-Fps-Junkie, vorallem bei Online Shootern. Aber jetzt habe ich immer ein Fps Cap im Rivatuner Statistics Server drin, was ich Je nach Game verstelle.
Wenn du ein competitive Setting nutzen willst, dann solltest du sowieso niemals die FPS uncapped laufen lassen. Sobald deine GPU auf 100% Last läuft, steigt die Eingabelatenz deutlich an.
Du kannst also bei z.B. ca. 200 FPS uncapped und 100% GPU Auslastung ne deutlich höhere Eingabelatenz haben, als z.B. capped 120 oder 150 FPS.
Das liegt einfach daran, dass die CPU den render queue füllt, sobald sie auf die GPU warten muss. Dann kommt es zu einem "Stau" von 1-3 FPS, je nach Spiel und du merkst ne Verzögerung (oder kannst es zumindest messen).
Genau an der Stelle setzt auch der Nvidia Ultra Low Latency Modus oder AMD Anti Lag an. Hier wird der Renderqueue leer gehalten und der Rückstau vermieden. Praktisch werden die FPS dann dynamisch immer so limitiert, dass die GPU Auslastung bei knapp unter 100% bleibt. Nvidia Reflex ist das gleiche, nur nicht über den Treiber, sondern direkt ins Spiel integriert (funktioniert vor allem in DX12 dann auch zuverlässiger, als über den Treiber)
Den gleichen Effekt erzielst du aber wie gesagt mit einem festen FPS cap, das dafür sorgt, dass deine GPU niemals zu 100% ausgelastet ist.