• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Bericht PlayStation 5 & Xbox Series X: Wie 40 FPS plötzlich das Optimum sein können

cvzone schrieb:
Als Input über HDMI können die alle nur 60 Hz. Dem entsprechend ist hier der 40 FPS Modus auch wieder nicht sinnvoll möglich
Die meisten 120hz tvs mit hdmi 2.0 nehmen 1080p mit 120fps an, von panasonic mal abgesehen.
Aber auf 1080p reduzieren bringt ja auch keinen Vorteil mehr.
Mit hdmi 2.0 ist der 40fps mode dann nur für sdr 4:2:0 eine Option, bei h:fw wird man meist den Performance Modus vorziehen, aber in Zunkunft könnte der Modus an Relevanz gewinnen, wenn es an den 60fps zunehmend scheitern sollte.
Da hoffe ich aber eher auf fsr 2.0 für die Konsolen, falls die checkerboarding Qualität nicht mehr ausreichen sollte.
 
@Magnifico
Du meinst, die Kristalle brauchen eine Grundfrequenz?
Das wäre ja auch kein Problem, wenn man das Eingansignal dann entweder um einen ganzen Teiler multipliziert oder teilt.
Ansonsten würde ich der Grafikkarte die Steuerung des Monitors überlassen: Wenn das Bild fertig ist, ist es fertig.
 
Hito360 schrieb:
den Artikel kann man auch abkürzen:
Konsolen verwenden FreeSync und beherrschen nun deswegen ein 40fps Setting
Autsch. Bitte vorher informieren, bevor man so etwas postet und nicht Äpfel mit Birnen vergleichen.
https://en.wikipedia.org/wiki/Variable_refresh_rate

Ja die Namensgebung kann man als unglücklich bezeichnen, ändert aber nix an der Tatsache das FreeSync und HDMI 2.1 VRR zwei Paar Schuhe sind. Grüße
 
Siran schrieb:
VRR "gaukelt" doch keine Leistung vor, es macht sie bei uncapped fps erst wirklich nutzbar ohne Tearing zu haben. Ist doch bei Freesync oder G-Sync am PC auch nichts anderes. FSR gibt es btw. auch auf Konsolen.
Mal abgesehen davon, dass hier überhaupt kein vrr zum Einsatz kommt, somdern fixe 40fps.
 
  • Gefällt mir
Reaktionen: Siran
AGB-Leser schrieb:
Du meinst, die Kristalle brauchen eine Grundfrequenz?
Tatsächlich ist das bei sehr niedrigen Hertzzahlen wirklich ein Problem. Der Flüssigkristall wird einmalig beim Bildaufbau angestoßen und dann die x-ms in Ruhe gelassen. Ist die Zeit zu lang bis das nächste Bild kommt, kann der wieder zurück"kippen".
Halt das Gegenteil von Overdrive, wo man mit Überspannung versucht den Kristall schneller schalten zu lassen.
Daher die Low Frame Compensation.

Wie das bei OLED ist, weiß ich allerdings nicht. Kann sein, dass es da das Problem nicht gibt.
 
R.Nuwieder schrieb:
Ja die Namensgebung kann man als unglücklich bezeichnen, ändert aber nix an der Tatsache das FreeSync und HDMI 2.1 VRR zwei Paar Schuhe sind. Grüße
Mal abgeshen davon, dass hier überhaupt kein vrr zum Einsatz kommt, sondern fixe 40 fps.
 
Ach, dass Leben ist so schön, wenn jeder nen überteuerten PC, den besten Monitor der Welt und das beste Soundsystem der Welt besitzt und jedes Spiel mit nativen 4K/60 oder besser 4K/120 mit RT erleben kann, alles andere ist unverständlicher Konsolen-Abschaum.

Manchmal frage ich mich wirklich, wie alt Menschen sind, die solche Aussagen treffen oder was generell falsch läuft, aber da müsste man sich täglich bei unzähligen Menschen Fragen was falsch läuft, von daher etwas zu sehr verschwendete Zeit.

P.S. Man kann mit Konsolen tatsächlich ne Menge Spaß haben, auch ohne native Auflösung von x oder mindestens x FPS ohne minimale Einbrüche. Die aktuellen System bieten oft Modi mit 30, 60 und hin und wieder 120 FPS an (ja, tatsächlich sogar das aktuelle F1, CoD, etc. also auch "moderne Titel"). Vielleicht liegt es am Alter oder das ich nie den modernsten PC der Welt hatte, weil es für mich rausgeschmissenes Geld war, mehr als Mid-Performance-Karten für 300-500 Euro zu kaufen, aber ok ;)

Wer halt nur mit seinem .... verlängerten PC Spaß haben kann, bitte. Aber ich als PC und Konsolen-Pöbel, gehe tatsächlich nach Spielspaß, Story und/oder Spaß mit Freunden im Coop und nicht (nur) nach Grafik und FPS und habe damit tatsächlich ne gute Zeit. Daher dürft ihr PC Masterrase Leute mich auch gerne weiter als Pöbel bezeichnen, auf den hier herab schaut, ich werde es gerade so überleben.

Allen anderen, viel Spaß mit dem System und den Einstellungen nach Wahl. Je nach Game, kann man auch mit 30 FPS ne Menge Spaß haben, 60 FPS sind schön, alles darüber noch netter, aber man kann auch so Spaß an seinem Hobby haben (Gerüchte, aber vielleicht was dran).
 
  • Gefällt mir
Reaktionen: bluna, Anwalt Dr.Gonzo, Sirhaubinger und 2 andere
Vielleicht wurde die Frage schon beantwortet :
Mein PC hängt an meinem OLED. Reicht es wenn ich den Framelimiter auf 40 stelle?
 
TigerNationDE schrieb:
Langsam bekommt man echt das Gefühl, man wird durch allehand Hilfsmittel extrem getäuscht was die Leistung von Hardware angeht. Sei es bei GPUs FSR/DLSS oder nun wie hier durch VRR.

Aber ich scheine wohl einer der wenigen zu sein die das wirklich stört das man ihnen Mehrleistung vorgaukelt, die effektiv eigentlich gar nicht da ist.
Getäuscht würde ich nicht sagen. Aber sieh es Mal so: von 1080p zu 2160p sind es 4x so viele Pixel. Wenn man mal von 30% Leistungssteigerung pro Grafikkarten-Generation ausgeht müssten ca 5 Generationen vergehen bis sich die Leistung vervierfacht hat. Wenn die GTX 1060 "DIE full HD Grafikkarte" im Mainstream war, dann sind wir jetzt erst zwei Generationen weiter, auf der Schwelle zur dritten.
Also hat man DANK den neuen upscaling Methoden sogar FRÜHER etwas im Mainstream, was wohl schon nah an 2160p ran kommt.

(So liest man zumindest, bei mir werkelt noch die 1060 :P :D )
 
cvzone schrieb:
Ist mit den letzten Patches allerdings wesentlich besser geworden. Gab dazu auch wieder eine Videoanalyse von Digital Foundry.
Dann schau ich vielleicht noch mal rein. Das war nämlich eine absolute Vollkatastrophe. Wobei selbst das das Spiel insgesamt ja nicht besser macht. Gegenüber Teil 1 hat sich da imo einfach viel zu wenig getan.
 
Mit VRR hat das wenig zu tun. Es geht hier im 40 feste und stabile FPS. Jedes HDMI 2.1 Display, dass VRR unterstützt, kann auch 120 hz und somit 40 hz bei den Konsolen. VRR löst ein anderes Problem als feste 40 FPS: Wenn die Engine zwischen 20 und 120 hz schwankt, dann ist VRR toll. Aber feste 40 FPS auf einem 120 hz TV sind meiner Meinung nach besser.
 
Foxel schrieb:
Vorteil wäre wie im Artiken beschrieben 33% mehr FPS und geringere Latenz gegenüber 4k30 bei gleicher Grafikqualität darum geht es doch
Ich bezog mich auf deine Aussage zur gewünschten 4k 40fps Spezifizierung.
Selbst WENN die tv hersteller einen 40hz modus für 4k 120hz tvs mit hdmi 2.0 nachreichen würden, wäre dieser nicht mit dem 40fps Modus der Konsolen kompatibel, da sie mit 120hz die 40fps ausgeben.
 
AGB-Leser schrieb:
@Magnifico
Du meinst, die Kristalle brauchen eine Grundfrequenz?
Das wäre ja auch kein Problem, wenn man das Eingansignal dann entweder um einen ganzen Teiler multipliziert oder teilt.
Ansonsten würde ich der Grafikkarte die Steuerung des Monitors überlassen: Wenn das Bild fertig ist, ist es fertig.
Ja sicher kann man das so machen. Das nennt man LFC und das gibt es mittlerweile seit einigen Jahren.

Wenn du Framerate unter die minimale Refreshrate fällt, gibt der GPU Treiber die Bilder 2x aus.
 
Zuletzt bearbeitet von einem Moderator:
TigerNationDE schrieb:
Langsam bekommt man echt das Gefühl, man wird durch allehand Hilfsmittel extrem getäuscht was die Leistung von Hardware angeht. Sei es bei GPUs FSR/DLSS oder nun wie hier durch VRR.

Das Gegenteil ist der Fall. VRR gibt endlich genau das wieder, was die Hardware leistet.

Vsync vernichtet entweder durch pauschales "Abrunden" massiv Leistung (immerhin spart es dabei Energie), oder generiert durch wechselndes Runden (Triple Buffer) unsaubere Frametimes. Und in beiden Fällen deutlichen Input Lag.

Vor VRR war IMHO Vsync off bei möglichst hohen Bildwiederholfrequenzen das geringste Übel. Bei 120 Hz stört Tearing deutlich weniger, und man muss sich nicht die massiven Nebenwirkungen von Vsync antun.
 
Caramelito schrieb:
Sitzen die Leute 1m vor ihrem 65+ Zoll TV?

Habe hier 75" (120hz, VRR, pipapo) und sitze halt 4-5m vom TV weg - Als ob man da irgendein Pixel irgendwo am Bild erkennt, welches mit 2160p statt 1600p oder so gerendert wird. Come on..
Du tust so als ob 5m eine weite Distanz ist. Vielleicht mal nenn Termin beim Optiker machen. Ich selbst würde lieber 4k nehmen, weil ich den Unterschied wahrnehme, aber 30FPS sind keine Lösung. Daher ist das geringere übel der 60FPS Mode
 
Also bevor man ein Daumenkino mit 25Hz hat (Hallo PS4), dann lieber die Grafik dynamisch anpassen, damit man das flüssig hält. Und schlau eingesetzt, bekommt man davon auch nichts mit.
Vielleicht sollten die SLI/Crossfire mal wieder rauskramen und endlich richtig machen. Ich bin mir sicher, dass das mittlerweile möglich ist
 
Siran schrieb:
:confused_alt:

VRR "gaukelt" doch keine Leistung vor, es macht sie bei uncapped fps erst wirklich nutzbar ohne Tearing zu haben. Ist doch bei Freesync oder G-Sync am PC auch nichts anderes. FSR gibt es btw. auch auf Konsolen.
VRR hatte ich nur wegen "neuer Mittel" mit drin. Die Leistungsvorgaukelung war halt auf DLSS und FSR bezogen wegen der Skalierung. War halt blöd zusammengesetzt, sorry.
 
Finde den Titel übrigens unpassender denn je, 40fps sind mit h:fw ganz sicher nicht das Optimum, nur weil nun volle 4k mit 10fps mehr möglich sind.
Die Mehrheit wird den Performance Mode vorziehen.
 
Schaby schrieb:
Bei AMD: Nein und Nvidia: Naja, denn Freesync fängt erst bei Min. 48FPS/Hz an

Ist nicht ganz korrekt.
Es gibt Monitore, die mit Freesync bis 30, 35 oder 40Frames syncen.

Freesync selbst geht also weiter runter als 48 Frames.
 
Kunstpixel schrieb:
VRR löst ein anderes Problem als feste 40 FPS: Wenn die Engine zwischen 20 und 120 hz schwankt, dann ist VRR toll. Aber feste 40 FPS auf einem 120 hz TV sind meiner Meinung nach besser.

Keine übliche 3D-Engine kann in jeder Situation die Framerate stabil halten, starke Schwankungen sind normal.

"Feste 40 fps" bedeutet, dass das Spiel z.B. 80% der Zeit 60 fps oder mehr erreichen könnte, diese aber unterschlägt. Und das ist mir entschieden zu schlecht, da ist VRR das weit geringere Übel.
 
  • Gefällt mir
Reaktionen: bluna und SavageSkull
Zurück
Oben