Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsFlüssiges Spielen: Wie viele FPS müssen es für dich mindestens sein?
Ich habe immer auf meinem TV 4k 120 auch mit 120 fps gespielt. Mein neuer gaming Monitor geht bis 165 hz overclock 180. Spiele darauf mit stabil 155 fps. Merke aber zu 120 fps keinen Unterschied mehr. Ist das bei euch anders oder müsste ich wesentlich mehr Bilder zb 240 haben um überhaupt noch was zu merken?
Bei Shooter ist es ja nachweislich besser, höhere Bildwiederholraten zu haben, aber ich glaube kaum, dass die Leute bei einem AC, selbst bei FH über 80 noch einen Unterschied bemerken. Es ist in jedem Fall besser für den Geldbeutel, sich nicht an zu schnelle Frametimes zu gewöhnen...
Ich achte garnicht auf die FPS.
Irgendwann faellt es natuerlich auf das sie zu niedrig werden, aber das habe ich eigendlich in den letzten Jahren nur sehr selten erlebt, einfach weil ich nur sehr wenige Spiele spiele die hohe Anforderungen haben.
Weil ich aber auch nur auf WQHD spiele, und Antialiasing generell abschalte, ist massiv Luft vorhanden.
Wenn ich eine Zahl nennen muesste wuerde ich sagen: 60 reicht fuer mich.
Einer der wenigen Titel die ich zum Ruckeln bringen kann ist Anno 1800, wenn ich die Kamera flach stelle. Da das aber keine Ansicht ist in der ich normalerweise spiele, stoert es mich da nicht.
Umgekehrt setze ich aber auch so gut wie nie ein FPS Cap. Einzige Ausnahme in letzer Zeit war Everspace 2, das wie kein anderes Spiel fuer massiv Abwaerme gesorgt hat. Das habe ich dann auf 60 FPS gecapped. Einen Unterschied habe ich nicht gesehen.
Ergänzung ()
MalWiederIch schrieb:
Ist auch nicht wirklich schwer zu erkennen, wem hat es bei einem 100Hz+ Bildschirm noch nie die Bildwiederholrate auf 60Hz gestellt und man wundert sich auf einmal, weshalb die Maus „schmiert“ …
Ich habe diesen Fall genau jetzt...
Ich bin im Homeoffice, und habe meine zwei 144 Hz Monitore an das Dienstlaptop angeschlossen, einer direkt, einer ueber eine "Mini-Dockingstation".
Dadurch ist einer auf 144 Hz, der andere nur auf 70 Hz.
Bei normaler Verwendung achte ich nicht auf diesen Unterschied.
Ich sehe es natuerlich wenn ich es provoziere und ein Fenster anpacke und schnell verschiebe. Oder auch nur an den "Geisterbildern" des Mauszeigers, wenn ich den schnell hin- und her wackele.
Seltsam sieht es aus, wenn ich schnell ein Fenster zwischen den Monitoren hin- und herschiebe.
Aber das sind Effekte auf die ich aktiv achten muss damit ich sie bemerke. Und stoeren tut es mich erst recht nicht.
hab erst mit 30fps callisto Protocol durchgespielt manchmal gins noch tiefer runter da wurde das aiming schon schwer, aber war trotzdem ne geile Erfahrung
Da muss man aber nicht mal Profi für sein. Ich cappe bei maximal 144 FPS und ob es jetzt 120 oder 144 sind merkt man nicht sonderlich aber sobald du Richtung 100 oder etwa darunter gehst wird es unangenehm. Es ist halt eine Sache der Gewöhung. Ein reiner Konsolenspieler wird dir auch sagen, dass 30FPS flüssig sind. Jemand der immer mit 60FPS spielt wird dir sagen, dass 30 FPS nicht flüssig sind. Und den gleichen Unterschied hast du auch wenn du von 144FPS kommst, 60 FPS sind dann einfach alles andere als flüssig. Erst über 144FPS wird es imo sinnfrei. Da sieht man nix mehr großartig.
Ein Spiel kann auch mit 60 FPS und glatten Frametimes flüssig sein, aber dann ist es nicht unbedingt auch angenehm.
Ein großer Punkt für mich ist der Input Lag und da fühlen sich viele Spiele sehr zäh an.
Daher braucht es für mich teilweise 80 FPS+ um dieses zähe Spielgefühl zu minimieren und gerne auch mehr.
Aber es gibt auch Spiele die mit 50 FPS reaktionsschnell sind.
Die Anti-Lag Optionen von AMD/Nvidia sind da teilweise eine große Hilfe, aber nicht immer gut für die Frametimes.
Was ich nicht brauche, sind mehr als 120 FPS....Da bleibe ich in der VRR Range von meinem 144Hz Monitor und es fühlt sich gut an.
Noch deutlich mehr kann sich zwar noch etwas besser anfühlen, aber da gibt es keinen so großen Vorteil mehr und dafür eher Nachteile wie Spulenfiepen und unnötig hoher Energieverbrauch...
Schon zu Win95-Zeiten waren 85 Hz üblich, weil Röhrenmonitore mit der Bildwiederholfrequenz flimmern, und weniger bei "Papierdarstellung" mit weißem Hintergrund deutlich stört. Außerdem kann man bei Röhrenmonitoren Zeilenauflösung gegen mehr Bildwiederholfrequenz eintauschen.
Mein letzter Röhrenmonitor (irgendwann um 2005 gebraucht gekauft) konnte 1600x1200@85 Hz, oder 1152x864@120 Hz für Quake 3. Mit dem Vorgänger hatte ich m.E. 1024x768@100 Hz genutzt.
Ich habe selbst nie Fortnite gezockt, aber mein Bruder meinte, man braucht ab einem gewissen Level diese angepeilten 400, 500, 600 fps um eben diese millisekunde schneller die Wand aufzubauen in einem 1:1 am Ende der Matches.
Dürfte in BF und Co auch ähnlich aussehen, dass man mit 120 fps+ Hardware leichte Vorteile hat.
Bei mir ist das auch stark vom Spiel abhängig. Wenn ich jetzt beispielsweise The Witcher spiele komme ich mit 60+ Frames auch gut aus. Mehr ist natürlich immer schön, aber das würde mir theroretisch reichen. Hier geht es ja auch nicht um den spielerischen Vorteil gegenüber anderen Spielern sondern lediglich gegen die KI. In Shooter hingegen würde ich fast sagen geht unter 100 FPS nichts, ab 140 kommen wir dann in die Richtung wo sich das Spiel richtig gut und direkt anfühlt. Anpeilen würde ich immer so 180-200 FPS wenn möglich.
Oder Realisten mit Erfahrung, die gemerkt haben, dass mehr nicht immer nur besser ist:
Mehr fps = mehr Graka = mehr Kosten
mehr Stromverbrauch
mehr Lautstärke
mehr Spulenfiepen
mehr S...vergleich.
Sorry aber ich habe noch immer nicht so ganz verstanden warum man bei 144 Hz die Karte bei 142 fps limitiert. Warum nicht 144 fps? Was hat es damit auf sich?
Btw. warte ich noch immer auf ein Bild von deiner Gamerock im Betrieb 😛
Hattest die Karte mal getestet, beschrieben, Bilder von gezeigt aber leider nicht im Gehäuse/Betrieb.
3v0lut!0n schrieb:
Im Singleplayer reichen auch mal 60, da sind die FPS nicht so relevant. Bei Multiplayer Titeln muss schon ein dreistelliger Wert anliegen, idealerweise stabil in der Syncrange des Monitors/der Monitore.
Singleplayer 80-100 FPS,
Multiplayer 144+ FPS.
Warum? Für Singleplayer/Multiplayer ist mir ein flüssiges Bild wichtig, 60 FPS sind mMn nicht flüssig. Ich kann auch nicht verstehen wie manche einen unterschied von 60hz und 144hz nicht erkennen können?
Es wurde aber geschrieben, dass die Leute BLIND den Unterschied erkennen. Also quasi fühlen, hören oder schmecken. Und das kann ich eben einfach nicht glauben... Ich zumindest kann das nicht
Aber auch ich bin alt und kein Profizocker.
In den tollen Quake 3 Zeiten gab es nur 60 Hz Röhren Monitore. Das Spiel war sauschnell, und ich habe nie gehört, dass jemand gerne mehr FPS als die 60 gehabt hätte. Der Skill entscheidet, nicht die FPS
Hm also wenn ich nicht ganz seniel bin dann gab es auch Monitore mit mehr als 60 hz und damals hat keiner in meiner Gegend drauf geachtet das hz und FPS synced sind man hat ehr geschaut so viel FPS wie möglich rauszubekommen
Kann mich noch gut daran erinnern auch Doom bzw Duke 3d in Mini Ausschnitt auf dem Monitor gespielt zu haben bin aber nicht mehr sicher was das war Auflösung wird es nicht gewesen sein die hatte sich auf den Monitor ja gestretcht und ausgefüllt
Edit
Ansonsten mein TV steht aufn120hz hab gern 60fps plus aber mit 30 und aufwärts bin ich auch zufrieden .... Zelda auf der Switch könnte mir soviel Spass machen aber die Dips unter 30 nerfen mich schon extrem
iner der wenigen Titel die ich zum Ruckeln bringen kann ist Anno 1800, wenn ich die Kamera flach stelle. Da das aber keine Ansicht ist in der ich normalerweise spiele, stoert es mich da nicht.
Ich finde Anno ist ein gutes Beispiel für "gefühlte" Performance. Ich habe das früher auf einer 5700xt gespielt in 4k - das ging irgendwie, die Drops fand ich aber immer störend, vor allem das Tearing das dann dazu kam. Spass hatte ich aber natürlich trotzdem, richtig viel!
Später dann auf der 3090 war es deutlich schöner und es waren stabile 60FPS möglich. Das hätte mir eigentlich gereicht, aber in grossen Spielen und mit all den DLCs wurde es immer langsamer und die CPU-Drops haben mich dann gestört. Auch sehr viel Spass gehabt, ich würde aber tatsächlich sagen, dass mehr FPS meinen Spielspass erhöht haben, aber Drops gab es eben noch immer.
Mit Zen 4 und 4090 gibt es nun keine Drops, kein Tearing und immer alles flüssig. Das ist einfach schön und macht richtig Spass. Ob ich wirklich in dem jeweiligen Moment mehr Spielfreude habe als mit der 5700xt / 3700x? Wahrscheinlich nicht, aber wenn ich das Spiel jetzt auf dem alten System ansehe, finde ich es unerträglich ruckelig und mühsam.
Ich denke, das gilt für eine Mehrheit der Leute, auch beim Handydisplay: Fehlen mir (z.B.) +60 min. FPS, wenn ich sie nicht habe und noch nie hatte? Absolut nicht. Ggf. bin ich sogar davon überzeugt, dass das teurer Schnickschnack ist. Wenn ich es aber einmal hatte - dann kann ich ganz schlecht zurück und finde das, was mir vorher gereicht hat, nicht mehr als adäquat-
Sobald die Framerate am Vsync kleben bleibt, erhöht sich der Input Lag. Nur mit etwas Sicherheitsabstand macht G-Sync/Freesync das, was es soll: Vsync-Flüssigkeit ohne den zusätzlichen Input Lag.
Intruder schrieb:
Nach welchen Kriterien kauft ihr eure Bildschirme? So viel Hz wie möglich damit man so viel fps wie möglich fahren kann?
Mir reichen 144 Hz. Die müssen aber schon deswegen sein, weil es m.W. kaum oder gar keine Monitore mit weniger Hz gibt, die LFC/Frame Doubling unterstützen. Und wenn das fehlt, funktioniert G-Sync/Freesync nicht bei niedrigen Frameraten, und macht fps-Drops damit noch schlimmer, als sie sowieso schon sind.
Für die Fälle, wo ich eben auch mehr an Grafik bekomme.
Bestes Beispiel ist ja schon im Titel gezeigt: Cyberpunk 2077.
Die 4090 hat auf der Auflösung mit Pathtracing nur dank Frame Generation überhaupt die 100FPS, wobei diese eben dank Frame Generation auch eine "geschummelte Zahl" ist.
Es ist ja nicht so, dass die 4090 sich bei jedem Spiel langweilt und 500FPS rendern könnte.