Test High-FPS-Gaming-Benchmarks: Welche Grafikkarte braucht es für 144 oder gar 240 FPS?

scootiewolff22 schrieb:
3060 soll 2080ti Level haben

Lustiges Gerücht, dass auch wie zu jedem neuer Grafikkartengeneration nicht so kommen wird.
 
  • Gefällt mir
Reaktionen: Meleager, eXe777, Revan1710 und eine weitere Person
Kvnn. schrieb:
Was wem ausreicht kann nur jeder für sich selbst entscheiden. Für mich sind 50fps eine unspielbare Diashow bei dem ich das Game garnicht erst starten würde.
[ ... ]

Maximale Zustimmung.

Ich kenne niemanden, der mit >= 144 Hz spielt und der Meinung ist, dass man das nicht braucht.
Anders herum ist es aber auch immer das Gleiche: Selbst noch nie probiert, < 60 FPS als "flüssig" empfinden und durch die Gegend schreien, dass kein Mensch mehr braucht.
 
  • Gefällt mir
Reaktionen: GERmaximus
Scrush schrieb:
Z.b. wie lebensrelevant 120+fps sind und zwischen 60 und 120fps "Dimensionen" liegen, dabei ist das ein völlig subjektives empfinden.


Ich habe Witcher 3 damals mit meiner 7950 mit 35-45fps gespielt und hatte trotzdem genau so viel Spaß wie heute mit 100fps.

Genauso hab ich Battlefield 3 damals mit 50fps gespielt und wenn ich heute Battlefield 5 mit 100+ FPS spiele, fällt mir nicht auf, dass es irgendwie besser ist als Battlefield 3 damals.

Daher begnüge ich mich mit meinem 144hz Monitor auch meist mit einem 60fps lock, damit sind die FPS immer stabil, ich profitiere immernoch von den 144hz und freesync, und ich heize mein Zimmer gerade jetzt im Sommer nicht noch weiter auf als nötig^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Valdorian, KickiSurface, adAstra und 5 andere
WebBeat84 schrieb:
Wer braucht mehr als 80-100FPS? Meine Meinung: NIEMAND!

Wer bitte schraubt alle Details so runter, dass er über 100fps überall hat und sieht das als Vorzeil gegenüber besseren Grafikdetails?

Meine Einstellungen in JEDEM Spiel sind IMMER: MAXIMUM!

GRAFIK VOR FPS!

Wenn ich ein Spiel habe, dass mit MAXIMALEN Details nur 50fps schafft, dann wird es eben in 50fps gezockt...
Reicht für die meisten Games eh aus.

Hey, ich habe exakt die gegenteilige Meinung (im Rahmen).
Ein Game muss für mich flüssig sein.
Bei manchen reichen hierfür schon 60fps (strategie Games), andere sind selbst mit 90 und mehr fps noch träge an der Maus.
Mit meiner alten GPU ist mein Vorgehen wie folgt:
Textur settings auf Ultra, restlichen Settings eine Stufe unter Ultra. Komme ich da nicht in für mich spielbare Bereiche, werden die Settings nach und nach vorsichtig hoch gesetzt.
Komme ich dann irgendwann in einen optisch unerträglichen Bereich, reduziere ich die Auflösung. Reicht selbt das nicht (RDR2 war echt knapp) bleibt das Game liegen.

Mir ist mein bisschen freie Lebenszeit zu schade (neben Haus Frau Kind und vor allem Arbeit) um Grafikkompromisse eingehen zu müssen. Es muss optisch nicht ultra sein, es muss aber Ultra flüssig seiin für mich:)

Da bei dir genau umgekehrt, hast du schon mal einen 144hz Monitor getestet?
Oder die optische Differenz bei bewegten Bildern zwischen Ultra und Sehr hoch (eine Stufe unter Ultra)?
Meine Erfahrung nach sieht man den Unterschied nur mit der Lupe, während man 20-40fps mehr oder weniger sofort deutlich wahrnimmt.
 
Zuletzt bearbeitet:
Chillaholic schrieb:
Mit blinden über Farben diskutieren bringt selten etwas. ;)
Grundsätzlich sind mehr FPS immer vorzuziehen, ob Shooter oder RPG, es macht das Bild einfach flüssiger.

Wer weit über 500 Euro für eine Grafikkarte ausgeben will, um dann auf Niedrig zu zocken, bitteschön.... Fördert immerhin die Wirtschaft.

Niedrige Settings sehen auch auf großer Auflösung noch schlecht aus, da ändert der Rest nichts dran.
 
WHQD ist für mich der Sweet Spot.
Mich ärgerts etwas dass viele Tests nur 1080 oder 4k abbilden. Daher chapeau für dieses Review!
 
boncha schrieb:
Ein 144 Hz Monitor lohnt sich halt auch schon für 60 FPS Spiele.

Und bei mir kommt keine Augenverletzung Full HD Monitor mehr ins Haus. Die Grafik ist so miserabel im Vergleich zu 4k , da sind mir 60hz und 4k lieber als 144hz und Full HD. Full HD ist sogar bei Smartphone mittlerweile grenzwertig, und das bei 5 Zoll.

Full HD zocken nimmt echt jeden Spaß aus dem Spiel. Man kauft sich eine teuere Grafikkarte und kriegt dann sowas zusehen
 
  • Gefällt mir
Reaktionen: MegaDriver
crogge schrieb:
So ist es, ich habe eine Palit 2070 SUPER und erreiche in allen Spielen 3-stellige FPS in 1440p. Ja, wie beschrieben sind es in Boderlands mal 130 FPS aber solange man einen Adaptive Sync Bildschirm besitzt (Ich nutze einen 27" 1440p 144hz IPS BIldschirm, ViewSonic VX2758-2KP-mhd, ab 350 Euro) fällt das nicht auf.

Warum Palit?
  • Alle Speicherbausteine und VRMs werden gekühlt
  • Backplate aus Aluminium und mit Wärmeleitpads bestückt
  • Selbst unter Vollast sehr leise
  • RGB Beleuchtung (Kann abgeschaltet werden)
  • Dual BIOS
  • Bis zu 300W einstellbar, auch mit MSI Afterburner
  • 3 Jahre Garantie
  • Günstig
Hört sich nicht schlecht an, nur Ich werde niemals XYZ-Sync benützten.
Ich dachte Palit wäre eher so eine Meh-kann man mal versuchen marke, dabei hört sich die Palit doch sehr gut an, dual bios ist nice2have, hat dat die 2070 super auch einen 0db modus oder laufne die lüfter immer?
 
Scrush schrieb:
was möchtest du uns damit sagen?
Das aktuell selbst die stärkste Hardware nicht jedes Spiel mit allen Reglern rechts mit 144 oder sogar 240 FPS stemmen kann.

Die richtigen Einstellungen bringen mit der richtigen Hardware 144 und 240 FPS. Nicht die pure Hardwarepower.
 
Guten Tag, 3770k @4.5ghz, 2400mhz Ram, 1080Gtx hier.

Klar sind meine Specs nicht mehr aktuell, aber was ich hier anmerken muss ist:

Wie kann ein AAA (tripple A) Titel wie COD modern warfare so schlecht optimiert sein, dass nicht mal FULL HD 1920x1080 +100 FPS nicht konstant erreicht werden können mit diesen Specs?

Das ist etwas was ich nicht verstehen kann.

Battlefield 5 wurde auch nicht gerade gut optimiert, aber dafür sieht es einfach mal BOMBE aus im vergleich zu einem COD. Battlefield 5 fühlt sich auch bei den selben FPS anzahl viel flüssiger aus.

Also dafür das Activision gefühlt jedes Jahr ein neues Spiel bringt und als FPS game gilt, bin ich als FPS gamer einfach enttäuscht.

Zusätzlich braucht man für COD die neuste Hardware, aber auch dann ist es nicht einfach+144fps zu kriegen.. da bleibt einfach die Frage bei mir, wieso wird ein FPS game so schlecht optimiert? Schnelles Geld...?
 
Da werde ich wohl noch lange bei WQHD @60Hz bleiben...
 
Ich finde man hat hierfür die falschen Spiele gewählt. Außer CoD fehlen, Valorant, CS:GO, Apex und die anderen Top Multiplayer Titel.

Wer spielt schon SOTTR o.ä. schon mit 144fps. Solche Singleplayer Titel sind bei mir bei 60fps locked.
 
DirtyHarryOne schrieb:
Guten Tag, 3770k @4.5ghz, 2400mhz Ram, 1080Gtx hier.
Wie kann ein AAA (tripple A) Titel wie COD modern warfare so schlecht optimiert sein, dass nicht mal FULL HD 1920x1080 +100 FPS nicht konstant erreicht werden können mit diesen Specs?

GTX1080=pascal Generation= Scheisse von Nvidia im Bezug auf Low Lvl Apis im Sinne von DX12.
Guck dir mal in RDR2 an, wie schrecklich deine 1080 da performt.

Und deine Hardware ist einfach echt alt, besonders die CPU und erst recht nach den ganzen Sicherheitspatches.

Und was du als konstant meinst, sind die minimal Frames, die sehen meist noch deutlich abenteuerlicher aus.
Ein 7700k der zb immer noch lange Benchmarkbalken schafft, ist bei den minimal FPS plötzlich total schlecht. Das fällt uns aber erst jetzt langsam auf, da Umerziehung noch dauert. Ich meine wir haben damals alle nur auf den max fps Balken geguckt und erst seit Ryzen auf die viel wichtigeren minimal (quasi konstant) fps geguckt
 
  • Gefällt mir
Reaktionen: Shine2004
GERmaximus schrieb:
Und was du als konstant meinst, sind die minimal Frames, die sehen meist noch deutlich abenteuerlicher aus.
Ein 7700k der zb immer noch lange Benchmarkbalken schafft, ist bei den minimal FPS plötzlich total schlecht. Das fällt uns aber erst jetzt langsam auf, da Umerziehung noch dauert. Ich meine wir haben damals alle nur auf den max fps Balken geguckt und erst seit Ryzen auf die viel wichtigeren minimal (quasi konstant) fps geguckt

Ja die minmal FPS ist genau was ich gemeint habe, den die durchschnitts FPS liegt sogar bei meinem alten System um die 100FPS. Es ist genau was du ansprichst, die minimal FPS sind einfach zu tief, ausser man hat ein neues System vom Jahr 2019/2020 oder sprich 9900k Intel / 3600x+ AMD - und ne 2080ti, was aber die meisten auch nicht haben.

Für mich finde ich das schon ein bisschen extrem was es an Hardware braucht für einen solchen AAA Titel wie COD modern warfare, aber vielleicht sehe ich das einfach zu engstirnig und sollte einfach mal mein System Upgraden.
 
TB1333 schrieb:
Schon geil, dieser gefühlte "Rückschritt". Früher hat man maximale Details rausgequetscht, heute sind es die "Mindest-FPS-für-den-Monitor". Man kauft sich einen 500 Euro Monitor und eine 1.000 Euro Grafikkarte, nur um dann mit Minimaldetails zu spielen :daumen:

Genau so meinte ich das auch
 
  • Gefällt mir
Reaktionen: danyundsahne
Die Spiele müssen gut aussehen und einfach flüssig laufen. Dieses ich muss 144HZ, ...haben ist mir egal.
 
@DirtyHarryOne
Du hast gerade aber auch an zwei Fronten Pech.
Deine GPU wäre eigentlich noch gut dabei, wenn es ein dx11 Titel wäre. Und zukünftiger wird das noch schlimmer werden. Sämtliche DX11 Titel sollten in gewohnter Performance laufen, einzig neue Games, bzw. DX12 / Vulkan etc. werden richtig einbrechen.
Und deine CPU trifft es noch härter:
nur 4 Kerne UND dann noch in Verbindung mit den ganzen Sicherheitspatches = mieserable minimal Fps.
 
Persönlich brauch ich keine 120-144-oder mehr Hz,bin mit FHD,@Max +60 Hertz zufrieden, investiere lieber in höhere Details als Framerate, da ich eh meistens Singleplayerspiele zocke. Mein nächster Monitor hat wahrscheinlich 3440x1440 @21:9 curved, da reichen mir dann auch 60 Hz.(Obwohl das bestimmt auch nur mit neuer Graka flüssig läuft...)
 
Zurück
Oben