Test High-FPS-Gaming-Benchmarks: Welche Grafikkarte braucht es für 144 oder gar 240 FPS?

MicBoss schrieb:
Hmm... du machst doch nichts anderes. Du fügst nach jeder Zeile eine überflüssige Leerzeile an ein, um deine Meinung über andere zu stellen. Klar hat seine Aussage mit dem Topic zu tun... und ich bin ganz bei Ihm.
die leerzeile hat 0 damit zu tun sondern ich habs einfach gerne übersichtlich und das ist der simple grund
Ergänzung ()

Taxxor schrieb:
CB macht auch Artikel über Raytracing in Spielen, sagt das nun etwas darüber aus, wie viele Menschen das nutzen?

Und nein wir diskutieren nicht darüber ob 144fps besser sind als 60, sondern darüber, wie groß dieser Unterschied in der Realität für den Nutzer ist und ob es sich je nach verwendeter GPU lohnt, diese 144fps erreichen zu wollen, wenn dabei die Optik stark leidet.
das ist doch eine rein subjektive geschichte und der artikel hat das sicherlich nicht zum thema gemacht

denn dazu braucht es diesen artikel nicht da sowas subjetives logischerweise nicht objektiv darstellbar ist.
 
Scrush schrieb:
das problem ist dass einige Ihre Meinung anderen aufdrücken wollen und das komplett offtopic. Gerade für Offtopic beträge hab ich schon mal verwarnungen bekommen. andere dürfen sich hier aber austoben....

Um welche Meinung die du meinst geht es denn bei mir, auf der ich denn beharre?

das 144fps allen anderen genres genauso sinn macht wie bei shootern? das ist keine Meinung meinerseits sondern ein technisch belegbarer Fakt

Es ging mir nicht um deine Meinung oder deine Ansichten im Speziellen oder anhand eines spezifischen Beispiels, sondern um die Art und Weise, wie du deine Ansichten - oder eben einen technisch belegbaren Fakt - ansprichst, darlegst bzw. auslegst.
Um aber deinem Willen zu entsprechen und bei deinem Beispiel hier zu bleiben: Sinn ergeben 144 FPS nur dann, wenn Personen auch den Mehrwert darin sehen. Ob 144FPS also sinnvoll sind, hängt erstmal von persönlichen Präferenzen ab. Ich bestreite für meinen Teil nicht, dass mehr FPS in Kombination mit mehr Hz flüssiger sind als weniger. Das ist aber kein Grund, alle anderen Forenuser, die bspw. nicht so potente Hardware haben bzw. sie sich leisten wollen/können, despektierlich zu behandeln. Du siehst, wie du weiter oben geschrieben hast, den Unterschied zwischen 90 und 95 FPS. Das ist toll, da hast du klasse Augen (vollkommen wertfrei). Lass aber Leuten, die das evtl. anders sehen bzw. nicht wahrnehmen oder keinen Wert darauf legen, trotzdem ihre Meinung, ohne jene despektierlich und überheblich abzutun.
Mehr Toleranz, mehr Sachlichkeit, mehr Pluralität und weniger Beharren auf "das ist ein technische belegbarer Fakt" führt in der Summe zu einer angenehmeren Atmosphäre im Forum. Andere Personen dürfen andere Präferenzen haben und sind deswegen trotzdem respektvoll zu behandeln.

Ich erinnere mich gerade an den Thread vom dem Vierzehnjährigen bzgl. Monster Hunter World, in dem du seinen R5 1600 und den langsamen RAM madig gemacht hast.

Scrush schrieb:
sein Problem ist seine gurke von cpu gepaart mit dem schneckenähnlichen ram.

Nennst du das respektvollen und erwachsenen Umgang?

Nachtrag: @Scrush Ja, du hast natürlich recht, hier waren/sind einige Tippfehler drin. Das kommt schon mal vor, wenn man noch schnell was tippt, bevor man weg muss - sollte aber nicht vorkommen. Habe deine Korrekturen gern eingefügt.
 
Zuletzt bearbeitet: (Scrushs Korrekturen eingearbeitet)
  • Gefällt mir
Reaktionen: Meleager, KickiSurface, v_ossi und 2 andere
Die Frage ist ja nicht ob mehr FPS besser sind, denn das sind sie, daran zweifelt keiner. Allerdings gibts die mehr FPS nicht umsonst. Entweder du musst in die passende Hardware investieren, was mitunter sehr teuer sein kann und/oder Details/Auflösung reduzieren, was nicht jeder möchte.

Und genau das FPS vs. Kosten vs. Details/Auflösung muss doch jeder bitte selbst für dich entscheiden. Für den einen sind das dann Dimensionen für den anderen an der Wahrnehmungsgrenze.
 
Scrush schrieb:
denn dazu braucht es diesen artikel nicht da sowas subjetives logischerweise nicht objektiv darstellbar ist.
Und wo sind die genutzten Einstellungen und die daraus resultierende Wertung hier im Test "objektiv"?
Da wird dann gesagt, ja man kann mit einer 5700XT Modern Warfare mit 1440p 144fps haben, aber bei 90% Renderskalierung und ansonsten alles auf Minimum.

Bei Destiny 2 wird dann gesagt, man kann mit der 5700XT keine 144fps erreichen, dabei lag man mit 140 nur knapp darunter und hat hier nichts ander Renderskalierung geändert, ansonsten wäre man auch hierauf die 144 gekommen.

Dabei bietet Destiny 2 ebenfalls die Änderung der Renderauflösung an, warum hat man das hier erst bei 4K genutzt, dort auch noch auf den gleichen Wert wie bei Modern Warfare gesetzt, aber in 1440p hat man sie nur bei Modern Warfare reduziert?
Die Ergebnisse sind also auch wieder völlig davon abhängig ob jemand so spielen will, man hätte sie auch überall auf 50% setzen können und sagen können alle GPUs schaffen überall 144fps.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: yummycandy
eax1990 schrieb:
Also ich will nix sagen, aber als ich Red Dead Redemption 2 auf der PS4 Pro gespielt hab war es mMn. unspielbar, aber Jeder hat seine Ansprüche oder eben leider offensichtlich überhaupt keine.

Sobald es aber genau sein soll, würde ich so nicht mehr spielen wollen - RDR2 ist n Casualgame ohne große Anforderung an Spielerisches Können, aber selbst dort ist die Leistung einer Konsole so schlecht, dass man ständig den Autoaim Assist neu drücken muss und das Spiel für sich selbst spielt, weils als Spieler kaum möglich ist das Crosshair mit dem Lag noch auf einen laufenden Gegner zu bekommen.

Du Redest mir aus der Seele, mir unverständlich wie man mit dem 30FPS geruckel spielen kann. Habs hier auch für die One X liegen und absolut unspielbar. Selbst wenn ich die Glättung vom TV dazu schalte mit utopischem Input lag verbessert es zwar etwas das gestottere. Es bleiben dennoch lächerliche 30fps und somit unspielbar. Derzeit hab ich nen 155Hz Monitor und auch ich schiele schon auf die 240-360hz panel
 
ich sag mal folgendes dazu.

ich finde das reduzieren der auflösung kein Lösung. denn wozu hat man denn einen nativen 4k monitor oder wqhd/uwqhd monitor wenn man dann runterskaliert

skalierung ist jedoch eine andere einstellung für die auflösung, nicht details :)

ich hab das runterskalierne mal testweise bei rdr2 auf 1440p probiert. dort auf 90% gestellt. ist für mich keine option die fps richtung 144fps zu drücken
 
Looniversity schrieb:
Niedrige Settings sehen auch auf großer Auflösung noch schlecht aus, da ändert der Rest nichts dran.

Hohe Settings mit niedriger Auflösung aber auch. Ist ja nicht so, als wäre das wirklich besser.
 
SethDiabolos schrieb:
Hohe Settings mit niedriger Auflösung aber auch. Ist ja nicht so, als wäre das wirklich besser.
Also wenn ich zwischen 1080p Ultra und 1440p medium die gleichen FPS habe und mich entscheiden müsste, würde ich 1080p Ultra nehmen, da der Sprung von Ultra auf medium meist sehr viel mehr an der Optik ändert als der Sprung von 1440p auf 1080p
 
  • Gefällt mir
Reaktionen: Looniversity
Was ich ein bisschen doof an dem Test finde, dass man häufig an das CPU Limit gestoßen ist. Warum dann nicht erstmal ein anderes Testsystem mit stärkerer CPU nehmen? Ich mein wer solche FPS Zahlen erreichen will, der holt sich doch sicher das stärkste was am Markt verfügbar ist und übertaktet dann bestimmt auch oder nicht?
 
Wäre ma besser auch Spiele zu nehmen die hier einige zocken: WoW, FFXIV, TESO mehr Open World Games. Die Spiele die schon in der Auflistung drinstehen sind meist schon 2-3 Jahre älter.
Ergänzung ()

mgutt schrieb:
Was ich ein bisschen doof an dem Test finde, dass man häufig an das CPU Limit gestoßen ist. Warum dann nicht erstmal ein anderes Testsystem mit stärkerer CPU nehmen? Ich mein wer solche FPS Zahlen erreichen will, der holt sich doch sicher das stärkste was am Markt verfügbar ist und übertaktet dann bestimmt auch oder nicht?

Soweit würde ich nicht denken. Ich zb habe eine Ryzen 7 3700X und das ist nicht mal ansatzweise das höchste und trotzdem kriegt man bei akutellen spielen recht eine hohe FPS.
 
Warum sollte man Spiele wie Tomb Raider mit minimalen Settings spielen wollen?
In so einem Spiel ist es recht unerheblich ob da hohe FPS anliegen oder nicht, aber auf niedrig sieht das direkt aus wie Grütze.

Eine 2080ti ist zu langsam für 144fps und hohe Details in dem Spiel und auf die Idee, die Details zu reduzieren, bin ich nie gekommen.
 
  • Gefällt mir
Reaktionen: Looniversity
SethDiabolos schrieb:
Hohe Settings mit niedriger Auflösung aber auch. Ist ja nicht so, als wäre das wirklich besser.

Klar ist das besser, vor allem, wenn man sich obendrein noch das extra Geld für einen zu großen Bildschirm spart anstatt die Kohle dafür rauswirft, sich über solche Kompromisse überhaupt Gedanken machen zu müssen. Und FHD+ ist auch nicht gerade low res... das zu behaupten ist schlicht falsch.

Aber, wie gesagt, jedem das Seine. Mancher will halt gerne Geld ausgeben, das sei unbenommen. :)
 
mgutt schrieb:
Was ich ein bisschen doof an dem Test finde, dass man häufig an das CPU Limit gestoßen ist. Warum dann nicht erstmal ein anderes Testsystem mit stärkerer CPU nehmen? Ich mein wer solche FPS Zahlen erreichen will, der holt sich doch sicher das stärkste was am Markt verfügbar ist und übertaktet dann bestimmt auch oder nicht?
Sowas muss man aber erst mal verfügbar haben. Du könntest ja CB mal einen 10900K spendieren, dann holen sie das vielleicht nach.
Und der Grundgedanke des Themas ist meiner Meinung nach mit den Ergebnissen eindeutig erfüllt.
 
Aber ~110 fps sind halt immer noch besser als 60, wenn man an nem 144 Hz TFT gewöhnt ist. :)
 
Ich glaube das ist so eine klassischer Sache, bei der man nicht mehr zurück kann, wenn man es einmal erlebt hat. Spiele an einem Monitor mit FreeSync und 120Hz, wobei es sich meines erachtens ab 70 FPS okay und ab 90FPS gut anfühlt. Witzigerweise kann ich seither auf meinem Notebook, welches einen 60Hz Monitor hat, nicht mehr wirklich mit Genuss spielen.
 
Ist die Grafik in FPS-Shooter auf low settings stellen nicht so was wie cheaten oder Doping? Hat man dadurch bessere Sicht oder Überblick? Dann sollte es doch sanktioniert werden. Oder nicht? :) Das wäre doch mal ein Thema. Ich verliere lieber mit guter Grafik als das ich mit Medium/Highend Hardware auf low stellen würde.
 
@Creekground
In meinem Umfeld ist es völlig normal Competitiveshooter auf minimalen Details zu spielen. Ich wurde lange ausgelacht, weil ich es nicht so mache.
 
Scrush schrieb:
diese leute haben dann halt einfach pech. sorry. ist einfach so. kann ich nix für wenn diese es nicht warnehmen.

Der großteil tut es nämlich

Niemand braucht dir dafür leidtun, keine Sorge. Allerdings stimme ich auch hier mit der @Taxxors impliziter Aussage überein, dass das so nicht belegbar ist, denn nicht jeder Spieler hat den Unterschied schon erleben dürfen - tatsächlich dürften jene mit klassischen 60 Hz-Bildschirmen nach wie vor in der weiten Überzahl sein.

Mein Punkt war aber sowieso lediglich, dass der von dir (korrekterweise) unterstellte objektive Vorteil sich nicht zwingend in einen tatsächlichen Vorteil übersetzen lässt, womit die Frage, was "besser" oder gar "notwendig" ist, sich ohnehin erübrigt.

Dass CB diesen Artikel veröffentlicht hat, taugt im Übrigen nicht als Beleg dafür, dass "der Großteil" Unterschiede in der Bildwiederholrate feststellen kann, da die hier aktive Zielgruppe ganz klar nicht repräsentativ für den Durchschnitt ist. Insofern ist deine Aussage vermutlich eher auf erfahrene Spieler und Enthusiasten ausgerichtet, was sich in deiner Formulierung aber nicht wiederfindet.


Scrush schrieb:
dein ernst? sind wir hier im kindergarten?

Das ist einfach nur direkt und ehrlich. Das war weder persönlich noch irgendwie abwertend oder beleidigend gemeint. Das seine CPU nicht die beste ist, ist halt so. also bitte, als wären wir hier im krabbelkurs..

ich hab gurke eh schon gegen kacklahm und schneckenähnlich gegen saulahm getauscht aber wenn das immer noch zu hart ist dann weis ich auch nicht

Der Ton macht die Musik. Wie du etwas meinst, ist im Zweifel vollkommen egal, wenn es anders ankommt. Und die vier Begriffe, die du im letzten Satz synonym füreinander verwendest, transportieren allesamt einen abwertenden Tonfall - sicher ist auch dir die Konnotation dieser Worte klar.

Klar kann man der Auffassung sein, dass wir hier "nicht im Kindergarten" sind und die Leute so etwas im Zweifel vertragen können sollten. Ebenso gut kann man jedoch argumentieren, dass genau eine solche Ausdrucksweise nicht in einen erwachsenen Diskurs gehört und somit wesentlich dazu beiträgt, die Konversation auf "Kindergartenniveau" zu verlagern. Insofern widersprichst du die hier schon ein wenig selbst. Nichts für ungut.

-----------------------------------------------------


@topic: Für mich persönlich kommt Grafik auch zuerst. Zwar sehe ich es nicht als ungewöhnlich an, Spiele auf "low" zu zocken, um mehr Performance zu erhalten, gerade bei Spielen wie CS wird das von vielen ja fast gewohnheitsmäßig gemacht.

Für mich persönlich kommt Optik allerdings zuerst, sofern genügend Leistung für 60 fps vorhanden bleibt (was umgekehrt aber nicht bedeutet, dass man nicht mal runterschalten kann, wenn Einstellungen kaum Mehrwert bringen - es muss nicht immer "Ultra" sein). Der 165 Hz-Monitor wird dann ausgefahren, wenn das Spiel es zulässt. Aber natürlich hängt das auch am Genre, arg viele wirklich schnelle Spiele zocke ich dieser Tage nicht.
 
  • Gefällt mir
Reaktionen: Xul, adAstra, v_ossi und eine weitere Person
dynastes schrieb:
Niemand braucht dir dafür leidtun, keine Sorge. Allerdings stimme ich auch hier mit der @Taxxor s impliziter Aussage überein, dass das so nicht belegbar ist, denn nicht jeder Spieler hat den Unterschied schon erleben dürfen - tatsächlich dürften jene mit klassischen 60 Hz-Bildschirmen nach wie vor in der weiten Überzahl sein.

ja korrekt. aber worauf willst du denn hinaus?

nur weil eine anzahl an Personen etwas nicht erlebt hat, kann man doch nicht sagen dass es nicht relevant ist :confused_alt:

wobei ich mich an die aussage von taxxor jetzt nicht im detail erinnern kann.


Ergänzung ()

Creekground schrieb:
Ist die Grafik in FPS-Shooter auf low settings stellen nicht so was wie cheaten oder Doping? Hat man dadurch bessere Sicht oder Überblick? Dann sollte es doch sanktioniert werden. Oder nicht? :) Das wäre doch mal ein Thema. Ich verliere lieber mit guter Grafik als das ich mit Medium/Highend Hardware auf low stellen würde.
wenn es um geld geht wirst du das sicher nicht mehr machen :D

ja in einigen games sieht man bei low settings besser. z.b. weniger gras, hellere ecken dank deaktiviertem schatten oder Ambient occlusion,

einfachere texturen um gegener besser zu spotten.

nimm einfach mal cs. 1.6 und battlefield 1/5 her.

in cs ist quasi alles steril und so undetailliert, dass sie ein modell sofort erkennen läst.

in bf ist so viel zeug im sichtfeld und so viele verschiedene farben usw.. dass man manchaml ausm nichts gekillt wird obwohl er vor dir steht.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben