Test Fortnite, LOL, PUBG & Co.: High-End-Grafikkarten von AMD und Nvidia im Benchmark

TenDance schrieb:
Es geht nicht darum dass Du FPS "siehst", sondern darum dass ein normaler Monitor das Bild - und damit die Information - nur per frame erneuert. Sprich, in schnellen Spielen ist die Realität auf dem Server schon weiter während Dein Monitor ein "altes" Bild anzeigt. Bei DotA, LoL etc reagierst Du auf den Gegner wenn Du siehst dass eine bestimmte Animation einsetzt. Du hast online Latenz, Dein Rechner generiert Latenz, der Monitor wäre dann ein weiterer Punkt der dafür sorgt dass Du die Information "zu spät" erhältst. Für 99% der Spieler wird es keinen Unterschied machen - sie wollen dennoch die besten Voraussetzungen schaffen - aber für top Spieler hat das absolut Relevanz.

Kompetitive beat-em ups werden wegen so etwas teilweise ausschließlich auf CRTs gespielt, weil man die frames früh erkennen muss.

kann dir nicht folgen was du damit sagen / deuten möchtest...
es ist klar das mit der bestmöglichsten GPU du die FPS ins Endlose treiben möchtest um diesen Flaschenhals bestmöglichst aus zu schließen und ggf. zu kompensieren, ebenso ist bei Online Games in gewisser Weise alles nach dem Server als Peripherie an zu sehen und jede Komponente die irgendwie mit den Daten/Eingabe in Berührung kommt, bringt dir eine Verzögerung, in welchen Ausmaß auch immer - aber ich wollte ja nicht auf das hinaus - sondern auf die Wahrnehmung...
 
@ Waelder

Also ich erkenne auch ohne Fraps auf einem 144Hz Monitor, ob mein Spiel deutlich unter oder über 70 fps läuft. 70 fps ist meine persönliche Grenze. Alles darunter empfinde ich leicht hackelig, verzögert bzw. schwammig. Habe ich jedoch mehr als 70 fps, dann ist das Spielgefühl wie ich es erwarte und das Spiel "macht was es soll".

Ich könnte also nicht, reinen vom Zusehen, sagen ob Du gerade beim Spielen deines Lieblingsspiels mehr oder weniger als 70 fps hast, da ist Fraps wahrlich besser.
 
Also in PUBG muss ich bspw. sagen dass die RX56 mit Freesync sich -deutlich- besser angefühlt hat als die GTX1080Tti jetzt ohne.
Zum restlichen Test muss man halt sagen, dass die AMD-Karten auf den großen Kassenschlagern oft nicht ganz so gut liefen, aber eben trotzdem ausreichend gut. Dazu muss man im Vergleich dazu anrechnen, dass im Vergleich ein FreeSync-Monitor weniger kostet als ein G-Sync. Außerdem sieht man hier im Test ja dass es besser für AMD aussieht wenn man die Frametimes dazu hinzurechnet.
 
168 FPS in WoW? Wenn keine anderen Spieler in der Nähe sind vielleicht. Bei einem MMO ein sehr nützlicher Benchmark. :D

Im 20er Raid wohl eher 15-30 FPS, je nach CPU und installierter Addons. Aber da ist die GPU dann auch fast egal.
 
>Denn in den meisten Spielen hat Nvidia auch bei den Frametimes größere Vorteile gegenüber AMD. Doch in zwei Titeln geht AMD als der klare Sieger vom Platz.

Die 1080 hat zwar bessere Frametimes als die Vega64, aber die Vega56 hat bessere Frametimes als die 1070. Insofern ist es doch Stuss einen "größeren Vorteil" für Nvidia zu sehen.
 
Dass in einem Forum von Hardwareenthusiasten die Wichtigkeit von FPS in solchen Spielen nicht ernst genommen wird finde ich nicht nachvollziehbar.

https://www.youtube.com/watch?v=hjWSRTYV8e0

Mehr ist hier einfach besser. Der positive Effekt wird nur irgendwann immer kleiner. Für Leute die competitive spielen ist das eben wichtig. Ich merke super deutlich wenn meine FPS unter 200 sind in CS:GO. So deutlich wie bei keinem anderen Spiel. Aber auch bei PUBG fühlt sich 120 auch viel besser an als 90.

Haben mal auf einer LAN das Experiment gemacht mit FPS-Limits bei CS:GO. An einem Rechner wurden FPS-Limits eingestellt, die in Durchgängen immer höher wurden. Ohne Limit wurden auf der Map um die 500 fps erreicht. Dann wurden für jeden Probanden zwei Settings präsentiert, einmal mit und einmal ohne Limit. Jeder hatte 10 Sekunden Zeit pro Setting. 7 von 10 Leuten haben noch den Unterschied von 220 fps zu unlimitierten gemerkt. 2 Leute haben noch bei 280 fps eindeutig das Limit erkannt. Die beiden haben in 5 Versuchen immer den Unterschied von 280 zu 500 fps gemerkt.

Erst ab 320+ kamen wir dann in Richtung Ratewahrscheinlichkeit.
 
Ich finde es ja gut, dass ihr in einem Artikel über High-End-GraKas nicht nur die 1080 Ti, sondern auch die Mittelklasse GraKas 1080 und 1070 dabei habt. So sieht man, dass schon die obere Mittelklasse von Nvidia (also die 1080), die High-End-Karte von AMD (also die Vega64) mühelos schlägt. Aber in der Tabelle auf Seite 3 hab ihr bei Nvidia die High-End-Karte weggelassen und es geht mit der oberen Mittelklasse (also 1080) los. Hat das einen Grund? Ihr macht das ja öfter, aber in einem Artikel, in dem es explizit um High-End geht, sollten die High-End-Karten BEIDER Hersteller in allen Tabellen aufgeführt sein.
 
das ganze ist doch paradox!...ich spiele auf 4k und das sieht sooo gut aus!! nur muss ich dann die Grafik runterdrehen um im competitive games mithalten zu können:freak: aua!
 
PUBG wurde nicht in 4k getestet? Warum? Genau da hätten mich die FPS ja interessiert. Ich spiele mit 6700k und ASUS Strix OC 1080 Ti und habe zwischen 70 - 80 fps, jedoch schwankt es PUBG-typisch im Verlauf des Spiels, manchmal rauf auf 100, manchmal runter auf 30.
 
Find ebenfalls schade, dass nicht FHD drin ist. Massenspiele, aber dann nicht die Massenauflösung.

Anstatt Auflösung hättet ihr dann die Details maxen können, um das CPU Limit zu umgehen.
 
Janxx schrieb:
Warum ist es sooo schlimm für viele hier, dass die NV-Karten hier bei diesen Spielen besser sind? Kratzt es an Eurem Ego, dass Ihr nicht die Nr.1 Karte habt oder warum kommt es immer wieder zu diesen unsachlichen Beißreflexen?

Gar nicht, nur das man daraus keine grundsätzliche Schlußfolgerung ziehen kann, wie im Artikel geschehen (da es kein fairer Vergleich ist ... nur die aktuell meist gespielten/verkauften Titel herangezogen werden die überwiegend einen GPU-Entwickler begünstigen), und dass es wieder unnötige Werbung für die Produkte des Marktführer ist und die Preise nicht ohnehin schon daneben sind, sehe ich wenig Bedarf dafür aktuell ...

... aber hey, es müssen ja Empfehlungen zum Grafikkartenkauf basierend auf fragwürdiger Spielauswahl bei den für Verbraucher extrem nachteiligen Marktbedingungen gemacht werden, damit auch morgen für Chipentwickler, Boardpartner und Händler (und dann wohl auch für CB?) der Rubel weiterhin rollt ;) ...

... also GPUs zu den aktuellen Mondpreisen kaufen, kaufen, kaufen und zwar jetzt sofort basierend auf diesem Artikel, dann sind sie vielleicht schon morgen wieder teurer und man hat einen Gewinn gemacht :lol: ...

... die Nr. 1 Karte/Balkenlänge scheint Dich ja mehr zu interessieren, mir geht es eher darum dass man etwas damit anfangen kann, nur bringen so ein Vergleich und daraus gezogene fragwürdigen Schlüsse wie hier im Artikel wenig, wenn die Karten z.T. schon vorher gezinkt sind (in Abhängigkeit speziell von Spiel und Entwickler) ...

... ob es ein paar fps mehr oder weniger sind, ist für mich auch nicht ausschlaggebend (in der gleichen Leistungsklasse), zumal ich noch mit einer 6 Jahre alten GPU (vom Marktführer) herumgurke, aber bei GPUs und CPUs wird das hier gerne von einigen überbewertet ;).
 
Zuletzt bearbeitet:
Hallo!
Die Treibereinstellungen werden auf dem Standard belassen, einzig spezielle Optimierungen wie das theoretisch mögliche Anpassen des maximalen Tessellation-Levels bei AMD werden abgeschaltet.
Schade, aber das lassen doch die meisten auf Standard. Ist halt nVidia-Domäne.
Da hätten sie ja auch DirectX 12 sowie Mantle/Vulkan mittesten können.
Das macht bestimmt auch etwas aus bei einigen Spielen.

Pisaro schrieb:
nagus schrieb:
"online spiele rating" ... was soll der blödsinn? heißt das, AMD ist bei allen "online spielen" deutlich langsamer? mmmhmm...wieder mal eine sternstunde für CB. bravo nvidia/intel pressemaschine. gratuliere.
Wenn dann viele Spiele die CB getestet hat, nicht alle. Es ist halt so.
Soll CB die Benchmarks fälschen und Vega64 mit Abstand vor die 1080Ti setzen? Manche Leute... naja.
Nö, aber vielleicht fair in beide Richtungen die Spiele, Treiber und Einstellungen dazu raussuchen.

dr. lele schrieb:
Dass in einem Forum von Hardwareenthusiasten die Wichtigkeit von FPS in solchen Spielen nicht ernst genommen wird finde ich nicht nachvollziehbar.
[table=][tr][td]https://www.youtube.com/watch?v=hjWSRTYV8e0[/td][/tr][/table]Mehr ist hier einfach besser. Der positive Effekt wird nur irgendwann immer kleiner. Für Leute die competitive spielen ist das eben wichtig. Ich merke super deutlich wenn meine FPS unter 200 sind in CS:GO. So deutlich wie bei keinem anderen Spiel. Aber auch bei PUBG fühlt sich 120 auch viel besser an als 90.

Haben mal auf einer LAN das Experiment gemacht mit FPS-Limits bei CS:GO. An einem Rechner wurden FPS-Limits eingestellt, die in Durchgängen immer höher wurden. Ohne Limit wurden auf der Map um die 500 fps erreicht. Dann wurden für jeden Probanden zwei Settings präsentiert, einmal mit und einmal ohne Limit. Jeder hatte 10 Sekunden Zeit pro Setting. 7 von 10 Leuten haben noch den Unterschied von 220 fps zu unlimitierten gemerkt. 2 Leute haben noch bei 280 fps eindeutig das Limit erkannt. Die beiden haben in 5 Versuchen immer den Unterschied von 280 zu 500 fps gemerkt.

Erst ab 320+ kamen wir dann in Richtung Ratewahrscheinlichkeit.
Danke - das ist wirklich mal ein realitätsnaher Beitrag mit technischem Hintergrund und trotzdem leicht verständlich.

Grüße, MiMo
 
Da fehlt ja nur noch ein ProjectCars und man hätte alle CPU-limitierenden Spiele der letzten zeit zusammen.
 
Wenn man mal schaut, dass professionelle CS Spieler eh nur auf FHD zocken erscheint es wirklich etwas komisch, dass solche Spiele nicht auf FHD getestet werden.
 
Grundsätzlich hat ein Test, der nicht die gebräuchliche Bildschirmauflösung, also 1920x1200/1080, beinhaltet, recht wenig praktischen Nutzen.
Ich will nicht wissen, wieviel FPS ich in einer Auflösung habe, die ich nicht spiele!
Und solange mein Monitor mit 1920x1200 Pixeln aushält, ist es äusserst unwahrscheinlich, das ich mir einen anderen kaufe.

Und bei Steam macht 1920x1080 immer noch fast 77% aus.

Natürlich könnte es sein, das ich den baugleichen Alt-Monitor meines Vaters für eine Multimonitorlösung nutze und 3840x1200 fahre, wobei die Frage dann ist, ob dieser Test Multimonitoraussagen zuläßt?

Fragen über Fragen! ;)

PS: Wobei realitätsnahes Testen wohl eine Einstellung mit Minimumsetings wäre, weil alle Spieler, die ich kenne, ausser mir, der auf hohe Settings geht, als erstes immer die Settings auf Minimum setzen, um den größtmöglichen FPS-Vorteil zu haben - was den ganzen Test völlig obsolet macht!!!

Trotzdem thx for the try... :)
 
Zuletzt bearbeitet:
dr. lele schrieb:
Haben mal auf einer LAN das Experiment gemacht mit FPS-Limits bei CS:GO. An einem Rechner wurden FPS-Limits eingestellt, die in Durchgängen immer höher wurden. Ohne Limit wurden auf der Map um die 500 fps erreicht. Dann wurden für jeden Probanden zwei Settings präsentiert, einmal mit und einmal ohne Limit. Jeder hatte 10 Sekunden Zeit pro Setting. 7 von 10 Leuten haben noch den Unterschied von 220 fps zu unlimitierten gemerkt. 2 Leute haben noch bei 280 fps eindeutig das Limit erkannt. Die beiden haben in 5 Versuchen immer den Unterschied von 280 zu 500 fps gemerkt.
Erst ab 320+ kamen wir dann in Richtung Ratewahrscheinlichkeit.

Dass das stimmt werden Leute bis in alle Ewigkeit anzweifeln ("aber das menschliche Auge sieht eh nur 24 Bilder pro Sekunde" :freak: ), aber ich stimme dir zu. Auch dass bei nem 60hz Monitor mehr als 60fps nichts bringt ist quatsch. Wer behauptet das alles im Selbstversuch nicht zu merken hat entweder keine Reflexe oder schlechte Augen oder ist grobmotorisch und nicht gut in den jeweiligen Spielen. Mir reichen die 300fps die ich in cs:go rauskriege aus. Spiele auf WQHD und settings low bis auf AA. Treppeneffekt ist einfach nur nervig.
 
Blödsinniger Test! Die meisten spielen in 1080p, wieso wurde dies nicht mit getestet?
 
Schön zu sehen dass der nunmehr 6 Jahre alte Grundrechner (i7-3770k@4,5GHz + 16GB Ram) nebst der vorletztes Jahr für 380€ nachgerüsteten GTX1070 bis dato und voraussichtlich auch die kommenden 1-2..4 Jahre noch gut reichen wird um "Oben" mit zu schwimmen (..dank jahrelanger quasi-Stagnation im CPU Markt und aktueller miningbedingter Pricewall im GPU-Markt).

Sind ja schon Konsolenverhältnisse - mir gefällt´s ;) .
 
Zuletzt bearbeitet:
Zurück
Oben