Test Fortnite, LOL, PUBG & Co.: Mittelklasse-GPUs von AMD und Nvidia im Benchmark

@joomoo

Das tun sie ja auch nicht bei den schnellsten Karten? Oo Hast du dir die Tabelle mal angeschaut für LoL? Sowohl bei den FPS als auch bei den PErcentiles ist klar das CPU Limit zu erkennen und die KArten liegen alle gleich auf abgesehen von Messtoleranzen...

Das die langsameren dann irgendwann nicht mehr ins CPU Limit rennen ist klar, aber man würde eben für die 1060 und 580 etc. die Ergebnisse verfälschen. Deswegen fließen sie nicht ins Gesamtergebnis ein. Du kannst dir doch die LoL Tabelle gesondert anschauen, wenn dich genau das Game interessiert.
 
Zuletzt bearbeitet von einem Moderator:
tic-tac-toe-x-o schrieb:
Warum ist League of Legends bei der gesamten Performancerating nicht dabei?

Weil du das Ding auch auf einer Kartoffel spielen kannst... selbst die 1030 bringt da noch fast 60FPS... in 4K und die großen Karten im Test rennen ins CPU Limit und damit ist die Aussagekraft dahin.
 
Grafikkarten-Benchmarks in 1.920 x 1.080 und 2.560 × 1.440
Kein einziges Spiel in 2560 x 1440 getestet. Ganz großes Kino. :rolleyes:
 
Janxx schrieb:
Bier... check!
Popcorn... check!
...
Kann losgehen mit dem "Es ist total unfair, wie Ihr AMD-Karten testet...

Das ist falsch, die Spiele sind nur absichtlich zum Nachteil von AMD optimiert :evillol:
 
Moment mal kurz. Dann ist mir noch aufgefallen, dass LoL wohl mit 4K getestet worden ist. Ich hätte gern noch das Ergebnis für 1080p gesehen (auch wenns langweiliger aussehen würde), einfach weil die Klienten, die mit dem Test angesprochen werden, generell "nur" 1080p fahren. Wer hat schon ein 4k Monitor mit nem 1060 oder 580 (und vor allem darunter...)?
 
-Ps-Y-cO- schrieb:
was Leistet denn ein 2400G in diesen gesamten Spielen???

Bin mir eigentlich Sicher dass sie Zwischen der 1030 und der 560D liegt. Eher aber Tendenziell näher bei 560D!

Dann solltest du lieber deine sichere Denkweise überdenken.
Denn der 2400G ist so weit von der 560D weg wie die GT 1030.
Beide (2400g und 1030) liefern nämlich im Rahmen von ein paar Ausreißer gut vergleichbare Ergebnisse:
https://www.techspot.com/review/1574-amd-ryzen-5-2400g-and-ryzen-3-2200g/page4.html

Und die 560D ist ja nichts anderes als die alte 460 als man den Vollausbau des Chips noch der WX-Serie vorbehielt.
https://www.computerbase.de/2017-06...schnitt_benchmarks_in_dota_2_overwatch_und_co
 
@tic-tac-toe-x-o

DU hast doch das CPU Limit bei 4k bei der 1060 und 580 etc. Genau da landen alle anderen Karten bei Full HD auch. Weil CPU Limit und so und Auflösung das CPU Limit nicht weiter ändert. Auflösung ist nahezu ausschließlich Graka relevant...
 
Mustis schrieb:
Das die langsameren dann irgendwann nicht mehr ins CPU Limit rennen ist klar, aber man würde eben für die 1060 und 580 etc. die Ergebnisse verfälschen.

Warum würden die Ergebnisse verfälscht werden? Die 1060 würde näher an die 580 rücken, aber die Reihenfolge wäre die selbe. Aber da es hier ja gerade NICHT um AAA-Titel geht, finde ich es richtig wenn im Performancerating auch deutlich wird, dass sich schnellere Karten nicht mehr so sehr lohnen.

Und das Argument, dass man ja die Tabelle gesondert anschauen kann, kann ich für jedes Spiel bringen. Beim Performancerating erwarte ich *alle* getesten Spiele.
 
tic-tac-toe-x-o schrieb:
Warum ist League of Legends bei der gesamten Performancerating nicht dabei?
Weil es das einzige ist das man in 4k getestet hat. Alle anderen Games sind "vergleichbar" @1080p.

EDIT: @1080p = ~140 FPS für alle Karten bis runter zur 1050 / RX 560 oder sogar noch darunter.

auf 1080p läuft LOL auf jeder Intel IGP mittlerweil mit 60FPS in hoch.

Warum testet man WoT - enCore eigentlich mit Mittel Preset ? Ich fahre das Game auf meiner R9 380 mit Max (nur motion blur ist aus) und hab in der Regel 60FPS @V-Sync mit drops bis auf 45 ab und an. Vermutlich sind die Drops aber meiner CPU geschuldet (FX-6300).
 
Zuletzt bearbeitet:
Wie kommt's, dass die GT 1030 hier doch ein Stück schneller ist als die RX 550? Beim letzten Test war es umgekehrt. Nur wegen 2GB statt 4GB? Sollte ja bei niedrigeren Auflösungen/Einstellungen nicht so ins Gewicht fallen.
 
Bitte erzähl uns mehr von deinem Mining-Vorhaben und wie sich die Karten dort schlagen, und wie viele Karten du schon hattest! Das interessiert uns hier alle brennend. Niemand hier möchte eine neue Grafikkarte zu humanen Preisen kaufen um damit hochauflösende Displays und Gaming zu betreiben, wir wollen ja auch alle nur minen. Und die Mining-Performance kann man ja 1:1 auf die Gaming-Performance übertragen, ne? :freak:



CastorTransport schrieb:
Also ich hatte sowohl die 560, als auch die 570 und die 580 zur Hand Anfang Januar. Am besten gefallen hat mir da die RX 570. Gut, ich habe nur auf Basis der Miningfähigkeiten getestet, aber allein dort hat die 570 mehr als die doppelte Leistung gehabt (10,x MH/s vs 23,7MH/s)... Die 580 ist eigentlich ein Witz, da sie kaum was zur 570 rausholt. Da lohnt der Aufpreis nicht.
 
DeadEternity schrieb:
@Randy2k7: Exakt, und wenn man eine OC Variante der RX470 betreibt liegt man schnell auf 480/570/580 Niveau. Man kann sogar 1:1 das BIOS von ner RX570 drauf ziehen, zumindest geht das bei der RX470 Nitro+ von Sapphire ohne Probleme, selbst so gemacht. Nicht umsonst gab es bei Polaris Refresh den ultimativen Shitstorm in den Foren. Die paar Prozente kann man immer duch OC/BIOS Mod wettmachen.

Polaris ist eh stark Bandbreitenlimitiert. Daher gibts keine so großen Unterschiede, limitierend ist nicht die Rohleistung, sondern der Speicher. Sieht man auch gut beim Speicher OC. Da skaliert der Takt sehr gut, mehr GPU Takt hingegen bringt kaum mehr Leistung.

s0ja schrieb:
Bitte erzähl uns mehr von deinem Mining-Vorhaben und wie sich die Karten dort schlagen, und wie viele Karten du schon hattest! Das interessiert uns hier alle brennend. Niemand hier möchte eine neue Grafikkarte zu humanen Preisen kaufen um damit hochauflösende Displays und Gaming zu betreiben

Jeder darf mit seiner Grafikkarte machen, was er will. Und wenn du mit ner 1080Ti einen Nagel in die Wand kloppen möchtest, kannst du sie auch als Hammer verwenden.

Sicherlich ärgert es viele Leute, aber jeder hat wohl das gleiche Recht auf Hardware und Angebot und Nachfrage regeln den Preis. Wenn du eine karte zum minen nutzen willst, kostet die ja nicht plötzlich weniger. Und ganz ehrlich Gaming ist nun auch unbedingt Lebensnotwending.

Da muss man halt in den Sauren Apfel beißen und mehr Geld für sein Hobby ausgeben (Gaming ist eh ein im Vergleich günstiges Hobby), oder man verzichtet auf bestimmte Auflösungen und Settings. Du wirst zur Not überleben, wenn du ein Spiel mal nicht in Maxsettings oder nur in Full HD spielen kannst. Zur aller gröten Not kannst du dir auch eine xbox One X für 499€ kaufen.

Aber immer dieses missbilligende. Jeder darf mit seiner gekauften Hardware machen was er möchte und unser Wirtschaftssystem regelt entsprechend die Preisfrage. und nein, ich mine nicht! Ich hasse nur dieses Schubladendenken und diesen Egoismus.
 
Zuletzt bearbeitet:
RX580 und GTX 1060... Mittelklasse GPU‘s für fast 400€.

Ich glaub in diesem Test hat wohl nur so ein GTX 1050 und ein GT 1030 das beste P/L Verhältnis.

Die RX550 kannibalisiert, warum auch immer, die RX560 und die GTX 1050 Ti kostet bald ja fast das doppelte als die ohne Ti.
 
Pizza! schrieb:
Immer das Gemecker bei jedem Test. Wie sollen die Tests denn in Zukunft aussehen?
10 auf AMD optimierte Spiele damit es "fair" ist?

Nein, einfach League of Legends mit in das Performancerating reinnehmen. Wer meint, dass es die Ergebnisse verfälscht kann ja den Haken bei "Einfließende Diagramme" entfernen.

Aber so wie es jetzt ist, gibt es z. B. keine Möglichkeit es dazu zu nehmen und es wird auch (in diesem Artikel) nicht erwähnt, warum es rausfliegt.

Als Kompromiss hätte man es ja auch per Default rausnehmen können, aber die Checkbox als Möglichkeit hinzufügen können.
 
Wie kommt es eigentlich das Rainbow Six Siege eine so gut auf die GCN Architektur optimierte Engine hat? Da sind ja die Frametimes und die Durchschnitts-FPS extrem gut im Vergleich. Das sticht wirklich aus dem Test heraus.
 
Sind wir jetzt schon so weit dass eine GTX 1070 als "High-End" zählt? (Kopfschüttel)

Ok durch (das nach oben) verschobene Preisgefüge sind die Käufer verständlicherweise verwirrt und ordnen Karten oft eine Klasse höher ein.

Bei Nvidia ist die Klasse durch durch die Endung in der Chipbezeichnung eindeutig zu unterscheiden. Der Kaufpreis spielt dabei ÜBERHAUPT KEINE Rolle.

Low-End = GP106 (GTX 1050 Ti & GTX 1060)
Midrange = GP104 (GTX 1070 & GTX 1080)
High-End = GP102 (1080 Ti, Titan X)

Die Klasse "Enthusiast" gibt es Hardwareseitig nicht! Es sind nach wie vor High-End Chips, die teurer verkauft und leider auch gekauft werden.
 
Zuletzt bearbeitet:
@CB
Leider ist die Reihenfolge der Tests irgendwie genau falsch herum.
Der Test solcher Titel auf High-End-Karten kam zuerst, ist aber eigentlich genau der am wenigsten interessante.
Man weiß doch dass die Spiele eher geringere Anforderungen haben als AAA-Titel.
Warum checkt man die Leistung nicht von unten nach oben?

Was ich jetzt gerne noch hätte, wären die 2000er-Ryzen-APUs in genau diesem Parcour.

Stev010881 schrieb:
Low-End = GP106 (GTX 1060 & GTX 1050 Ti)
Midrange = GP104 (GTX 1070 & GTX 1080)
High-End = GP102 (1080 Ti, Titan X)

Erst so rumklugscheißen und auf der Bezeichnungen rumreiten, die nun in den letzten Jahren wirklich JEDER, inklusive der Hersteller so wählt, wie er gerade will, und dann aber so einen Schwachsinn vom Stapel lassen.
Ich stimme ja zu, dass High-End vom Namen her wirklich das obere Ende markieren muss.
Aber was du da verzapfst ist kompletter Murks.

Zunächst mal sind 1050 und 1050Ti GP107.
Und dann kommt darunter noch die 1030 mit dem GP108.
Also wenn du schon meinst dir selbst ein weiteres Bild dieser Kategorisierung malen zu müssen UND allen erzählen zu müssen, das sei das einzig wahre, dann denk dir wenigstens noch ein paar weitere Kategorien aus und male ein sinnvolles Bild. Denn unter dem Low-End kann es rein logisch genausowenig noch 2 weitere Chips geben, wie über dem High-End noch irgendetwas zu finden sein kann.

Stev010881 schrieb:
Auch wenn das einigen Leuten sauer aufstoßen mag: Der Kaufpreis sagt GARNICHTS über die Einstufung aus.

Der Chip allein aber auch nicht. Bei NVidia geht das aktuell, weil die zZ in allen Klassen aktuelle Chips aus derselben Generation verwenden. Es ist aber auch durchaus möglich (und war auch schon so), dass z.B. Chips vorheriger Generationen recycled werden. Diese Klassifizierung richtet sich nämlich nach dem Markt bzw. Herstellerportfolio und nicht danach, mit welchen Chips der Hersteller dieses Segment bedient.
Wenn sich NVidia z.B. mangels Konkurrenz im Gaming-Bereich entscheidet nächstes Jahr den G(T?)102 nur für professionelle Zwecke zu vermarkten und im Gaming-Bereich mit einem 104er auszukommen, dann ist der halt am dann aktuellen Markt High-End.
 
Zuletzt bearbeitet:
Zurück
Oben