Test Fortnite, LOL, PUBG & Co.: 14 Prozessoren von AMD und Intel im Benchmark

@ Gaugaumera

Deine Argumentation zwischen 1600 und 8400 wurde Heute von Steve (Hardware Unboxed) nochmal eindrucksvoll bestätigt.

https://www.youtube.com/watch?v=4fd_GXFBUtk

In sämtlichen Anwendungstests schlägt der R5 1600 den CL und in Spielen führt eben CL mit 10-15%, allerdings auch nur mit einer 1080ti, mit kleineren Karten negiert sich der Vorsprung des CL.
 
Keine Ahnung ob das bisher gepostet wurde, aber zu den schlechten Testergebnissen in LoL...

League of Legends hat seit dem Preseason Update (November 2017) bekannte fps-Probleme. Selbst bekannte Streamer und Profispieler mit Highend Hardware haben seitdem lächerlich niedrige fps. Das ist unter anderem angeblich auf die schlechte Optimierung des Patches (viele neue, fancy Partikel. Stichwörter: Aery/Comet Runen) und einige allgemeine Gaming Probleme mit Windows seit dem Fall Creators Update (gaming bar, "Spieloptimierung" von Windows) zurückzuführen. Riot arbeitet seitdem mit so gut wie jedem neuen Patch daran, diese Probleme zu beheben. Bei vielen Betroffenen hat es inzwischen geholfen. Andere, wie auch ich, haben immer noch durchschnittlich 70 fps in Teamfights... was absolut lächerlich ist, wenn man bedenkt, dass ich mit meiner Hardware vor dem Preseason Update durchschnittlich über 200 fps hatte. Und das mit Max Details damals.

Habe inzwischen auch schon alles auf minimale Details gestellt. Ergebnis:

Zu Beginn des Spiels, in der Base: 300+ fps
Minions spawnen: drop auf ~200 fps
Minions treffen in den Lanes aufeinander, Kamera auf der Lane, Minions und Champs im Bild: ~100 fps
Teamfights: r.i.p. fps

Immerhin... wenn ich den Client während dem Spiel beende, boostet das die fps spürbar um ca 50.

Meine Hardware: Xeon 1231 v3, GTX1060 (6GB), 16GB RAM
 
Zuletzt bearbeitet:
@DonL_:

Schönes Video von Hardware unboxed, sehr neutral gehalten. Ich gebe ihm auch da absolut recht, auch jetzt würde ich den R5 jederzeit vorziehen, aber wer nicht dringend kaufen muss, sollte die 10 Tage noch ausharren und sich die neue Generation ansehen.
 
@Aldaric87

Ich habe das "Gefühl", dass CL wesentlich heftiger auf RAM reagiert, als das noch Kaby Lake gemacht hat, vielleicht ist das auch eine Auswirkung von Meltdown und Spectre, auf alle Fälle tut sich Intel keinen Gefallen mit den non K CPUs und dem neuen B360 Chipsatz, da kauft man einfach ein kastriertes System, hier ist AMDs Politik bzgl. ihrer "offenen" CPUs und des kleineren B350/B450 Chipsatzes einfach vorbildlich.

Wer zum Henker legt für einen i5 8500 = 190€ und i5 8600 = 210€ auf den Tisch, wenn er für 220€ einen unkastrierten i5 8600k bekommt, bei dem das Z370 Board auch nicht, oder nicht wesentlich teurer ist, als ein B360 Board. Also wer die 30€ nicht hat und sich dann ein "völlig" kastriertes System kauft ist selber Schuld.
Der i5 8400 deckt mit 165€ diese Preissektion völlig ausreichend von der P/L ab, wenn es nur auf Budget hinaus läuft.
Der i5 8500 und i5 8600 sind mit dem B360 Chipsatz von der P/L Spanne gegenüber dem i5 8600k jedenfalls völlig überflüssig und werden von einem i5 8400 auf einem Z370 Board wohl geschlagen.
 
Zuletzt bearbeitet:
Rage schrieb:
@Vissi: Wo sind wir denn jetzt in der Diskussion angekommen? Bei (realistischeren) Anwendungsszenarien wie 4k? .

Nicht unbedingt 4k. Einfach nur bei realistischeren Anwendungsszenarien. Und Full-HD mit einer 1080ti ist so weit entfernt davon, wie ein Pierre Vogel, zu einem Jesus Christus.
 
Zuletzt bearbeitet:
@Vissi: Würdest Du bitte auch den Rest meines Kommentars lesen? Weder die Auflösung, noch die verwendete Grafikkarte* sind relevant für die Ergebnisse in diesem Test. Die GTX 1080Ti ist hier gewählt worden um zu zeigen, für wie viele fps die jeweiligen CPUs gut sind. Das kann man entweder benutzen, um für die angepeilte Bildwiederholrate einen Prozessor zu kaufen, oder dafür zu schauen, ob man die Grafikkarte, die man sich plant zu kaufen, bei den angepeilten Settings ausfahren zu können, der Test ist also höchst praxisrelevant.

Was ist mit meiner Frage? Noch nicht gelesen? Ohne Erfahrungen auf dem Gebiet würde ich an Deiner Stelle möglicherweise eher weniger über High Refreshrate Gaming von mir geben, vor allem wo es hier um E-Sports Titel geht, in denen das ein absolut realistischer und häufiger Anwendungsfall ist. Sogar bei Leuten mit 60Hz Monitoren.

* Direkt vergleichbar sind Maxwell / Pascal-Grafikkarten von nVidia, bei anderen Architekturen von nVidia könnte sich ein anderes Bild zeichnen, bei AMD-Grafikkarten arbeitet der Treiber anders, insofern können in diesem Fall bessere oder schlechtere Ergebnisse je nach Anwendungsfall herauskommen.
 
DonL_ schrieb:
@ Gaugaumera
Deine Argumentation zwischen 1600 und 8400 wurde Heute von Steve (Hardware Unboxed) nochmal eindrucksvoll bestätigt.
In sämtlichen Anwendungstests schlägt der R5 1600 den CL und in Spielen führt eben CL mit 10-15%, allerdings auch nur mit einer 1080ti, mit kleineren Karten negiert sich der Vorsprung des CL.


Da für mich Spieleleistung an erster Stelle steht, würde ich trotzdem zum Intel greifen. Was du ,,vergessen" hast zu sagen, ist, das die AMDs bei Blender deutlich mehr Strom fressen.
Der Intel mit 2666 RAM 94 Watt und der 1600 Stock mit 3200 RAM 155 Watt. Das ist schon mal ein deutlicher Unterschied. Nur was er beim Gamen verbraucht hat er nicht gezeigt.
 
@Neronomicon: Der Mehrverbrauch geht schon in Ordnung, die Blender-Leistung war dafür ja auch deutlich höher. Bis sich das in irgendeiner Form finanziell wirklich bemerkbar macht, muss schon wirklich viel Einsatzzeit ins Land gehen. Thermische Probleme entstehen dadurch mit dem beigelegten Kühler jedenfalls nicht.
 
Neronomicon schrieb:
das die AMDs bei Blender deutlich mehr Strom fressen.

Ist ja auch relativ egal, da er ja auch dementsprechend schneller ist. Das du dich natürlich für einen i5 entscheiden würdest, finde ich bei einem System in dieser Preisklasse extrem merkwürdig. Wer steckt zu einem i5 8400 eine 1080 Ti ? Wobei man ja auch sagen muss, dass der i5 8400 sich bald sowieso mit dem 2600 messen muss.
 
Neronomicon schrieb:
Der Intel mit 2666 RAM 94 Watt und der 1600 Stock mit 3200 RAM 155 Watt. Das ist schon mal ein deutlicher Unterschied.

Genau so deutlich wie der Unterschied von 6 zu 12 Threads....
 
Genau das wird im Video extra angesprochen.
 
Aldaric87 schrieb:
Ist ja auch relativ egal, da er ja auch dementsprechend schneller ist.

"dementsprechend" ist es aber nicht wirklich.

155W zu 94W sind 65% mehr
30s zu 37s sind 19% schneller
 
In anderen Tests ist er dafür erheblich schneller.
 
Schon richtig, wenn du aber viel und lange renderst, must du auch die "Mehrzeit" hinten draufschlagen.

Vereinfachte Rechnung 100-150 Watt aber 19% schneller bedeutet bei 60min Rendern für den schnellen Rechner, auch nochmal ~20 Watt mehr Verbrauch für den langsameren Rechner, um die Aufgabe zu bewältigen bevor er in den Idle kann oder ausgeschaltet wird. Somit relativiert sich das dann etwas.
 
Nur ist "rendern" oder gar die absolute Zeit die man wirklich "rendert" mit dem typischen Consumen wohl eher überschaubar klein. Wer rendert, wieso sollte der sowas wie nen i5 8400 oder x1600 holen. Dann doch gleich 8 oder mehr Kerne wie nen TR. Das skaliert ja fast linear.

Da is dieser Test von CB noch deutlich repräsentativer, nicht nur weil weit mehr zocken als rendern, sondern auch weil ein CPU Test über quasi nur perfekt Multi core skalierende Apps und Szenarien weit realitätsferner sind als Apps die sie ähnlich dieses Gaming Parcours verhalten. Auch da gehen die wenigsten mit mehr als 4 Threads um.

Natürlich muss man so testen um Unterschiede aufzuzeigen, sonst wäre ein i9 7980 XE immer langsamer als ein i7. Bei 95% der Anwender wäre er das im Alltag auch. Nur eben im CPU Parcours mit 99% Multithread Fokus nicht.

Edit. So gesehen bildet genau dieser Spiele Parcours vermutlich recht gut das typische Alltagsszenario und die Alltagsperformance ab. Eben weil diese Games nicht ideal skalieren. Eine 3GB/s M2 SSD ist im Alltag auch nicht 6x schneller als an Sata 3. Im sehr sehr speziellen Anwendungsfall ist sie das...
 
Zuletzt bearbeitet:
Naja, da beide Hersteller in den Spielen mehr als genügend FPS fabrizieren und man den LoL Teil wegen falscher Werte ausblenden kann, weiß man so viel wie vorher. Um wirklich einen sinnvollen Spiele-Parcours zu haben, muss man auch Titel reinnehmen, die auch skalieren, denn nur so kannst du sinnvoll auch die 6 und 8-Kerner in dem Test abbilden.

Das ein Uralt-LoL oder CS:Go nichts mit 6+ Kernen anfangen können, weiß man schon länger.
 
@Aldaric:
Aber ist ja für diesen einen Artikel ok. Ging ja nur speziell um E Sport Titel.

Es sollte halt verstanden worden sein, dasss dafür jede CPU ausreichend ist.
Außer man muss zur Gaming Elite gehören, dann braucht man natürlich pauschal immer den schnellsten Intel ;-)

@CB:
Wäre es vielleicht möglich die CPUs noch mit einer 1060 zu testen. In einem Artikel der sich sowas wie "Häufigste Hardware Kombi/Grafikkarte für E Sport" nennt?

Was kann also ein Durchschnittskäufer erwarten wenn er Heute aufrüsten würde.
 
Auch der I5 8400 ist keine schlechte CPU, denn er ist beinahe gleichwertig zum i7 7700 und dass bei halbem Preis. Wer nur die oben genannten Spiele Spielt und keinen 144Hz Monitor hat, der merkt zwischen einem 1600 und 8400 keinen Unterschied.

Ich halte den 1600(x) trotzdem für den besseren Allrounder. Wir wissen alle, dass zu Sandy und Ivy Zeiten der 2500k DIE Empfehlung war und was ist passiert? Viele haben für einiges an Geld auf einen 2600k aufgerüstet um endlich genug Threads für ihr Battlefield und anderes zu haben. Und warum haben sie das gemacht? Weil die 4 Threads auf dauer zu wenig waren.
Und jetzt haben wir 6 Threads, die heute DIE Empfehlung sind. Und was wird passieren. Ein Spiel kommt raus, welches gerne 8 Threads haben möchte um rund zu laufen und schon kann man wieder aufrüsten.

Ja, Single Core Leistung ist wichtig (weswegen auch Bulldozer ein reinfall war), aber bei 10% Unterschied bei der Single Core Leistung nehme ich lieber 50% mehr Multicore Leistung die diese auf Dauer mehr als kompensieren wird.
 
Zurück
Oben