Test Fortnite, LOL, PUBG & Co.: Bis zu 26 Prozent schneller mit neuen Ryzen-2000-CPUs

@Iscaran
Guild Wars 2 und generell allen anderen Spiele in denen weder GPU noch CPU auf Vollast laufen.

Da auch die Auslastungsangaben der Threads wenig darübar aussagen, wie gut ein etwaiges Multithreading funktioniert, sondern nur immer Schnittwerte ausgegeben werden, kann es sein, dass bei einer Anzeige von 80% bereits ein CPU Limit vorliegt, ohne dass es ersichtlich ist.

Somit ist eine eigenmächtige Messung auch nicht wirklich zuverlässig.


Grüße
Zero
 
Zuletzt bearbeitet:
@zero zerp:

OK. Das ist das Game...und welche CPU/GPU Kombo wäre in so einer Misslichen Lage das ein 1080p test nicht hilft aber ein 720p Test hier SIGNIFIKANTE Hinweise liefert ?
 
@Iscaran

Bei den Games, bei welchen die Lage nicht wirklich eindeutig ist, kann man eben durch 720P eine Unbekannte schon einmal relativ zuverlässig rausnehmen. Warum kompliziert, wenns eben auch einfach geht...

Wie gesagt, ein CPU Limit in Spielen zu diagnostizieren ist schwer, eben auch aufgrund der vielen anderen Faktoren, die Einfluss haben (I/O, RAM etc.).

Wenn man die Granularität diverser Monitoring Tools mal auf die Spitze treibt, kommt es vor, dass ein Thread zu 100% im Peak steht. Erweitert man das Messintervall scheint es aber, als ob die CPU bei 70% rumhängt.

Der FPS Drop ist aber da.

Da ist es einfacher der CPU "freien Lauf" zu geben und zu schauen, was sie in Engine XY anstellen kann. Da sieht man dann anhand der Varianzen, wie sehr sich die CPU tatsächlich mit der Engine abmüht.

Grüße
Zero
 
Zuletzt bearbeitet:
6 Ghz und Kühl :lol:

Intel selbst hat mal irgendwann beiläufig erwähnt das eine NEUE Architektur, also keine Core, für etwa 2021/2022 geplant ist. Vorher wirst du mit den gleichen CPU's leben müssen, die weder 6 Ghz fahren noch kühl sind, noch weniger verbrauchen. Und da der 10nm Prozes hinten und vorne nicht läuft, würde ich auch keine Leistungssteigerungen erwarten.
 
BestinCase schrieb:
Weiß ich auch nicht, stell mir das so vor: Ein 9700K 8/16 mit Hochtakt 6GHZ, geringem Verbrauch und kühlem Kopf.
Oder mal was ganz Neues mit Multi-Chip-Ansatz ...

Ohne Worte!:hammer_alt:
 
Ah ein 5-6 Jahre altes game. Zeig mit ein aktuellen 1080p Bench.....

Das auf einer 5-6 Jahre alten CPU (2500K)
https://www.warlegend.net/guide-guild-wars-2-performance-test/

Jede Damalige GPU war im Limit...(bis auf die DualGPU GTX 690)
DAMALS in 768p limit lieferte der 2500K 82 FPS ...wird also heute auf jeder mid-range GPU auch mind. 82 FPS liefern....
Na wenn das nicht reicht....dann muss man wirklich wechseln...oder eben das HisN Thema mal lesen und verstehen lernen.

Ein bench von 2012 hilft mir natürlich heute nicht die Performance einzuschätzen...im Zweifelsfall mach ich ebend den HisN test auf meinem System und weiss was sache ist. Dauert ein paar minuten.
Ergänzung ()

ZeroZerp schrieb:
@Iscaran
Wie gesagt, ein CPU Limit in Spielen zu diagnostizieren ist schwer, eben auch aufgrund der vielen anderen Faktoren, die Einfluss haben (I/O, RAM etc.).

Ja genau deswegen bringt dir ein 5 Jahre alter Test mit 5 Jahre alter Hardware auch 0 Hinweise darauf wie es HEUTE aussieht.

Warum kompliziert wenn es einfach geht => HisN-Methode. Am EIGENEN System testen...danach entscheiden. => Mehr GPU oder Mehr CPU.
 
@Iscaran
Wenn ich aber eine CPU habe, die in Engine XY auf 720P 300FPS stemmt und eine andere die 100FPS stemmt, dann weiss ich, dass die Wahrscheinlichkeit, dass CPU#1 zukünftig eine bessere Leistung in diesem Szenario erreichen kann (auflösungsunabhängig), sehr hoch ist.

Grüße
Zero
 
ZeroZerp schrieb:
Genau diese Anhaltspunkte (CPU Limitierung etc. LIEFERT DER 720P TESTS DOCH!)
Irgendeinen Anhaltspunkt muss man den leuten doch liefern - Sonst bräuchte ich nämlich überhaupt nicht testen, weil die Wahrscheinlichkeit, dass der Leser exakt die gleiche Konfiguration betreibt wie der Tester, gegen 0 tendiert.
Auch die Engines entwickeln sich weiter.
Somit hätte kein Test Aussagekraft, die Zukunft bleibt Zukunft und wage Prognosen könnte man auch nicht treffen.

Und natürlich wähle ich bei meinem Beispiel eine CPU, die Limitiert, denn genau um dieses Thema geht es doch!
Der Nutzer mit einem Übertakteten 2600k erkennt sofort, dass es keinen Sinn hat, bei Assassins Creed Origins den 60FPS mit konstanten Frametimes hinterherzuhecheln. Das wird auch mit einer zukünftigen Grafikkarte nicht schneller laufen. Bingo! Den etwaigen Fehlkauf einer neuen Grafikkarte verhindert!

Und wie gesagt- Tellerrand und so. Es gibt 144Hz Monitore, VR wo in knapp full HD 180 FPS erzeugt werden müssen - Da ist sowas wichtig! Wenn ich weiss, dass meine CPU in 720P in allen Spielen immer das maximale drückt, dann ist dieses Ding auch in VR mit an Sicherheit grenzender Wahrscheinlichkeit die beste Wahl.

Das mit den Anhaltspunkten ist doch gerade der Punkt der allen Probleme macht. Jeder schaut sich die Ergebnisse an und sagt, dass das alles somit in Stein gemeißelt ist. Wie soll ein Test-Parkour aussagekräftig sein wenn fast der gleiche auf einer anderen IT-Seite zu ähnlichen aber nicht gleichen Ergebnissen führt? CB hat dann das Ergebnis XX FPS/% und PCGH YY FPS/%, eine weitere Seite hat dann ZZ FPS/%. Jetzt ist der übliche Leser aber genauso durcheinander weil es zum Teil die gleichen Spiele waren aber abweichende Ergebnisse zustande kommen. Wie sind die "Leute vom Fach" vor kurzem durcheinander gekommen weil Anandtech deutlich abweichende Ergebnisse zu allen anderen hatte weil eine Funktion falsch eingestellt war und sie da nicht dahinter gestiegen sind? Da erwartest du vom DAU bzw. einer uninformierten Person, dass er aus diesen Tests schlau wird? Der wird doch sowieso zu 80-90% der Fälle einen Fertig-PC kaufen und sich nicht erst einzelne Komponenten anschauen um da ein eigenes System zusammenzustellen. Und jedem der es doch tut ist anzuraten sich durch mehrere Tests schlau zu machen statt den üblichen Trollen Glauben zu schenken. Wer diese nicht kennt hat bereits ein Problem in diesen Foren und das trifft nicht nur auf Tech-Seiten zu.

Das mit den Tests geht dann außerdem nur, indem man bei sich selbst testet und dieses mit den Ergebnissen der Tech-Seiten vergleicht.
Wenn du ähnliche Ergebnisse mit einer schwächeren CPU als einem 8700K hast und dennoch gleiche FPS rauskommen liegt es doch am Spiel, was hast du dann daraus gelernt? Das die Entwickler des Spiels/Ports sich keine Mühe gegeben haben das volle Potential der CPUs abzuschöpfen. Außerdem sehe ich in dem Test keinen 2600K sondern nur "neue" CPUs. Woran erkennt der geneigte Leser denn ob er jetzt im CPU-Limit ist? Woher weiß der 4770K-Nutzer wie es bei ihm aussieht? Was ist mit dem 6600K Nutzer mit 4C/4T der da auch kaum was ablesen kann? Das sind alles abweichende Faktoren die zu deutlichen Abweichungen führen können. Aus heutigen Test-Parkours die zukünftige Leistung abzuleiten ist wie Glaskugel-Lesen. Nächstes Jahr sind die Engines weiter in Richtung 6-Kerne entwickelt und die 4 Kerner, die heute ziemlich gut mithalten, sind dann schon wieder abgeschlagen. Vielleicht geht es auch wieder in Richtung 2 Kerne und 8 GHz Takt und wir alle haben dann Rechner die völlig überflüssig sind.

Bevor bei einem 180-FPS/1080p(oder mehr) pro Auge VR-Spiel die CPU das Hauptproblem wird, muss man erst mal die Leistung von zwei/drei Volta-Chips im Mainstream haben, genügend Anschlüsse an der GPU, genügend PCI-E 4.0 Lanes für den Durchsatz und noch einige weitere Dinge. DANN erst ist die CPU-Power dran. Der Bottleneck fängt bei so einem Szenario ganz woanders an.
 
Du sprichst immer von "wenn ich" theoretisch eine CPU HABE...die XYZ..
Aber du bist NICHT in der Lage 1 REALES BEispiel zu zeigen wo ein 720p Test einen Mehrwert geliefert hätte zu einem 1080p Test.

Die Wahrscheinlichkeit in Zukunft usw... lässt sich mit egal welchem Low-Res Test von Spiel A sowieso nicht auf Spiel B übertragen ! Und für die ZUKUNFT schon doppelt nicht !
Das wurde doch schon zur genüge gezeigt....=> SIEHE FX-8350 vs 2500K.

Bulldozer 2012...deutlich vom 2500k geschlagen. Heute in jedem Game "besser" - klar BEIDE CPUs bewegen sich am unteren Rand der "sinnvollen" Zone (zumindest für High-End GPUs ab 1070 AUFWÄRTS).
 
Beyazid schrieb:
Bevor bei einem 180-FPS/1080p(oder mehr) pro Auge VR-Spiel die CPU das Hauptproblem wird, muss man erst mal die Leistung von zwei/drei Volta-Chips im Mainstream haben, genügend Anschlüsse an der GPU, genügend PCI-E 4.0 Lanes für den Durchsatz und noch einige weitere Dinge. DANN erst ist die CPU-Power dran. Der Bottleneck fängt bei so einem Szenario ganz woanders an.

Eben genau nicht- Die CPU/Cache/RAM ist bei hohen FPS oftmals der exklusive Flaschenhals, weil diese die Masse der benötigten Drawcalls nicht an die GPU weiterreichen kann.

@Iscaran
Ich verstehe Dich nicht.

Bei jedem Test bei dem in 1080P auch nur die geringste Wahrscheinlichkeit besteht, dass die CPU limitiert, ist der 720P Test sinnvoll.

Ich rede auch nicht vom Übertrag Spiel A auf Spiel B sondern von dem unentwegt vorkommenden Szenario, dass mir die FPS bei Programm XY nicht ausreichen, ich gerne mehr hätte, aber nicht weiss, was der limitierende Faktor ist (man nimmt grundsätzlich erstmal die Grafikkarte an).

Wenn ich einen 1080P Monitor habe und den mit 144Hz betreibe und dann kommt die neue Grafikkarte XY und ich steige auf einen 4K Bildschirm um, dann weiss ich, dass wenn die CPU die 144Hz auf dem 1080P Bildschirm gebracht hat, die Wahrscheinlichkeit sehr hoch ist, dass ich diese dann mit der neuen, deutlich leistungsfähigeren Grafikkarte auch in 4K erhalte (ein bißchen Schwund ist immer drin).

Und es geht hier nicht um mich, sondern um den uninformierten User, der Potenziale sehen will.
Es bringt ihm rein garnichts, wenn er bei einem CPU Test eine Auflistung in 8K sieht (man will ja für die Zukunft einkaufen, gelle :) ), bei der alle CPUs durch die GPU eingebremst werden und gleich schnell 14FPS liefern.

Liegt da der Informationsgehalt dann Deiner Meinung höher?

Grüße
Zero
 
Zuletzt bearbeitet:
DonL_ schrieb:

Ja was denn, wenn sie erst 2021/2022 mit komplett neuer Architektur kommen, was sollen sie den machen als das vorhandene optimieren.
Takt+ und Kühler meinetwegen durch verlötung, was glaubst du denn? Wie soll Intel auf sonst ZEN2 reagieren?

Durch 10nm wird das möglich sein. :)
 
Der 8-Kerner wird aber kein 10nm, hast du das immer noch nicht verstanden? ;)

Er wird auch nicht verlötet. Intel sieht darin eine Gefahr für ihre CPU's. Auch kann die Core Architektur wohl nicht mehr wirklich optimiert werden, da sie schon bis zum erbrechen optimiert wurde.
 
BestinCase schrieb:
Takt+ und Kühler meinetwegen durch verlötung, was glaubst du denn? Wie soll Intel auf sonst ZEN2 reagieren?

Durch 10nm wird das möglich sein. :)

10nm wird von Intel im Mainstream wohl noch ein Weilchen dauern.
Der 8 Kerner wird also weiterhin auf 14nm+++ setzen, was auch bedeutet, dass man an den Taktraten nicht groß was schrauben kann, selbst ein 8700K arbeitet ja schon über seiner TDP, wenn er dann mal auf 4,5+ taktet. 2 Kerne mehr und du erhöhst die TDP noch mal um 33%, da muss der Takt zwangsläufig fallen, wenn sie keine 130W CPU bringen wollen, die dann nicht mehr zu kühlen ist.

Und auch mit 10nm erreicht man keine 6GHz, die 7nm von GF sind ja ca auf einem Level mit den 10nm von Intel und dort rechnet man mit "bis zu" 5GHz
 
Zuletzt bearbeitet:
@ Taxxor

die 5 GHZhat doch unser BestinCase schon, er rafft blos nicht, das seine CPU im Delta gerade 250Watt aus der Dose zieht!:D
 
Hauptsache er kann sich über den geringeren Stromverbrauch freuen.
 
Na wenn das alles so stimmt, dann hätte Intel aber echt schlechte Karten, um direkt auf Zen2 zu reagieren.
Ich meinte den 8-Kerner von IceLake , der kommt doch in 10nm.
 
ZeroZerp schrieb:
Eben genau nicht- Die CPU/Cache/RAM ist bei hohen FPS oftmals der exklusive Flaschenhals, weil diese die Masse der benötigten Drawcalls nicht an die GPU weiterreichen kann.

Dann kann ich dir jetzt schon sagen, dass jede 4-Kern-CPU nicht mithalten wird und die 6 Kerner deren Rolle übernehmen werden. Entweder wird eine Low(er)-Level-API wie Vulkan/DX12 diesen Wandel verlangsamen oder aber die 4-Kerner werden ziemlich schnell abfallen.

CPU-Limit ist halt nicht CPU-Limit ist halt nicht CPU-Limit. Da gibt es ebenfalls Unterschiede. Vielleicht liegt dieser Flaschenhals nicht an Faktoren wie IPC/Takt/Cache/Ram sondern in den fehlenden Lanes weil 3 SSDs+2HDDs+Soundkarte+1 Grafikkarte dran hängen und nicht genügend ankommt, dem nicht ausreichenden PCI-E 3 Standard wo die Bandbreite nicht ausreicht oder dem Virenprogramm im Hintergrund? Woran erkennst du jetzt welcher Teil der CPU limitiert? Vielleicht sind in Zukunft mehr Bandbreite statt schnellerem Cache wichtig? Wo kann man das nun ablesen? Du siehst, dass dein Argument nicht allgemeingültig ist und man nur bestimmte Zahlen bekommt ohne deren einzelnen Aspekte zu kennen ergo wie die einzelnen Komponenten dazu beitragen oder welche Komponente limitiert.

So ein Test müsste richtig tief in die Materie gehen um sowas aufzuschlüsseln. Dafür haben aber weder die Redaktionen Zeit/Lust noch der 0815-Leser und somit wird es nur sehr selten dazu kommen da es kaum Klicks generiert.
 
BestinCase schrieb:
Na wenn das alles so stimmt, dann hätte Intel aber echt schlechte Karten, um direkt auf Zen2 zu reagieren.
Ich meinte den 8-Kerner von IceLake , der kommt doch in 10nm.

Der ist ja erstmal auf einen unbestimmten Zeitraum in 2019 verschoben worden. Wenn man sich bei Intel nicht mal auf das erste Halbjahr festlegen kann, dann kann es durchaus sein, dass AMD mit Zen2 erst mal ein halbes Jahr an der Spitze steht.
Und dann muss Intel auch erstmal zeigen, was der neue Prozess leistet.
 
@Beyazid
Hätte, könnte wird/würde. Alles Kaffeesatzleserei.

Dem Rest stimme ich uneingeschränkt zu (ist ja letztenendes genau das, was ich schreibe), bis auf den ganz letzten Absatz.
So ein in die Tiefe gehender Test, welche Teilbereiche bei einem Modernen Spiel wieviel % bringen bzw. kosten, könnten schon einige Klicks bringen.

Gerade weil es eben keiner macht und hier vielleicht dann mal mit einigen Stammtischweisheiten aufgeräumt werden kann (mehr Kerne=automatisch bessere Frametimes etc.).
 
Zurück
Oben