Test Fortnite, LOL, PUBG & Co.: Bis zu 26 Prozent schneller mit neuen Ryzen-2000-CPUs

Gschwenni, dann erklär mir doch mal mit der "Realität", wie du die Leistungsfähigkeit einer CPU testen willst, wenn du nicht die komplette CPU nutzt. Das kann man nämlich so nicht, auch wenn du das ums Rad rum nicht einsehen möchtest. Dann ist die ganze, ach so neutrale und objektive Testerei für die Katz.

Und deine ganze Antwort auf jeden, der das erkannt hat ist, dass er es nicht kapiert. Es ist wohl eher so, dass du es nicht kapierst
 
Gschwenni schrieb:
Das is ja kein Problem, das stellt eben einfach die Realität da und ist Teil einer Entwicklung. Früher hatte man nur einen Kern und die FPU war damals noch nicht mal in die CPU integriert.


Eh kein Problem:

In Zukunft ermitteln wir den Sieger beim Gewichtheben mit einer Hand.:D

Genau so schwachsinnig.
 
Hägar Horrible schrieb:
Gschwenni, dann erklär mir doch mal mit der "Realität", wie du die Leistungsfähigkeit einer CPU testen willst, wenn du nicht die komplette CPU nutzt.

Bei Spielen kann man eben einfach nur die spezifische Leistung in den jeweiligen Spielen testen, das dann aber natürlich im CPU Limit.

Wenn es dir um die reine Rohleistung geht, dann musst du eine Software nehmen, die alle Threads nutzt, die man ihr gibt.

Das kann man gut mit Programmen wie Blender machen.
Siehe 2600X vs 2700X: 28% langsamer durch 25% weniger Threads und etwas weniger Takt. Perfekte Skalierung.

Für Spiele geht das allerdings nicht, weil es eben schlicht keine Spiele gibt, die 16 Threads mit einer guten Skalierung nutzen.


Ich habe dadurch dass ich 2 Hände habe auch theoretisch 100% mehr Rohleistung als jemand mit nur einer Hand.
Wenn wir aber beide möglichst schnell 100 Wörter mit einem Stift aufschreiben sollen, bringt mir meine zweite Hand gar nichts.
Gibt man uns jetzt aber eine Tastatur, sodass ich meine zweite Hand auch mit der gleichen Effizienz einsetzen kann wie meine erste Hand, dann bin ich auch doppelt so schnell.

Das Schreiben mit dem Stift sind die Spiele, das Schreiben mit der Tastatur sind die Programme wie Blender.



Kurzum, für Spiele ist die Rohleistung völlig egal, aber nur weil die CPU nicht voll genutzt wird, heißt das nicht, dass man nicht sagen kann, dass das Ergebnis die Leistungsfähigkeit der CPU in Spielen beschreibt.

Und das Ergebnis ist dadurch auch nicht "verfälscht", wenn ein Spiel nur 4 Kerne nutzt, dann ist das was ich mit 8C/16T damit erreiche eben das Ergebnis dessen, was ich bei diesem Spiel erreichen kann.
Wenn das Spiel später eine andere Engine bekommt, die 8 Kerne nutzt, ist es nicht mehr das Spiel das getestet wurde und die Ergebnisse dieses Tests sind immer noch genau so richtig.
 
Zuletzt bearbeitet:
Hägar Horrible schrieb:
Gschwenni, dann erklär mir doch mal mit der "Realität", wie du die Leistungsfähigkeit einer CPU testen willst, wenn du nicht die komplette CPU nutzt.

Dann schau dir mal an wo ein I9 7980x mit 18 Kernen und 36 Threads in Spielen liegt.
Eher hinter einem i7 7700K mit 4 Kernen und 8 Threads.
Die Leistungsfähigkeit in Spielen hat halt einfach nicht wirklich etwas mit vielen Kernen und Threads zu tun, sondern eher mit flotten Caches, hoher IPC, guten RAM Latenzen, Taktraten und halt 4 bis 6 Kernen, wenns dann gut läuft halt noch mit HT dazu und selten bringen 6-8 Kerne mit 12-16 Threads auch noch bissl was für gleichmäßige FRametimes und hier und da noch bisschen was oben an FPS drauf.

Was verstehst du denn bitte unter Leistungsfähigkeit in Spielen? Wenn eine Software nicht mehr als 8 Threads nutzt dann wird halt ne 36 Thread CPU eben nix bringen, das is doch in Photoshop oder Videoschnitt genau dasselbe.
Du kannst ned endlos parallelisieren, was gibt es denn da zu überlegen?

Das kann man nämlich so nicht,

Dann entwickel mal ein Spiel das 36 Threads nutzt, viel Spaß dabei.

Dann ist die ganze, ach so neutrale und objektive Testerei für die Katz.

Nein, ganz im Gegenteil denn deine Begründung hierfür ist nicht durchdacht, sondern sehr leicht zu widerlegen.
Software macht halt irgendwann früher dicht. Joa Cinebench nicht, da kann jeder CPU Kern völlig autark am Renderingbild arbeiten, man muss blos mitteilen welcher Kern/Thread gerade an welchem Teil des Bildes rechnet und fertig is die Wurst.
Das kann man aber bei Games eben nicht machen!
 
Zuletzt bearbeitet:
IBISXI schrieb:
In Zukunft ermitteln wir den Sieger beim Gewichtheben mit einer Hand.:D

Genau so schwachsinnig.

Der Fall liegt analog Deines Vorschlags eher so - Wir bewerten einen Zehnkämpfer nur anhand seiner stärksten Disziplin...

Grüße
Zero
 
Du kannst ned endlos parallelisieren, was gibt es denn da zu überlegen?

Das vielleicht nicht allerdings sind wir bei der Parallelisierung in Games noch lange nicht am Ende. In Zukunft kann man auch ganze Effekte auf einzelne Kerne/Threads legen, das wird ja erst noch kommen. Hat man aber bisher nicht gemacht. Wozu auch wenn 4C/4T lange Zeit der Mainstream waren. Diese Zeiten sind nun zum Glück aber vorbei. Da geht noch eine ganze Menge mehr. Wenn ich mir CIv VI z.B. ansehe:
1.JPG
 
Zuletzt bearbeitet:
Ich finds auch spannend wie manche hier fordern, dass jedes neue Game quasi 8 Kerne brauchen muss um überhaupt zu starten - ums mal überspitzt auszudrücken. Das Optimum wäre doch eher wenns auch auf ner 4 Kern Cpu läuft, allerdings mit mehr Kernen ein Leistungsgewinn vorliegt.

Und so wie sich die Games in letzter Zeit teilweise entwickeln läufts in die Richtung wie mit Vram - es wirs immer mehr gebraucht, aber die Grafik wird nicht zwangsläufig besser.
Es wäre schön wenns mal komplexere (und größere/ aufwendigere) Spiele gibt die mehr als 4 Kerne brauchen um vernünftig zu laufen, aber dann bitte nur wenn der Mehrverbrauch an Ressourcen auch berechtigt ist. Sonst hat man keinen Fortschritt bei gleichzeitig immer höheren Anforderungen.

@über mir: Ich wünschte Stellaris würde auch mehr als einen Kern verwenden :D
 
Dai6oro schrieb:
Das vielleicht nicht allerdings sind wir bei der Parallelisierung in Games noch lange nicht am Ende. In Zukunft kann man auch ganze Effekte auf einzelne Kerne/Threads legen, das wird ja erst noch kommen. Hat man aber bisher nicht gemacht.

Eiei- Dann bist Du aber wirklich nicht am Puls der Zeit- Schau Dir mal die Changelog der großen Spieleengines an. Da bauen alle inzwischen einen Mainthread und fast beliebig viele Worker- Threads auf und das schon lange.

Die Parallelisierung ist bereits weit, weit vorangeschritten, stößt aber naturgemäß einfach an ihre Grenzen, weil Du letzenendes wie bereits erwähnt, alle Ergebnisse der Einzelgewerke wieder synchronisieren und zusammenführen musst, um dann das fertige Frame weitersenden zu können.

Der Verwaltungsaufwand der Worker Threads steigt irgendwann so weit an, dass es keinen Sinn mehr macht eine Aufgabe weiter zu untergliedern, weil das Verteilen der Einzelaufgaben und das Einsammeln länger dauern würde, als wenn es durch einen Thread gleich am Stück durchgerechnet würde.

Grüße
Zero
 
Zuletzt bearbeitet:
Dai6oro schrieb:
Das vielleicht nicht allerdings sind wir bei der Parallelisierung in Games noch lange nicht am Ende.

Ich glaub schon das man in einem Singleplayer wo man einfach durch die Pixelwelt läuft und ab und zu etwas abknallt ziemlich am Ende ist, außer es gibt viele NPC,s viel Physik die pseudo-unabhängig vom Mainthread, der letztendlich die Taktung von allem eigentlichzusammenführen sollte, arbeiten kann.
Alles muss zur Bildausgabe irgendwie getaktet werden, das brauchst du halt bei Cinebench nicht das is die Wust fertig wenn sie fertig is.

Das Problem is dass in Spielen einfach kaum etwas autark berechnet werden kann, also ohne dass das für etwas anderes einen Einfluss hat.
Aber so Strategie oder Multiplayer Titel mit endlos vielen Einheiten für deren Aktionen immer wieder Physik berechnet werden muss könnte finde ich schon noch was gehen.

Wenn man später neuronale Netze mal besser verstehen lernt, dann könnte man komplexe Prozesse nicht mehr in Schichten bzw einzelne TeilProzesse verkleinern um sie pseudo-unababhängig voneinander zu berechnen, sondern dem ganzen Berechnungsmodell eine völlig freie Struktur geben, damit komplexe Prozesse besser optimiert und geregelt werden können.

Letztendlich muss man das aber wieder zusammenführen und synchronisieren.
Wie Zerozerp das geschrieben hat ist im Prinzip genauso das wie ich das auch sehen würd.

Oneplusfan schrieb:
Ich finds auch spannend wie manche hier fordern, dass jedes neue Game quasi 8 Kerne brauchen muss um überhaupt zu starten - ums mal überspitzt auszudrücken. Das Optimum wäre doch eher wenns auch auf ner 4 Kern Cpu läuft, allerdings mit mehr Kernen ein Leistungsgewinn vorliegt

Das Optimum wär wenn es auf möglichst wenigen Kernen zufriedenstellend läuft.
Also dass zum Beispiel ein 2 Kern Prozessor schon ausreicht, das wäre unter Umständen schon bereits effizient.

Viele Programme und Prozesse können nur nacheinander ablaufen, nicht parallel.
 
Zuletzt bearbeitet:
Gschwenni schrieb:
Dann entwickel mal ein Spiel das 36 Threads nutzt, viel Spaß dabei.

Dann sind Spiele eben ungeeignet um die Leistungsfähigkeit einer CPU zu bestimmen oder zu vergleichen. Und das kannst du eben NICHT widerlegen
 
Hägar Horrible schrieb:
Dann sind Spiele eben ungeeignet um die Leistungsfähigkeit einer CPU zu bestimmen oder zu vergleichen. Und das kannst du eben NICHT widerlegen

Sind wir nun hier bei Spiele Benchmarks oder woanders?

Was ist so schwer daran, die Aussage CPU X ist in Spiel Y so und so Leistungsstark einfach als das stehen zu lassen, was sie ist? Eine Aussage über die reale Leistung die die CPU nun mal dort bringt.

Niemand sagt, dass dies die allgemeine Leistungsfähigkeit darstellt, es ist die Leistungsfähigkeit in Spielen.
Irgendwelche anderen Anwendungsfälle interessieren in einem Spiele Benchmark niemanden.
 
Zuletzt bearbeitet:
Doch, Taxxor, genau DAS wird behauptet und daran wird hier alles festgemacht.
 
Was wird behauptet? Streitet dem 2700X hier irgendjemand ab, dass er in Anwendungen durch das Plus an Kernen schneller ist?
In Spielen ist das eben nicht der Fall, und nur darum geht es hier, um die Spieleleistung.
Solange Spiele die Kerne nicht voll nutzen, bleibt die Aussage(Stand Zen+), dass sie in Spielen schlechter sind, eben bestehen.

Bei der RX Vega kannst du übrigens auch sagen die Rohleistung liegt mit 13TFLOPs über 1080Ti Niveau, in Spielen kommt davon nur sehr viel nicht an, in manchen speziellen Anwendungen schon.

Sind Spiele jetzt auch dort ungeeignet, um die Leistung einer für Gaming beworbenen GPU zu vergleichen?
 
Zuletzt bearbeitet:
Und wo, wenn wir schon beim Fragen sind, steht, dass hier nur Spieleleistung verglichen wird? Zeig es uns doch mal
 
"Thema: Fortnite, LOL, PUBG & Co.: Bis zu 26 Prozent schneller mit neuen Ryzen-2000-CPUs"
"Performancerating, Ryzen 2000 – FPS"
"Performancerating, Ryzen 2000 – Frametimes"

Muss ich noch mehr zeigen? Vielleicht noch einen Screenshot vom Performancerating, in dem sich unter den getesteten Anwendungen ausschließlich Spiele befinden?
 
Zuletzt bearbeitet:
Hägar Horrible schrieb:
Dann sind Spiele eben ungeeignet um die Leistungsfähigkeit einer CPU zu bestimmen oder zu vergleichen. Und das kannst du eben NICHT widerlegen

Spiele sind nicht ungeeignet um die Leistungsfähigkeit einer CPU in Spielen zu bestimmen.
Spiele lasten nur einfach wie viele Anwendungen nicht so viele Kerne aus, das ist doch jetzt völlig normal.

Cinebench ist zum Beispiel auch nur eine Möglichkeit unter vielen die Leistungsfähigkeit einer CPU zu bestimmen, benutzt aber nichtmal avx2 instruction sets und wäre eigentlich veraltet. Dort wird vor allem die FPU ausgelastet die für grafische Berechnungen herhalten muss.

Hägar Horrible schrieb:
Doch, Taxxor, genau DAS wird behauptet und daran wird hier alles festgemacht.

Was wird behauptet und von wem? Spiele sind einfach nur ein anderer Anwendungsfall.
Taxxor hat dich bereits widerlegt und das sehr gut erklärt.
 
Zuletzt bearbeitet:
Gschwenni schrieb:
Was wird behauptet und von wem?

Ich denke er bezieht sich auf meine Aussage
"Niemand sagt, dass dies die allgemeine Leistungsfähigkeit darstellt, es ist die Leistungsfähigkeit in Spielen."

Fraglich wie man in einem Test zur Leistung in einer Auswahl von Spielen darauf kommen kann, dass hier die allgemeine Leistung bewertet wird bzw. die User sich in den Kommentaren dazu über etwas anderes als die Leistung in Spielen unterhalten.
Vielleicht dachte er, unter einem anderen Test zu sein.


Selbst als es bei CB noch eine zusammengefasste Tabelle für das Gesamtranking gab, stand immer drüber "Anwendungen und Spiele", insofern wusste jeder, dass hier auch die Werte reinspielen, wo die CPU eben nicht alle Kerne nutzen kann.
Und auch unter den Anwendungen gab und gibt es welche, die nicht alle Kerne nutzen. Soll man die jetzt alle rausstreichen?
Was hat man denn dann? Eine theoretische Leistungsangabe, die aber niemandem, der die CPU auch benutzen möchte etwas bringt, weil sie nur auf dem Papier steht.
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
@Esenel
Mit optimierter Produktionstechnik, war es AMD möglich den Grenzbereich durchgängig nach oben zu verschieben. Da konnten dann auch Sicherheitsspielräume minimiert werden.
Dass AMD das Performanceplus durch die üblichen Mittel (Taktsteigerung, höhere TDP, Optimierung des Cachings, RAM Kompatibilität) erreicht hat, sollte nicht verwundern.
Die kochen auch nur mit Wasser. Tatsächlich wird sich rein von der Prozessorarchitektur her nicht viel bis nichts getan haben (klar bei einem Refresh).

Finde ich aber auch nicht schlimm, denn dem Stock- User kommt ein schöner Leistungssprung zu Gute. Wie dieser erreicht wurde und ob der Chip dann nahe am Maximum läuft interessiert diesen (zu Recht) erstmal nicht.
Das hat AMD schon gut ausgelotet...


Grüße
Zero

Das hat AMD sogar genial ausgelotet. Auch mit den Precision Boost der je nach Chipgüte, CPU Temperatur und Stromverbrauch voll taktet.
Mit der Performance Enhancer Variante 2, also der AMD Lösung boostet die CPU auch ohne OC so weit wie es die Parameter zulassen.
20180428_232921.jpg
Dieser Screenshot zeigt kein OC der CPU.
Das ist alles in den Grenzen von AMD.

Schon nicht schlecht.
Diese Funktion mit Zen2 wird sicher richtig cool.
 
Esenel schrieb:

Mich verwundert das Bild etwas. Eigentlich, und das kann ich bei meinem 2500U auch so beobachten, werden nur einzelne Kerne getaktet, der dazugehörige SMT Thread geht immer mit. Auf dem Bild hat aber anscheinend Kern Nummer 7 einen anderen Takt als sein SMT Part. Ist das der Normalfall bei dir? Vielleicht funktioniert Raven Ridge ja etwas anders..
 
Auf die in einer Sekunde ausgelesenen Werte würde ich jetzt nicht so viel geben. Der Prozessor schaltet den Takt viel schneller und häufiger hin und her wie Afterburner ausliest.
Das nächste Foto ist 2-3 Sekunden davor entstanden.

20180428_232913.jpg
Springt halt mit dieser Funktion brutal hin und her.
 
Zurück
Oben