Test Ryzen-Patch für AotS: Benchmarks zeigen bis zu 20 Prozent mehr Leistung

Ashes scheint einfach mehrere Baustellen bei der CPU Unterstützung zu haben die jetzt im zuge der Ryzen Tests hoch kochen.
Da wäre die Skalierungsgeschichte die nur im Spiel Modus aktiv ist und gewisse Kompatibilitätsprobleme mit der Zen Architektur die nun gefixt wurden (vermutlich im Zusammenhang mit SMT).

Dann deutet sich auch noch an das es unter DX12 Probleme mit den Geforce Treibern gibt.
Zu dumm das vermutlich der Löwenanteil der Tester mit einer Geforce getestet haben.

Unterm Strich habe ich den Eindruck das die meisten Probleme auf der Falschnutzung vom SMT basieren weshalb Zusatztests mit deaktivierten SMT interessant wären.
 
ZeroZerp schrieb:
@AdmiralPain
Wer sagt denn, dass es nicht einen API oder Renderoverhead in der Engine gibt, die den 16 Kerner dazu zwingen wie blöd Daten zu pollen und dadurch Rechenleistung zu verschenken (die aber natürlich in den Taskmanagern als Reallast dargestellt werden), weil die Pipeline z.B. einfach nicht mehr liefern kann, als bei einem 4 Kerner?

Das sagt das Ergebnis des Benchmarks, bei dem der 7770K deutlich gegen den 1800X (und auch gegen den langsameren 6900K) verliert. Als Vergleich kann man übrigens nur den Benchmark verwenden, da nur hier bei allen CPUs die selbe Last anliegt und nicht für den 4-Kerner versteckt Berechnungen weggelassen werden.


ZeroZerp schrieb:
Erst wenn der Test angepasst ist, lässt sich prüfen, was die Engine mit den Threads anstellt und welche CPU nun die besseren Min/Max/Percentile Frame liefert

Grüße
Zero

Korrekt ist, dass erst, wenn das Spiel dahingehend gefixt wurde, dass man auch im Savegame auf 4-Kern-CPUs maximale Details berechnen kann/ die 8-Kern-CPUs die Low-Details der 4-Kerner berechnen können, man aussagekräftige In-Game-Werte bekommt. Wie die Engine mit Threads hinsichtlich FPS/Frametimes skaliert lässt sich hingegen bereits im Benchmark (z.B. bei PCGH) ablesen. Wenn man diese korrekt interpretiert, dann sieht man bereits die deutlichen Vorteile der >4-Kerner, besonders hinsichtlich Frametimes.
 
BookerDeWitt schrieb:
Das sagt das Ergebnis des Benchmarks, bei dem der 7770K deutlich gegen den 1800X (und auch gegen den langsameren 6900K) verliert.

Hast Du da gerade mal eben einen Link für diesen Test/Benchmarkvergleich zur Hand? Wär interessant... /
!! Nicht mehr nötig- Habs gefunden !!

Wenn man diese korrekt interpretiert, dann sieht man bereits die deutlichen Vorteile der >4-Kerner, besonders hinsichtlich Frametimes.

Argh... Entweder bin ich blind oder ich sehe die Diagramme der Frametimes in dem PCGH Artikel bzw. bei Computerbase zum 7700K nicht :(
Auch hier wäre ein Link hilfreich...

Zudem habe ich ein weiteres Problem- Ich sehe beim Vergleich der Quad/Octacore- Bilder bei BEIDEN wechselseitig fehlende Partikeleffekte.
http://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=138531

Einmal fehlt das Abwehrfeuer / Bei dem anderen Bild fehlt mir aber der Impact bzw. das Mündungsfeuer?
Für mich sieht es so aus, als ob in beiden Beispielszenen die ähnliche Anzahl an Partikeleffekten berechnet werden muss...

Zudem fällt mir gerade auf, dass z.B. der 7700K in der neuen Version 4% Leistung verliert...
Wieso sollte eine Ryzen- Optimierung die Leistung der Intel- CPUs senken? -Schlamperei?

Außerdem hat der 7700K in dem ingame Benchmark trotz gleicher Settings hier spürbar schlechtere Ergebnisse, als es die ersten zwei anderen "Benchmark- Plattformen", die Google zu dem Thema ausgespuckt hat, getestet haben.

http://www.gamersnexus.net/hwreviews/2744-intel-i7-7700k-review-and-benchmark/page-6

http://www.eurogamer.net/articles/digitalfoundry-2017-intel-kaby-lake-core-i7-7700k-review
...wobei man dort wiederum nicht erkennen kann, ob tatsächlich der interne Benchmark benutzt wurde...

Zu viele Ungereimtheiten- Diesen Test schreibe ich für mich vorerst als nicht stichhaltig ab...

Grüße
Zero

p.S. UND NEIN- DAS IST KEINEN MILLIMETER NEGATIV BEZÜGLICH EINER RYZEN CPU GEMEINT!
 
Zuletzt bearbeitet:
Ich glaube die beiden Screenshots liegen einfach ne halbe Sekunde oder so auseinander, deswegen sieht man die Effekte auf der eigenen Seite nicht.
Man sieht z.B. auch, dass sich links eine Zahl verändert hat.

ZeroZerp schrieb:
Außerdem hat der 7700K in dem ingame Benchmark trotz gleicher Settings hier spürbar schlechtere Ergebnisse, als die ersten zwei anderen "Benchmark- Plattformen", die Google zu dem Thema ausgespuckt hat.

Ich hab mal den ersten deiner Links genommen, da hat ein 7700K@Stock 33fps, bei PCGH sind es 34fps

Im zweiten Link hat er 42fps, aber da finde ich auf der Seite keinen Hinweis, in welchen Settings das ganze lief.
 
Zuletzt bearbeitet:
Also ich seh im ersten Link den I7 auf 1080P Setting High auf 41,5 FPS und im zweiten Link unter 1080P auf 41,9?
Ist ja auch egal- Es ist für mich nicht schlüssig....

Irgendwas stimmt da noch nicht...

Und wenn man an dem Bild nicht erkennen kann, ob nun tatsächlich die Effektanzahl passt, oder sie aufgrund der Engine "shiftet" (siehe auch meine Ausführungen zu zufallsgenerierten Decals/Gräßern etc. bei anderen Spielen), dann wirds natürlich schwierig. Wie gesagt- Auf dem Bildausschnitt scheint die Partikelanzahl ähnlich...

Aber.... Belassen wirs dabei.
Danke für den Input!

Grüße
Zero
 
ZeroZerp schrieb:
Zudem fällt mir gerade auf, dass z.B. der 7700K in der neuen Version 4% Leistung verliert...
Wieso sollte eine Ryzen- Optimierung die Leistung der Intel- CPUs senken? -Schlamperei?

Außerdem hat der 7700K in dem ingame Benchmark trotz gleicher Settings hier spürbar schlechtere Ergebnisse, als es die ersten zwei anderen "Benchmark- Plattformen", die Google zu dem Thema ausgespuckt hat, getestet haben.

http://www.gamersnexus.net/hwreviews/2744-intel-i7-7700k-review-and-benchmark/page-6

http://www.eurogamer.net/articles/digitalfoundry-2017-intel-kaby-lake-core-i7-7700k-review
...wobei man dort wiederum nicht erkennen kann, ob tatsächlich der interne Benchmark benutzt wurde...

Zu viele Ungereimtheiten- Diesen Test schreibe ich für mich vorerst als nicht stichhaltig ab...

Grüße
Zero

p.S. UND NEIN- DAS IST KEINEN MILLIMETER NEGATIV BEZÜGLICH EINER RYZEN CPU GEMEINT!

du unterstellst bei einem Unterschied von 1,3 fps im avg bzw 1 FPS schon schlamperei ? ...

ich lach mich kringelig - hast du nicht selbst was von Zufallselementen geschrieben ?

und wie soll ich dir nur bereiflich machen was ein Savegame ist ? und worin der Unterschied zum Benchmark besteht ....

versuchen wir s mal mit screenshots , folge mal deinem PCGH Link und klicke von Savegame Brazil Endgame auf int. CPU Benchmark

beim 7700 k ist bei 1920x1080 vor und nach Patch ein unterschied von 0,1 fps - = 4 Prozent ?? wohl eher 0,3 -- > das ist der interne CPU Benchmark High Preset
7700 k bei 1268 x768 ein Unterschied von 0,4 fps von vor und nach dem patch = 1,5 Prozent -- > das ist der interne CPU Benchmark Crazy Preset

2017-04-01 (1).png
2017-04-01.png

PS: wenn jetzt endlich mal abgeklärt werden würde ob auch bei Ashes der Nvidia DX 12 Treiber den Ryzen ausbremst so das er nicht näher an den 6900 rankommt , wäre ich froh - denn das ist es was ich vermute

es sind 20 Prozent bis zum 6900 unter 1920x1080 , daraus könnten leicht nur noch 2 - 3 Prozent werden ...
 
Zuletzt bearbeitet:
BdMdesigN schrieb:
Also waren hier beide CCX aktiviert und bei beiden CCX 2 Kerne deaktiviert.

Ah entschuldigt. Du hast recht.
Hatte irgendwie ein Bench im Kopf wo man 2+2 und 4+0 simuliert hatte und irgendwie irrtümlich angenommen das bei PCGh der einfachheit halber eine 4+0 Konfig simuliert wurde.
 
MK one schrieb:
du unterstellst bei einem Unterschied von 1,3 fps im avg bzw 1 FPS schon schlamperei ? ...
Es kommt auf die Relation an. Da hier vorher die Info kam, dass die Ergebnisse durch X Läufe geglättet sind, sind 4% zu viel Leistungsverlust.
Es müssten eigentlich 0% sein.

und wie soll ich dir nur bereiflich machen was ein Savegame ist ? und worin der Unterschied zum Benchmark besteht ....
Keine Sorge... Ich kenne den Unterschied. Würdest Du Deinen rechten Arm drauf verwetten, dass der Benchmark empirischen Ansprüchen genügt, obwohl er niemals dafür gedacht war?

Deine weiteren Ausführungen erschliessen sich aus dem Text/der Benchmarks.

Grüße Zero
 
Woher nimmst du denn diese 4% überhaupt?
Es sind nach wie vor 0,3% und damit absolut im Bereich der Messungenauigkeit, selbst bei mehreren Durchläufen.
Um so eine 0,3% Differenz in 0% zu wandeln, müsste man locker 50 Durchläufe jeweils mit beiden Versionen machen.

Und dass bei Benchmarks auch mal kleine Ausreißer drin sind, ist völlig normal und sind auch bei GPU Benchmarks nichts auffälliges.
Es braucht sich ja nur mal in einem Durchlauf irgendwas im Hintergrund kurz zu melden oder die Platte irgendwo was schreiben und schon hat man nen kleinen Lag drin, der dann das Ergebnis verfälscht.
 
Iscaran schrieb:
Ah entschuldigt. Du hast recht.
Hatte irgendwie ein Bench im Kopf wo man 2+2 und 4+0 simuliert hatte und irgendwie irrtümlich angenommen das bei PCGh der einfachheit halber eine 4+0 Konfig simuliert wurde.

Sei Dir Verziehen. Bei den ganzen Tests und Nachtests kann man schon mal durcheinander kommen. :D
 
Taxxor schrieb:
Woher nimmst du denn diese 4% überhaupt?
PCGH Test / Balkendiagramm #2 / Int. GPU Benchmark / Beim Vorgänger von 100% ausgehend.

Danke- Wie gesagt. Dieser Benchmark ist für mich erst einmal ad acta gelegt...

Grüße Zero
 
@ZeroZerp
Selbst bei einem Benchmark mit einem festen Ablauf läge das im Bereich der Messungenauigkeit, bei einem Test mit einer gewissen Variabilität erst recht. Eine Abweichung von 0,0% bekommst du höchstens mit entsprechend gerundeten Werten oder einem Foto hin.
 
Der Zerptroll meint, dass die Zahlen in Prozent sind.. ah ne, selbst dann wärens ja nur 0.4...

Okay, will wohl doch nur spielen (herumt(r)ollen)
 
Sharangir schrieb:
Der Zerptroll meint, dass die Zahlen in Prozent sind.. ah ne, selbst dann wärens ja nur 0.4...

Okay, will wohl doch nur spielen (herumt(r)ollen)

Wenn Du nicht in der Lage bist, hier einen vernünftigen Beitrag zu leisten und noch weniger in der Lage meinen simplen Anweisungen, wie Du zu den 4 Prozent Unterschied kommst Folge zu leisten, dann würde ich erstmal vor der eigenen Haustüre kehren, bevor ich andere diskreditiere.

Solche Beiträge zerstören und vergiften die Atmosphäre in den Foren und verhindern eine ordentliche Auseinandersetzung mit einem Sachthema.

Aber hier extra ein Spoonfeed für Dich, so dass Du verstehst, worauf ich mich beziehe:
pcghryzen.jpg
 
Zuletzt bearbeitet:
Taxxor schrieb:
Ich glaube die beiden Screenshots liegen einfach ne halbe Sekunde oder so auseinander, deswegen sieht man die Effekte auf der eigenen Seite nicht.

Liegt das nicht daran, dass bei Quadcores der AotS automatisch Details reduziert und deshalb sämtliche Quadcores besser als Sechs- und Achtkerner abschließen? Damit kann man mit dem Benchmark ausschließlich CPUs mit gleicher Kernzahl vergleichen. Das Schreibt PCGH doch weiter unten im Update, oder verstehe ich was falsch?
 
Es ging ja darum, dass bei dem QuadCore Screenshot ebenso Details zu sehen sind, die beim OctaCore fehlen.
 
UNRUHEHERD schrieb:
Liegt das nicht daran, dass bei Quadcores der AotS automatisch Details reduziert und deshalb sämtliche Quadcores besser als Sechs- und Achtkerner abschließen? Damit kann man mit dem Benchmark ausschließlich CPUs mit gleicher Kernzahl vergleichen. Das Schreibt PCGH doch weiter unten im Update, oder verstehe ich was falsch?

Ja, nicht der Benchmark reduziert, sondern das Spiel selber ingame.
 
oldmanhunting schrieb:
- Ich weiß sehr gut, dass die Grafikqualität von der GPU und nicht von der CPU kommt. Ich darf mich aber wundern, warum jemand mit einem 8 Kerner und einer GTX1080 auf FHD anfängt Grafikdetails herunter zustellen. Mit dieser Hardware sollte bei FHD auch alles bei max. Details nicht nur gut sondern sehr gut laufen. Da WoW's ein CPU limitiertes Spiel ist, haben die FPS schon mit der CPU zu tun.

So... und jetzt das Ding zum denken benutzen... Wieso dreht man bei einem CPU test Grafikdetails runter? Richtig, um ein GPUlimit auszuschließen, da man das Limit der CPU sehen will...
 
Zurück
Oben