Test Ryzen-Patch für AotS: Benchmarks zeigen bis zu 20 Prozent mehr Leistung

Das frage ich mich allerdings auch, wobei es ja bei den meisten anderen Seiten passiert ist.
 
Ist es doch genauso ?

Nur halt nicht im GPU-Limit@1080p. Im GPU-Limit sieht man das natürlich nicht.

CB-Test:

GPU: 980Ti (soweit ich diese Angabe im Test verlinked zum Testsystemartikel gefunden habe)

Test@720p
I7-7700K + 980Ti @DX11 = 152.0
I7-7700K + 980Ti @DX12 = 168.2
R7-1800X + 980Ti @DX11 = 135.7
R7-1800X + 980Ti @DX12 =117.5

Intel+nV DX12/DX11 = 168.2/152 = 111%
AMD+nV DX12/DX11 = 117.5/135.7 = 87%

Test@1080p
I7-7700K + 980Ti @DX11 = 119.2
I7-7700K + 980Ti @DX12 = 117.3
R7-1800X + 980Ti @DX11 = 116.4
R7-1800X + 980Ti @DX12 =117.5

Intel+nV DX12/DX11 = 117.3/119.2 = 98%
AMD+nV DX12/DX11 = 117.5/116.4 = 100%

Eine AMD Karte zum Vergleich war leider nicht im Test, weswegen der Einbruch @Ryzen mit Gamingschwäche gleichgesetzt wurde.
Im GPU-Limit liefert der 1800X "Trotz" der Gamingschwäche einfach genug...man sieht keine Unterschiede. Allerdings ist die 980 Ti von CB vielleicht auch etwas schwach.

EDIT: Hier nochmal die Zahlen vom Vergleich 1070 OC vs 2x480@CF:

=> Intel CPU + nV GPU DX12/DX11 = 101/108 FPS = 94%
=> AMD CPU + nV GPU DX12/DX11 = 64/104 FPS = 62%

=> Intel CPU + AMD GPU DX12/DX11 = 113/98 FPS = 115%
=> AMD CPU + AMD GPU DX12/DX11 = 113/101 FPS = 112%

Es gibt einfach KEINEN Grund anzunehmen das der Ryzen @DX12 um ~50% einbricht...entweder ist es ein Gamebug...oder ein Treiberprobem.
Durch den Test mit der AMD GPU kann man sehen dass es wohl eher ein Treiberproblem ist und kein genereller gamebug. (Obwohl der Gamebug könnte theoretisch auch nur nVidia-Karten betreffen).
 
Zuletzt bearbeitet:
es wäre vieleicht nen Game Bug , wenn s nur in Tomb Raider wäre , was scheinbar ja nicht der Fall ist

daher ist nen Treiber Bug sehr wahrscheinlich , siehe " The Division "

trifft das auch auf andere DX 12 Titel zu ( und ich hoffe sehr das man nachprüft ) , kann man alle DX12 Tests mit Ryzen + Nvidia Karte getrost in die Tonne kloppen weil nicht aussagekräftig egal ob Savegame oder Benchmark

PS: bei der 980 Ti scheint der Treiber auch etwas zu limitieren , allerdings nicht ganz so stark wie bei der 1070 - die etwas moderner ist , warum sollte die DX12 Leistung einer Intel Cpu steigen , die des Ryzen fallen ?
 
Zuletzt bearbeitet:
MK one schrieb:
warum sollte die DX12 Leistung einer Intel Cpu steigen , die des Ryzen fallen ?

Fällt in der Tat schwer da eine schlüssige Antwort zu finden.

Der von CB verwendete Treiber ist der 353.62

HT4U verwendete den wesentlich neueren 373.33

Vieleicht wurde dieses Feature auch erst spaeter 'eingepflegt'.
 
HT4U hat in Tomb Raider nur DX11 gemessen.

Daher nicht hilfreich um irgendetwas auszusagen.

Ryzen mit 2400er RAM war 23% Langsamer bei HT4u in 1080p bei CB ist er 2% langsamer als der 7700K@Stock.

Das kann aber noch setting abhängig sein. CB testet glaub ich mit mehr details + AA ? HT4U AA Aus.
 
Ich weiss zwar nicht ob es schon kam aber ich habe gerade noch was lustiges zum Thema gefunden:
http://www.pcgameshardware.de/Ryzen...als/AMD-AotS-Patch-Test-Benchmark-1224503/#a3

Daher ist uns dieser Unterschied zunächst auch durch die Lappen gegangen und offenbarte sich erst auf dem mitgeschnittenen Video: AotS senkt im regulären Spiel - nicht im integrierten Benchmark - eigenmächtig und ohne Eingriffsmöglichkeit des Spielers die Bildqualität auf CPUs mit weniger als sechs physischen Kernen (SMT spielt hier keine Rolle - ein per UEFI SMT-los gemachter Sechskerner muss auch das volle Brett berechnen

Mit anderen Worten der 7770k war im Savegame Test schneller weil er weniger zu berechnen hatte. :lol:

Solche Ungereimtheiten gab es doch auch schonmal im Zusammenhang mit Geforce Karten.
 
Ja Wadenbeisser, sowas gabs bisher auch noch nicht. Die sichtbaren Unterschiede sind auch recht gering, daher fiel das vorher auch nie auf. Bin mal gespannt ob sich Oxide dazu äußert. Verstehen kann ich deren Entscheidung schon, denn das Game mit den sehr sehr vielen Einheiten ist schon arg rechenintensiv. Und denke mal Oxide hat sich dazu entschieden, um auch Spielern mit weniger Kernen ein flüssiges Spielerlebnis zu gewähren. Aber eben für Benchmarks ein absoluter Alptraum, wenn man nicht weiß wo der Fehler liegt. Da fand ich die Entscheidung bei PCGH mit einem 6900k und einem 1800x auf R5 1500 herunter geschalteten 4 Kerner gegen zu testen ganz gut, was das Verhalten von AotS ja bestätigte.
 
Wadenbeisser schrieb:
Mit anderen Worten der 7770k war im Savegame Test schneller weil er weniger zu berechnen hatte. :lol:

Falsche Schlussfolgerung- Die richtige Schlussfolgerung ist:Wir wissen nicht, wie sich die 4- Kerner im Gegensatz zu den 6+ Kernern schlagen würden, da keine einheitlichen Testbedingungen zu schaffen sind.

Grüße
Zero
 
@Chrissi1303
Angesichts der Auswirkungen bei den 8 Kernern ist es wohl sehr plausibel allerdings ist die fehlende Transparenz zu kritisieren.
Interessant wäre es dann noch wie die FX 8 Kerner dabei in der Vergangenheit eingestuft wurden.

@ZeroZerp
Was an der Aussage zweifelst du an?
Das Elemente/Effekte fehlen, das sie nicht berechnet werden oder ein Prozessor eine höhere Bildrate erreichen kann wenn er weniger zu berechnen hat?

Das erinnert mich irgendwie an damals wo alle mit dem Finger auf AMD zeigten als sich im direkten Vergleich das Bild zwischen der Radeon und der Geforce unterschied und sich letztendlich rausstellte dass es mit der Geforce nicht wie vorgesehen berechnet wurde.
 
Wadenbeisser schrieb:
@ZeroZerp - Was an der Aussage zweifelst du an?

Er/Sie zweifelt garnichts an. ZeroZerp stellt nur korrekt fest, dass dies zu unvergleichbaren Testbedingungen fuehrt. Ob der 4-Kerner bei gleichen bedingungen schneller oder langsamer ist waere, laesst sich so schlicht nicht bestimmen.

Es ist schon erstaunlich, dass es schon jetzt Spiele gibt, die die Spielphysik auf einem 4c/8t System automatisch downgraden.
 
Zuletzt bearbeitet:
@Wadenbeisser
Hehe- Da erinnere ich mich auch noch daran... Die Hersteller betrügen, wo sie nur können... :)

@Ned Flanders
Danke, genau so habe ich das gemeint.
Habe jetzt mal mit dem Star- Swarm Test der Nitrous Engine rumgespielt. Die Werte sind nicht konsistent. Es gibt bei mir bei jedem Run unterschiedliche Werte an Einheiten und Effekten, die dargestellt werden.

Es scheint da in der Tat irgendein Auto- Scaling zu geben. Zweite Möglichkeit- Die Bewegungsmuster/Einheiten werden nicht durchgängig korrekt berechnet, sondern zu einem gewissen Teil per Zufallsszenario dargestellt, um mit "billigen" mitteln ein lebendiges Massengetümmel darzustellen, ohne jede Einheit und deren Schuss- und Trefferfolgen korrekt berechnen zu müssen.

Leider würde das den Test in meinen Augen irgendwie unbrauchbar machen....
Unter den halb zufallsgenerierten Dingen leiden aber viele Benchmarks. Es gibt viele Spiele, wo z.B. das Gras anhand von "Seeds" berechnet wird und jedes Mal mit einer leicht anderen Verteilung/Dichte/Vielfalt daherkommt (Fallout/Skyrim) bzw. viele open World Spiele, die Speedtree als Vegetationsengine benutzen.
Diese Art der Generierung ist nicht benchmarkfest. Da reicht es schon, wenn in einer Szene der Wind stärker bläst (fällt dem Betrachter garnicht offensichtlich auf), um die Werte zu verfälschen.

Aber sehr fein, dass das "Problem" aufgefallen ist. Aufgrund der von mir oben festgestellen nicht zu 100% Reproduzierbarkeit der Szenen zweifle ich aber, dass selbst ein Benchmark innerhalb einer Kernklasse wirklich zuverlässige Ergebnisse liefert.
Das sollten die Programmierer von AotS noch korrigieren (zumindest im Benchmark)...
Oder die Tester sollten mindestens 10 Runs mitteln um so der Fehlerwahrscheinlichkeit zumindest statistisch entgegenzuwirken.

Wenn das aufgrund des Engine- Designs nicht korrigierbar ist, dann sollte ein Hinweis erfolgen, dass dieser Benchmark nur dazu da ist, die Leistungsfähigkeit von Mantle im Vergleich zu DX11 mit einfachen Mitteln unter Beweis zu stellen.

Dafür wurde der Test ja ursprünglich entwickelt und vielleicht mutet man dem Test da zu viel zu.

Grüße
Zero
 
Zuletzt bearbeitet:
@ Zerozerp

wann kann es sich auch schönreden , plötzlich ist ein test nicht so wie man s gerne hätte wird nach nem Haar in der Suppe gesucht ... und der Test nicht aussagekräftig ...

wo wir schon bei aussagekräftig sind , offenbar wird der Ryzen durch den Nvidia DX12 treiber massiv ausgebremst , während mit AMD Graka s kein solcher Einbruch unter DX12 festellbar ist .
Damit sind alle Tests mit Nvidia Graka + DX12 für n Arsch = ca 90 - 95 % der Reviews , nur in sehr seltenen Fällen wurde ne AMD Graka in den Test s mitbenutzt .

und statt DX12 DX11 zu nehmen ist auch ne schlechte Option da DX12 ja hardwarenaher sein soll und moderner / besser mit MuticoreCPU s klarkommt .
 
MK one schrieb:
@ Zerozerp
wann kann es sich auch schönreden , plötzlich ist ein test nicht so wie man s gerne hätte wird nach nem Haar in der Suppe gesucht ... und der Test nicht aussagekräftig ...

Ich kann Dir nicht folgen...

Ich rede mir etwas "schön", weil ein Benchmark nicht korrekt funktioniert?
Was rede ich mir schön?
Was denkst Du denn, wie ich den Benchmark gerne hätte?
Ich hatte doch oben ausgeführt, warum der Benchmark in meinen Augen Schwächen hat und was man an Maßstäben an Benchmarks im allgemeinen setzt (z.B. Reproduzierbarkeit, gleiche Voraussetzungen etc.)

Ich verstehe Deine Anmerkung nicht
 
Was hat jetzt die Star Swarm Demo mit dem AotS Savegame von PCGH zu tun, außer das die selbe Engine verwendet wird :confused_alt:
 
@Ned Flanders
Na dann bin ich mal auf eure Erklärung gespannt warum meine Schlussfolgerung das der i7 7770k aufgrund des geringeren Berechnungsaufwandes schneller ist falsch sein soll wenn gleichzeitig in beiden integrierten Benchmarks des Spiels, welche davon nicht betroffen sein sollen, der Ryzen 7 1800X schneller ist und Intels Core i7 6900K die gleichen Effekte aufweist.

@ZeroZerp
Die Werte vom Star- Swarm Test sind für einen direkten Vergleich wenig brauchbar da er nie gleich abläuft, man kann lediglich tendenzen daraus ableiten. Einmal hatte ich es sogar miterlebt das der Flieger so weit vom Kampfgesehen weg flog das er es auf dem Rückweg erst kurz vor dem Ende des Tests wieder erreichte.

Unterm Strich tat der Test vor allem eines, er sollte die Vorteile der Mantle API demonstrieren und das tat er auch recht eindrucksvoll.
Außerdem konnte man dort bei genauerer Betrachtung recht gut sehen woher die Geforce ihren Leistungsvorteil bei DX11 zog. Die Treiber schaffen es, wie auch immer, die CPU stärker zu belasten.
 
Genau das meinte ich mit Haar in der Suppe und schönreden , zuvor war alles in Ordung , der Ryzen weit angeschlagen , der 7700 weit vorne ...

jetzt hat man die Frechheit gehabt nen simulierten Ryzen 1500X 4 Kerner laufen zu lassen , der fast auf die gleiche Leistung kommt wie der 7700 und ....

und selbstverständlich ist es unerträglich das nen Spiel bei nem nen 4 Kerner die Details automatisch drosselt ( vermutlich damit das Spiel auch auf 4 Kerner flüssig läuft ) , bedeutet es doch er kann trotz 5 Ghz Cpu und 4000 er Ram + 1080 TI ? nicht maximale Details spielen ...

Dabei ist es ja ein Savegame bei PCGH und nicht der Benchmark - in dem selbstverständlich diverse zufallselemente vorhanden sind , gleichermassen für beide CPU s
 
Zuletzt bearbeitet:
@MK one
Was ist eigentlich Dein Problem?

Es wird hier über die Konsistenz und die Reproduzierbarkeit oder auch nicht- Reproduzierbarkeit eines Benchmarks diskutiert, bei dem gerade Fehler im Benchmarkrun festgestellt wurden und Du hörst schon wieder die Kriegsglocken läuten, oder dass Dir jemand Deine CPU madig reden will?

Hab ich mich in meinen Threads irgendwo auf eine Marke einer CPU bezogen?
Es geht hier nicht um CPUs sondern den Benchmark. Halt mal Deinen Beissrefelex bitte etwas unter Kontrolle... Es hat Dir hier niemand was getan.

Grüße
Zero
 
Zuletzt bearbeitet:
@MK one
Ich denke das auch im Fall des nvidia Treibers das gleiche Problem auftritt wie es auch bei diversen Spielen festzustellen war. Mit aktivem SMT bricht die Leistung ein weil die Kerne falsch angesprochen werden.
Es ist der erst SMT fähige Prozessor von AMD und die SMT Kerne werden werden offenbar anders zugeordnet als bei Intels HTT.
Ich behaupte jetzt einfach mal das die entsprechenden Problem Kandidaten entweder von vollen Kernen oder von Intels SMT Kernreihenfolge ausgehen und dann knallt es unweigerlich.
Die neue Architektur muss eben erst einmal bei den Programmen eingepflegt werden.
 
ZeroZerp schrieb:
@MK one
Was ist eigentlich Dein Problem?

Es wird hier über die Konsistenz und die Reproduzierbarkeit oder auch nicht- Reproduzierbarkeit eines Benchmarks diskutiert, bei dem gerade Fehler im Benchmarkrun festgestellt wurden und Du hörst schon wieder die Kriegsglocken läuten, oder dass Dir jemand Deine CPU madig reden will?

Hab ich mich in meinen Threads irgendwo auf eine Marke einer CPU bezogen?

Was soll denn das?

Ähhhmmmm, es wurde kein Fehler im Benchmark gefunden, sondern im GAME selber mit einen Savegame (gespeicherten Spielstand).

Benchmark: Alle CPU's müssen das gleiche Berechnen.
Savegame: 4 Kern CPU's müssen Partikelsysteme NICHT mitberechnen und die 6+ Kerner müssen Partikelsysteme mitberechnen.

Dadurch das die 4 Kerner die Partikelsysteme nicht mitberechnen müssen, sind sie schneller als die 6+ Kerner.
Dies ist aber erst aufgefallen, als man ein Mitschnitt des Savegametests angesehen hatte.

Auch der 1500X OC rennt den 1800X davon und der 1500X OC ist mit max. 2 FPS hinter den 7700K.

So nun zum Benchmark: Da da ja alle CPU's das gleiche berechnen müssen, sind hier die 6+ Kerner vor den 4 Kernern. Logisch, da sich hier die Menge der Kerne auszahlen.
 
Zuletzt bearbeitet:
Laut PCGH wird nur im Save-Game, ergo im Spielfluss Details reduziert. Der integrierte Benchmark hingegen fordert von jeder CPU die selben Berechnungen, weshalb die 4-Kerner in deren Test eben zurückfallen.

Schlussfolgerung daraus ist, dass das Spiel bereits jetzt deutliche Vorteile aus 8-Kernen und Ryzen ziehen kann, wenn alle CPUs die selben Einstellungen berechnen müssen. Im Spielfluss ist das leider noch nicht so, weil die Quad-Cores auf “Low“ rechnen dürfen, während die 8-Kerner zwangsweise “Ultra“ fahren müssen. Während demnach ein Vergleich zwischen 4- und 8-Kernern nur im Benchmark möglich ist, lässt sich an Messungen des 6900Ks und des simulierten 1500X erkennen, dass Ryzen in AoTS definitiv keine “Spieleschwäche“ aufweist/die Entwickler in den geringen Zeit tatsächlich gut gepatcht haben. Ryzen steht gegen die Intel-Pendants bei deutlich niedrigerem Preis leistungsmässig gleichauf/etwas besser da, was ein respektables Ergebnis ist.

Worauf man nun nur noch hoffen muss ist ein Patch, der ermöglicht, dass man mit jeder CPU alle Detailgrade berechnen kann, dann wird man auch mit dem 8-Kerner die beste Leistung bekommen. Bisher ist man paradoxerweise besser dran, wenn man bei Ryzen 4 Kerne deaktiviert, um damit die versteckte Detail-Reduktion zu triggern. Dann ist man auch gleich schnell im Spiel wie der 7770K, muss dafür aber mit weniger Eye-Candy leben.

@ZeroZerp:

Ja, jeder Benchmark-Durchlauf bei AoTS hat seine Abweichungen, dennoch lässt sich zuverlässig benchen, indem man einfach den Durchschnitt aus mehreren Runs errechnet. Diese Methode wurde auch von den Fachzeitschriften angewandt und lässt so zu, dass man ein zuverlässiges Leistungsbild einer Hardware-Komponente abbildet.
 
Zuletzt bearbeitet:
Zurück
Oben