Test Assassin's Creed: Origins: Im Benchmark ein echter Threadripper

Ich verstehe gar nicht was daran so erstaunlich sein soll das ein Spiel noch von mehr als 8K/16T profitieren soll. Schließlich sind die HT Threads nicht so schnell wie die der Kern an sich. Und Crysis 3 macht schon seit Jahren vor wie das geht.
crysis.png
 
Vielen Dank für den Test CB

Ein Test mit einem Oldie wie 2600k Sandy Bridge oder 3770k Ivy Bridge, evtl. sogar die erste Core i7 Generation, das wäre wirklich interessant, da wie hier von anderen bereits erwähnt wurde, viele User noch solche CPUs benutzen. :)
 
Echt ulkig, vor 6 Monaten machten sich einige darüber lustig, dass der 7700K einem 1800X in Spielen überlegen ist.
Jetzt macht man sich darüber lustig, dass der 7700K und 1800X gleich aufliegen.
Na dann freue ich mich schon auf die Spiele in 6 Monaten, in 12 Monaten, in 24 Monaten und in 36 Monaten (wo kein Hahn mehr nach 7700K krähen wird) :evillol:
 
Hab hier noch einen i7-860 2.8G0Hz mit HT @ 3.80GHZ

Wäre auch cool zu wissen wie er sich schlagen würde.
Kann auch 4.20GHz fahren aber die Temperatur ist dann in Limit.
 
Finde das Spiel ist ein sehr schönes Beispiel dafür wie Multicore Optimierung auszusehen hat.

Verwundert bin ich allerdings, dass Intels HT besser skaliert als AMDs SMT.

Gibt sonst AMDs SMT nicht ca 35% Leistung, bei Intel eher so 25%? (Cinebench U.Ä.)
 
Ich muss sagen ich finde die gespräche hier schon sehr heftig

Aber vielleicht verstehe ich das auch nicht
Ich für meinen teil würde mir dennoch einen 1950x holen weil ich die power zum rendern brauche

Sollte ich mit dieser Cpu denn spielen wird sie mich auch sicher nicht entäuschen

Aber in der Zukunft bin ich sicher mit ihr
 
Bonanca schrieb:
Finde das Spiel ist ein sehr schönes Beispiel dafür wie Multicore Optimierung auszusehen hat.

Verwundert bin ich allerdings, dass Intels HT besser skaliert als AMDs SMT.

Gibt sonst AMDs SMT nicht ca 35% Leistung, bei Intel eher so 25%? (Cinebench U.Ä.)

Ja prinzipiell ists schön, vor allem wenn man die Ryzen CPUs ansieht. Immer ~15% Steigerung von zB 1500x auf 1600x auf 1800x usw.

Aber die Optimierung ist nicht wirklich toll umgesetzt, Ubisoft arbeitet an einem Patch diesbezüglich.
Denn wenn zB alle Threads des Threadrippers sauber genutzt würden, wäre der doch die klare #1 hier? Klar weniger Single Core Leistung als der 8700k, aber trotzdem? Allein die Frametimes müssten besser sein.
 
GaNgAr schrieb:
Ich für meinen teil würde mir dennoch einen 1950x holen weil ich die power zum rendern brauche

Sollte ich mit dieser Cpu denn spielen wird sie mich auch sicher nicht entäuschen
Ungeachtet der Möglichkeit, dass das Spiel noch gepatcht wird und das hier diskutierte Phänomen dann nicht mehr oder nur noch kaum auftritt, kann ich dir da nur beipflichten.
Man bezahlt viel Geld für eine CPU und diese liefert dann - nach Möglichkeit - in allen Szenarien brauchbare Werte ab. Es ist mir ebenfalls nicht ersichtlich, wieso daran etwas Schlechtes zu finden sein sollte.

Auch klar ist, dass nicht jeder eine 1000€ CPU braucht. Aber sie deswegen schlecht reden zu wollen ist wohl wenig zielführend. Erinnern wir uns an den i7 980x, dem damals eine schlechte Leistung aufgrund von Hyperthreading attestiert wurde. Er wäre heute selbst nach 7 Jahren noch ganz vorne mit dabei.

Ob ich etwas von Ubisoft kaufen würde, ist indessen eine völlig andere Geschichte.
 
Allein die Frametimes müssten besser sein.

Wo siehst du hier Frametimes? Das was CB als Percentile angibt sind min FPS von den framtimes hochgerechnet. Die Framtimes sind hier nicht angegeben oder siehts du hier einen Frametimegraphen?
 
@Wolfgang

Laut den neusten Gerüchten, dass Denuvo die mögliche Ursache für die hohe CPU Last sein könnte ist es nicht möglich sein, dass es nicht das Spiel ist was so gut skaliert sondern einfach nur Denuvo mit der übermäßigen Last?
 
Ich wünsche mir, das zukünftig in den CPU-Diagrammen angegeben ist, wie viele Cores, Threads und MHZ ein Prozessor hat.

Z.B. 6C/12T/4,8GHZ

Ich finde so Tests ja eigentlich ganz interessant, ertappe mich aber immer wieder, das ich überlegen muss, wie viele Threads ein X1600 oder ein Pentium denn jetzt wirklich haben...
 
flappes schrieb:
Echt ulkig, vor 6 Monaten machten sich einige darüber lustig, dass der 7700K einem 1800X in Spielen überlegen ist.
Jetzt macht man sich darüber lustig, dass der 7700K und 1800X gleich aufliegen.
Na dann freue ich mich schon auf die Spiele in 6 Monaten, in 12 Monaten, in 24 Monaten und in 36 Monaten (wo kein Hahn mehr nach 7700K krähen wird) :evillol:

Der Punkt ist halt, dass die AMD CPUs erst dann aufholen, wenn eben auch so viele Threads genutzt werden.

Jetzt gibt es jedoch zwei "aber":
1. AC Origins ist das bisherige Musterbeispiel für Kernskalierung und trotzdem kann der 1800X den 7700K nicht wirklich schlagen.
2. Da AC Origins bisher ein Musterbeispiel ist und diese recht selten sind, ist davon auszugehen, dass andere Entwickler bzw. die meisten zukünftigen Spiele nicht das gleiche leisten.
Man sehe sich Desitny 2 an, welches eher weniger von vielen Threads profitiert und mehr von den IPC abhängt, wer mit nem Ryzen 120 oder 144 Hz befeuern will, hat eher schleche Karten.

Man hat also jetzt einen Ryzen 8C16T, der aktuell in den am besten skalierenden Spielen gerade mal so schnell ist, wie ein 7700K, jedoch in den meisten anderen Spielen, die nicht so gut skalieren den kürzeren zieht.


Im Schnitt ist also Ryzen aktuell in den meisten Games langsamer, als ein 7700K. Selbst wenn die Spiele in Zukunft noch besser skalieren, als aktuell, dann wird de Ryzen es vermutlich schaffen, den 7700K hinter sich zu lassen, im Schnitt wird es aber erst dann zu einem ausgeglichenen Performanceverhältnis zwischen 7700K und R7 1800X führen. Sprich, erst in Zukunft, nicht jetzt.
Denn Triple-A Titel, die nicht so gut skalieren und in denen der i7 seine IPC ausspielen kann, wird es auch noch die nächsten Jahre geben.


Ryzen wird sich in den allgemeinen Performanceplatzierungen (gemessen über mehrere Spiele) an den 7700K rankämpfen und ihn in Zukunft sicherlich überholen. Aber das wird dauern, vermutlich ein paar Jahre.
Und deswegen bin ich mir sicher, dass gemessen an der Nutzungszeit von 3-5 Jahren im Gesamtschnitt keine der beiden CPUs klar besser sein wird. Selbst am Ende der Lebensdauer beider CPUs und vielen gut skalierenden Games, wirds mit sicherheit viele Games geben, die dann immernoch mit nem 7700K deutlich schneller laufen.


Und ich persönlich bin eben der Meinung, dass es bei einer CPU sinnvoller ist, wenn die gesamte verfügbare Leistung möglichst "einfach" abgerufen werden kann. Wenn ein 7700K bereits bei 4 genutzten Threads ca. 70% seiner möglichen performance abliefern kann, dann finde ich das nützlicher, als wenn ich dann bei nem 1800X nur ~40% der Leistung abrufen kann. Ausnahme wäre, wenn die 40% vom 1800X genauso schnell wären, wie die 70% vom 7700K. Wenn nicht, ist das für mich einfach ne Kompromisslösung. Der Kompromiss mehr Kerne auf Kosten der pro-kern Leistung. Es ist und bleibt ein Kompromiss und nicht die bessere Lösung.

Kompromissfrei ist für mich im Bezug auf Multicore nur der i7 8700K, der pro thread die gleiche Leistung, wie ein 7700K liefert, jedoch 2 Kerne mehr hat.

Grundsätzlich begrüße ich die gute MultiCore skalierung natürlich. Ich sehe ja selbst, wie ein 4C8T nen 4C4T abhängt. Ich glaub so nen großen Vorsprung zwischen i7 und i5 gabs noch nie. Was mir bei AC Origins trotzdem aufstößt ist der allgemeine Anspruch an die CPU. Ich kann nicht wirklich nachvollziehen, was sich an der Komplexität der Spielwelt z.B. im Vergleich zu Watch Dogs 2 verändert haben soll.
Ein i5 7600K hat z.B: in WatchDogs 2 noch 80-90 FPS geschafft https://www.gamersnexus.net/game-bench/2808-watch-dogs-2-cpu-benchmark-thread-intensive-game/page-2,
und in AC Origins sinds laut CB nur noch 57 FPS. Ein 7700K fällt von 112 FPS auf 85 FPS.
Dabei scheint mir Watch Dogs 2 eigentlich die komplexere Welt zu haben, mit den ganzen passanten und Autos auf den Straßen, nochdazu bewegt man sich in WD2 um ein vielfaches schneller durch die Spielwelt.
 
Zuletzt bearbeitet von einem Moderator:

Was nützen mir Frametimes von verschiedenen Grafikkarten und einer CPU, wenn es um die Frametimes unterschiedlicher CPUs geht?

1. AC Origins ist das bisherige Musterbeispiel für Kernskalierung und trotzdem kann der 1800X den 7700K nicht wirklich schlagen.

Nein ist es nicht. Civilization skaliert ebenso gut wenn nicht besser.

Man sehe sich Desitny 2 an, welches eher weniger von vielen Threads profitiert und mehr von den IPC abhängt, wer mit nem Ryzen 120 oder 144 Hz befeuern will, hat eher schleche Karten.

Destiny 2 skaliert auch mit mehr Threads sieh Kernskalierung bei PCGH. Es sind dann keine großen Sprünge mehr bei den FPS aber die Spikes werden eindeutig weniger:

http://www.pcgameshardware.de/Desti...Destiny-2-PC-Technik-Test-Benchmarks-1241945/
 
Zuletzt bearbeitet:
basilisk86 schrieb:
Selbst mit dem 1950X immer noch langsamer als der i7-8700k.

Wurde doch "nur" mitm 1920X getestet. Und den 1950X gibts mittlerweile "schon" für 869€.

Und wieso muss nen Arbeitstier überall erster sein. Reicht ja schon wenn er in den Disziplinen für die er entwickelt wurde gut abschneidet.
 
Zuletzt bearbeitet:
Wenn, dann ist wohl nicht Denuvo Schuld sonder Ubi.

Ubisoft hat einfach selber zusätzlich VMProtect über Denuvo geschmissen. Da war die Angst Geld zu verlieren größer als eine gute CPU Performance abzuliefern. Und da 8 Core CPUs im Mainstream angekommen sind, hat man alle die nur 4 Kerne (8 Threads) besitzen einfach in den Hintern getreten.

Wie ich hier bereits schon sagte, warum kommt niemand auf die Idee das AC:O schlecht optimiert ist , oder einen Bug hat was die hohe CPU-Last erzeugt (VMProtect über Denuvo)?
Aber nein, die Ryzen Besitzer kommen nicht einmal auf diesen Gedanken oder verdrängen diesen gleich wieder, nur um sich Ihren kauf "schön zu reden", und allen anderen mit einer kleineren CPU lieber wünschen das die nie wieder Games mit 4 Cores zocken können.

Hinzu kommen die ganzen Testseiten wie CB, PCGH&Co. die diese hohe CPU-Last auch einfach nur abfeiern, auch ohne einen einzigen Gedanken daran zu verschwenden Warum das so ist!?

Ubisoft hat jetzt sogar selber zugegeben das die CPU-Last so wohl nicht korrekt ist, aber trotzdem will das wohl keiner Wahr haben...
 
Und VMProtect und Denuvo skalieren mit den CPU-Kernen? :watt:
 
Dai6oro schrieb:
Nein ist es nicht. Civilization skaliert ebenso gut wenn nicht besser.

Gut, die Strategiespiele hatte ich nicht im Kopf, ich gehe grundsätzlich von Triple-A open World Games bzw. ähnlichen Spielen aus, wo die Framerate für mich wichtig ist.


Dai6oro schrieb:
Destiny 2 skaliert auch mit mehr Threads sieh Kernskalierung bei PCGH. Es sind dann keine großen Sprünge mehr bei den FPS aber die Spikes werden eindeutig weniger:

http://www.pcgameshardware.de/Desti...Destiny-2-PC-Technik-Test-Benchmarks-1241945/

Warum wiederholst du, was ich geschrieben habe. Genau das habe ich doch gesagt. Destiny 2 skaliert "Weniger" mit den Threads und "eher" über die IPC. Und das ist richtig.

Siehe hier: https://www.gamersnexus.net/game-bench/3097-destiny-2-launch-cpu-benchmark-ryzen-vs-kaby-lake

Ein i3 ist schneller, als ein R7 1700X und ein i3 (4c4T) ist fast so schnell, wie ein i7. Aber gut, wenn das für dich noch als Kernskalierung druchgeht, meinetwegen. :freaky:
 
Zuletzt bearbeitet von einem Moderator:
Zu dem Thema, ob ein 8700K wirklich derart überlegen ist was Ryzen betrifft, mal das Video ansehen: https://www.youtube.com/watch?v=36N6xQDZ98c

Viele sagen ja, dass Ryzen im Gaming zu langsam wäre. Das sieht hier aber überhaupt nicht so aus. Wäre mir neu, wenn ein 8700K 222fps schafft und der Ryzen lediglich 205 in der Situation, dass damit dann automatisch fest steht, dass der Ryzen langsam wäre.
Ergänzung ()

Laggy.NET schrieb:
Ein i3 ist schneller, als ein R7 1700X und ein i3 (4c4T) ist fast so schnell, wie ein i7. Aber gut, wenn das für dich noch als Kernskalierung druchgeht, meinetwegen. :freaky:

Ich sehe das Gleichstand. Warum? Weil mich 1080p nicht interessiert. Also, wo ist jetzt der Intel in 1440p schneller als der 1700X?

Viele hier geilen sich an einem theoretischen Idealwert auf, bedenken aber nicht, dass diese Werte für die Praxis kaum Aussagewert besitzen. Die Ergebnisse rücken näher zusammen - nach einigen Spezialisten hier nicht. Liegt aber daran, dass die keine Ahnung haben. Entscheidend ist also viel mehr der Anwendungsfall des jeweiligen Nutzers.
 
Zuletzt bearbeitet:
Wenn ich mit 8C/16T mehr Frames und bessere Frametimes habe als mit einem 6C/12T (egal ob mit einem AMD oder Intel), ist das für mich eine Skalierung. Ob eine CPU dabei dann mehr oder weniger FPS hat ist nicht von belang. Es skaliert.
 
Zurück
Oben