Ich halte es für recht unwahrscheinlich dass das hier bei AC wirklich was mit Multithreadoptimierung zu tun hat.
Ganz ehrlich - ein i5-8400 kommt unter MT Volllast mit 3,8GHz daher - der 8700k mit 4,3GHz -> das sind poplige 13%. Da kommt dann noch SMT drauf - aber selbst das wären immernoch recht annähernd perfekte Skalierung bei im Schnitt um die 20% mehr, was da sonst so üblich ist.
Nimmt man nun dies als Basis müsste theoretisch ein 2600X zu einem 2700X mindestens um 33% schneller sein. Ist er aber nicht, es sind nichtmal 10%, was dieser zulegt. Interessanterweise ist der 2600X ggü. einem 2400G wieder fast 1:1 so viel schneller, wie er auch auf dem Papier sein müsste - dafür sieht der 2400G ggü. dem 7700k trotz "nur" ca. 20% weniger MT Power hier auf einmal um 43% kein Land.
-> das lässt sich eine Sache recht stark vermutet - es existiert irgend wo Code im Spiel, welcher scheinbar extrem schnell auf Intels SMT ausgeführt werden kann. Böse Zungen könnten von einer Optimierung auf Intel CPUs sprechen, vllt Compiler, vllt irgendwo was mit dem Kopierschutz.
Ist mit so von Außen die einzig plausible Erklärung, warum bei Intel SMT so reinhaut, obwohl die generelle Threadskalierung eher vergleichsweise gering ist. So bringt SMT beim 8400 zum 8700k fast 1,5x so viel wie 50% mehr echte Cores von 7700k zu 8700k.
Nichts desto trotz scheint es so, dass dem Spiel grundsätzlich Multithreading erstmal liegt. Ohne weitere Analysen kann man das aber mMn nicht als irgend einen Ansatz für die Zukunft sehen. Interessanterweise war auch Origins davor ähnlich von den Werten her. Allerdings waren diese zumindest eher erklärbar, da SMT bei Intel nicht so ultra viel gebracht hat. Seinerzeit hatte man den Kopierschutz in Verdacht...
PS: eine Redaktion könnte nun einfach mal den 8700k und den 2600X nehmen und das einfach mal bei fixem Takt ohne Turbo Gedöns wahlweise mit und ohne SMT gegen testen. Zusätzlich, je nachdem, was rauskommt wäre ggf. sogar ein Test mit nem alten 5820k/5930k oder 6850k/6800k interessant. 1600X natürlich auch.
Auch interessant könnte sein einfach mal zu prüfen, wie es denn sein kann dass der Bulldozer und der 8100 in UHD auf einmal über 20% schneller sind als in FHD... -> was völlig unlogisch ist.
Kann für die Wertermittlung auch was völlig anderes da rumfuschen. Mehr FPS bei mehr AA lässt eigentlich schon Hellhörig werden dass da was nicht so läuft, wie sonst üblich
Nicht dass da einfach dynamisch irgendwo Berechnungen drauf kommen...
Da spielt dann der UHD Spieler mit ner 1080TI auf nem 8100er Intel mit 55FPS und der FHD Spieler mit der 30% schnelleren 2080TI bei nur einem virtel der Bildpunkte mit 45 FPS.