Test AMD Ryzen 9 7900X3D im Test: So viel langsamer ist die 12-Kern-CPU mit 3D V-Cache in Spielen

Ein wenig find ich das schon amüsant. Wir sprechen hier immer noch von einer der Top 3 Gaming CPUs (und nein ich sehe den Unterschied von K und KS nicht).
Fazit des Forums. Oh Wunder alles unterhalb des Topmodell ist nicht zum Zocken geeignet.
Dann wird wieder alles bei AMD typisch runtergebrochen bis ins Detail wo eventuell die Konkurrenz noch glänzt.
Interessant zu lesen wie ja Big und Little Cores bei Intel besser "unterscheidbar" wären, wohingegen es bei AMD nicht sein soll, obwohl der L3 Cache am 0er Die platziert ist und beim anderen nicht. Sicher ein Hexenwerk das zu unterscheiden.
Ich denk da aber stark an Patente von AMD bezüglich Feature Cores und deren Big und Little Ansatz.
Würde mich also nicht wundern wenn wir in Zukunft eben genau sowas mehr sehen werden. Full Feature Core mit dem großen zusätzlichen L3 Cache und co und als Energiespar Core dann jene Cores, die wir bald bei Bergamo sehen (da wird zugunsten von mehr Cores der Cache reduziert).
Bei der Fläche von Cache die aktuelle AMD und Intel (P-Cores) CPUs heute benötigen, um IPC Steigerungen zu erreichen, ist es genau der Punkt, wo man am meisten Energie einsparen kann. Am Ende könnte es dann auch ein Zen5 sein, der zu Zen4 in Basis deutlich weniger L3 Cache hat, aber als Performance Core eben einen stacked l3 Cache bekommt. Würde mich also auch nicht wundern, wenn AMD hier ebenso erste "Test-Ballone" mit diesen "GAMING" CPUs liefert.
Aber gut, bei Zen1 haben ja auch alle herum gelabbert, dass das doch alles schlecht wäre und kompliziert und was weiß ich.
 
  • Gefällt mir
Reaktionen: mrcoconut, SonyFriend, Kloin und eine weitere Person
Marcus Hax0rway schrieb:
Natürlich gibt es Probleme, wenn spezielle Hardware verbaut ist und die Software nicht darauf abgestimmt ist. Das ist eher ein generelles Problem und liegt nicht daran, dass Intels Ansatz in irgendeiner Weise schlechter wäre.
Habe ich auch nicht gesagt - nur, dass sie am Anfang Probleme hatten.
Marcus Hax0rway schrieb:
Hat das schon jemand tatsächlich getestet, ob der 7900X3D mehr als 6 Kerne verwendet, wenn ein Spiel es unterstützt?
Ja, direkt beim Launch, PCGH: Es gibt natürlich Ausnahmen, beispielsweise ist ein Doom Eternal dazu in der Lage, alle 32 Threads mit Last zu versorgen. In so einem Fall takten sich die Kerne im CCD1 ohne 3D-Cache auf das Niveau der 3D-Kerne herunter, was im Mittel 5,0 GHz bedeutet. Welche Auswirkungen das auf die Performance hat, führen wir später aus, wir können jedoch bestätigen, dass die Lastverteilung hervorragend funktioniert. Bei den meisten Benchmarks beobachten wir im On Screen Display, dass die ersten acht Kerne arbeiten, während die anderen acht bei null Prozent verweilen. Bei Anwendungen wie Cinebench dagegen takten alle Kerne so hoch wie möglich. Sollte ein Spiel mal nicht als solches erkannt werden, können Sie mithilfe der XBOX Game Bar festlegen, dass die laufende Anwendung "als Spiel" gilt - schon arbeiten vorrangig die 3D-Kerne. Bei allen Benchmarks hat der 16-Kerner exakt das gemacht, was wir erwartet und uns gewünscht haben - brillant, AMD!

Das von Dir vermutete Problem gibt es also gar nicht. Also sicher lässt sich ein Spiel finden, wo irgendwas hakt, aber am Ende bekommst Du bei AMD 12/16 "spielbare" Kerne, die auch zusammenarbeiten können. Nur geht dann ggf. ein Teil des Vorteils des Caches verloren.
Bei Intel bekommst Du immer max. 8 spielbare Kerne.
 
  • Gefällt mir
Reaktionen: TuXiFiED, Kalsarikännit, danyundsahne und eine weitere Person
Shio schrieb:
Test mit 7900XTX wurde doch nachgeliefert und ergab keine Änderungen.
Naja, es gibt schon Änderungen:
Jedoch laufen die Ryzen-CPUs auf der neuen Radeon-Grafikkarte generell schneller als im Vergleich mit einer GeForce...

Bedeutet ja im Umkehrschluss genau das. Die Geforce GPUs sind bei niedrigen Auflösungen langsamer als die Radeons.
Das zeigen ja auch viele Tests auf anderen Techsites in niedrigen Auflösungen wo mehr CPU Limit auf den NV Treiber trifft. So verstehe ich das.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Shio
... immer noch nicht in 1080p oder 1440p getestet !!!! :smokin:


/s
 
  • Gefällt mir
Reaktionen: Col.Maybourne
danyundsahne schrieb:
Bedeutet ja im Umkehrschluss genau das. Die Geforce GPUs sind bei niedrigen Auflösungen langsamer als die Radeons.
Es betrifft ja nur die Ryzens, die mit der Radeon schneller sind.
Wenn die Geforce GPUs allgemein langsamer in niedrigen Auflösungen wären, müssten die Intel CPUs ja ebenso weniger FPS liefern.
Man sieht ja hier, dass der 7900X3D mit der 4090 noch hinter den Intels lag und mit der 7900XTX dann knapp darüber lag
 
Wo kommt den das ganze "Aber wieso keine FHD/QHD/4K Benches?" eigentlich her?
Ist das so eine neue Epidemie die ausgebrochen ist?
Das hab ich ja zuvor ewig nicht mehr gehört.

Der 7900X3D halte ich aber irgendwie für weder Fisch noch Fleisch.
6 Kerne CCD mit Cache sind eben keine 8. Vielleicht könnte man was mit Scheduler retten, aber hm. Würde da die Erwartungen nicht so hoch stecken. Kombinierte low + high Cache CPUs mit intelligenten Scheduling für selbe Aufgabe / Spiel werden sicher in den nächsten Jahren kommen, ergibt einfach zu viel Sinn.

Vom 7800X3D erwarte ich aber einiges, vor allem besseres P/L.
 
  • Gefällt mir
Reaktionen: danyundsahne, bad_sign, Col.Maybourne und eine weitere Person
Taxxor schrieb:
Es betrifft ja nur die Ryzens, die mit der Radeon schneller sind.
Wenn die Geforce GPUs allgemein langsamer in niedrigen Auflösungen wären, müssten die Intel CPUs ja ebenso weniger FPS liefern.
Man sieht ja hier, dass der 7900X3D mit der 4090 noch hinter den Intels lag und mit der 7900XTX dann knapp darüber lag
Ja es geht auch generell um die Aussage, dass NV im CPU Limit langsamer ist als entsprechende AMD Karten.
Das wurde auch schon hier auf CB belegt in manchen Tests und auch auf anderen Seiten, PCGH und Co.
Auch auf HUB wurde dem Ganzen schon ein separater Test gewidmet:

Hier auch sehr schön an dem Bsp WD:L und dem 1600X und i3-10100 zu erkennen. Mit der 3090 und 6900XT zB.:

1678372521330.png


NV hat das zwar teilweise schon im Treiber Update verbessert. Aber die Tendenzen zum Treiber Overhead sind ja schon deutlich bei vielen Tests.

Aber das hat jetzt wenig zum 7900X3D zu tun. Daher off topic
 
  • Gefällt mir
Reaktionen: Rockstar85
pipip schrieb:
Ein wenig find ich das schon amüsant. Wir sprechen hier immer noch von einer der Top 3 Gaming CPUs (und nein ich sehe den Unterschied von K und KS nicht).
Mein 5700X sagte mir gestern auch, er macht nur noch Minesweeper xD
Ich freue mich schon, aus die 4070/ti Ende des Jahres.. ich denke oberhalb wird der 5700X zum Flaschenhals.
 
hannah_hot schrieb:
Ok und was von diesen Theoretischen "benchmarks" in Steinzeit 720p, lässt sich in 1440p oder 4k wiederspiegeln?

Das hängt von deiner GPU ab. Du musst also einen GPU Test zu deinem Spiel lesen und die FPS in deiner Auflösung mit den FPS im CPU Test vergleichen.

Man kann nicht in jedem CPU Test 20 GPUs in 8 Auflösungen mittesten.

Die CPU Last ist nicht von der Auflösung abhängig, also teste man ohne GPU Limit.
hannah_hot schrieb:
Das ist im Grunde sehr täuschend für viele Leser.

Nur für die, die nach jahren immer noch nicht geschnallt haben warum in 720p getestet wird.
 
  • Gefällt mir
Reaktionen: iron_monkey und Rockstar85
DerGenervte schrieb:
Wenn du das nicht verstehst dann disqualifizierst du dich aus meiner Sicht für weitere Diskussionen.
Der Sinn eines (reinen) CPU Tests besteht darin, die Geschwindigkeit einer CPU zu erfassen und mit anderen CPUs in "Vergleich" zu setzen. Es handelt sich hier nicht um einen "Anwendungstest" wie du in wohl sehen möchtest für Anwendungsfall "Spiele in 2160p" - Auflösung.

Daher ist deine Ausgangsposition, dass hier "Spiele in 720p" getestet werden, grundsätzlich falsch.
Hier werden nicht "Spiele" getestet werden, sondern die CPU .... und das - Aufgrund der CPU/GPU Limit Thematik - mittels Spiele und in einer Auflösung von 720p.

Erkenne doch ersteinmal an, dass das dies hier ein CPU Test ist.
Du möchtest gern einen Anwendungstest .. ok. Dann schau dich nach einem um, der deine "Bedürfnisse" erfüllt.

Dennoch ist der CPU Test hier valide, aussagekräftig und genau das, was ich von einem Test erwarte.
Hier wird eine CPU getestet in einem nicht mehr Realen Szenario, deswegen ist das was dort rauskommt im grunde egal da dass nicht mehr angewendet wird.

Das aufgezeigte, die performance ist deswegen IRRELEVANT, da dieses hypothetische Test Szenario (Spiele 720p) nicht mehr in der Realität gebrauch findet.

Man muss so testen, das man die CPU so testet das man weiss was in der REALITÄT auch wirklich ankommt in gaming.

Praxis bezogene- der Realität entsprechende Tests zusätzlich.

Da wir den Trend seit Jahren zu immer höhreren Auflösungen haben die sich langsam etablieren, muss man auch so testen das dem Leser klar ist das diese CPU auch einen Performancevorteil in 4k oder eben nicht.

Der hypothetische 720p mag aufzeigen das die CPU schneller sein sollte, als cpu x, aber wenn man von den "theorie benchmarks" auf Praxis geht z.b. 1440p/2160p, sind die Ergebnisse totall verzerrt und haben nichts mehr mit dem aufgezeigten Performance Plus in 720p zu tun.

Punkt.

Ihr sagt die CPU testen in 1440p/4K hat kein Sinn oder in 4k.

Weil GPU shift, ja das stimmt bei 4k ist die CPU fast komplett irrelevant.

Aber was zählt ist das gesamtwerk von GPU,CPU,RAM,SSD usw.

Es ist interessant wenn man in einem Realen Testszenario nur die CPU austauscht z.b. auf den 7950x3 von einem 12700k, und man in 1440p spielt, ob die Leistung in Spielen des "gesammt" Werks pc-> eben auch in der realität etwas gebracht hat.

So kann man den Ausschlag messen im Gesammtwerk ob das was bringt.
 
t3chn0 schrieb:
Ich würde gerne noch immer wissen wie man mit der Game Bar ein Spiel auf CCD1 oder CCD0 legen kann. Ich hatte das in einem Video gesehen dass das gehen soll.

Da Thema bedarf scheinbar ohnehin nochmal einer Sonderbehandlung.

Hier hat jemand mit abgeschalteter Gamebar/Gamemode und manueller Zuweisung der Prozessaffinität (Process Lasso) die "besten" Ergebnisse erzielt (Messtoleranzen allerdings nicht auzuschließen): https://www.reddit.com/r/Amd/comments/11mdalp/detailed_vcache_scheduler_analysis/

1678374590170.png


The answer to all your observations is Game Mode. Turn it off. I was observing some extreme oddities with it on when manually assigning affinity. Things like testing Dolphin emulator, where letting it assign to CCD0 automatically and getting worse performance than a regular 7950x because the emulator doesn't benefit from 3D cache, so you'd think assigning it to CCD1 would help right? Well this is where Game Mode screws everything up.

I'd see the game drop performance hard, and stutter like you saw, but if I click off the game suddenly my frames skyrocket far past CCD0 numbers. Why? Because when you click off a game the Game Bar and Game Mode stop forcing their scheduler garbage on it. By disabling Game Mode and relaunching the game, affinity masking works flawlessly and you don't get that reduced performance problems.
 
scheru schrieb:
Die CPU Last ist nicht von der Auflösung abhängig, also teste man ohne GPU Limit.
Stimmt nicht ganz: UW-Auflösungen benötigen mehr CPU-Rechenleistung, weil "mehr" dargestellt wird und nicht nur "das Gleiche" in unterschiedlicher Auflösung. Die Unterschiede sind teils massiv und werden oft zu wenig berücksichtig: Dual-QHD ist mal eben 20% langsamer als QHD.
 
  • Gefällt mir
Reaktionen: scheru und Nureinnickname!
hannah_hot schrieb:
Ok und was von diesen Theoretischen "benchmarks" in Steinzeit 720p, lässt sich in 1440p oder 4k wiederspiegeln?
Soweit ich das anderweitig gelesen habe fallen die Unterschiede so marginal dann aus, das man gezielt auf niedrige Auflösungen zurückgreift um überhaupt was messen zu können.

Was soll das eigentlich? Hier wird in p getestet, und nicht so orientierte Leser schliessen wenn Sie den Sprung von CPU 1 zu CPU 2 sehen, das der selbe Sprung auch bei 1440p stattfinden würde.

Dabei fällt der immer und immer kleiner aus.

Das ist im Grunde sehr täuschend für viele Leser.

Es sei denn man testet gezielt in 720p um überhaupt den "Leuten" zu zeigen das die CPUs schneller sind, anaonsten würde ja keiner kaufen oder?
Ich verstehe deinen Grundgedanken, was du damit sagen willst. Dennoch schließe ich mich den CPU Test Verstehern an, dass bei einem CPU Test die Geschwindigkeit der CPU gemessen werden soll. Und das geht nun mal nur mit einer schnellen (bzw der schnellsten) GPU und einer niedrigen Auflösung. ;)
hannah_hot schrieb:
Dennoch finde ich es merkwürdig das hier in der "Theorie" getestet wird, es wird etwas getestet das in der Realität keine Anwendung findet.
Wenn du 4K Benchmarks haben möchtest, dann geh halt hier hin:
https://www.gamestar.de/artikel/amd-ryzen-9-7950x3d-im-test,3390515.html

Und selbst da sieht man zwischen dem langsamsten Ryzen 5600 und dem schnellsten einen deutlichen Unterschied.
Also ist CPU Leistung wohl doch wichtig ;)
 
hannah_hot schrieb:
Man muss so testen, das man die CPU so testet das man weiss was in der REALITÄT auch wirklich ankommt in gaming.
Zum x-ten Mal: Dann testest du aber nicht die CPU sondern du ermittelst nur, wo bei den jeweiligen Spielen das GPU Limit liegt.

Die Performance der CPU muss man unabhängig von der gerade aktuellen GPU testen, denn du kannst ja auch die GPU nächstes Jahr wechseln, bzw schon dieses Jahr.
Dann hat jemand ne 4090Ti im System die 15% schneller als die 4090 ist und keiner kann aus dem CPU Test erkennen, welche CPU diese zusätzlichen 15% denn auch mitmacht, weil im GPU Limit der 4090 getestet wurde.
 
  • Gefällt mir
Reaktionen: iron_monkey und LukS
Wenn der 7800X3D nur mit 4 von 8 Kernen an den 3D V-Cache angbunden sein sollte, dann wird das eine Katastrophe.
 
@AuroraFlash Der 7800X3D hat nur ein Chiplet und keine 2
 
  • Gefällt mir
Reaktionen: AuroraFlash und C4rp3di3m
@Jan @Wolfgang warum werden die overall Performanceratings eigentlich in Prozent angegeben, während die Einzeltests in FPS angegeben werden? Prozent gibt es da dann per Mouse-over. Es wäre viel interessanter wie viele FPS im Schnitt erreicht werden, aber das muss man sich am Ende selbst ausrechnen. Wenn Grafikkarte/CPU A im Schnitt 100% schneller ist als Grafikkarte/CPU B, sagt mir das erstmal nichts. Wenn es aber heißt 40 FPS vs. 20 FPS, dann weiß ich direkt dass beides für mich nicht taugt. Ich fände es sinnvoller wenn ihr das Performancerating wie die Einzeltests darstellen würdet.
 
hannah_hot schrieb:
Das aufgezeigte, die performance ist deswegen IRRELEVANT, da dieses hypothetische Test Szenario (Spiele 720p) nicht mehr in der Realität gebrauch findet.
Die wird dann relevant, wenn deine GPU diese Leistung erbringen kann. Beispielsweise mit niedrigeren Einstellungen der Grafiksetttings und oder DLSS/FSR WQHD->720p oder einem GPU Wechsel.
hannah_hot schrieb:
Man muss so testen, das man die CPU so testet das man weiss was in der REALITÄT auch wirklich ankommt in gaming.
Es ist die Realität. Die CPU liefert immer diese Leistung egal in welcher Auflösung, auch in 8K.
hannah_hot schrieb:
Praxis bezogene- der Realität entsprechende Tests zusätzlich.
Die sind bereits mit GPU Benchmarks abgedeckt.

hannah_hot schrieb:
Der hypothetische 720p mag aufzeigen das die CPU schneller sein sollte, als cpu x, aber wenn man von den "theorie benchmarks" auf Praxis geht z.b. 1440p/2160p, sind die Ergebnisse totall verzerrt und haben nichts mehr mit dem aufgezeigten Performance Plus in 720p zu tun.
Richtig, verzerrt, da die CPU von der GPU gebremst wird und es somit kein CPU Ergebnis ist.
hannah_hot schrieb:
Aber was zählt ist das gesamtwerk von GPU,CPU,RAM,SSD usw.
In diesem Gesamtwerk, kann man aber keine Komponente testen.
Du testest auch keinen Ferrari bei Stau in der Stadt.
hannah_hot schrieb:
Es ist interessant wenn man in einem Realen Testszenario nur die CPU austauscht z.b. auf den 7950x3 von einem 12700k, und man in 1440p spielt, ob die Leistung in Spielen des "gesammt" Werks pc-> eben auch in der realität etwas gebracht hat.
Das kostet viel zu viel Aufwand mehrere CPU und GPU Kombinationen zu testen.
Deshalb testet man Eine CPU mit X GPU und eine GPU mit X CPU um den Aufwand für das gleiche Ergebnis zu reduzieren.
 
@hannah_hot du hast absolut keine Ahnung von der Materie. Geh einfach in den nächsten Elektromarkt deiner Wahl, lass dich dort beraten und nimm deinen Fertig-PC mit.
 
  • Gefällt mir
Reaktionen: iron_monkey
hannah_hot schrieb:
Man muss so testen, ...
... dass man weiß, was die CPU in Zukunft leisten kann denn dafür kauft man sie aber da es jetzt
noch keine RTX5090 und 6090 gibt muss man die Auflösung verringern um es zu simulieren. ;)
 
  • Gefällt mir
Reaktionen: scheru
Zurück
Oben