Test AMD Ryzen Threadripper 7000 im Test: 64/32-Core-CPUs in Workstation- und Gaming-Benchmarks

Inxession schrieb:
Ich seh es schon kommen ...
Am Horizont erscheint eine Krypto Währung die massiv CPU Power braucht ... und TR ist dann auf einmal ein Kassenschlager.

Es gibt eine Kryto Währung die seit Jahren nur auf CPU vernünftig läuft.

Mist eben bei Geizhals nachgeschaut.
Immer noch keine CPUs und Boards :mad:
 
  • Gefällt mir
Reaktionen: C4rp3di3m
AMD hat mal wieder mit dem Threadripper in Intels Garten gewütet und einen großen Scheißhaufen hinterlassen. Aber Intel schafft es nicht mal aus dem Scheißhaufen Dünger zu machen.

Bin mal gespannt wie sich das Ding mit Ultra Fractal schlägt. so 5 Minuten Warten bei einem TR 3970 bei einem Deep Zoom ist lästig
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Skudrinka
Der Frankenstein-Xeon. :D Er säuft und säuft und säuft.

Threadripper läuft eigentlich schon länger ziemlich konkurrenzlos, bin mal gespannt, ob und wann Intel da mal wieder anschließen kann.
 
SVΞN schrieb:
Wahnsinn und zugleich schade, wie konkurrenzlos AMD in den Segmenten HEDT und Workstation mittlerweile ist. Da Würde Konkurrenz echt gut tun.

Für sich genommen ist das natürlich wieder ein großer Wurf und sehr beeindruckend. Mir wäre es dennoch lieber, hier würde mal wieder zu einem echten Duell kommen.

Naja, NVidia hat dafür bei den GPUs die Nase vorn. Ich finde es gut so, wenn AMD wenigsten diesen Markt halbwegs dominiert. Das kommt langfristig vieleicht (finanziell) auch der anderen Technik zu gute. Ein echtes Duell auch in diesem Bereich erhöht nur die Chance das AMD irgendwann insgesamt wieder absäuft.
 
@Volker Vielen Dank für diesen Test! Auch, dass ihr Workstation workloads mit aufgenommen habt.
Mich würde tatsächlich interessieren, ob mehr Cache bei den Workstation Workloads eine Auswirkung hat, gerade bei der CFD Simulation - besteht die Möglichkeit, dass ihr das mit einem Ryzen-X3D nochmals benchmarken könntet? Ich gebe zu, ich habe bis jetzt Onkel Google noch nicht mit der Frage belästigt ;)

Chart des Tages aus meiner Sicht: die Intels - einfach nur LOL!
1700556008493.png
 
  • Gefällt mir
Reaktionen: bad_sign
Hab da mal eine Frage zu diesem GameMode. Woher weiß das OS das jetzt ein Game läuft und der GameMode aktiviert werden muss? Muss das von den Spiele-Entwicklern quasi bekanntgegeben werden "hey Windows - ich bin ein Spiel" Windows/Treiber dann so "ah ok ich deaktiviere mal" ... nur weil die GPU jetzt etwas mehr genutzt wird, muss ja nicht zwingend ein Spiel am Start sein. Also wie läuft die korrekte Erkennung?

Und noch eine kleine Frage: was heißt "deaktiviert die restlichen Kerne"? Wenn ich jetzt parallel mit 16 von 32 Kernen etwas berechnen möchte - Pech gehabt oder werden die ausschließlich für das Spiel deaktiviert was gerade vom GameMode betroffen ist? Ausserhab des Spieles kann ich meine Anwendung mit hohen Kernebedarf weiter nutzen?
 
Danke für den Test!

Meinen 3970 nutze ich leider gar nicht mehr so richtig. Rendern auf der GPU wird immer mehr der heisse shit und ständig verbessert.
Letztlich wird es für meine Anwendung (C4D mit Redshift oder Cycles4D) also billiger, da man eigentlich nur noch ein Mainboard mit einer Consumer CPU benötigt und im Idealfall zwei 8x angebundenen PCIe slots für zwei Grafikkarten. Selbst mit 4090ern ist diese Lösung günstiger als auf HEDT umzusteigen.
 
WulfmanGER schrieb:
Hab da mal eine Frage zu diesem GameMode. Woher weiß das OS das jetzt ein Game läuft und der GameMode aktiviert werden muss? Muss das von den Spiele-Entwicklern quasi bekanntgegeben werden "hey Windows - ich bin ein Spiel" Windows/Treiber dann so "ah ok ich deaktiviere mal" ... nur weil die GPU jetzt etwas mehr genutzt wird, muss ja nicht zwingend ein Spiel am Start sein. Also wie läuft die korrekte Erkennung?

Der Game-Mode wird im BIOS aktiviert und dann die CPU-kerne Deaktiviert. So erkennt Windows nur die Aktiven kerne und es wird nicht mehr wild zwischen den CCDs herumgeschaltet.

Mit process lasso läst sich das nicht zuverlässig lösen. Es gibt Divese Spiele die Starten nicht mit einem gespeicherten process lasso profil.

Mir ist auch schon aufgefallen das diverse Spiele nur auf einem Numa-Node laufen. 3dmark ist auch so ein kanidat der CPU-Benchmark läuft zwar mit 64 Threads (mit meinem TR 3970) aber nur auf einem Numa-Node statt auf zwei.

Skylines 2 läuft mit über 300 Threads die sich schön gleichmäsig über alle Kerne verteilen

Das Rendern auf GPU so ab geht sieht man ja mit Cinebench 2024. Allerdings gibt es viele Programme die hohen singel core und viele Kerne benötigen. z.B. Photoshop und Illustrator sind so kanidaten. Die haben viele Funktionen die nur auf 1-4 kernen kaufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: WulfmanGER
Bei meinem 64er schaltet der Game Mode 6 von 8 CCDs ab, somit blieben dann noch 16 Kerne übrig. Ansonsten wird dann wohl je nach Konfiguration der NUMA Modus entsprechend geschaltet, damit das OS weiß welcher Speicher schnellere Latenzen und kürzeren Weg hat.
 
...wie ist der 24-Kerner eigentich verschaltet?

4 CCDs zu je 6 Kernen, oder 3 vollbeschaltete CCDs?
 
wern001 schrieb:
Der Game-Mode wird im BIOS aktiviert und dann die CPU-kerne Deaktiviert. So erkennt Windows nur die Aktiven kerne und es wird nicht mehr wild zwischen den CCDs herumgeschaltet.

achso - dachte das würde vom Treiber unter Windows gemanagend. Im BIOS ist natürlih dann restriktiver - womit sich ja meine Zusatzfrage geklärt hat. Hab 16 von 32 Kernen und kann auch nur 16 nutzen - für ALLES.

Danke für die Aufklärung :)
 
Das stimmt allerdings kommt man um einen reboot nicht rum.
Ich hab den Gamemode noch nicht benötigt. Ich schalte höchstens per process lasso das SMT ab
Ergänzung ()

Frantik54 schrieb:

Ein TR 3970 gönnt sich (offen) auch ca 380-400 Watt mit Cinebench 2024. Allerdings werden dann auch 32x ca 4,2 GHz erreicht
 
Zuletzt bearbeitet:
Cool Master schrieb:
Ich wüsste echt nicht was eine Server-CPU heute ausmacht, da zumindest alle AMDs ECC und co. dabei haben. Ich habe erst ein neuem VM Server gemietet der hat ein 7950X also ist das auch eine Server-CPU,
Marketing und Co. Das einzige was differenziert betrachtet werden muss ist die I/O der Workstation/Server CPUs, die haben halt wesentlich mehr Möglichkeiten.
Rein von der Virtualisierung tut es fast jede CPU. Und dabei ist es zumindest unter Windows/Linux egal welche Arch. ich habe. Server 2022 kommt z.B. tadellos mit den P-Cores und E-Cores zurecht (Alder/Raptor Lake).
Ergänzung ()

LencoX2 schrieb:
Oder an den 500Watt die er 14900K zieht mit seinen 5GHz
Du meinst wohl 290W bei 5,7 GHz all P-Core.....
Aber ja, gönnt sich alles recht viel heutzutage.

Ich finde die SW sollt endlich mal mehr als 8 Kerne richtig supporten.
Die wenigstens Games brauchen mehr oder prof. im >2% Bereich davon....

Für jede virtuelle Umgebung ist der Fortschritt in diesem Bereich ein Segen.
Man kann nie genug Kerne haben für parallelisierten Workload.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cool Master
wern001 schrieb:
Der Game-Mode wird im BIOS aktiviert und dann die CPU-kerne Deaktiviert.
Kann man nicht Process Lasso benutzen? Man könnte ja auch eine VM machen, die alle Kerne von einem CCD nutzt.
 
Kann man einer VM überhaupt bestimmte Kerne zuweisen? In der HyperV Serverversion geht nur anzahl/node zum einstellen
 
Ich weiß ja nicht. Geht's nur mir so, oder wirkt die Leistung der neuen TRs im Vergleich zu z.B. den Intel Consumer CPUs etwas magerer als erwartet? 2-3x schneller bei 4facher Anzahl Threads, sollte da nicht mehr drin sein?
Ich meine klar, die laufen mit niedrigerem Takt und keine P/E Cores, also eh schwer zu vergleichen. Zudem hat man mit Windows 11 hier ja noch die OS-Krücke am Bein, weil irgendwann jemand sich mal gedacht hat, mehr als 640kb Speicher....äh.... mehr als 64 Threads wird nie eine einzelne CPU verarbeiten ;)

Vielleicht sollte man die Dinger mal unter Linux von der Leine lassen. Das hier wirkt irgendwie wie fahren mit angezogener Handbremse.
 
  • Gefällt mir
Reaktionen: Caramon2
Zurück
Oben