Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestAMD Ryzen Threadripper 7000 im Test: 64/32-Core-CPUs in Workstation- und Gaming-Benchmarks
AMD hat mal wieder mit dem Threadripper in Intels Garten gewütet und einen großen Scheißhaufen hinterlassen. Aber Intel schafft es nicht mal aus dem Scheißhaufen Dünger zu machen.
Bin mal gespannt wie sich das Ding mit Ultra Fractal schlägt. so 5 Minuten Warten bei einem TR 3970 bei einem Deep Zoom ist lästig
Wahnsinn und zugleich schade, wie konkurrenzlos AMD in den Segmenten HEDT und Workstation mittlerweile ist. Da Würde Konkurrenz echt gut tun.
Für sich genommen ist das natürlich wieder ein großer Wurf und sehr beeindruckend. Mir wäre es dennoch lieber, hier würde mal wieder zu einem echten Duell kommen.
Naja, NVidia hat dafür bei den GPUs die Nase vorn. Ich finde es gut so, wenn AMD wenigsten diesen Markt halbwegs dominiert. Das kommt langfristig vieleicht (finanziell) auch der anderen Technik zu gute. Ein echtes Duell auch in diesem Bereich erhöht nur die Chance das AMD irgendwann insgesamt wieder absäuft.
@Volker Vielen Dank für diesen Test! Auch, dass ihr Workstation workloads mit aufgenommen habt.
Mich würde tatsächlich interessieren, ob mehr Cache bei den Workstation Workloads eine Auswirkung hat, gerade bei der CFD Simulation - besteht die Möglichkeit, dass ihr das mit einem Ryzen-X3D nochmals benchmarken könntet? Ich gebe zu, ich habe bis jetzt Onkel Google noch nicht mit der Frage belästigt
Chart des Tages aus meiner Sicht: die Intels - einfach nur LOL!
Hab da mal eine Frage zu diesem GameMode. Woher weiß das OS das jetzt ein Game läuft und der GameMode aktiviert werden muss? Muss das von den Spiele-Entwicklern quasi bekanntgegeben werden "hey Windows - ich bin ein Spiel" Windows/Treiber dann so "ah ok ich deaktiviere mal" ... nur weil die GPU jetzt etwas mehr genutzt wird, muss ja nicht zwingend ein Spiel am Start sein. Also wie läuft die korrekte Erkennung?
Und noch eine kleine Frage: was heißt "deaktiviert die restlichen Kerne"? Wenn ich jetzt parallel mit 16 von 32 Kernen etwas berechnen möchte - Pech gehabt oder werden die ausschließlich für das Spiel deaktiviert was gerade vom GameMode betroffen ist? Ausserhab des Spieles kann ich meine Anwendung mit hohen Kernebedarf weiter nutzen?
Meinen 3970 nutze ich leider gar nicht mehr so richtig. Rendern auf der GPU wird immer mehr der heisse shit und ständig verbessert.
Letztlich wird es für meine Anwendung (C4D mit Redshift oder Cycles4D) also billiger, da man eigentlich nur noch ein Mainboard mit einer Consumer CPU benötigt und im Idealfall zwei 8x angebundenen PCIe slots für zwei Grafikkarten. Selbst mit 4090ern ist diese Lösung günstiger als auf HEDT umzusteigen.
Hab da mal eine Frage zu diesem GameMode. Woher weiß das OS das jetzt ein Game läuft und der GameMode aktiviert werden muss? Muss das von den Spiele-Entwicklern quasi bekanntgegeben werden "hey Windows - ich bin ein Spiel" Windows/Treiber dann so "ah ok ich deaktiviere mal" ... nur weil die GPU jetzt etwas mehr genutzt wird, muss ja nicht zwingend ein Spiel am Start sein. Also wie läuft die korrekte Erkennung?
Der Game-Mode wird im BIOS aktiviert und dann die CPU-kerne Deaktiviert. So erkennt Windows nur die Aktiven kerne und es wird nicht mehr wild zwischen den CCDs herumgeschaltet.
Mit process lasso läst sich das nicht zuverlässig lösen. Es gibt Divese Spiele die Starten nicht mit einem gespeicherten process lasso profil.
Mir ist auch schon aufgefallen das diverse Spiele nur auf einem Numa-Node laufen. 3dmark ist auch so ein kanidat der CPU-Benchmark läuft zwar mit 64 Threads (mit meinem TR 3970) aber nur auf einem Numa-Node statt auf zwei.
Skylines 2 läuft mit über 300 Threads die sich schön gleichmäsig über alle Kerne verteilen
Das Rendern auf GPU so ab geht sieht man ja mit Cinebench 2024. Allerdings gibt es viele Programme die hohen singel core und viele Kerne benötigen. z.B. Photoshop und Illustrator sind so kanidaten. Die haben viele Funktionen die nur auf 1-4 kernen kaufen.
Bei meinem 64er schaltet der Game Mode 6 von 8 CCDs ab, somit blieben dann noch 16 Kerne übrig. Ansonsten wird dann wohl je nach Konfiguration der NUMA Modus entsprechend geschaltet, damit das OS weiß welcher Speicher schnellere Latenzen und kürzeren Weg hat.
Der Game-Mode wird im BIOS aktiviert und dann die CPU-kerne Deaktiviert. So erkennt Windows nur die Aktiven kerne und es wird nicht mehr wild zwischen den CCDs herumgeschaltet.
achso - dachte das würde vom Treiber unter Windows gemanagend. Im BIOS ist natürlih dann restriktiver - womit sich ja meine Zusatzfrage geklärt hat. Hab 16 von 32 Kernen und kann auch nur 16 nutzen - für ALLES.
Das stimmt allerdings kommt man um einen reboot nicht rum.
Ich hab den Gamemode noch nicht benötigt. Ich schalte höchstens per process lasso das SMT ab
Ich wüsste echt nicht was eine Server-CPU heute ausmacht, da zumindest alle AMDs ECC und co. dabei haben. Ich habe erst ein neuem VM Server gemietet der hat ein 7950X also ist das auch eine Server-CPU,
Marketing und Co. Das einzige was differenziert betrachtet werden muss ist die I/O der Workstation/Server CPUs, die haben halt wesentlich mehr Möglichkeiten.
Rein von der Virtualisierung tut es fast jede CPU. Und dabei ist es zumindest unter Windows/Linux egal welche Arch. ich habe. Server 2022 kommt z.B. tadellos mit den P-Cores und E-Cores zurecht (Alder/Raptor Lake).
Ergänzung ()
LencoX2 schrieb:
Oder an den 500Watt die er 14900K zieht mit seinen 5GHz
Ich weiß ja nicht. Geht's nur mir so, oder wirkt die Leistung der neuen TRs im Vergleich zu z.B. den Intel Consumer CPUs etwas magerer als erwartet? 2-3x schneller bei 4facher Anzahl Threads, sollte da nicht mehr drin sein?
Ich meine klar, die laufen mit niedrigerem Takt und keine P/E Cores, also eh schwer zu vergleichen. Zudem hat man mit Windows 11 hier ja noch die OS-Krücke am Bein, weil irgendwann jemand sich mal gedacht hat, mehr als 640kb Speicher....äh.... mehr als 64 Threads wird nie eine einzelne CPU verarbeiten
Vielleicht sollte man die Dinger mal unter Linux von der Leine lassen. Das hier wirkt irgendwie wie fahren mit angezogener Handbremse.