Test Ryzen Threadripper 2000 im Test: 32 Kerne sind verrückt, 16 sehr gut nutzbar

aivazi schrieb:
Oder eben zwei Instanzen mit Cinebench, scheint ja so als würde es eher an Windows und der Tatsache liegen, dass es Probleme hat einer laufenden Instanz bis zu 64 Kerne vernünftig auszulasten und zu adressieren.

Das ist so nicht zu vergleichen. Viele Anwendungen hängen bereits bei einem 16C/32T Prozessor mit Quadchannel Anbindung im Speicherlimit. Eine Rendering Anwendung (Speicherdurchsatz praktisch egal) ist hier nicht mit einem Videoenkodierer vergleichbar.
Golem prüfte den 32C/64T Threadripper auch im DualChannel Modus. Bei Renderinganwendungen ist praktisch kein Geschwindigkeitsunterschied feststellbar, bei Anwendungen die zwar nahezu perfekt mit der Kernanzahl skalieren und hohen Speicherdurchsatz benötigen zB. Adobe Lightroom, bricht er hingegen komplett ein.
 
  • Gefällt mir
Reaktionen: powercf
Fragt sich nur was man mit so vielen Kernen anfangen soll. Mir ist bisher nicht ein Spiel oder eine Anwendung im 0815 Consumerbereich bekannt die damit was anfangen kann. Die meisten Anwendungen und Spiele nutzen heute nicht mal 6-8 Kerne vernünftig aus.

Ich denke Sinn macht das nur wenn man viele Dinge parallel starten will oder wie üblich im Videoschnitt und Grafik bzw CAD Bereich.
 
Ich hätte gerne mal eine Deutsche Software gesehen...
Siemens NX....
 
  • Gefällt mir
Reaktionen: gesperrter_User
HaZweiOh schrieb:
Schon wieder eine reißerische Überschrift auf BILD-Niveau.

Als wenn die Software-Hersteller NIE mehr an der Multicore-Optimierung feilen würden. :rolleyes:
Wir können Wetten abschließen, wie lange es dauert, bis Videos im modernen AV1-Codec von 32 Kernen profitieren. Wo die Leistung gebraucht wird, geht das erstaunlich schnell. Und man kauft seinen PC nicht für "aktuell", sondern für die nächsten Jahre.

Sich heute Technik kaufen, die man vielleicht dann die "nächsten Jahre" mal braucht, ist mit das schlechteste/dümmste was man machen kann. Da schmeißt man Geld so zum Fenster raus.
Ich kannte diesen Spruch immer genau umgekehrt: Man sollte sich Technik für den PC erst dann kaufen, wenn man sie braucht. Der Preisverfall ist einfach immer noch so groß, dass man NIE sich Technik für den PC kaufen sollte, die man dann irgendwann mal in der Zukunft vielleicht braucht.
 
  • Gefällt mir
Reaktionen: Kazuja, Ludwig55, Fujiyama und 2 andere
Dr. MaRV schrieb:
Sie brandmarken es nicht als schummeln
Doch schon, CB schreibt, AMD hätte es "ausgeschmückt", das ist eine Umschreibung für Schummeln.
Dabei ist DDR4-3200 für die Leser hier ganz normaler Alltag.

Es ist eher crazy, bei schnellen CPUs nicht mit mindestens DDR4-3200 zu testen.

Sich heute Technik kaufen, die man vielleicht dann
Das kommt auf deinen Anwendungsfall an, man kann es nicht so pauschalieren. Wenn du weißt, dass deine Anwendung massiv Threads braucht und deshalb schnell angepasst wird (z. B. AV1-Codierung), ist es keine dumme Idee. Für mich liegt der Threadripper weit oberhalb meines Budgets. Wenn das nicht so wäre, würde ich ihn nehmen.
 
Zuletzt bearbeitet:
Vissi schrieb:
Warum die Spiele nicht auf 4k getestet wurden, bleibt mir ein Rätsel.
Weil CPUs keine Pixel berechnen und daher die Auflösung für den Test völlig egal ist.

Statt dessen würdest du aber ein GPU Limit schaffen das dir am Ende absolut nichts über die Leistung der CPU sagt.
 
  • Gefällt mir
Reaktionen: Kazuja, dideldei, TheBear1517 und 4 andere
Nun ist es aber gut mit dem Core Wettrennen,möchte man AMD zurufen.Aber im nächsten Jahr,haben sie die Möglichkeit mit noch Mal nachzulegen.Ob das nicht am Bedarf vorbei produziert ist ? WS hin oder her.Wie man sieht,sind die Schwächen beim Speicher Zugriff mit steigender Kernzahl enorm,was ja erwartet wurde.Der Vergleich mit der Spieletauglichkeit und Vergleich mit aktuellen Intel 8xxx Desktop CPUs,ja sogar der eigenen 2xxx Reihe ,kann hier nur am Rande betrachtet werden weil nicht relevant für eine 24 oder 32 Kern CPU.Wer unbedingt mit seiner WS zocken will,soll das tun aber es ist nicht das Primat bei der Nutzung.Also ein Vergleich mit Intels aktueller WS Plattform wäre wohl besser gewesen.
 
Pokerfail schrieb:
Die Probleme mit dem 2990WX scheinen vor allem an Windows zu liegen. Bei den Linux Benchmarks von Phoronix (https://www.phoronix.com/scan.php?page=article&item=amd-linux-2990wx&num=1) deklassiert der das ganze Feld. Windows schafft es wohl auch 2018 (zumindest in der Desktop Variante) nicht mit Kernen ordentlich zu skalieren...

Ja soviel zu einem Limit im Speicherinterface :D
Windows limitiert offensichtlich an allen Ecken.

Man sieht ja ziemlich gut, wie das Teil in Blender Kreise um den 18 Kerner und dem 2950X dreht....
 
  • Gefällt mir
Reaktionen: Kazuja, danyundsahne und Pokerfail
Xeelee schrieb:
Weil CPUs keine Pixel berechnen und daher die Auflösung für den Test völlig egal ist.

Statt dessen würdest du aber ein GPU Limit schaffen das dir am Ende absolut nichts über die Leistung der CPU sagt.

Was natürlich Unsinn ist. Für Kunden, die auf 4k Zocken, ist er wichtig, weil er zeigt, wie weit die Leistung bei dieser Auflösung gegenüber dem 8700k einbricht.
 
  • Gefällt mir
Reaktionen: powercf und HaZweiOh
n Kumpel von mir, wird beim "2950X" zuschlagen... P/L mäßig genau das, was er sucht... er nutzt seine Rechenmagd 60*/40**, * für Grafik/ Video & ** Gaming...
 
gr3if schrieb:
Man könnte noch auf die Idee kommen, das in Benchmarks gezeigt wird, was diese CPU wirklich kann wenn die Software mitspielt. *Hust* (Linux, andere Renderprogramme usw.)

Da bin ich zu 100% bei dir, weshalb ich mich auch nie auf einen einzelnen Test verlasse. Was der 2990WX zu leisten im Stande ist, werden wir erst in den kommenden Wochen vollumfänglich zusehen bekommen.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: Kazuja und danyundsahne
Dr. MaRV schrieb:
Irgendwo ist es aber schon komisch, wenn der Hersteller sagt das Produkt darf nur mit Speichertakt X betrieben werden und führt seine eigenen Tests dann mit einem ganz anderen Takt durch. Man stelle sich nur vor Intel würde so etwas verwerfliches tun. :rolleyes:
Intel hat auch ihren 28 Kern Prozessor mit 5GHz gezeigt. Das ist jenseits von jeglicher Spezifikation. Solange sie es angeben ist das nicht so verwerflich. Und die 3200 sind durchaus praxisnah, wenn man von Enthusiasten und nicht von Workstations ausgeht.
 
yummycandy schrieb:
Hab das eben auch überflogen, das ist total krank. :)

Total! Die Linux Benches sind ja krass! Da darf man auf den Windows Patch gespannt sein.

@Krautmaster

Bei Phoronix haben sie einen 7980XE und auch Darktable. Wolltest du das nicht mal testen?
 
  • Gefällt mir
Reaktionen: s0UL1, danyundsahne und yummycandy
Infect007 schrieb:
Du hast auch nur auf die Gaming Benchmarks geschaut und den Test nicht wirklich gelesen, oder? :evillol:

En3rg1eR1egel schrieb:
da ich gaming mit keinem wort erwähnt habe...

Das war eine Frage, keine Aussage ;)

Aber um noch mehr auf deine ursprünglichen Aussagen einzugehen:
En3rg1eR1egel schrieb:
und wir hypen kerne, kerne, kerne...
genau, Kerne braucht kein Mensch. Die ganzen Workstations mit den vielen Kernen sollten in Zukunft nur noch 2C i3s benutzen.
En3rg1eR1egel schrieb:
und dann geben wir zu das zu viele kerne nicht richtig funktionieren.
Wer gibt hier etwas zu? Sobald mehr Kerne kommen gibt es immer noch was zu optimieren. Das war bei den Q6400 nicht anders. Und irgendwann wurde 4C unterstützt und niemand wollte mehr ohne. Und dann kam noch HT/SMT, dann sind die 6 Kerner gekommen,... und jetzt kündigt Intel auch noch 8 Kerner an...
En3rg1eR1egel schrieb:
ein produkt, das niemand braucht.
Du sollst von dir nicht auf andere schließen.
En3rg1eR1egel schrieb:
das wird noch jahre brauchen bis es mal wirklich anständige software dafür gibt.
Das wird schneller gehen als du denkst...
En3rg1eR1egel schrieb:
und trotzdem werden leute dadrauf reinfallen, das neumodische kern-gehype sei dank.
Genauso wie sie damals auf die 4-Kerner, 8-Threader, 6-Kerner und 12-Threader reingefallen sind ;)
 
  • Gefällt mir
Reaktionen: darkcrawler und yummycandy
HaZweiOh schrieb:
Doch schon, indem sie schreiben, AMD hat es "ausgeschmückt". Dabei ist DDR4-3200 für die Leser normaler Alltag.

Es stand AMD frei die CPU offiziell für solchen Speicher freizugeben, haben sie aber nicht. Ich kann nicht als Hersteller sagen, unser Motor dreht bis 5000UpM und dann Tests mit 6000UpM veröffentlichen. Da kann man durchaus vom schummeln sprechen.

Ganz abgesehen davon existieren schon 2933 JEDEC Module praktisch gar nicht und bei 3200 sieht es nicht besser aus, Module die eine solche Spezifikation mit 1,35v oder mehr erreichen laufen grundsätzlich außerhalb eines Standards.
 
  • Gefällt mir
Reaktionen: .Sentinel.
max9123 schrieb:
Das ist so nicht zu vergleichen. Viele Anwendungen hängen bereits bei einem 16C/32T Prozessor mit Quadchannel Anbindung im Speicherlimit. Eine Rendering Anwendung (Speicherdurchsatz praktisch egal) ist hier nicht mit einem Videoenkodierer vergleichbar.
Golem prüfte den 32C/64T Threadripper auch im DualChannel Modus. Bei Renderinganwendungen ist praktisch kein Geschwindigkeitsunterschied feststellbar, bei Anwendungen die zwar nahezu perfekt mit der Kernanzahl skalieren und hohen Speicherdurchsatz benötigen zB. Adobe Lightroom, bricht er hingegen komplett ein.

Dennoch ist es aber überwiegend Windows anzulasten, dass man die CPU nicht komplett auslasten kann.
Schließlich geht es ja unter Linux und das auch teils mit der doppelten Geschwindigkeit eines 7980X...
 
  • Gefällt mir
Reaktionen: Oceanhog und Excel
HaZweiOh schrieb:
Eben! Was CB als vermeintliches schummeln brandmarkt, ist bei ihren Lesern schon längst Realität.
Wer 1800 Euro für seine CPU ausgibt, wird doch nicht am RAM knausern.
CB testet alle CPU wie freigegeben. Was man allerdings nachschreiben kann und auch oft tut ist ein Mem OC Special.

Das hier scheint ja wenig das final Testergebnis zu sein, dafür war vermutlich zu wenig Zeit und auch andere Modelle fehlen noch im Parcour, zb die SLX.
 
Müritzer schrieb:
Das war und ist ja im Mainstream momentan angesagt und nun kommt AMD mit 32 Kerner in der High End Abteilung. Da ja viele Programme auf beiden Systemen laufen sollen gibt es nur eins, der Tag hat 24 Stunden und das Jahr 365 Tage, wenn die Softwareentwickler das voll ausnutzen, können wir mit Verbesserungen vielleicht schon in 2 Jahren rechnen. Programmiert aber gleich auf 128 Kernen, wer weis wo der Kerne Marathon endet.

Viele Kerne sind ja nicht nur dazu da, dass eine Software darauf läuft, viele Kerne bieten gerade den Vorteil, dass mehrere Anwendungen gleichzeitig abgearbeitet werden. Wichtig ist erst einmal, dass Software wenigstens damit zurecht kommt, dass viele Kerne vorhanden sind und nicht dadurch ausgebremst werden. Bei Spielen ist das zum Beispiel ja der Fall, anstatt einfach auf den Kernen zu laufen, die das Spiel (die Software) nutzen kann, bremst die pure Existenz des Mehr an Kernen einfach aus oder verursacht sogar Abstürze. Sowas darf eigentlich nicht sein.
Wenn man sich vorstellt, dass ein Anwender eine Workstation für diverse Aufgaben benötigt und auch (gelegentlich) darauf spielen will... Nein, das Spiel macht es nicht mit. Workaround könnte man wohl mit VMs machen, aber ein Workaround sollte ja nicht die Regel sein...
 
Vissi schrieb:
Warum die Spiele nicht auf 4k getestet wurden, bleibt mir ein Rätsel.
Weil da die CPU unerheblich ist da im GPU Limit. Keiner braucht nen Tests um zu sehen dass dann alle CPU gleich fix sind.
 
  • Gefällt mir
Reaktionen: latexdoll, Rage, cookie_dent und 3 andere
Zurück
Oben