Test Ryzen Threadripper 2000 im Test: 32 Kerne sind verrückt, 16 sehr gut nutzbar

En3rg1eR1egel schrieb:
und wir hypen kerne, kerne, kerne...
und dann geben wir zu das zu viele kerne nicht richtig funktionieren.

ein produkt, das niemand braucht.
das wird noch jahre brauchen bis es mal wirklich anständige software dafür gibt.
und trotzdem werden leute dadrauf reinfallen, das neumodische kern-gehype sei dank.

OK du bist auch einer von denen die glauben, GPUs werden nur für Spieler produziert, CPUs nur Gamer und Mobile und niemand braucht mehr als 4 Kerne. Vielen Dank..
Bisumaruku schrieb:
Fragt sich nur was man mit so vielen Kernen anfangen soll. Mir ist bisher nicht ein Spiel oder eine Anwendung im 0815 Consumerbereich bekannt die damit was anfangen kann. Die meisten Anwendungen und Spiele nutzen heute nicht mal 6-8 Kerne vernünftig aus.

Ich denke Sinn macht das nur wenn man viele Dinge parallel starten will oder wie üblich im Videoschnitt und Grafik bzw CAD Bereich.

Solche Statements sind genau das was dieses Forum so irrwitzig gestalten, Blickwinkel ist eingeschränkt und Erfahrung und Erwartungshaltung sind einfach nur lächerlich. Glaubst du wirklich das Computer für Spiele geschaffen wurden ? oder nur damit du im Internet Surfen kannst? Du wirst es nicht glauben aber es gibt Tausende Unternehmen die Kaufen ihren Mitarbeitern das beste vom besten weil ? ja weil Zeit Geld ist und man mit solchen Produkten Geld verdient. Ob du jetzt 6 Stunden oder 1 Stunde für ein Projekt benötigst ist ein Unterschied. Mehr Projekte ist gleich mehr Geld für das Unternehmen. Aber stimmt schon - wer benötigt schon 32 Cores 64 Threads im Business wenn man keine Spiele damit spielen kann. Unfassbar ehrlich...
 
  • Gefällt mir
Reaktionen: Unnu, Ceberus, Dittsche und 7 andere
usb2_2 schrieb:
4GHz allcore bei 1,25V und 385W ergeben 6000 Punkte im Cinebench. Das soll Intel doch Mal bitte mit dem 28 Kern Monster machen. Die Ergebnisse um 5700 Punkte sind natürlich einiges interessanter mit nur 240w.
Wenn man die Anwendung stattdessen auf einer Tesla laufen lassen könnte, würde man viel
Zeit und Geld sparen, Huang hat ja des öfteren Zahlen geliefert wieviel effizienter Anwendungen
mit Cuda laufen können, wo CPUs unter Umständen das vielfache an Zeit benötigen würden.

Was Cinebench angeht:

https://www.hardwareluxx.de/index.p...-intels-konter-fuer-threadripper.html?start=4

Jedermann sollte mal überlegen, was er da sagt. 16 Intel Kerne sind gleich schnell oder schneller als
16 AMD Kerne, und das in jeder Disziplin. Natürlich sind 32 Kerne aber schneller als 28, ist doch auch
logisch und eine einfach Rechnung. Aber Performance pro Watt? Das ist doch der entscheidende Faktor!
 
borizb schrieb:
Was Cinebench angeht:

https://www.hardwareluxx.de/index.p...-intels-konter-fuer-threadripper.html?start=4

Jedermann sollte mal überlegen, was er da sagt. 16 Intel Kerne sind gleich schnell oder schneller als
16 AMD Kerne, und das in jeder Disziplin. Natürlich sind 32 Kerne aber schneller als 28, ist doch auch
logisch und eine einfach Rechnung. Aber Performance pro Watt? Das ist doch der entscheidende Faktor!
Das war der alte Test des 1950X von hardwareluxx. Der 2950X ist im Cinebench schneller als der 7960X und liegt näher beim 7980XE.
https://www.hardwareluxx.de/index.p...test-mit-vollgas-an-intel-vorbei.html?start=4

Perf/W und Perf/$ liegt der 2990WX vor dem 7980XE
https://www.phoronix.com/scan.php?page=article&item=amd-linux-2990wx&num=9
https://www.phoronix.com/scan.php?page=article&item=amd-linux-2990wx&num=10
 
Mir stellt sich die Frage, wie sich der 7900X und der 2950X anstellen, wenn man beim Spielen nebenbei etwas rendert. Ob Blender, x264 oder x265 relativ egal, oder mehrere Tests jeweils.
Zum Start von Ryzen letztes Jahr hat man ja noch getestet, wie gut man spielt, während man gleichzeitig streamt. Hier wäre es interessant, wieviel Leistung man durch Gaming verliert, während man etwas Produktives an einem HEDT-PC rechnen lässt, wofür diese hoffentlich gekauft werden.
 
  • Gefällt mir
Reaktionen: Manfred_89
borizb schrieb:
Jedermann sollte mal überlegen, was er da sagt. 16 Intel Kerne sind gleich schnell oder schneller als 16 AMD Kerne, und das in jeder Disziplin.

Und warum ziehst du jetzt einen Test von for bald einem Jahr raus bei dem der neue 2950x gar nicht dabei ist? Schau doch mal die neuen Tests an ;-)

Damit du nicht lange suchen musst, hab ich dir mal ein Video Review rausgesucht. Nichts zu danken.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Heschel
Bisumaruku schrieb:
Fragt sich nur was man mit so vielen Kernen anfangen soll. Mir ist bisher nicht ein Spiel oder eine Anwendung im 0815 Consumerbereich bekannt die damit was anfangen kann. Die meisten Anwendungen und Spiele nutzen heute nicht mal 6-8 Kerne vernünftig aus.

Ich denke Sinn macht das nur wenn man viele Dinge parallel starten will oder wie üblich im Videoschnitt und Grafik bzw CAD Bereich.

Wow. Die Non-Consumer Workststation CPU ist also nicht ideal für Consumer?
Und die meisten Spiele nutzen nicht mal einen Kern richtig aus, weil sie GPU limitiert sind. ;-)

Also ja, du denkst richtig, alleine nur sehr oberflächlich und offensichtlich. Was immer noch besser ist als die Checker die eine Workstation CPU zum Daddeln empfehlen. :D
 
  • Gefällt mir
Reaktionen: Mort626
Der TR ist bei geizhals gelistet und noch keine "Troll"-Bewertung draußen...
Die Leute werden immer langsamer. :D
1.829.- im Moment. Bin gespannt, wann er unter 1.500 fallen wird.
 
Kerne satt, zum unschlagbaren Preis!

Da können sich die Nutzer mit entsprechendem Anwendungsfall nun richtig freuen... das wird grinsende Gesichter geben.

Scheinbar ärgern sich einige, dass sie nur Spiele als Anwendungsfall haben und daher nicht sinvoll mit so einer CPU protzen könnten?
 
  • Gefällt mir
Reaktionen: Excel, Ned Flanders, C4rp3di3m und eine weitere Person
onkas schrieb:
Solche Statements sind genau das was dieses Forum so irrwitzig gestalten, Blickwinkel ist eingeschränkt und Erfahrung und Erwartungshaltung sind einfach nur lächerlich. Glaubst du wirklich das Computer für Spiele geschaffen wurden ? oder nur damit du im Internet Surfen kannst? Du wirst es nicht glauben aber es gibt Tausende Unternehmen die Kaufen ihren Mitarbeitern das beste vom besten weil ? ja weil Zeit Geld ist und man mit solchen Produkten Geld verdient. Ob du jetzt 6 Stunden oder 1 Stunde für ein Projekt benötigst ist ein Unterschied. Mehr Projekte ist gleich mehr Geld für das Unternehmen. Aber stimmt schon - wer benötigt schon 32 Cores 64 Threads im Business wenn man keine Spiele damit spielen kann. Unfassbar ehrlich...

Gut, dass wir hier wir richtige Pros haben, die uns erklären, wie es wirklich läuft.
 
180 Punkte CB15 Single Core ist für eine Zen CPU wirklich erstaunlich stark. Dazu müsste die CPU höher takten als ein 4,35Ghz Turbo Ryzen 2700X oder konsequenter.
Zum Vergleich mein "Alltags Setting" das mit 4 Ghz All Core / 4700Mhz Turbo auf max 6 Kernen recht human ist (300W CB15 Load)
2018-08-14 18_30_07-Window.png


208 Punkte SC zu 180 beim TR2. Damit ist der TR 2 aber wirklich flott unterwegs, auch bei wenig Threads Belastung. Wäre mal interessant zu sehen wie sich die Performance in abh. von belasteten Threads verhält und wie das skaliert.

Edit.
Mein Wasser hat jetzt im Sommer etwa geregelte 40°C-42°C, da weiter runter zu Kühlen resultiert in Lärm den ich nicht brauchen kann. Bei vertretbarer Lautstärke (bis 800 RPM Fans) geh da ca 400W Abwärme, beim Gaming auch mal etwas mehr aber dann hört man die Kiste schon. Bei 300-400W allein die CPU sollte man nicht unbedingt ein lautloses System erwarten ;)
 
Zuletzt bearbeitet:
xexex schrieb:
Windows 10 kommt "problemlos" mit 256 Kernen zurecht. Windows Server wird mit der "seltsamen" Konfiguration, wie sie beim TR WX vorzufinden, ist auch nicht besser zurecht kommen.
.

Komisch, dass Linux sieht problemloser aus, naja ist man ja von 10 gewöhnt:lol:
 
Pure Existenz schrieb:
Der TR ist bei geizhals gelistet und noch keine "Troll"-Bewertung draußen...

Du meinst: "Habe meinen mit 4,6GHz auf allen Kernen mit meiner AiO-Wakü laufen - maximal 60°C. Damit kriege ich bei Battlefield jetzt 500FPS auf meinem 144Hz 4K-Monitor."
 
onkas schrieb:
OK du bist auch einer von denen die glauben, GPUs werden nur für Spieler produziert, CPUs nur Gamer und Mobile und niemand braucht mehr als 4 Kerne. Vielen Dank..


Solche Statements sind genau das was dieses Forum so irrwitzig gestalten, Blickwinkel ist eingeschränkt und Erfahrung und Erwartungshaltung sind einfach nur lächerlich. Glaubst du wirklich das Computer für Spiele geschaffen wurden ? oder nur damit du im Internet Surfen kannst? Du wirst es nicht glauben aber es gibt Tausende Unternehmen die Kaufen ihren Mitarbeitern das beste vom besten weil ? ja weil Zeit Geld ist und man mit solchen Produkten Geld verdient. Ob du jetzt 6 Stunden oder 1 Stunde für ein Projekt benötigst ist ein Unterschied. Mehr Projekte ist gleich mehr Geld für das Unternehmen. Aber stimmt schon - wer benötigt schon 32 Cores 64 Threads im Business wenn man keine Spiele damit spielen kann. Unfassbar ehrlich...

Hättest du gelesen und verstanden was ich geschrieben habe, hättest du gemerkt das ich genau das geschrieben habe. Die Kerne machen nur dann Sinn, wenn man auch die Software hat die das nutzen kann, oder halt viele Dinge gleichzeitig macht (zB mehrere Projekte gleichzeitig kompilieren etc.). Eine einzelne Anwendung kann heute (traurigerweise) meistens immer noch nicht mit MultiCore vernünftig umgehen. Bis 4 Kerne manchmal auch bis 6 oder 8 Kerne, aber alles darüber liegt meistens brach.
 
Bisumaruku schrieb:
Bis 4 Kerne manchmal auch bis 6 oder 8 Kerne, aber alles darüber liegt meistens brach.
Dann frag dich/euch doch mal selbst warum das so ist. Zu viele Threads -> schlecht.

Lese hier so viel Geheule von Leuten die vermutlich keinen blassen schimmer vom Programmieren haben, aber
soviel haben/wollen/müssen geschwurbel absondern das einem schon schlecht wird davon.

Gerade Spiele müssen nicht auf Teufel komm raus Multithreading und ggf. nebenher noch Asynchron laufen, das kostet meistens nur Leistung. Siehe Cry Engine Entwickler, die haben sich mal dazu ausgelassen zu diesem Thema.

Könnte noch ausführlicher werden, aber das spare ich mir mal. Einfach mal selbst google fragen, statt immer nur zu nörgeln. (Aber hey, so ist die Deutsche Mentalität nun mal, ohne Ahnung überall mitreden und fordern, fordern, fordern...)

Bei Workstation Anwendungen siehts halt wieder anders aus, aber naja, das waren Just my2cents mal dazu.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel., C4rp3di3m und //differentRob
Hill Ridge schrieb:
Mich interessiert eigentlich ja nur, wie schlecht das ganze skaliert, weil intel für so ein MCM keinen passenden Interconnect hat!

Wie oft willst den Unsinn hier jetzt eigentlich noch von dir geben. UPI (Socket to Socket) ist genauso flott wie AMDs on Package Interconnect (Die to Die). Auch was die Effizienz betrifft sind Intels Interconnects Stand heute ein gutes Stück besser. Nicht Intel sondern AMD hat bei den Interconnects Nachholbedarf. Auch deshalb weil man davon viel mehr abhängt (MCMs mit bis zu 4 DIEs) als bei Intel.

Das betrifft auch die Anbindung on Package selbst (also MCMs). Dafür hat Intel mit EMIB eine gegenüber der "simplen" Verdrahtung deutlich potentere Lösung inzwischen in der Massenfertigung.

Quellen:
https://www.servethehome.com/amd-epyc-infinity-fabric-latency-ddr4-2400-v-2666-a-snapshot/
https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4
https://www.anandtech.com/show/12425/marrying-vega-and-zen-the-amd-ryzen-5-2400g-review/13

Die Infinity Fabric ist in ihrer heutigen Form ziemlich overhyped. Ist ein solides und schlüssiges Konzept. Die erste Generation ist aber bezogen darauf wie elementar diese für AMDs Designphilosophie ist bei weitem nicht da wo sie sein sollte und sein muss. Das sieht man selbst bei APUs wie Raven Ridge. Hier vergibt man momentan zu viel Potential.
 
Zuletzt bearbeitet:
Das ist eine ganz schön steile These von dir, seit Ryzen 2000 und Threadripper 2000 (die W Exemplare außen vor), ist Intels Mesh Bus keinen Deut mehr schneller als die InF bei AMD, das Beweisen nun alle Benchmarks von Gestern und zum Erscheinen des 2600X und 2700X.
Insoweit scheint da Intel auch noch Arbeit vor sich zu haben und sie haben bezogen auf HEDT oder Server keine überlegen Technik, auch wenn du das versuchst dir einzureden!
Im Moment ist nur der Ringbus der InF NOCH überlegen!
 
  • Gefällt mir
Reaktionen: Hill Ridge
Heschel schrieb:
Was für ein Stromverbrauch.....

Diesen Verbrauch und noch mehr, bringt Intel demnächst mit 8 Kernen als 9700k.
 
  • Gefällt mir
Reaktionen: Manfred_89, DarknessFalls und Hill Ridge
Ob EMIB das halten kann was Intel sich davon verspricht wird sich erst noch zeigen müssen .
https://www.heise.de/newsticker/mel...erposer-fuer-Multi-Chip-Packages-3810319.html
In 7 nm kann AMD s IF noch weiter aufgebohrt werden , Latenzen gesenkt werden ebenso wie der Verbrauch , dann wird auch die APU noch besser werden , 6 oder 8 Kerne erhalten und mehr CU s , vielleicht bringen sie dann auch ne abgespeckte Büro und Office APU raus , mit 45-65 W TDP embedded in einem Monitor Panel ...

Mit dem verringerten Verbrauch bei 7 nm lässt sich einiges machen, Büro PC s müssen ja keine Rekorde brechen bei der Taktung
 
  • Gefällt mir
Reaktionen: Manfred_89
Ich denke die IF Sache ist weit weniger komplex und technisch anspruchsvoll als der Wechsel von Ring auf Mesh, was aber nicht schlecht ist. IF ist der perfekte Ansatz für AMD und aktuell geht das absolut auf. Denke auch dass die meisten Workloads kaum anfällig dafür sind, unterm Strich die Sache ggf auch Energie- und Flächeneffizienter ist als Mesh.

Bin mal gespannt ob in Generation 2 weiterhin jeder Die 3 IF Kopplung ermöglicht oder ob das Protokoll geändert wird, zb Mesh zwischen den Die um über 8 Die hinaus zu verbinden.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Ich denke die IF Sache ist weit weniger komplex und technisch anspruchsvoll als der Wechsel von Ring auf Mesh, was aber nicht schlecht ist
wüsste nicht was an einem gitterfömig angebrachten Mesh Interconnect so schwierig sein soll ...

der IF ist komplizierter als du denkst und dient nicht nur als Interconnect zwischen CPU / GPU
https://www.hardwareluxx.de/index.p...als-grundgeruest-der-neuen-architekturen.html

Laut AMD ist der Infinity Fabric modular aufgebaut und kann beliebig komplex ausgeführt werden. Eben diese Skalierbarkeit soll den Infinity Fabric in allen neuen Prozessoren und GPUs einsetzbar machen.

Der Infinity Fabric teilt sich auf in einen Control Fabric und Data Fabric.
amd-infinity-fabric-06_303F9EB8FBC147DDBCC238F3F89F1BD2.jpg

Der Control Fabric ist für die Ansteuerung der verschiedenen Engine-HUBs verantwortlich. Auf Basis des Control Fabric können Technologien wie das Power Management, Sicherheitsfunktionen, Reset&Initialization und das Testing durchgeführt werden. Der Data Fabric hingegen ist ein extrem schneller Interconnect, der dafür verantwortlich ist, dass die Daten schnellstmöglich innerhalb einer Architektur bewegt werden können. Über den Data Fabric wird auch die Verbindung zum Speicher sicherstellt. Im Falle der Vega-GPU bedeutet dies, dass der Interconnect bis zu 512 GB/s zur Anbindung des HBM2 bereitstellen muss. Im Falle eines Mobile-Prozessors mit DDR4-Arbeitsspeicher sind aber auch nur 40-50 GB/s notwendig. Eben dies soll zeigen, wie flexibel der Infinity Fabric ist.


epyc-image005.png


wenn ich mir diese Grafik anschaue , müssten auch mehr als 2 Sockel Systeme machbar sein , in der Mitte der Sockel mit dem Package , nach links ein Fabric zur CPU / GPU /anderen Sockel , nach rechts ein Fabric zur CPU / GPU / anderen Sockel
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hill Ridge
Zurück
Oben