Test Ryzen Threadripper 2000 im Test: 32 Kerne sind verrückt, 16 sehr gut nutzbar

R1ng0 schrieb:
Gut, dass wir hier wir richtige Pros haben, die uns erklären, wie es wirklich läuft.
Hast du Gegenargumente?
 
  • Gefällt mir
Reaktionen: HaZweiOh, Heschel und Hotstepper
Banned schrieb:
Du meinst: "Habe meinen mit 4,6GHz auf allen Kernen mit meiner AiO-Wakü laufen - maximal 60°C. Damit kriege ich bei Battlefield jetzt 500FPS auf meinem 144Hz 4K-Monitor."

Du spürst, wie ich denke^^.
Die CPU ist geil, keine Frage. nur brauch es auch Programme, die sie auslasten.
Beim zocken wird das nicht so laufen wie die Ryzen bzw. Intel-CPU´s.
Auch ein TR will supportet werden.
 
Krautmaster schrieb:
180 Punkte CB15 Single Core ist für eine Zen CPU wirklich erstaunlich stark. Dazu müsste die CPU höher takten als ein 4,35Ghz Turbo Ryzen 2700X oder konsequenter.
Zum Vergleich mein "Alltags Setting" das mit 4 Ghz All Core / 4700Mhz Turbo auf max 6 Kernen recht human ist (300W CB15 Load) 208 Punkte SC zu 180 beim TR2. Damit ist der TR 2 aber wirklich flott unterwegs

Was bringt Dein 7980XE denn @Stock mit RAM @Stock?
 
Nach Hardware Unboxed auch 180!
 
  • Gefällt mir
Reaktionen: Hotstepper
Krautmaster schrieb:
Why ;) das is doch quasi alles bekannt. Fand eher interessant welchen Anteil die Infrastruktur zb Memory Anbindung am Verbrauch hat. :)

Gut, dein Link is auch ganz nett. Etwas viel chinese.

https://pc.watch.impress.co.jp/img/pcw/docs/1137/965/html/20_o.jpg.html

AMD hat hier ne Folie wo sie die Modelle auf Anwendungen einstufen.

Was den fabric vs ring vs mesh angeht.

Fabric Bus lässt sich konfigurieren und ist Richtung custom design angedacht. AMD selber erwäht 3rd party ip. Schade dass man hier nicht auch noch ein RavenRidge mitgetestet hat. Man darf aber stark annehmen, dass Zen2 genau beim fabric bus Verbesserungen haben wird, da bekanntlich viel rauszuholen ist. Siehe RAM.

https://pc.watch.impress.co.jp/img/pcw/docs/1137/965/html/9_o.jpg.html

Das ist Japanisch, sieht man doch :D
 
Fabric Bus lässt sich konfigurieren und ist Richtung custom design angedacht. AMD selber erwäht 3rd party ip.
Die IF ist zu CCIX kompatibel.

Da AMD auch bei Gen Z dabei ist, ist sie vielleicht auch mit Gen Z kompatibel.
Wenn nicht, dann unterstützt die IF in Zukunft sicher auch noch Gen Z.
 
Garantiert wird er Bandbreitenverbesserungen haben , denn die PCIe Lanes werden genauso wie der Arbeitsspeicher über den IF angebunden und Zen2 hat PCIe 4.0 statt 3.0 .
Das sich die Latenzen verringern durch die feineren Strukturen / kürzeren Wege hatte ich ja schon öfter erwähnt

https://www.anandtech.com/show/12431/genz-interconnect-core-specification-10-published
The Gen-Z Consortium launched with the support of a dozen major technology companies, but its membership has now grown to the point that it is easier to list the big hardware companies who aren't currently involved: Intel and NVidia

witzig , alle dabei , nur Intel + Nvidia nicht ... :D, aber CCIX ist nicht gleich Gen Z , kein Wunder denn die Spezifikation zu Gen Z V 1.0 kam erst 02/ 2018 raus
 
Zuletzt bearbeitet:
Hotstepper schrieb:
Was bringt Dein 7980XE denn @Stock mit RAM @Stock?

müsste ich schauen. Ram OC und Timings / Mesh bringt bei CB nix.

Stock is eh fürn Arsch da wir alle bereits wissen dass das maßgeblich davon abhängt was ASRock der CPU an Saft spendiert.
Ergänzung ()

MK one schrieb:
wüsste nicht was an einem gitterfömig angebrachten Mesh Interconnect so schwierig sein soll ...

Denke die Schwierigkeit dürfte die Verwaltung sein, den kürzesten / schnellsten Weg zum Ram zu finden + das ganze in möglichst wenig Zyklen.

Zu IF:
IF ist erstmal nur ein Name. Die Implementierung kann sicher komplett unterschiedlich ausfallen (deswegen ist es natürlich zu quasi allem kompatibel).
Das kann sehr low level implementiert sein oder mit entsprechendem Verwaltungsorgan, je nach dem was man braucht.
Als nächstes nennt AMD die Anbindung des Chipsatzes /GPU auch IF dabei ändert sich dahinter erstmal gar nichts. Es bleibt ein Interconnect.

Erst hatte man für alles nen eigenen Namen, nun stempelt man es auch zu Zwecken des Marketings als IF ab. Wie man sieht funktioniert das Marketing ;)

Dennoch ist die Implementierung in der Jetzigen Form wie ich schon sagte sehr gut und passt auch genau in AMDs Konzept um Intel unter Druck zu setzen. Ich bin gespannt wie IF in Gen 2 aussieht, ob es zB bei 8 Die leibt.
 
Zuletzt bearbeitet:
werpu schrieb:
Schaut eher so aus wie wenn der Windows Scheduler wieder Mal ein Problem hat. https://www.phoronix.com/scan.php?page=article&item=2990wx-linux-windows&num=2 die Phoronix Tests zeigen einen massiven Performance Abfall unter Windows weil der Scheduler Probleme mit der hohen Core Anzahl hat.

Ich glaube weniger, dass der Standard Windows Scheduler ein Problem hat. Eine Aufarbeitung von Microsoft mit AMD hat ja bei Ryzen schon in eine Sackgasse geführt. In anderen Multiprozessorumgebungen mit entsprechend vielen Threads bzw. Softwareabhängig funktioniert er ja auch einwandfrei.

Ich kann mir aber vorstellen, dass die Appikationen einfach unter Windows noch nicht auf die Vielzahl an Kernen abgestimmt ist. Denn letztenendes kann ja inzwischen auch die Applikation bei Bedarf ein eigenes Scheduling- Schema nutzen:
https://docs.microsoft.com/de-de/windows/desktop/ProcThread/user-mode-scheduling

Kann also gut sein, dass die Software einfach durch irgendwelche alten Compiler gedreht wurde bzw. entsprechende gebotene Möglichkeiten nicht nutzt, während bei den Linux Compilern entprechende Optimierungen per Standard integriert sind.

Ist jetzt aber nur eine Überlegung dazu. Ich kann damit auch meilenweit daneben liegen.
 
32 Kerne um irgend ein hohles sinn freies Spiel zu zocken.... Irrsinn oder? Noch kein Programmierer kann 32 Kerne in ein Spiel sinnvoll einbinden. Zurzeit sind 16 Kerne machbar -ob das sinnvoll gemacht werden kann?
Aber mehr Kerne bedeuten auch mehr Stromverbrauch. Früher kritisierte man AMD , weil ihre Modul CPUs so viel Strom verbrauchten- ja und was ist heute? Was verbraucht denn so ein 16 Kerner-sicher weit mehr als die kritisierten Teile von früher. Man sollte doch besser über eine andre Kernarchitektur nachdenken oder gar einen völlig anderen Weg wählen. Der beschrittene kostet die Hersteller kaum Entwicklungskosten und den Stromverbrauch mit immer feineren Fertigungsverfahren zu begegnen ist prinzipiell richtig-jedoch ist die Grenze des physikalisch machbaren schon bald erreicht. Die immer feineren Fertigungsverfahren kosten Geld. Nur das müssen die Vertragsfertiger aufbringen und nicht Intel oder AMD. Die Singelkernleistung muss steigen ohne das der Stromverbrauch mit steigt. Acht Kerne sollten doch für einen Spiele Rechner und private Anwendungen völlig reichen. Jeder Kern müsste mehr wie zwei Threads berechnen können. Die Effektivität ist doch seit Sandy Bridge kaum gestiegen- was die reine Spielleistung betrifft. Nur der höhere Takt durch das feinere Fertigungsverfahren und neue Befehlssätze lässt die in Anwendungen besser aussehen . Mit einem 6 Jahre alten Ivy Bridge zocke ich noch jedes Spiel - ohne Ruckler. Hier hat doch überhaupt kein Fortschritt stattgefunden. Einfach Kerne aneinander reihen ist freilich billiger, als eine neue Architektur oder gar einen völlig anderen Weg zu beschreiten, damit der Stromverbrauch nicht durch die Decke geht. Grafikkarten wie eine 1050 Ti oder 1060 das sind die richtigen Wege, die die Hersteller einschlagen müssen. 150 Watt maximal für eine GPU und unter 100 Watt für eine CPU. Das sollte von der Politik so als Obergrenze festgelegt werden- wie bei den Staubsaugern.
 
Du hast den Einsatzzweck dieser CPUs einfach nicht verstanden. Es sind in der Regel keine Spiele, sondern professionelle Anwendungen oder eben Dinge wie Rendering oder Komprimierung. Und da falten der 16 oder 32 Kerner die übliche Konkurrenz der Mittelklasse, egal ob eigene Produkte oder Intel, à la 8700K oder 2700X fast durchgehend zusammen. Siehe den Test bei Tomshardware bzw. die Links von oben.

Dennoch kann so eine CPU für gewisse Zwecke sinnvoll sein, etwa Streaming.
Siehe zum Beispiel Streaming-Benchmarks
Gamestar
.

Zitat:
In den Streaming-Benchmarks erzielt der Threadripper 2950X erwartungsgemäß das beste Ergebnis aller bislang getesteten CPUs. Er schafft es nicht nur, selbst mit 60 fps und bei sehr hoher Bildqualität in 720p und in 1080p einen völlig ruckelfreien Stream darzustellen, sondern glänzt auch bei der Performance im Spiel selbst.

Ob man das braucht, hängt natürlich vom eigenen Bedarf ab.
 
Excel schrieb:
Dennoch kann so eine CPU für gewisse Zwecke sinnvoll sein, etwa Streaming.
Siehe zum Beispiel Streaming-Benchmarks
Gamestar
.

Ich finde es besonders interessant, dass die Ryzen HexaCores immer noch weniger Frames droppen als die leistungsfähigsten Intel HexaCores. Es ist jedoch schade, dass nicht auch der 7900X mitgetestet wurde.
Nichts destotrotz, der 2950X ist ja gut geeignet dafür, aber nicht der 2990WX. Ich habe schon bei der ersten Ankündigung von 32C gedacht, dass es Probleme wegen der Speicheranbindung geben wird und so ist es auch gekommen. Spiele und Streaming sind mit diesem Modell sogar schlechter, außer natürlich, du deaktivierst währenddessen die Encode-Cores. Aber dann sollte man sich auch fragen, ob man die 32C überhaupt braucht, wenn man sie nicht die meiste Zeit verwendet.
 
werpu schrieb:
Schaut eher so aus wie wenn der Windows Scheduler wieder Mal ein Problem hat. https://www.phoronix.com/scan.php?page=article&item=2990wx-linux-windows&num=2 die Phoronix Tests zeigen einen massiven Performance Abfall unter Windows weil der Scheduler Probleme mit der hohen Core Anzahl hat.

Die Behauptung wird nicht besser, je öfter man sie wiederholt. Der Scheduler kommt nicht mit der AMD Architektur zurecht, die Anzahl der Kerne ist nicht das Problem.
1534326099856.png

https://www.pugetsystems.com/labs/a...s-Core-i7-8700K-Core-X-and-Threadripper-1162/

1534326175476.png

https://hothardware.com/news/intel-...um-8176-server-cpu-rocks-cinebench-benchmarks
 
Nun ja, deine Behauptung, dass AMD schuld sein müsse weil sie "zu komplizierte CPUs" bauen würden, ist aber auch Käse hoch drei.

Das Problem ist doch nicht erst gestern aufgefallen. Microsoft weiß das bestimmt schon ein Jahr, und hat nichts(!) gemacht. Es gibt nicht mal ein Statement zu dem Problem.

Sowas muss man nicht krampfhaft verteidigen, indem man die Schuld dem Lieblingsgegner AMD zuschiebt.
 
Zuletzt bearbeitet:
xexex schrieb:
Die Behauptung wird nicht besser, je öfter man sie wiederholt. Der Scheduler kommt nicht mit der AMD Architektur zurecht, die Anzahl der Kerne ist nicht das Problem.

https://hothardware.com/news/intel-...um-8176-server-cpu-rocks-cinebench-benchmarks

Klar , weil Microsoft nur auf Intel optimiert hat und deren Architektur sich seit 2010 ? nicht mehr verändert hat
Trotzdem liegt es vermutlich an Windows , ob am Scheduler oder an anderer Stelle ist eigentlich egal
 
DayMoe schrieb:
Mir gefällt zwar der Artikel sehr gut, aber mit Abstand am besten finde ich den letzten Absatz (Test-Kit von AMD/'Reise' von AMD usw.) transperenter gehts kaum :)

Für so einen Satz musste auch in der Vergangenheit viel Diskutiert werden.
Ergänzung ()

@CB

Der Test ist wirklich nicht gelungen. Ihr habt ein Core Monster mit Spielen getestet? Obwohl jedem klar ist, das Spiele 2018 immer noch, nur von SingleCore Leistung profitieren.
Die Arbeit hättet ihr euch sparen können. Wieso testet ihr Spiele? Fehlt euch der Horizont, wie man so eine CPU einsetzen kann?

Virtuelle Machinen, ESX, Linux compiler Benchmarks, mehr h264, h265, x265 Benchmarks, rar, zip, 7zip benchmarks. Und was weiß ich, aber doch keine Spiele!
Hier wird der Eindruck erweckt, die CPU sein Sinnlos! Der Test wird auch so geschrieben! Das kommt aber nur euch so vor, Menschen mit Horizont denken da anders.
 
Zuletzt bearbeitet:
MK one schrieb:
Klar , weil Microsoft nur auf Intel optimiert hat und deren Architektur sich seit 2010 ? nicht mehr verändert hat

Es ist Quatsch sowas zu behaupten, die Architektur hat sich mit der Einführung von Mesh entscheidend geändert. Trotzdem ist die Intel Architektur viel einfacher aufgebaut. Intel hat die Architektur so aufgebaut, dass jeder Kern einen L1, L2 und L3 Cache hat und der Zugriff auf den Speicher, egal von welchem Kern möglichst ausgeglichen ist.
1534327306058.png


Die Threadripper Architektur ist komplex/kompliziert und erfordert eine spezielle Behandlung je nach dem auf welchen Kern eine Applikation gerade ausgeführt wird.
1534327409041.png

Der Cache ist bei AMD auch wesentlich kleiner und nicht so flexibel aufgebaut wie bei Intel. Das schmeckt dem Windows Scheduler, der die Threads häufiger zwischen den Threads switcht schlichtweg nicht. Das war vor Jahren so und ist auch heutzutage so und ist AMD auch bekannt.
However, on AMD's Ryzen 1800X, latency times are a wholly different beast. Everything is fine in the L1 and L2 caches (32 KB and 512 KB, respectively). However, when moving towards the 1800X's 16 MB L3 cache, the behavior is completely different. Up to 4 MB cache utilization, we see an expected increase in latency; however, latency goes through the roof way before the chip's 16 MB of L3 cache is completely filled. This clearly derives from AMD's Ryzen modularity, with each CCX complex (made up of 4 cores and 8 MB L3 cache, besides all the other duplicated logic) being able to access only 8 MB of L3 cache at any point in time.

The difference in access speeds between 4 MB and 8 MB workloads can be explained through AMD's own admission that Ryzen's core design incurs in different access times depending on which parts of the L3 cache are accessed by the CCX. The fact that this memory is "mostly exclusive" - which means that other information may be stored on it that's not of immediate use to the task at hand - can be responsible for some memory accesses on its own. Since the L3 cache is essentially a victim cache, meaning that it is filled with the information that isn't able to fit onto the chips' L1 or L2 cache levels, this would mean that each CCX can only access up to 8 MB of L3 cache if any given workload uses no more than 4 cores from a given CCX. However, even if we were to distribute workload in-between two different cores from each CCX, so as to be able to access the entirety of the 1800X's 16 MB cache... we'd still be somewhat constrained by the inter-CCX bandwidth achieved by AMD's Data Fabric interconnect... 22 GB/s, which is much lower than the L3 cache's 175 GB/s - and even lower than RAM bandwidth. That the Data Fabric interconnect also has to carry data from AMD's IO Hub PCIe lanes also potentially interferes with the (already meagre) available bandwidth
https://www.techpowerup.com/231268/...yzed-improvements-improveable-ccx-compromises

Die "Schuld" hier ausschließlich bei Microsoft zu suchen kann man postwendend zurückgeben. AMD kennt Windows seit Jahren, Microsoft hat den neuen Threadripper hingegen bestimmt nicht schon vor einem Jahr zu sehen bekommen. Dass sich Linux hier anders verhält sei dahin gestellt, die Frage ist welchen Publikum man mit seiner CPU ansprechen möchte. Hardware zu designen, die mit weit verbreiteten Software nicht gut funktioniert hat schon bei den Grafikkarten nicht zum Erfolg geführt.
 
Zuletzt bearbeitet:
Patches für Win 10 gibt nur Microsoft raus , bei Linux kann AMD Kernel Updates selbst einreichen , wobei dies im Fall 2990 WX offenbar gar nicht notwendig war .

Mesh gibt es seit Knights Landing , also seit 2016 ! ist also nicht wirklich brandneu ...
 
Zurück
Oben