Test Ryzen Threadripper 2000 im Test: 2990WX, 2970WX, 2950X und 2920X im Vergleich

Ich kann mich momentan nicht entscheiden: Ryzen 2700X oder Threadripper 1920X
Natürlich kommt neben den reichlich 100 € Diskrepanz der CPU noch mal locker 100 € dazu, die das Mainboard mehr kostet, aber trotzdem bin ich am Grübeln.
 
@Weyoun

Ist doch einfach, wenn du Gamingleistung willst, ganz klar der 2700x! Da sieht der 1920 kein Land. Wenn du hingegen viel mit Rendering etc. zu tun hast und evtl später auf 16 oder gar 32 Kerne gehen willst, dann der 1920x. Wenn man doch eher hauptsächlich spielt, dann ist der 2700x die deutlich bessere Wahl. andere tasks erledigt er ja auch nicht gerade langsam.

@Topic: So krass finde ich den Stromverbrauch gar nicht. auf meinem 4,7 Ghz 3930K kann ich bei CPU Only Last auch 400 Watt aus der Steckdose ziehen. Schon krass zu sehen, was sich über die jahre getan hat.
 
  • Gefällt mir
Reaktionen: SVΞN
duskstalker schrieb:
finds interessant, wie jetzt der 8700k auf einmal 22% schneller wie der 2700x ist. nächstes jahr sinds 35%

@Volker Auf eine unterstellte Parteiergreifung zugunsten Intels will ich gar nicht eingehen. Ich finde es in erster Linie bedauerlich, wie die Vergleichbarkeit im Performancerating verloren geht. Wenn man Screenshots aus zwei Tests irgendwo in einem Beitrag postet, dann sollte in der Überschrift des Diagramms erkennbar sein, wenn diese zueinander "inkompatibel" sind. Erst wurde der sehr umfassende Index von Ende 2017 verworfen. Das ginge ja noch in Ordnung, wegen Meltdown und Konsorten. Aber nun wird mitten im Jahr der Index geändert, in den Diagrammen ist nicht ersichtlich, womit getestet wurde, man muss sich alles mühsam aus dem Text zusammen suchen, und dann ist nicht einmal mehr das Testsystem hinreichend dokumentiert.

In diesem Test wird lapidar auf das Testsystem vom Ryzen-2000-Test aus dem April verwiesen, aber dort gibt es verständlicherweise keine Angaben zu einer TR4-Plattform. Dass man mit dem ASUS Zenith Extreme getestet hat, kann man zumindest noch erahnen, wenn man im Fließtext sucht. Aber ich weiß zum Beispiel nicht, mit welchem Netzteil getestet wird, was alle Stromverbrauchsergebnisse wegen nicht nachvollziehbaren Wirkungsgraden zu einem gewissen Teil entwertet.

Ihr hattet früher so vorbildliche Anhänge, wo die verwendeten Systeme haarklein aufgeführt wurden. Heutzutage ist der HardwareLuxx schon Welten besser, denn die haben wenigstens eine Seite mit Listen zu den Komponenten der verwendeten Plattformen, die bei euch fehlt.

Ich hatte dieses Manko schonmal - ich glaube Jan gegenüber - angesprochen. Zu einem qualitativen Test gehören immer gut nachvollziehbare Angaben zur Methodik. Nebensätze im Fließtext erfüllen diesen Anspruch nicht. Bitte, bitte, verbessert das, und pflegt es am besten auch in den alten Tests nach.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: zhompster, Apple ][, danyundsahne und 13 andere
mamma55 schrieb:
Ja ich bin auch beeindruckt, wenn man 50% der Kerne deaktivieren muss damit überhaupt etwas läuft oder man nicht durch dämlliches CPU-RAM Layout ausgebremst wird. Der 16/32 Kerner ist so was von Sinnlos im Gaming wenn man ihn extra auf 8 Kerne selbst kastrieren muss. So locker mir das Geld sitzt, aber für hardware die ich nicht nutzen kann zahle ich doch keinen Aufpreis. Ne danke AMD, lass mal stecken, bei Intel muss man nichts basteln und es läuft out-of-the Box, das gnaze dann auch noch mal mit bis zu 25% mehr Leistung. Setzen 6 AMD!

Du scheinst mal gar keine Ahnung von nichts zu haben. Bei Intels 24+ Kernen ist das GENAU das selbe wie bei Threadripper, nur das Intel hier zu dumm ist so gute Modi einzubauen wie Threadripper. Noch dazu ist das KEINE Zocker-CPU. Aber gut, was erzähle ich da, du kommst doch eh wieder mit irgendeinem unglaublichen Müll daher.

Dann noch Intel feiern, wo eine Sicherheitslück auf die nächste folgt und einen 9900K bringt, der schon jetzt am Ende ist.

Wirklich dein ernst murksknall, jetzt ein neuer Account? Die Frage wo mehr Hohlraum.... Ach, lassen wir das.
 
  • Gefällt mir
Reaktionen: zhompster, Feuerbiber, Unnu und 4 andere
mamma55 schrieb:
AMD hat sein ganzes Pulver verschossen, da kommt in den nächsten Jahren absolut nichts mehr. Intel ist immer noch am Zug mit einer neuen Architektur!

Na bevor sie eine neue Architektur bringen, sollten sie mal endlich eine neue Fertigung an den Start bringen. Da hinkt man der Konkurrenz ziemlich hinterher und verschieb Jahr um jahr.

Eine Architektur deren Leistung zum Teil auf Sicherheitslücken beruht und man mit der brechstange takten muss, sollte man auch mal ersetzen. Aber die nächste Ausbaustufe ist dann ja auch nur Skylake mit mehr Cache und geschlossenen Sicherheitslücken. Wann es soweit ist? Kann man bei Intel nicht sagen. bis dahin ist die aktuelle Architektur dann auch 5-6 oder noch mehr jahre alt
 
chithanh schrieb:
Unter Linux war NUMA schon beim vorherigen Launch kein Problem.

Wo siehst du das?
Auch unter Linux ist non NUMA aware Software klar im Nachteil. Faktisch gibts aber oftmals bisschen besseren Support, vor allem weil einige der Tools/Benches, die es dort für Linux gibt, eben frei sind und du als Endanwender munter den Spaß so kompilieren oder optimieren kannst, wie du es brauchst.

Man sollte aber nicht Äpfel mit Birnen vergleichen. So mancher der Benches unter Linux läuft selbst auf nem 2700X schon um ne ganze Ecke schneller als unter Win10 - nachzulesen bspw. hier:
https://www.phoronix.com/scan.php?page=article&item=ryzen-2700x-winlin&num=1
Das kannst du effektiv 1:1 auf die TR CPUs ebenso anwenden und schon schmilzt das andere/bessere Handling von non NUMA aware Software trotzdem auf ein Minimum zurück. Über bleibt das ungünstige Hardwarekonstrukt.
 
mamma55 schrieb:
Fail by Design @ AMD!
Threadripper ist halt nicht EPYC, und irgendeinen Pluspunkt gegenüber Threadripper muss die Server-Plattform ja auch noch haben. Die Unterschiede sind klar erkennbar, und wer die Einschränkungen nicht akzetiert, der soll sich halt die Server-CPUs kaufen. Der "Fail by Design" ist also vielmehr Marktsegmentierung, eigentlich die Paradedisziplin von Intel.

mamma55 schrieb:
Da kann der Softwaremensch nicht das geringste daran ändern.
Das Betriebssystem ist auch Software, und Linux kam schon vor DLM viel besser mit dem 2990WX. Also: DOCH! Softwaremenschen können sehr wohl eine ziemliche Menge daran ändern. Insbesondere, wenn sie bei Microsoft im Scheduler-Team des Kernels arbeiten.
 
  • Gefällt mir
Reaktionen: M4deman, Heschel und yummycandy
@Nixdorf
Ja, ist mir auch schon des Öfteren aufgefallen. Kein Vergleich zu früheren Tests von vor 10 Jahren. Damals wurde auch noch penibelst auf Latenzen gebencht. Aktuell wird ein -mehr oder weniger- undurchsichtiges Symposium von Spielen und Anwendungen durchgeführt, ein kleiner, schwer nachvollziehbarer Verbrauchstest und das wars.
 
  • Gefällt mir
Reaktionen: stevefrogs, Cr4y, Shadow86 und 5 andere
fdsonne schrieb:
Wo siehst du das?
Auch unter Linux ist non NUMA aware Software klar im Nachteil. Faktisch gibts aber oftmals bisschen besseren Support, vor allem weil einige der Tools/Benches, die es dort für Linux gibt, eben frei sind und du als Endanwender munter den Spaß so kompilieren oder optimieren kannst, wie du es brauchst.
Numa kannte der Kernel schon vor dem TR. POWER9 von IBM hat da für einige Optimierung gesorgt.
Bei Linux hat sich also AMD diesmal nur ins gemachte Nest setzen müssen :D
 
  • Gefällt mir
Reaktionen: stevefrogs und textract
@Raucherdackel! Na ja, im Test zu Ryzen 2000 haben sie das mit den Latenzen ja durchaus gemacht, und die möglichen Verbesserungen mit schnellerem Speicher aufgezeigt. Aber da geht es ja schon wieder los: Die hätte man dann mit entsprechender Fußnote auch in den regulären Index als Zweitwert für den 2700X aufnehmen können, dann würde man sie auch heute im Diagramm haben (ggf. standardmäßig ausgeblendet). So muss der "Profi-Leser" in seinem Hinterkopf abgespeichert haben, wo man diese Daten auch später noch findet.
 
dersuperpro1337 schrieb:
Ich bin echt am überlegen, meinen 6900k gegen einen 2950X zu tauschen.
Die rund 10% wären schon hilfreich in LR, PP und Photoscan - Und wenn es auch nur bedeutet, dass ich mehr freie Threads habe um parallel zu arbeiten.

Meinungen?

Bei 10% würde ich das nicht machen. Wäre mir zu wenig.

Der Preis für den 12-Kerner sieht schon lecker aus. :D
 
Nixdorf schrieb:
@VolkerIhr hattet früher so vorbildliche Anhänge, wo die verwendeten Systeme haarklein aufgeführt wurden. Heutzutage ist der HardwareLuxx schon Welten besser, denn die haben wenigstens eine Seite mit Listen zu den Komponenten der verwendeten Plattformen, die bei euch fehlt.
Ich hatte dieses Manko schonmal - ich glaube Jan gegenüber - angesprochen. Zu einem qualitativen Test gehören immer gut nachvollziehbare Angaben zur Methodik. Nebensätze im Fließtext erfüllen diesen Anspruch nicht. Bitte, bitte, verbessert das, und pflegt es am besten auch in den alten Tests nach.
Ich habs auch schon 2mal unter die Tests geschrieben wie sehr mir dieses [+Anhang] von früher fehlt.
Für mich macht es keinen Sinn irgendwo über die Suche das Testsystem mitsamt Software und Hardware Auflistung zu finden.
Finde das echt nicht angemessen zur Professionalität die CB sonst hat.
 
  • Gefällt mir
Reaktionen: stevefrogs, Cr4y, RollHard und 3 andere
Nixdorf schrieb:
Der "Fail by Design" ist also vielmehr Marktsegmentierung, eigentlich die Paradedisziplin von Intel.
Wieso Marktsegmentierung? Welchen Markt soll denn der halbseitig kastrierte Speicher ansprechen??
Ein NUMA Node hat normalerweise eigenen Speicher. Bei AMD aber nun erstmalig nicht. Egal in welchem Markt... Der fehlende Speicher der zwei Nodes stört auch bei voll NUMA aware Software - denn es kostet Leistung, da es für diesen Umstand keinen "Standard" gibt und normal auch keiner auf die Idee kommt, sowas überhaupt in der Form zu betreiben.
Das ist wie nem Dual Xeon die RAM Riegel nur auf eine CPU zu stecken... So nen Unfug macht keiner. Selbst das kleine Gamer-Kiddy macht sowas nicht (freiwillig)


Was man dabei leider idR nicht erwähnt bei den privaten Selbstschraubern - die Basis ist nicht der UMA Mode vom TR oder der Game Mode, sondern die Basis wäre normalerweise eigentlich NUMA aware Software mit guter Skalierung über die Nodes. Gibts wie Sand am Meer - nur eben nicht im privaten Endkundenbereich, weil es dort solche CPUs bis auf die paar Hochpreis TRs überhaupt nicht gibt... In den Benches finden sich meist nur voll auf MT ausgelegte Anwendungen und nebenbei noch Games. Das wars. Das eigentliche Problem wird man damit aber nicht aufzeigen...

Nixdorf schrieb:
Das Betriebssystem ist auch Software, und Linux kam schon vor DLM viel besser mit dem 2990WX.
Bitte mal entsprechende Tests verlinken, wo der Leistungsunterschied Linux/Windows nicht durch allgemein mehr Performance unter Linux daher kommt - sondern vom angeblich so besseren NUMA Handling... THX
 
mamma55 schrieb:
AMD hat sein ganzes Pulver verschossen, da kommt in den nächsten Jahren absolut nichts mehr. Intel ist immer noch am Zug mit einer neuen Architektur!

Quatsch! Das ist wieder mal wertend in beiden Richtungen.

Bei AMD wird die Situation negativ dargestellt, wo sie es nicht ist. Natürlich hat AMD sein Pulver noch nicht verschossen, denn die Zen-Architektur ist jung und bietet viel mehr Optimierungspotenzial als das, was Intel aktuell am Start hat. Es gibt da ja sogar völlig offensichtliche Dinge, die man machen kann, und die automatisch in entsprechenden Anwendungen zu viel mehr Performance führen (z.B. AVX2 auf volle Breite ausbauen oder AVX-512 implementieren). In entsprechenden Analysen gibt es ganze Listen mit Dingen, die AMD ganz klar noch machen kann, und die Verbesserungen bringen.

Auf der anderen Seite wird Intels Versagen, längst eine neue Architektur zu bringen, positiv als Chance dargestellt. Wo ist denn die neue Architektur? Schon 2015 sollte 10nm kommen, nun wird es "Ende 2019". Die durchaus vorhandenen Möglichkeiten zeigen sich aktuell in ersten Samples von Ice Lake, aber wann kommt denn das jetzt endlich mal für den Desktop? Für den Moment kann man nur festhalten, dass der Zug wohl eher ein Flugzeug ist, dass auf seine Landeerlaubnis auf dem BER wartet.

Also nein, die Situation ist eben nicht so schwarz für AMD und weiß für Intel. Ich würde sie eher als hellgrau für AMD und als dunkelgrau für Intel bezeichnen. Und wohlgemerkt, das gilt wie immer nur für den CPU-Retail-Markt. Das OEM-Geschäft garantiert Intel auf lange Sicht die Marktführerschaft.
 
  • Gefällt mir
Reaktionen: [wege]mini
ghecko schrieb:
Bei Linux hat sich also AMD diesmal nur ins gemachte Nest setzen müssen :D
Und genau dafür wären doch mal ein paar Zahlen nice??
Ich mein, alle behaupten dass das mit Linux so viel besser funktioniert. Sehen tue ich davon nur wenig... Denn was ich als aller erstes sehe sind Benches, die 1:1 im Win10 vs. Linux Vergleich pauschal gut besser auf der Linuxseite laufen. Und dort sogar noch Unterschiede bei der Distribution/Version existieren, teils nichtmal zu vernachlässigbare.
Da brauch ich aber keinen TR dazu um das zu sehen... Denn diese Unterschiede zeigen auch schon die 2700X "nativ" 8C Ryzen CPUs und recht sicher auch die Intel Dinger, wenn auch dort (anderer Compiler, ggf. andere Optimierungen) mit leicht anderem Ausgang.
 
HardRockDude schrieb:
Auch wenn ich mich total über AMDs Vormarsch freue, werde ich das Gefühl nicht los, dass die Intelarchitektur irgendwie immer noch die sicherere Wahl ist, z.B. wegen der "interessanten" Speicheranbindung des 2990WX. Es fehlen einfach die echten Erfahrungsberichte mit diesen Workstation-CPUs.
Vormarsch ist nicht das erste Wort, das mir dazu einfällt, aber ok.
Erfahrungsberichte zu Server / Workstation Hardware in (zu 99%) Consumer Foren zu bekommen
ist halt immer tricky. Intel hat sich da einfach bewährt, gerade auch mit Langzeitverfügbarkeit.
Versuch mal heute AMD industrial Boards von vor 5 Jahren zu bekommen. Wir haben Lieferanten,
die liefern noch Sandy und Ivy Bridge. Für Firmenkunden ist sowas zum Teil wichtiger als schneller,
billiger Chip der vielleicht in 4 oder 5 Jahren nicht mehr geliefert wird. Skylake kann man in 10 Jahren
noch kaufen (siehe auch Embedded Roadmap). Und weil AMD genau hier nicht stark ist, wird der
"Vormarsch" wie du ihn nennst, weniger drastisch ausfallen in der Praxis, als mancher glaubt,
zumindest aber werden der technische und der umsatztechnische nicht gleich verlaufen.
 
  • Gefällt mir
Reaktionen: Alex1966 und HardRockDude
fdsonne schrieb:
Das ist wie nem Dual Xeon die RAM Riegel nur auf eine CPU zu stecken... So nen Unfug macht keiner. Selbst das kleine Gamer-Kiddy macht sowas nicht (freiwillig)
Ja, aber das ist leider der Trick wie man eine solche CPU überhaupt inkl RAM auf µATX Boards quetschen kann.
Mit 8 Speicherkanälen und 2 Steckplätzen pro Kanal wird das eng. Auch müsste dann jeder ein Kit aus 8 Riegeln statt 4 benutzen, um die volle Speicherbandbreite nutzen zu können.
Die Speicherkanäle von nur 2 Zeppelins zu nutzen war das kleinste Übel um sich gegen Epic abzugrenzen und trotzdem den Desktop eine sinnvolle Enthusiastenplattform zu ermöglichen.

Ach ja: https://www.phoronix.com/scan.php?page=article&item=2990wx-linwin-scale&num=1
In diesen Benches wurde der TR in mehreren Konfigurationen partiell deaktiviert und Windows/Linux verglichen. Daraus kann man sich seinen NUMA-Vergleich zwischen den Betriebssystemen herleiten.
 
Zuletzt bearbeitet:
@borizb
Daumen runter , gibt leider keinen Button dafür ...

Versuch mal eine aktuelle Intel CPU auf Boards von vor 5 Jahren unterzubringen ... und du meinst Ersatzteile obwohl AMD vor 5 Jahren so gut wie gar nicht im Server Bereich präsent wär , aber kommt , 7 nm sei Dank ....
6 Nov , erster Vorgeschmack , Amd s Next Horizon Event
 
fdsonne schrieb:
Bitte mal entsprechende Tests verlinken, wo der Leistungsunterschied Linux/Windows nicht durch allgemein mehr Performance unter Linux daher kommt - sondern vom angeblich so besseren NUMA Handling... THX

Einfach mal hier im Thread lesen hätte schon gereicht. Man lässt bei der Betrachtung dann einfach die absoluten Werte komplett weg und schaut einfach nur, wieviel Unterschied es zwischen 2920X und 2970WX gibt. In Windows sind es +22% ohne und +44% mit DLM. In Linux sind es +68%. Somit kann Linux die NUMA-Nodes ohne Speicher deutlich besser in zusätzliche Leistung umsetzen, als es Windows gelingt, und zwar selbst mit DLM.

Die Vergleichbarkeit der Tests von TechReport und Phoronix erkennt man übrigens an den durchaus ähnlichen Werten aller Non-Threadripper-CPUs.

fdsonne schrieb:
Wieso Marktsegmentierung? Welchen Markt soll denn der halbseitig kastrierte Speicher ansprechen??

Rendering! Das zeigen die Tests. In Blender liegt ein 2990WX klar vor einem EPYC 7601. Der Takt ist schon ab Werk höher, den EPYC kann man nicht einfach so gleich hoch takten. Und der kastrierte RAM-Zugriff hat offenbar einen hinreichend geringen Einfluss, sodass der Leistungsvorsrpung erhalten bleibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs, DarknessFalls, Jan und eine weitere Person
Zurück
Oben