Test Ryzen Threadripper 2000 im Test: 2990WX, 2970WX, 2950X und 2920X im Vergleich

fdsonne schrieb:
PS: dass Linux und Windows bei "einfachen" CPUs effektiv gleich performen ist doch aber überhaupt nicht wahr?
Bei dem betrachteten Indigo-Benchmark aber schon.
Bei 7-zip auch.
 
"Versuch mal mit einem Intel 28 Kerner zu spielen, dafür musst du stundenlang im Bios rumspielen"

....

Euch allen ist aber schon bewusst, dass man über Verknüpfungen einfach Kerne zuweisen kann und damit jedes Spiel auch ohne GameMode möglich ist? Ohne im Bios was umstellen zu müssen?
 
Der Nachbar schrieb:
Die Nutzer hätten schon früh auf LGA1366 und AM3 setzen können.

Haben doch genug gemacht, die die Leistung benötigen. Habe selbst in meinem Umfeld Leute die den X6 hatten oder aktuell noch einen Intel 6 Core. War damals einfach kein Massenmarktprodukt - Zu Recht, die Software hat gefehlt. Später waren die CPUs aber mehr als brauchbar. Ich finde das immer komisch wenn man etwas schlecht redet, nur weil es nicht den Markt total beherrscht. Was bringen mir denn die Verkaufszahlen? Jeder sollte nach Bedarf kaufen.

Der Nachbar schrieb:
Besonders LGA1366 war vom Preis zur Leistung extrem attraktiv. Mit LGA2066 kam ja das innovative Stocken, weil AMD ja nicht mal mit seinem 8 Kerner Bulldozer selbst auf Opteron Basis dem K10 mit 6 Kernen was besseres entgegen stellen konnte. 2014 hätte die Workstation längst echte 12 Kerner mit SMT bekommen können, weil sogar intel ja den weit fortschrittlicheren Fertigungsprozess besaß

Bulldozer war einfach eine Sackgasse und Intel hat ganz allein entschieden bezüglich Cores im Mainstream nix zu ändern und sorry, alles ab 6 Kerne bei Intel (vor allem zu der damaligen Zeit) als preislich attraktiv zu bezeichnen, ist absurd. Leistung hin oder her. Und ab Vishera waren die FX um die 30% schneller als die X6, einige Freunde von mir hatten beide Gens und speziell bei gut skalierenden Games wie BF konnte man die Unterschiede immer sehr gut sehen, der X6 war dann irgendwann an der Grenze - es wird nur immer hinterher so getan als wäre der FX mega schlecht gewesen - besser war er hinterher trotzdem. Problem war nur das man über den Takt gehen musste und die Architektur nicht mehr her gegeben hat. Gewollt hätte AMD sicherlich mehr, da lag der Ball aber bei Intel im Spielfeld und getan haben sie nix außer die überteuerten 6 Cores!

Der Nachbar schrieb:
Da hätte AMD auch nachgezogen oder bei einem Marktanteil von 30% mit dem Phenom II das nötige Kapital bessere Lösungen anzubieten.

Der Nachbar schrieb:
Derzeit verkauft manch Händler sogar i7 920 mit X58 Mainboards. Ein Freund hat sich so ein System letztens gekauft. Während er Dank SSE4.1 sogar Facry 5 spielen könnte, schaue ich mit AMD SSE4a tief in die schwarze Röhre. Das System ist selbst für ihn als Internetsurfer mit sehr, sehr leichten Multitasking völliger Overkill und hätten Spieleentwickler auf der X58 Plattform Spiele entwickelt, sogar Chris Roberts sein Star Citizen, hätte AMD nie den Auftrag für seine Konsolen APU an Land ziehen können, die dem i7 Bloomfield unterlegen ist.

Hätte, hätte...
Nur mal so, AMD hat nicht wegen der CPU Unit den Zuschlag bekommen.
 
Pisaro schrieb:
Bei Intels 24+ Kernen ist das GENAU das selbe wie bei Threadripper, nur das Intel hier zu dumm ist so gute Modi einzubauen wie Threadripper.

Definitiv nicht, denn das Problem bei AMD kommt von den zusammengeklebten Kernen, von denen 2 bei den großen TR nicht mal eine eigene Speicheranbindung haben. Nur deshalb muss AMD mit diesen Modi hier rumbasteln.
 
  • Gefällt mir
Reaktionen: Krautmaster und kriegor
Der Nachbar schrieb:
@ smart-
t. Während er Dank SSE4.1 sogar Facry 5 spielen könnte, schaue ich mit AMD SSE4a tief in die schwarze Röhre. Das System ist selbst für ihn als Internetsurfer mit sehr, sehr leichten Multitasking völliger Overkill und hätten Spieleentwickler auf der X58 Plattform Spiele entwickelt, sogar Chris Roberts sein Star Citizen, hätte AMD nie den Auftrag für seine Konsolen APU an Land ziehen können, die dem i7 Bloomfield unterlegen ist.

Überraschung , Ryzen hat SSE4.1 , du redest wohl von älteren CPU s ?
https://en.wikipedia.org/wiki/Ryzen
AMD64/x86-64, MMX(+), SSE1, SSE2, SSE3, SSSE3, SSE4a, SSE4.1, SSE4.2, AES, CLMUL, AVX, AVX2, FMA3, CVT16/F16C, ABM, BMI1, BMI2, SHA
 
kisser schrieb:
Definitiv nicht, denn das Problem bei AMD kommt von den zusammengeklebten Kernen, von denen 2 bei den großen TR nicht mal eine eigene Speicheranbindung haben. Nur deshalb muss AMD mit diesen Modi hier rumbasteln.

Wenn Du schon mal wieder AMD bashen musst, kisser, dann schwurbel Dir nicht so nen Quatsch zusammen. Das Problem ist der Windows Scheduler bei vielen Kernen. Linux hingegen zeigt, wie es richtig geht.

Das wurde aber schon X mal breit getreten und erklärt.
 
  • Gefällt mir
Reaktionen: Novasun und Volkimann
Taxxor schrieb:
Da er von einem i7-920 redet, ja.

wollte es nur klarstellen ...

heutzutage schlägt selbst der 2200G den I-920 klar , dank APU braucht man sogar keine GraKa , kostet derzeit 90 Euro

man kann allerdings auch gut erkennen das Intel in den vergangenen 10 Jahren nicht allzu viel getan hat ....

vor allem wenn man den @stock speed des I-920 betrachtet im Video , im Grunde kommt der größte Teil der Mehrleistung heutiger Intel CPU s über den Takt ... , ich würde sagen 40 % über Detailverbesserungen in der Architektur und 60 % über den Takt , ein I-3 8100 zb ist nicht sehr weit entfernt , erst recht nicht wenn man den Takt mit berücksichtigt der mit 3,6 zu 2,66 Ghz beim 8100 1 Ghz höher ist ...

PS: Der 8700 K ist ein 6 Kerner , klar das das zu einem Quad deutlicher ausfällt ...
 
Zuletzt bearbeitet:
chithanh schrieb:
Es gibt vier Arten von Konstellationen, bei dem der 2990WX/2970WX im Nachteil ist:
  1. Betriebssystem skaliert nicht gut, z.B. 7-zip oder Indigo unter Windows
  2. Softwareimplementierung skaliert nicht gut, z.B. Euler CFD oder SPECwpc CFD, aaaaber mit Rodinia CFD skaliert es dann doch
  3. Problem skaliert nicht gut wegen NUMA allgemein (z.B. Spiele, Datenbanken)
  4. Problem skaliert nicht gut wegen der zwei Kerne ohne direkte Speicheranbindung (dafür hat bislang keine der großen Reviewseiten ein Beispiel gebracht, in entsprechenden Foren wurden aber solche gepostet).
Ist mir irgendwie zu pauschal. Wie gesagt, wenn der Phoronix Test beim 2990er in Indigo meint, dass allein SMT bei Windows massiv Performance kostet, während es bei Linux gut was an Performance bringt, ist die Pauschalisierung auf Linux besser Windows in dem Fall aber immernoch mit der SMT unbekannten vermengt.
Es ist aber schwer eben da vergleichbares zu finden - denn auf die Schnelle sehe ich keine SMT Off Benches vs. SMT On bei bspw. nem 28C Xeon in diesem Bench. Oder nem 7980XE.

Was auch noch dazu kommt ist die Unbekannte, dass wir absolut kein Wissen über die Art der Multiprozessingtechnischen in all den Benches haben - und auch nicht, ob der Spaß überhaupt vergleichbar ist oder nicht allein dadurch schon Unterschiede kommen usw.

Ich mein, kann ja alles sein. Aber war bringen uns denn die Pauschalen weiter?

chithanh schrieb:
NUMA ist nicht gleich NUMA.
Ja - das ist doch genau der Kritikpunkt?
Irgendwie hab ich das Gefühl, wir reden aneinander vorbei... Auch weil du mir versuchst Sachen zu erklären, die ich aus eigener Erfahrung selbst weis.
Mir kommt es eher gelegen, wenn wer seine Aussagen, vor allem wenn sie sich nicht direkt mit der meinigen Erfahrung decken, entsprechend belegen kann. Ich mach mir da bestimmt nix vor, alles Wissen kann man nicht. Mittlerweile gestaltet sich das aber idR äußerst schwer, weil die meisten Leute einfach nur quatschen oder irgendwas weiter tratschen und wenn man dann mal nachfragt, wird man dumm angemacht oder das Problem will nicht verstanden werden, weil die Leute selbst gar nichts mit dem Spaß zu tun haben...

chithanh schrieb:
Wenn der Windows-Scheduler mit den zwei identischen NUMA-Nodes des 1950X/1920X inzwischen einigermaßen klar kommt - was zum Launch nicht der Fall war, er musste erst nachträglich angepasst werden - heißt das noch lange nicht, dass er mit den vier NUMA-Nodes des 2990WX/2970WX, von denen es auch noch zwei unterschiedliche Typen gibt, klar kommt. Die Anforderungen die der 2990WX an den Scheduler stellt sind viel härter, und die Vergangenheit hat gelehrt, dass Microsoft Skalierungsprobleme häufig nur reaktiv anstatt wie die Linux-Community proaktiv angeht.

MS ist doch nicht der Löser des Problems? Was hast du denn für Vorstellungen?

Klar kann man jetzt drüber schimpfen, dass MS hier agieren soll - aber ein WX TR ist nichtmal ein Bruchteil vom MS Geschäft... Seh ich zumindest so, da ich kein Freund von bin, dass sich Dritte verbiegen, weil man am Marktstandard vorbei was liefert, das aber dann nicht sauber tut ohne das Dritte da nachhelfen.
Wahrscheinlich wird sogut wie jeder hier, der nen Job hat, seine Arbeit entsprechend richtig machen - anstatt sich auf den Kollegen zu verlassen, der das schon richten wird.

chithanh schrieb:
Bei dem betrachteten Indigo-Benchmark aber schon.
Bei 7-zip auch.

Reis doch bitte nicht die Aussage aus dem Zusammenhang.
In dem Indigo Bench nicht, das sagte ich oben bereits. Die Pauschale, dass "einfachere" CPUs gleich performen stimmt aber eben nicht, wo das der Fall ist, ist laut der verlinkten Benchsuite sogar eher die Ausnahme...
 
k0ntr schrieb:
mit so nem teil könnte man doch seinen kleinen Server zuhause aufbauen, Hyper-V Exchange usw, oder irre ich mich?
Hab Hyper V sogar auf meinem 1800x. Gab von Intel da einfach nix. Ich zocke und arbeite am Rechner, da kommt Intel nicht mit im Moment und scjon garnicht für den Preis. Wenn du was mit Datenbanken machst und noch Webserver haben willst jeweils als VM z.B. ist AMD ein Traum.
 
Wie kann das eigentlich sein, dass der 1950x genauso viel Leistung mit Prime95 verbraucht wie der 1920x?

Das geht normal nicht, da der 1950x exakt mit der gleichen Spannung mit den gleichen Frequenzen läuft und rein physikalisch 1/4 mehr Leistung bei Vollast verbrauchen müsste.

Hat da jemand eine Erklärung für?
 
weil alle Features des Chipset auch beim 1920 erhalten sind , es sind nur 4 Kerne weniger , die 64 PCIe Lanes bleiben erhalten und alles andere auch , er taktet etwas höher
 
Sanjuro schrieb:
@ Gottes Sohn

tut er ja nicht,

1920x = 12x 3,5 ghz
1950x = 16x 3,4 ghz

Laut der Spezifikationstabelle läuft der 1920 und der 1950 exakt mit dem selben Takt. Auch der Turbo.

Bei 1/4 mehr Kerne müsste doch der 1950x bei Vollast zumindest etwas mehr verbrauchen.

Der 1950x ist aber unter dem 1920x angesiedelt? Wie geht das? Messfehler?
 
smart- schrieb:
Ich bin nach wie vor unglaublich beeindruckt was AMD - ja AMD da auf die Beine gestellt hat.

Ähnliches hätte man eigentlich von Intel erwarten müssen.
Für uns alle bringt Threadripper massiv günstigere Preise und mittelfristig auch mehr Cores bis in den Mainstream.
Mir wäre die Plattform tatsächlich schon zu Overpowered, für so viele Cores habe ich keinen Verwendungszweck mehr, Server, etc... möchte ich gerne getrennt von meinem System haben und mit dem Gaming Mode läuft man ja quasi nur auf Ryzen 7 Niveau, zudem unterstützen Games noch nicht mehr Cores.
Dennoch extrem beeindruckend alleine schon CPU-Z zu sehen und die Daten, vor einigen Jahren wäre das reines Wunschdenken gewesen, erst Recht zu solchen Preisen.
Bräuchte ich jetzt eine Workstation, würde ich definitiv Threadripper kaufen.
Ich finds auch irre. Dass man überhaupt so viele Kerne kaufen kann, und dass das ganze noch preislich erschwinglich ist. 400 € für 12 Kerne. Wow.

Hoffentlich bleibt AMD noch lange bestehen. Ein Monopol führt zu Stagnation und überhöhten Preisen.

Insgesamt ist es einer der größten Fortschritte der letzten Jahre. Die CPU-Leistung steigt, damit geht Forschung schneller voran und in ein paar Jahren können auch die Spiele mehr Kerne unterstützen.
 
  • Gefällt mir
Reaktionen: smart-
  • Gefällt mir
Reaktionen: Gottes Sohn
DarknessFalls schrieb:
Wenn Du schon mal wieder AMD bashen musst, kisser, dann schwurbel Dir nicht so nen Quatsch zusammen. Das Problem ist der Windows Scheduler bei vielen Kernen. Linux hingegen zeigt, wie es richtig geht.

Das wurde aber schon X mal breit getreten und erklärt.

Echt? Der 7980XE hat irgendwie nicht diese Probleme! Ach meinst du den Sheduler, mit dem Microsoft schon zu Ryzen Zeiten angeblich "AMD sabotiert" hat? ... Ach Leute!
 
DarknessFalls schrieb:
Problem ist der Windows Scheduler bei vielen Kernen. Linux hingegen zeigt, wie es richtig geht.

Seine Aussage passt dennoch zumindest im Ansatz. Der AMD Aufbau braucht hier eine Sonderbehandlung, ganz gleich ob Linux oder Windows. Bzw eine Sonderbehandlung ist noch human ausgedrückt, eher eine ganze Serie da eben viel zusammen kommt.

Solange das Ergebnis stimmt... Ist das erstmal egal. Es gibt halt immer den Fall dass sowas in einem Griff ins Klo endet wenn die Sonderbehandlung nicht aufgeht. Mag sein dass das Linux aktuell besser im Griff hat, aber mit Linux kann ich zb nix anfangen. Nicht bei meiner Workstation.

Intels Mesh hat genauso seine Stärken und Schwächen. Der Aufbau macht es dem Sheduler sehr einfach (Last einfach random auf physikalische Kerne verteilen, dann virtuelle), aber Mesh ist aktuell noch in Gen 1 recht langsam getaktet und Latenz anfällig was sich in Gaming Performance und vergleichsweise viel Verbrauch niederschlägt.

Ich bin froh dass AMD den Multi Die Ansatz gewählt und wie ich finde gut umgesetzt hat. So bekommt Intel nun auch bei vielen Kernen Konkurrenz ohne dass sich AMD an einer fetten Die übernehmen muss.
 
Schade, wieder kein Lightroom und Photoshop Test...
Könntet einfach nen Pano generieren, einige Hundert Fotos in die Bib von LR laden und exportieren.

Was spricht dagegen die in manchen Games eingebauten Benchmarks zu nutzen? GTA V und Wildlands bieten solche. Damit wäre doch eine eigener Vergleichbarkeit gegeben.
 
  • Gefällt mir
Reaktionen: DeadEternity
Pff ...

ab 3:20
wird Core 0 beim Indigo Benchmark nicht belastet und damit von Win 10 genutzt , erreicht der Benchmark fast Linux Werte .... , ansonsten 25 % weniger ( 1600 zu 2000 ) beim 2990wx
 
Zuletzt bearbeitet:
Zurück
Oben