Test Ryzen Threadripper 2000 im Test: 32 Kerne sind verrückt, 16 sehr gut nutzbar

Excel schrieb:
Auf der Arbeit zum Beispiel ist bei der Berechnung von Lärmkarten jeder Kern willkommen
Sehr interessant. Hier kommt in der Regel ebenfalls Raytracing/Radiosity zum Einsatz.
Ich denke Ihr werdet hierfür eine professionelle Software nutzen oder entwickelt ihr selber?

Als einfache Lösung nutze ich eine modifizierte Cycles Engine in Blender, wobei natürlich tiefere Frequenzen (Beugung etc.) nicht abgebildet werden können und auch die Oberflächeneigenschaften (Reflexion/Absorbtion) nur mühsam zusammengesucht sind und somit auch nicht sehr korrekt. Für einfache Modelle ist es ausreichend.
 
OmaKuschel schrieb:
Ich finde interessant, dass in Assasins Creed Origin der 16-Kerner 2950X dem 8-Kerner 2700X davonzieht!
Noch mehr Platz für Denuvo^^
 
  • Gefällt mir
Reaktionen: .Sentinel.
@MK one

UDimms sind in der Regel non ECC, da sich kaum einer Udimm ECC mit einer Beschränkung auf 16 GB Pro Bank kauft. Somit sind RDimm bzw. LRDimm alles andere als unnötig.
 
  • Gefällt mir
Reaktionen: Oceanhog
Ich würde mir einen kurzen Test wünschen, wo der 2990WX auf die WS-Version von Windows arbeiten könnte. Dann könnten wir vielleicht sehen, ob es an Windows liegt.
 
DarkerThanBlack schrieb:
Dann könnten wir vielleicht sehen, ob es an Windows liegt.

Das wissen wir doch schon, nicht umsonst hat AMD schon bekanntgegeben mit MS zusammen am Scheduler zu arbeiten.
 
Also die TR mit 4 Dies halte ich persönlich für einen Flop, die negativen Auswirkungen der Speicheranbindung heben meines Erachtens den Vorteil der zusätzlichen Kerne auf - vom Anschaffungspreis, dem Verbrauch und der Hitzeentwicklung ganz abgesehen. Der 2950X ist dagegen ein super CPU, allen voran gefällt mir hier der neue (reduzierte) Preis und ontop die gestiegene Softwarekompatibilität, auch wenn ich dennoch SMT bei diesem CPU deaktivieren würde, damit ich weniger Kompatibilitätsprobleme habe - Nebeneffekt ist dann auch, dass jeder Thread dann auch dedizierte Ressourcen auf der Hardware hat und dadurch bessere Latenzen ergibt. Ich für meinen Teil würde SMT ab 8 echten physikalischen Kernen ohnehin deaktivieren, weil es mehr Nachteile, als Vorteile bietet - aber das ist eine persönliche Präferenz.

Den Game Mode kann ich in der aktuellen Konfiguration nicht nachvollziehen, bevor ich auf 8C16T gehe, wäre es doch wesentlich sinnvoller auf 16C16T zu setzen - für die Software macht es keinen Unterschied, man hat aber viel mehr Rohleistung zur Verwendung und keine geteilten Ressourcen.

Doch auch wenn der 2950X erstmal sexy aussieht, ist er nur für eine winzige Randgruppe sinnvoll. Ein 2700X vom selben Anbieter ist für den Home User, nicht nur billiger, sondern auch schneller. Der 2950X ist nur eine (tolle) Ergänzung für einen minimalen Käuferkreis, für die 4-Die CPUs sehe ich aber mehr oder weniger überhaupt kein Anwendungsgebiet, nachdem die Leistung dermaßen stark schwankt. Für eine echte professional Workstation würde ich in jedem Fall maximal den 2950X nehmen und das auch nur, wenn er in Benchmarks der verwendeten Applikation stärker ist, als das Gegenstück von Intel - das dürfte bei UVP 900€ aber fast gesichert der Fall sein.
 
Ned Flanders schrieb:
EDIT: Was ich bei THG sogar wirklich erheblich besser finde ist die Darstellung der Frametimes. Da kann man wirklich mal sehen wie flüssig welche CPU läuft. z.B. FarCry5 wo einige CPU Architekturen halt trotz höherer Avg Framerate weniger flüssig laufen.

[IMG]https://www.computerbase.de/forum/attachments/04b-far-cry-5-avfpsob-1920x1080-dx11-ultra-1-png.700834/[/IMG]

Vieleicht kann CB das ja mal adaptieren.

ergibt das Diagramm für dich Sinn? Ich finds schon allein wegen den Farben unübersichtlich. Dann doch lieber Balken und ein 99% und ein 99,9% Percentil.

Unabh davon macht es aber wie gesagt wenig Sinn was da rumkommt. Könnte wetten das führt man 10 mal aus und hat 10 mal andere Kurven ;)

Edit: Naja immerhin hat Igor auch Balken drin, damit kann man entgegen den Kurven auch was anfangen.
 
Zuletzt bearbeitet:
xexex schrieb:
Mal ein kleines Beispiel
https://www.phoronix.com/scan.php?page=article&item=amd-linux-2990wx&num=5
GraphicsMagick ist die einzige praxisrelevante Software auf dieser Seite und skaliert sehr schlecht. John The Ripper, Stockfish und asmFish zeigen tolle Balken sind aber irrelevant, da reine synthetische Benchmarks, die im Cache laufen. So zieht sich das durch den ganzen Test.

Vom ganzen "tollen" Test sind Kernelkompilierung, Flac Audio Encoding, Darktable, GraphicsMagick, POV-Ray und Blender die einzigen Anwendungen die einen Bezug zur eigentlichen Leistung haben. Lässt man den restlichen Müll weg, entsteht noch immer ein positives, jedoch ein wesentlich nüchterneres Ergebnis.
Diese Argumentation ist wirklich Quatsch, denn dann wäre kein einziger synthetischer Benchmark sinnvoll. Es werden doch gerade Schwerpunkte (Speicher, Cache, I/O) getestet, damit man Rückschlüsse auf vergleichbare Software ziehen zu können. Man macht das doch, weil man nicht jedes einzelne Programm testen kann. Das heißt natürlich nicht, daß jeder Benchmark auch sinnvoll ist. Aber nur weil die Programme von der Masse nicht eingesetzt werden, ists doch nicht sinnlos, das auf einer WS CPU zu testen.
 
  • Gefällt mir
Reaktionen: nciht
Ich denke nicht, dass der Scheduler von Windows 2016 anders arbeitet als der von Windows 10. Wenn dann gibt es eine lizenztechnische Limitierung und es werden nicht alle Kerne unterstützt wobei was ich im Kopf habe gibt es nur ein Limit von 2 Sockel (phyische CPUs) bei Pro und Enterprise.

Meiner Ansicht nach limitiert hier einfach die meiste Software und die Speicheranbindung. In Summe nettes Spielzeug um die Grenzen des Sinnvollen aufzuzeigen aber bei 400 Watt ist das Ding sowieso nur bedingt alltagstauglich.
 
DarkerThanBlack schrieb:
Ich würde mir einen kurzen Test wünschen, wo der 2990WX auf die WS-Version von Windows arbeiten könnte.

Was soll das bringen? Ob Windows 10, Windows 10 WS oder Windows Server, alle laufen mit dem gleichen Kernel und Scheduler. Wo nichts ist, kann eine Software auch nichts herzaubern.

Was Microsoft vermutlich mit AMD optimieren wird, ist die Aufteilung der Threads auf die Kerne. Solange eine Applikation nur 16 Threads nutzt, werden sie dann bevorzugt auf die Kerne verteilt, die eine direkte Speicheranbindung haben, nutzt sie mehr, kann Microsoft hier nicht zaubern.

Um die neuen CPUs halbwegs anständig ausnutzen zu können, müssen mal wieder die Softwareentwickler ran. Falls möglich lässt man dann einen Teil der Arbeit auf den "richtigen" Kernen ausführen und einen Teil auf den ohne einen direkten Speicher und IO Zugriff. Das würde aber eine spezielle Optimierung für eine sehr spezielle CPU erfordern und wird vermutlich nur in den seltensten Fällen umgesetzt.

yummycandy schrieb:
Diese Argumentation ist wirklich Quatsch, denn dann wäre kein einziger synthetischer Benchmark sinnvoll.

Das "Problem" von der WX CPU ist die fehlende Anbindung an IO und Speicher für zwei Dies. Die meisten Benchmarks in der Phoronix Suite gehen auf das Problem nicht ein, weil es reine Numbercruncher Benchmarks sind. Es dürfte jedem klar sein, dass 32 Kerne mehr rechnen können wie 16, nur hätte man dafür keine Benchmarks machen brauchen.

Im Grunde genommen hast du aber recht. Synthetische Benchmarks sind nicht sinnvoll, deshalb führt CB auch keine mehr durch. Die Architektur der CPUs besteht nicht nur auch Rechenkernen und was nützt dir eine schnelle CPU, wenn sie aufgrund anderer Flaschenhälse diese Leistung nur in Ausnahmefällen "auf die Straße" bringen kann?

yummycandy schrieb:
Es werden doch gerade Schwerpunkte (Speicher, Cache, I/O) getestet, damit man Rückschlüsse auf vergleichbare Software ziehen zu können..

70% der Phoronix Testsuite testet nur eines, reine Rechenleistung mit kleinen Datenmengen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stuntmp02
Wenn man für Kompatibilität ggf. mal Kerne deaktivieren muss, käme da nicht mehr Leistung bei rum, wenn man einfach SMT deaktiviert? Oder klappt das nicht?

Falls hier jemand einen TR hat würde mich mal interessieren, wie der sich so mit ausgeschaltenem SMT verhält, insbesondere in Spielen.
 
  • Gefällt mir
Reaktionen: Oceanhog
Aldaric87 schrieb:
Das wissen wir doch schon, nicht umsonst hat AMD schon bekanntgegeben mit MS zusammen am Scheduler zu arbeiten.
Haben sie das? Hab ich nicht mitbekommen.
 
Es stellt sich mir gerade die Frage warum bringt AMD jetzt einen 32 Kerner und nicht schon damals mit einem 1990x?
 
__TheWall__ schrieb:
Solang es keine wirklichen Deskop Anwendungen gibt die auch so viele Kerne unterstützen bringts halt nix.
Aber irgendwann wird das schon noch kommen :D believe

Eben, Pixinsight testen, Deepsky Stacker, Fitswork. Mit den ersten TR hat man bei Pixinsight eine brachiale Leistung gehabt. Auch wenn nicht viele Leute Astrofotos stacken ist das wirklich beeindruckend.
 
Pokerfail schrieb:
Nein tut sie nicht.
Ich antwortete auf die Aussage von Ben-Gun. Er wollte nichts kaufen, weil er der Ansicht ist, sein Ram sei nominell zu schnell/hoch getaktet. Aber es geht ja nicht nur um Takt, sondern um Takt und Latenz gemeinsam.

Auf was du dich beziehst, erschließt sich mir leider nicht. (nicht sarkastisch gemeint)

TrabT schrieb:
Der Prozessor scheint seiner Zeit etwas voraus zu sein :D
Beim i7 980x gabs ebenfalls schlechte Presse. 6-7 Jahre später wissen wir, dass es eine der langlebigsten Prozessoren bisher gewesen sein dürfte. Mit 6 Kernen und 12 Threads bereits im Jahre 2010.

Fazit
Sechs Rechenkerne bringen in Spielen absolut keine Vorteile, auch wenn die Intel-Präsentation anderes behauptet (siehe Bildergalerie unten). Bis sich das ändert, vergeht sicher noch einige Zeit, denn aktuelle Spiele haben gerade erst begonnen, von vier statt zwei Rechenkernen zu profitieren, obwohl es Quad-Core-CPUs schon seit einigen Jahren gibt. Ähnlich wird es den Six-Core-CPUs ergehen, falls diese sich überhaupt gegen die bereits Ende des Jahres erwarteten Achtkern-Prozessoren durchsetzen können.Daher bietet der Core i7 980X momentan für Spieler praktisch keinen Mehrwert abseits von konsequent auf Multi-Core-CPUs ausgelegten Profi-Anwendungen wie 3D-Rendering und bleibt damit eine viel zu kostspielige Technik-Demo – wenn auch eine eindrucksvolle, wie der gegenüber dem Quad-Core-Vorgänger gesunkene Strombedarf trotz zwei zusätzlichen Rechenkernen beweist.
 
Zuletzt bearbeitet:
Faszinierend zu sehen wie krass mein 7700k in Anwendungen auseinander genommen wird :daumen: Good job AMD!
 
  • Gefällt mir
Reaktionen: Piter73 und Krautmaster
Duke711 schrieb:
@MK one

UDimms sind in der Regel non ECC, da sich kaum einer Udimm ECC mit einer Beschränkung auf 16 GB Pro Bank kauft. Somit sind RDimm bzw. LRDimm alles andere als unnötig.
kauf dir 2 Kits davon und du hast 256 GB mit 8 Riegeln ...
https://www.hardwareschotte.de/prei...ton-DDR4-2400-Ecc-p22029487#Produktdatenblatt
da steht nix von RDimm nur Load Reduced
https://www.kingston.com/dataSheets/KVR24L17Q4K4_128I.pdf

aber ich stimme dir zu , zu Rdimm s gibt es mehr Riegel weil verbreiteter ..
 
Zuletzt bearbeitet:
Zurück
Oben