Test Ryzen Threadripper 2000 im Test: 32 Kerne sind verrückt, 16 sehr gut nutzbar

Oder man installiert Linux, hat 2 Grafikkarten und eine davon reicht man davon Windows in einer vom zu...

Schon hat man das beste aus beiden Welten...

Genug ram, pcie Lanes und Kerne hat man ja hier
 
Apocalypse schrieb:
Das ist also nicht alles nur ein Software Problem, die 16 zusätzlichen Kerne sind einfach nicht vollfertig an den Speicher angebunden. Wer viele, viele Aufgaben hat, die wenig Speichersensitiv sind, bekommt eine tolle CPU, alle anderen sind entweder mit dem 2950x oder Epyc besser bedient. Oder sogar mit einem Intel, eben je nach Anwendungsfall.
Das ist doch gar nicht Frage (oder Essenz daraus).

Die Frage ist wie Windows mit Numa umgeht und ob Dynamic Memory in bestimmten Fällen ohne Zuweisung entsprechender Speicherbereiche nicht bremst. In der VM dürfte das bei manueller Zuweisung auch keine Probleme machen. Nur muss das virtual auch unterstützt werden und unter Berücksichtigung der Numatopologie konfiguriert werden. Erst dann wird die CPU zeigen was sie kann.

Die Benchmarks des 2990WX sind nett, aber man hat ja zig mal beschrieben das er fürs Spielen oder normales Windows (weit ab von Serverversionen) einfach nichts ist. Das räumt ja auch AMD ein.
 
En3rg1eR1egel schrieb:
und wir hypen kerne, kerne, kerne...
und dann geben wir zu das zu viele kerne nicht richtig funktionieren.

ein produkt, das niemand braucht.
das wird noch jahre brauchen bis es mal wirklich anständige software dafür gibt.
und trotzdem werden leute dadrauf reinfallen, das neumodische kern-gehype sei dank.

tja, da haben wir wieder das Henne Ei Prinzip...aber erstmal kritisieren und meckern.

Einer muss ja mal anfangen und wenn die Softwarehersteller auf diesen Zug aufspringen haben wir alle was davon.
Meinen vollen respekt an AMD für diesen überfälligen und mutigen Schritt.
 
  • Gefällt mir
Reaktionen: Oceanhog, Computerfuchs, W0lfenstein und eine weitere Person
Vissi schrieb:
Verstehst du? Oder du nix verstehen?

Der einzige, der hier irgendwas nicht zu verstehen scheint, bist du.

Dein Bemühen in diesen Thread ist genau so erbärmlich, wie in den anderen AMD/Intel Threads, in denen du deine Halbwahrheiten propagierst.
 
  • Gefällt mir
Reaktionen: s0UL1
  • Gefällt mir
Reaktionen: Jan
Sorry wurde schon öfters gefragt:

Warum ist der 7980XE nicht im Bench dabei..absichtlich !?

Nur mal so theoretisch:

Wenn Intel den 28 Kerner fpr $999 raushauen würde - würde die Threadripper Blase ganz schnell wieder platzen..
Hoffe für AMD das es nicht so kommt.
 
Auch wenn AMD mit den 32 Core CPUs der Software-Zeit noch etwas vorraus ist und die Architektur vielleicht noch optimiert werden kann, ist das doch besser für die Zukunft was Handfestes in der Hand zu haben, als wie bisher hinterher zu rennen. Somit ist AMD die nächsten Jahre doch gut aufgestellt und Intel darf sich mal etwas anstrengen.
Ich plane mir bald ein X2700 System zu holen und freue mich schon darauf wieder eine AMD CPU mal zu nutzen nach 10 Jahren Intel QuadCore Q6600/9650.
 
  • Gefällt mir
Reaktionen: Kazuja
aivazi schrieb:
Dennoch ist es aber überwiegend Windows anzulasten, dass man die CPU nicht komplett auslasten kann.
Schließlich geht es ja unter Linux und das auch teils mit der doppelten Geschwindigkeit eines 7980X...

Ein einfaches Beispiel (Extremfall):
Addition zweier Arrays mit ein paar GB Größe (A+=B, perfekt parallelisierbar)
Ryzen schafft hier (2x128Bit)->32 Byte/Taktzyklus/Kern.
Ein einzellner Kern @3,5Ghz hat mit 110GB/s mehr Durchsatz als das Quadchannel Speicherinterface.

Ein anderes Bsp (typische Rendering Anwendung, anderer Extremfall):
x1000e simple Rechenoperationen (addieren, multiplizieren) werden rein im Cache abgearbeitet. Einzellne Threads arbeiten nahezu unabhängig voneinander (nahezu perfekte Parallelisierbarkeit) ->Anwendung skaliert praktisch unabhängig von der Speicheranbindung.

Die meisten Anwendungen liegen irgendwo im Bereich dazwischen. Das Betriebssystem kann durchaus einiges bei der Resourcenzuteilung falsch machen, das grundsätzliche Problem bleibt aber weiterhin bestehen. Nur weil eine Anwendung auf einem EPYC (Octachannel) auf alle 32 Kerne sehr gut skaliert heißt das noch lange nicht, dass dies auf einem Threadripper mit Quadchannel Interface auch der Fall ist.
 
c2ash schrieb:
Es gibt bisher noch kein einziges Gerät mit einem AV-1 Hardware Decoder.

Aktuell natürlich nicht, aber das spielt keine Rolle. Youtube steigt 6 Monate nach Einführung auf AV1 um, die Einführung war schon Ende März. Facebook steigt zum Jahresende um. Der Codec verbreitet sich sehr schnell, was nicht nur an der deutlich höheren Leistung liegt, sondern auch am Open Source-Modell, woran der Patent-verseuchte Konkurrent H.265 (mit Ansage!) gescheitert ist. Zu viel Gier rächt sich schnell.

Wenn ich meine Zeit investiere, um meine Videosammlung zu archivieren, dann will ich das nur 1x machen.
Die GPUs können relativ schnell mit einer Hybrid-Lösung per Shader nachziehen, später auch in Hardware. In der Zwischenzeit wird halt per CPU dekodiert. Unter dem Fernseher steht ein HTPC.

Natürlich weiß ich, dass irgendwann nochmal ein anderer Codec kommt, die Fortschritte werden aber immer kleiner (weil schwieriger zu erreichen) und der Preis dafür wird immer höher. Also werde ich mit AV1 wohl lange auskommen.
 
Zuletzt bearbeitet:
Postman schrieb:
@Cokocool: meines Wissens nach muss auch die Virtualisierungssoftware dafür ange


Dann ließ dir dass mal durch => Klick
Es kommt auf jede Menge mehr an als nur die Kerne zu vergeben ... aber im Serverbereich gibt es sicherlich mehr Zukunftspotential, da hast du sicherlich recht.

Was soll der Link ? Ich arbeite in der IT. Im Gegensatz du dir kenne ich die Realität. Zukunftspotential ? :freak: Kerne werden bereits jetzt überall benutzt. Du hast keine Ahnung von der Business IT da draußen. Geh mal in eine Firma rein. Da sind 95% der Server bereits virtuell. In einem einzigen Server steckt ein Mainboard mit gerne mal 2x Xeon Prozessoren mit je 28 Kernen somit 56 physikalische Kerne insgesamt. Dazu dann noch 512 GB RAM.

Darauf läuft dann ein ESXi Hypervisor und am Ende dann gerne mal 50+ Virtuelle Maschinen auf dem Server. Kerne und RAM sind natürlich bereits seit 10+ Jahren immens wichtig. Je mehr Kerne man auf eine CPU quetscht desto mehr VMs kann man in einem Server Rack unterbringen. Je mehr VMs desto mehr kann man Kosten für Raum, Kühlung, Infrastruktur auf die VMs umlegen. Was glaubst du wie die AWS Cloud aus sieht ?

Herzlichen Glückwünsch du hast die IT der letzten 15+ Jahre verpennt :daumen: Kerne werden bereits massiv genutzt und machen seit über 10 Jahren die großen Clouds überhaupt möglich.

Physikalisch sind höchstens noch der DC aus diversen anderen Gründen.
 
  • Gefällt mir
Reaktionen: Unnu, emulbetsup, s0UL1 und 4 andere
cliscan schrieb:
Wahnsinn, dieser Energieverbrauch!
Zum Vergleich: Mein über 10 Jahre alter Rechner zum Internetsurfen verbraucht mit allem Drum und Dran unter Volllast laut meinem Wattmeter derzeit gerade einmal um die 102 Watt mit einem Browser in dem gerade 585 Tabs geöffnet sind und noch etlichen anderen Programmen (Texteditor, LaTeX, Bildbetrachter, Mediaplayer etc.) offen.
Der kleinste in der Liste im Artikel genannte Prozessor hat eine TDP (also nur Thermal Design Power und keine Gesamtleistungsaufnahme, die liegt noch höher!) von 105 Watt und die Threadripper-Prozessoren haben sogar durchg\"angig eine TDP von 180 Watt und die Topmodelle sogar 250 Watt!
Dagegen waren die angeblich so energieverschwendenden und ,,kaum zu kühlenden`` Pentium 4 Prozessoren vergangener Tage was die TDP anging eher eine Lachnummer.
Und da habe ich immer noch Bekannte, die mir erzählen wollen, ich solle mir neuere Hardware kaufen, weil die angeblich gegenüber meiner alten Hardware Energie spart.
.

Du hast den Test nicht verstanden. Hier geht es um eine HEDT/Workstation Plattform.
Teste mal Cinebench in deinem supersparsamen 10 Jahre alten Prozessor und dann Vergleiche mal die Performance/Watt => Voila!
 
  • Gefällt mir
Reaktionen: Unnu, StefanSch87, Oceanhog und 8 andere
Witzig, Igors Test liest sich viel positiver - inklusive diverser Seitenhiebe auf den Blauen Riesen:

AMD bietet den Kunden mit Absicht die gewohnten Enthusiasten-Features, wie z.B. Indium-Lot zwischen dem Die und dem IHS, um die Effizienz der Wärmeübertragung zu verbessern. Die Kombination aus Kühler und Indium-Lot steht in krassem Gegensatz zu Intels Core i9-79xxX(EE), die eine Standard-Wärmeleitpaste zwischen Die und Heatspreader nutzen und mangels Relevanz auch nicht mit einer Boxed-Kühllösung ab Werk ausgeliefert werden. Wie auch?
https://www.tomshw.de/2018/08/13/am...test-echter-fortschritt-mit-bis-zu-32-kernen/
 
  • Gefällt mir
Reaktionen: Unnu, Kazuja und DarknessFalls
@HaZweiOh
Ich nutze Linux privat auf anderen Rechnern, keine Sorge. Die Wahl des eingesetztes OS hat übrigens relativ wenig mit "Dummheit" zu tun.

Pokerfail schrieb:
Dann kannst du bei dem Software Hersteller nachfragen.
Dann frag mal beispielsweise bei Adobe oder Autodesk nach. Die winken gleich ab, weil der Markt nicht groß genug ist.
 
  • Gefällt mir
Reaktionen: highks und Krautmaster
max9123 schrieb:
Das Betriebssystem kann durchaus einiges bei der Resourcenzuteilung falsch machen, das grundsätzliche Problem bleibt aber weiterhin bestehen.
Eine "perfekte Skalierbarkeit" wird im Zusammenhang mit einer perfekt optimierten Threadqueue stehen und ihrer Sychronisationsfähigkeit. Das man diese Methode auch hardwarebedingt neuerlich anpassen muss, ist nicht neu.
 
Ist doch ganz easy: der Gamer kauft den 8700K und ist damit die nächsten 4 Jahre easy glücklich. Der preisbewusste Power User, der viele mehrkernoptimierte Anwendungen nutzt und nebenher vielleicht auch mal zockt, schnappt sich den gerade spottbillig geworden 1920X, oder investiert in den 2950X wenn ein paar Euro mehr übrig sind.

Und wer wirklich entsprechende Software einsetzt (vielleicht auch unter Linux) die 64 Threads dauerhaft auslastet, und damit auch noch seine Kohle verdient, der kann mal zum unkastrierten Epyc mit 8 Channel Ram schielen.
 
  • Gefällt mir
Reaktionen: Kazuja
Naja ohne solche Hardware wird keiner die Software anpassen. Also ist es gut, dass sowas rauskommt.
Wenn man die Leistung nutzen kann und da denke ich gerade an Workstations, dann wird es für einige lohnenswert sein.
Natürlich als normaler User der nur zockt braucht man es nicht. Da sind ja selbst die normalen Ryzen stellenweise übertrieben.

Aber schön zu sehen, wie AMD aufholen konnte und jetzt sogar vor Intel solche "Brecher" raushaut. Alleine die Aussenwirkung dürfte einiges bewirken. Da muss AMD aber auch versuchen die Softwarehersteller an Board zu holen um davon tatsächlich zu profitieren und das Marketingmäßig ausbeuten.
 
En3rg1eR1egel schrieb:
und wir hypen kerne, kerne, kerne...
und dann geben wir zu das zu viele kerne nicht richtig funktionieren.

ein produkt, das niemand braucht.::


Das einzig wahre sind doch 4 Hochtaktende Kerne für 350 Euro, reicht doch nochmal für die nächsten 10 Jahre.
 
Tenchi Muyo schrieb:
Wenn Intel den 28 Kerner fpr $999 raushauen würde - würde die Threadripper Blase ganz schnell wieder platzen..
.
:lol::lol::lol:

Meinst du das jetzt echt ernst ?

Aber wart ich spiele mit. Der R5 2600 kostet ca 160 Euro. Dieser sollte für AMD noch im Bereich sein, wo man die Margen noch vernünftig hält. Man bedenke, es kommen noch günstigere R5 und R3.
Der Fakt, dass TR aus 4 Dies besteht, rechnen wir naiv einfach mal 160 Euro mal 4 => Das wären 640 Euro. Möglich wäre es vermutlich :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, DarknessFalls und Rock Lee
MuhKalb schrieb:
Ein Produkt das niemand braucht also?
Falls AMD/Intel keine solchen Kern-Monster auf den Markt bringen würden, dann würden wir alle hier noch mit unserer Single-Core CPU rumsitzen und gemütlich die nette Windows-Sanduhr betrachten.
Und daran würde sich auch in 10 Jahren nichts ändern, solange niemand solche "nutzlosen" Produkte auf den Markt wirft, die die Softwarearchitekten mal dazu aufmuntert vermehrt in Mehrkernunterstützung zu investieren.

Die parallelisierung der Software ist natürlich schön und gut, aber die Softwarehersteller sollten auch effiziente Software programmieren.

Wenn man so die Entwicklung der letzen Jahre beobachtet, schleicht sich einem das Gefühl heran, dass mit mehr Speicher und leistungstarken Komponenten, die Programmierer vom Gedanken her in die Richtung "ach, die User haben doch sowieso mindestens 8 GB RAM und Terrabytes an Platten, was kümmern mich Speicherallokierung und platzsparrender Programmcode" tendieren.


Früher hat man den verfügbaren und teuren Speicher sehr effizient genutzt. Heute wird ohne nachzudenken Speicher verschwendet, wo dann der Anwender gezwungen wird Terrabytes an Speichermedien sich anzuschaffen.
 
  • Gefällt mir
Reaktionen: Oceanhog
HaZweiOh schrieb:
Das spielt für mich keine Rolle. Youtube steigt 6 Monate nach Einführung auf AV1 um, die Einführung war schon im Juli. Facebook steigt zum Jahresende um. Der Codec verbreitet sich sehr schnell, was nicht nur an der deutlich besseren Leistung liegt, sondern auch am Open Source-Modell, woran der Patent-verseuchte (Möchtegern-)Vorgänger H.265 gescheitert ist.

Wenn ich meine Zeit investiere, um meine Videosammlung zu archivieren, dann will ich das nur 1x machen.
Die GPUs können relativ schnell mit einer Hybrid-Lösung per Shader nachziehen, später in Hardware. In der Zwischenzeit wird halt per CPU dekodiert.

Natürlich weiß ich, dass irgendwann nochmal ein anderer Codec kommt, aber die Fortschritte werden immer kleiner und der Preis dafür wird immer höher. Also werde ich mit AV1 lange auskommen.

Und wofür brauchst du da jetzt den 32-Kerner??
Deine Argumentation ist schon stark vom ursprünglichen Topic abgewichen.
Es ging ja ursprünglich darum, dass du behauptet hast, dass man sich Hardware für die Zukunft kaufen sollte. Von diesem Argument ist da keine Spur mehr.
 
Zurück
Oben