News AMD Threadripper 3000: Erste CPU mit 16 Kernen in Benchmark aufgetaucht

Ich werde mit ziemlicher Sicherheit von meinem 6900k auf den einen TR aufrüsten.
Auf ein Modell welches die gleiche SC Leistung wie die aktuelle Ryzen 3000 Serie bietet, 16 Kerne+ hat und keine Nachteile bei der Speicheranbindung zeigt.

Dazu noch irgendeine billige xx70/80 GPU von Nvidia (Wegen Adobe, leider), 32-64GB schnellen RAM und meine Workstation ist wieder auf einem akzeptablen Stand.
 
Die Hauptsache ist doch, dass zu allen lernen die gleiche Latenz Stadtfindet und ein spezieller scheduler überflüssig wird. Wie das exakt innen aussieht ist mir egal. Gibt ja genug Möglichkeiten so einen IO Chip konstruieren sodass keine Kerne benachteiligt werden bzw alles direkten Zugang hat. Man darf gespannt sein welche Infos in nächster Zeit noch durchsickern bis ein Releasetermin feststeht :D
 
Betreibt jemand zum Spaß auch Software-Entwicklung und freut sich, wenn die Compiler den letzten Hauch aus der CPU quetschen? Würde jendenfalls sofort aufrüsten, wenn ein TR3000er die Kompilierzeit, verglichen zum 1950X, halbiert.
 
Mal bisschen mit Zahlen jonglieren:

Laut AMD ist die Bandbreite von I/O Die zu CCD 32 Byte/cycle (hier ist IF cycle anzunehmen). Siehe https://www.computerbase.de/2019-06/amd-zen-2-ryzen-3000-architektur/

Die Bandbreite von DDR4 zu I/O Die ist 8*M Byte/cycle (hier ist DDR4 cycle anzunehmen), wobei M die Anzahl an Speicherkanälen ist.

Jetzt nehmen wir noch an das IF und Speicher gleich takten:

1 CCD reicht aus um die Daten von einem I/O Die mit 4 Speicherkanälen "abzunehmen".

Desweiteren ist TR4 (SP3r2) gleich groß wie SP3. Folglich kann es Threadripper CPUs mit 1 bis zu 8 CCDs geben.

Bei den kommenden Epyc Rome (Octa Channel) sind nach obiger Rechnung mindestens 2 CCDs notwendig um vom breiten Speicherinterface zu profitieren.
Man vergleiche mit der Liste angeblicher Rome Modelle hier: https://www.computerbase.de/2019-06/amd-epyc-7002-rome-spezifikationen-preise/
Dannach gäbe es Modelle mit 2, 4, 6 und 8 CCDs, aber selbst die Modelle mit 8 Kernen setzen auf 2 CCDs. Um die Anzahl CCDs zu bekommen: L3 / 32.

Ist am Ende alles sehr schlüssig und AMD kann uns eigentlich nur noch bei dem Maximalausbau des Threadripper 3000 überraschen indem man ihn auf 4 CCDs limitiert obwohl 8 möglich wären.

Was uns bei der Epyc Rome erwartet ist auch schon klar.

PS: Teilweise etwas schlampig formuliert, gerade auf dem Heimweg auf dem Smartphone getippt.
 
  • Gefällt mir
Reaktionen: smalM
[GP] mino schrieb:
Betreibt jemand zum Spaß auch Software-Entwicklung und freut sich, wenn die Compiler den letzten Hauch aus der CPU quetschen? Würde jendenfalls sofort aufrüsten, wenn ein TR3000er die Kompilierzeit, verglichen zum 1950X, halbiert.
Das sollte drin sein und sogar mehr. Denn die IPC der Kerne ist sehr hoch und viel besser, wenn man noch den leicht höheren takt und die erhöhte kernzahl mit einbezieht gibt's ne schöne leistungsexplosion am Rechner :D ich muss ja auch gegentlich mal Implantationsprofile berechnen und in Zukunft warscheinlich auch tomographische Aufnahmen auswerten und da wird das mehr an Rechenleistung für derart große Datensätze sicherlich hilfreich sein.
 
  • Gefällt mir
Reaktionen: [GP] mino
Naitrael schrieb:
Der Windows 10 Explorer ist definitiv multithreaded und die CPU ist mit Sicherheit nicht das Nadelöhr beim internen Printspooler, sondern der Drucker, was ja auch der Zweck des Ganzen ist.
Keine Ahnung jedoch, was du mit Miniaturansichten meinst.

wenn ich eine 20.000x20000 pixel datei per photoshop an den drucker schicke belegt die spooler.exe ca. eine minute lang 1 cpu kern.
miniaturansichten von bilder im explorer. bei 50 mp bilder in jpg oder raw und bei ca 2000-3000 bilder im ordner dauert es mehrere minuten bis der windows-explorer die anzeigt ist extrem lästig wenn er das alle paar tage mal macht. die datei explorer.exe benutzt dabei nur 1 cpu kern
 
  • Gefällt mir
Reaktionen: yummycandy und Kalsarikännit
wern001 schrieb:
Es ist echt bää wenn Windows meint die Miniaturansichen neu einzulesen und dabei gerade mal 1 CPU-Kern benutzt wird.
und gerade solche Use-Cases schreien geradezu nach Parallelisierung.
 
Jep, dehsalb finde es es gut dass die Softwareentwicklung derzeit geradezu genötigt wird auf multithreat zu gehen. Von alleine passiert ja nix oder kostet fünfstellig.. :D
 
@thepusher90

nennt sich "kognitive dissonanz" in der psychologie. das (sofortige) anzweifeln einer getroffenen entscheidung. das ist ganz normales verhalten. gute verkäufer fangen den kunden immer da ab, wo er in eine dissonanz abdriften könnte. also immer wieder glücksgefühle nachschieben und den kunden darin bestätigen das richtige gekauft zu haben.

wenn das wegfällt, sucht man sich wo anders die bestätigung. und das können solche aussagen sein.
 
  • Gefällt mir
Reaktionen: Alpha.Male, Hayda Ministral, Kazuja und eine weitere Person
es ist ja auch in der Regel deutlich aufwändiger, sofern man nicht so schöne Fälle hat wie „jage 1000 gleichartige Elemente durch den selben Algorithmus“.
 
PS828 schrieb:
Jep, dehsalb finde es es gut dass die Softwareentwicklung derzeit geradezu genötigt wird auf multithreat zu gehen. Von alleine passiert ja nix oder kostet fünfstellig.. :D

multicore für desktop gibt es schon seit Pentium 3 und Windows 2000
das sind bald 20 jahre multicore.
und bis heute läuft vieles nur auf 1 oder bei spielen auf 1-4 kernen.

gutes beispiel für kuriose multicore Unterstützung ist Photoshop
z.B. Text transformieren nur 1 CPU kern
als .png speichern alle kerne mit gesamt ca 70-95% cpu last
 
wern001 schrieb:
multicore für desktop gibt es schon seit Pentium 3 und Windows 2000
das sind bald 20 jahre multicore.
und bis heute läuft vieles nur auf 1 oder bei spielen auf 1-4 kernen.

gutes beispiel für kuriose multicore Unterstützung ist Photoshop
z.B. Text transformieren nur 1 CPU kern
als .png speichern alle kerne mit gesamt ca 70-95% cpu last
Ich sag ja nicht dass es keine Programme gibt. Nur dass man da durchaus noch mehr herausholen kann. Stichwort browser was vorhin erwähnt wurde. Die Zeit ist reif. Wie sieht das eigentlich bei Microsoft Office aus? Grade in Excel schadet das ja nicht wenn man da alle Kerne nutzen kann.
 
yummycandy schrieb:
Jeder IF-Link bietet wohl 25GT/s, was genau DDR4 3200MHz entspricht, ist also wohl 1:1.
Nicht schnell genug für alle Kanäle, aber eben genau für einen.
Um so mehr sehe ich nur einen eher geringen Nachteil darin denn die einzelnen Chiplets sind offenbar ganz einfach nicht in der Lage die gesammte Speicherbandbreite zu nutzen und die Warscheinlichkeit das alle auf einmal so viel Speicherbandbreite benötigen ist gerade im Desktop Umfeld wohl ziemlich gering.
Ergänzung ()

smalM schrieb:
@Wadenbeisser
Nur daß es nicht um die 32MB L3 pro CCD ging, sondern um Deine 256MB L3 mit 32 Cores.
Falsch, es ging um die Frage ob für 32 Kerne 4 oder 8 Chiplets zum EInsatz kommen und 256 MB L3 Cache sind mit 4 Chiplets ganz einfach unmöglich.
 
Shoryuken94 schrieb:
Ist das denn sicher?

Wie gesagt, wenn es unter AM4 schon recht schwer ist zu validieren, ist es denke ich bei X399 nicht gerade besser, auch wenn die Boards idR besser gebaut sind als die kleineren AM4 Boards (X570 mal ausgenommen). Bei X399 kommen einfach die 64 Lanes ins Spiel. Die alle oder nur zum Teil mit PCIe 4.0 zu versorgen wäre lächerlich, vor allem wenn die Boards eher dafür gedacht sind 100% Stabil zu sein.

Ich kann eh nicht verstehen warum alle Leute so geil auf PCIe 4.0 sind. Man hat ein Produkt mit PCIe 3.0 gekauft und nun soll es auf einmal schlecht sein, vor allem weil 99,9% der Leute nicht mal das voll nutzen.

thepusher90 schrieb:
Ist jetzt nicht persönlich gemeint, aber warum sieht man hier immer wieder und öfter Posts a la: "demnach was ich hier sehe, gibt es keinen Grund upzugraden.", am besten noch mit dem Nachsatz: "Also habe ich alles richtig gemacht."

Keine Ahnung... Ich teile nur meine Erfahrung für andere kann ich nicht sprechen. Ich seh da nichts verwerfliches drin wenn man Erfahrungen austauscht, im Gegenteil davon lebt ein Forum. Ich hab auch kein Problem auf PNs zu antworten wenn jemand eine Frage zu X399 oder TR hat. Wenn nun also sich jemand fragt soll ich vom 1950X auf "TR 3950X" umsteigen? Würde ich sagen ne, lohnt sich eher nicht. Aber hier kommt es eben auf den Use-Case an. Hab ich nen VM Server mit div. VMs kann es sich lohnen... Hab ich ne Workstation für Premiere Pro eher nicht.

Am Ende vom Tag ist es nun mal einfach so, dass ein Upgrade auf TR 2 oder 3 für mein Use-Case nichts bringen würde. Klar, ein paar FPS und ein paar % Leistung dürften drin sein aber nichts was ein 4 stelligen Euro Betrag rechtfertigen würde.

thepusher90 schrieb:
Geht es darum das Gesicht in der Öffentlichkeit zu wahren?

Was andere über mich denken ist mir ehrlich gesagt sehr egal und geht mir an den 5 Buchstab vorbei. Aber wie gesagt ich kann nur für mich schreiben.
Ergänzung ()

wern001 schrieb:
und bis heute läuft vieles nur auf 1 oder bei spielen auf 1-4 kernen.

Weil es einfach nicht parallelisierbar ist. Es gibt einfach Probleme die lassen sich nicht auf Multi-Core programmieren.

PS828 schrieb:
Grade in Excel schadet das ja nicht wenn man da alle Kerne nutzen kann.

Excel kann durchaus mit mehreren Kernen umgehen. Kommt aber auf die Funktionen an die man nutzt.
 
  • Gefällt mir
Reaktionen: Kazuja
Cool Master schrieb:
Ich bin nach wie vor zufrieden mit meinem 1950X (3,8 GHz all Core bei 1,2 Volt) und seit meinem 4K Bildschirm bin ich in der Regel auch eher im GPU Limit als im CPU Limit, abgesehen von CPU intensiven Workloads.

Ich sehe also kein echten Grund warum ich auf TR 2 oder TR 3 upgraden sollte.

Edit:

Einziger Grund währe wohl bessere Energiebilanz bzw. Abwärme wobei ich das auch 2 mal Gegenrechnen müsste...

was? rechnen für die energiebilanz? für das klima gibt man sein letztes hemd. ftw.
 
@moRphh

Nö, es geht um TDP und damit weniger Kühlung die benötigt wird und damit noch weniger RPM der Lüfter und Pumpe wenn die CPU auf 100% über mehrere Tage mit Handbrake auf 100% ist. Der Verbrauch ist mir dank Photovoltaik herzlich egal, vor allem bei so Wetter wie die Woche :)
 
Cool Master schrieb:
@moRphh

Nö, es geht um TDP und damit weniger Kühlung die benötigt wird und damit noch weniger RPM der Lüfter und Pumpe wenn die CPU auf 100% über mehrere Tage mit Handbrake auf 100% ist. Der Verbrauch ist mir dank Photovoltaik herzlich egal, vor allem bei so Wetter wie die Woche :)


äh... Ironie.
 
1. lese dir mal die Regeln bzgl. einem Fullquote durch 2. nutze smilies, Ironie kann man halt schlecht lesen, außer man nutzt Smilies.
 
Zurück
Oben