News AMD Threadripper 3000: Erste CPU mit 16 Kernen in Benchmark aufgetaucht

givemeajackson schrieb:
Der stromverbrauch von TR2 war im vergleich zur rohleistung schon relativ moderat wenn man nicht mit all-core OC angerannt kam. Aber zen2 ist unglaublich effizient. Der 3900x zieht so viel wie ein 2700x bei mehr als 50% mehrleistung in den meisten anwendungen. Der 16 kern TR wird wohl keine 180 watt ziehen.

der TR2 zieht schon auch einiges an strom.
z.B TR 2950
mit 180W läuft das Teil nur auf 16x 3,5-3,6 GHz mit 350W auf 16x 4.125 GHz
 
Shoryuken94 schrieb:
Man kann x570 auch ohne den Lüfter betreiben, wurde ja nun schon oft genug gezeigt. Eigentlich jeder Hersteller hat einen Semipassiven Mode, wo die Lüfter praktisch nie anspringen bzw. man kann sie auch ganz deaktivieren. Davon würde ich die Boardwahl nicht abhängig machen.
Der Asus Support hat mir geschrieben, das der Lüfter bei keinem ihrer Boards abschaltbar wäre und mit min 30% laufen würden.
 
  • Gefällt mir
Reaktionen: Kazuja
Crashtest schrieb:
Naja "gerademal" kann man auch nicht sagen. Wenn man da an den Wettbewerber denkt der da nichtmal rann kommt und für weniger Kerne 400 Watt tdp angibt nur damit er 3.x ghz stehen hat ist das auch nicht gerade ein Effizienzwunder. Schon weil AMD es schafft im engen tdp Korsett 64 Kerne unter zu bringen. Dank der überlegenen ipc von Zen 2 ist der takt auch nicht ganz so relevant. Klar ist mehr immer schön aber wer sich 64 Kerne kauft, dem wird es nicht auf den maximalen takt ankommen. Für solche Anwendungen, und die gibt es ja, gibt es kleinere epycs.
 
  • Gefällt mir
Reaktionen: greeny112 und Dai6oro
givemeajackson schrieb:
Der 3900x zieht so viel wie ein 2700x bei mehr als 50% mehrleistung in den meisten anwendungen. Der 16 kern TR wird wohl keine 180 watt ziehen.

Sehr wahrscheinlich ja. Der Verbrauch pro Kern bei 4,0-4,2GHz ist ja bekannt. Anandtech
Einen Darstellung (Frequenz über Leistungsaufnahme pro Kern unter definierter Last (zB Cinebench) konnte ich vom Ryzen 3 leider nicht finden.
Wäre schön wenn Computerbase eine derartige Darstellung nachliefern kann.
 
PS828 schrieb:
Ich vermute amd wird auch hier die TDP Grenzen der alten TR einhalten. Diese sind signifikant höher als die im Desktop und bei Intels HEDT Systemen ist das ja auch so. Ob wir jetzt aber 255 Watt TDP oder nur bis 180 Watt sehen werden, da möchte ich mich nicht festlegen. Dadurch dass Zen 2 so viel besser ist wird es wohl ein riesen leistungssprung werden. So zumindest würde ich agieren. Strom sparen nur der Sparsamkeit Willen.. Da ist man bei HEDT Plattformen falsch. Hier zählt Leistung :D im idle kanns ja trotzdem weniger sein. Aber wenn man Power will soll die gefälligst auch ankommen und nicht künstlich klein gehalten werden.

Kommt darauf an, für welche Anwendungen man die HEDT-Plattform verwenden will.

Ich arbeite mit Klimasimulationen, die auf massive Parallelisierung ausgelegt sind (die laufen theoretisch auch auf mehreren hundert Kernen). Die Performance skaliert ziemlich gut mit der Anzahl der Kerne. Die Taktfrequenz macht dagegen nach meiner Erfahrung nur einen sehr geringen Unterschied - im Vergleich von 3,3 GHz und 3,7 GHz zum Beispiel liegt die Performance nur um wenige Prozentpunkte auseinander. Da nimmt man gerne das CPU-Modell, das niedriger taktet und dafür weniger Strom verbraucht. Wenn der Rechner für so eine Simulation wochenlang unter Volllast läuft, fällt der Unterschied auf der Stromrechnung schon ins Gewicht.

Wahrscheinlich wäre für solche Anwendungen ein Epyc-System effizienter in puncto Leistung-pro-Watt. Aber es wäre andererseits in der Anschaffung so viel teurer, dass man sehr lange damit arbeiten müsste, um die Mehrkosten über die Stromrechnung wieder einzusparen.
 
Laskaris schrieb:
Kommt darauf an, für welche Anwendungen man die HEDT-Plattform verwenden will.

Ich arbeite mit Klimasimulationen, die auf massive Parallelisierung ausgelegt sind (die laufen theoretisch auch auf mehreren hundert Kernen). Die Performance skaliert ziemlich gut mit der Anzahl der Kerne. Die Taktfrequenz macht dagegen nach meiner Erfahrung nur einen sehr geringen Unterschied - im Vergleich von 3,3 GHz und 3,7 GHz zum Beispiel liegt die Performance nur um wenige Prozentpunkte auseinander. Da nimmt man gerne das CPU-Modell, das niedriger taktet und dafür weniger Strom verbraucht. Wenn der Rechner für so eine Simulation wochenlang unter Volllast läuft, fällt der Unterschied auf der Stromrechnung schon ins Gewicht.

Wahrscheinlich wäre für solche Anwendungen ein Epyc-System effizienter in puncto Leistung-pro-Watt. Aber es wäre andererseits in der Anschaffung so viel teurer, dass man sehr lange damit arbeiten müsste, um die Mehrkosten über die Stromrechnung wieder einzusparen.
Da geb ich dir recht. Für deinen Anwendungsfall wäre da warscheinlich ein dual Sockel System mit zwei epyc 64 kernern ideal. Da hast 256 theats :D wenn das nicht geht bietet TR gen. Hoffentlich auch 64 Kerne damit bist auch gut aufgestellt. Machst du solche Simulationen eigentlich lokal oder global? Bzw nutzt du die amerikanische rasterung (waren glaube ich bereiche von 18 mal 18 km die als gleiche Bedingungen angenommen werden) oder das europäische Modell was Bedeutend feiner ist? Weil das wirkt sich ja auch extrem auf den Reichenbedarf und die benötige Zeit aus, besonders weil Wetterberechnungen sehr instabil sind und kleinste Änderungen in den Rand oder anfangsbedungen unter Umständen ein komplett anderes Ergebnis liefern können :D die entsprechenden Zeiträume machens ja noch schlimmer. Je länger der betrachtete Zeitraum desto gruseliger die möglichen Abweichungen, aber das brauch ich dir warscheinlich nicht erzählen :daumen:
 
Ich weiß nicht ob das hier schon thematisiert wurde... habe mir den Thread nicht ganz durchgelesen.
Trotzdem hier nochmal:

Wer es noch nicht mitbekommen hat:
Den UserBenchmark darf man jetzt nicht mehr verwerten.

PSA: Use Benchmark.com have updated their CPU ranking algorithm and it majorly disadvantages AMD Ryzen CPUs : Amd

803527


Multicore-Gewichtung jetzt nur noch bei 2%.
Der Test kann man jetzt auch IntelBenchmark nennen.

Vorher hat der 3900X den 9900K satt geschlagen.
Jetzt ist der 9900K natürlich wieder 6% vorne.
UserBenchmark: AMD Ryzen 9 3900X vs Intel Core i9-9900K

Kann man daraus bitte mal ne News machen?
Das ist doch Beschiss auf höchster Ebene.

Wer jetzt 9900K vs 3900X bei Google eingibt kommt auf diese Seite und sieht ein verfälschtes Ergebnis...
Das ist doch lächerlich.
 
  • Gefällt mir
Reaktionen: .fF, dister1, greeny112 und 10 andere
PS828 schrieb:
Da geb ich dir recht. Für deinen Anwendungsfall wäre da warscheinlich ein dual Sockel System mit zwei epyc 64 kernern ideal. Da hast 256 theats :D

Ein Dual-Socket-Epyc-System mit insgesamt 128 Kernen wäre natürlich eine feine Sache. Kostet nur leider um die 20.000 Euro, das ist ein bisserl zu viel für mein Budget ... :p

Machst du solche Simulationen eigentlich lokal oder global? Bzw nutzt du die amerikanische rasterung (waren glaube ich bereiche von 18 mal 18 km die als gleiche Bedingungen angenommen werden) oder das europäische Modell was Bedeutend feiner ist? Weil das wirkt sich ja auch extrem auf den Reichenbedarf und die benötige Zeit aus, besonders weil Wetterberechnungen sehr instabil sind und kleinste Änderungen in den Rand oder anfangsbedungen unter Umständen ein komplett anderes Ergebnis liefern können :D

Ich mache keine Wetter-, sondern Klimasimulationen. Genauer gesagt, Simulationen des Paläoklimas, also z. B. des Klimas während der letzten Eiszeit oder während des Eozäns vor 55 Millionen Jahren. Das sind globale Simulationen, bei denen neben dem Atmosphärenmodell auch ein Ozeanmodell zur Anwendung kommt; manchmal kommen noch Modelle für Vegetation, Eiskappen usw. hinzu. Das alles muss über einen sehr langen Zeitraum simuliert werden, da es z. B. mehrere tausend Jahre dauert, bis die tieferen Wasserschichten des Ozeans ein Gleichgewicht erreicht haben.

Die Auflösungen sind dementsprechend niedriger als bei Wettervorhersagemodellen. Eine gebräuchliche Auflösung für Atmosphären-Simulationen des Paläoklimas trägt z. B. die Bezeichnung T31, das sind 96 x 48 Felder, die den gesamten Globus bedecken. Diese sind dann wiederum in, sagen wir mal, 26 Atmosphären-Schichten unterteilt, macht insgesamt 119.808 Grid-Zellen. Das Ozeanmodell hat seinerseits 116 mal 100 Felder und dazu 40 Schichten, macht insgesamt 464.000 Grid-Zellen. Das Atmosphären-Modell simuliert den zeitlichen Ablauf in Schritten von rund 30 Minuten, das Ozeanmodell in Schritten von mehreren Stunden. Beide sind "gecoupled" und tauschen Daten miteinander aus, weil Atmosphäre und Ozean sich natürlich gegenseitig beeinflussen.

Um mehrere tausend Jahre zu simulieren, braucht man also auch bei dieser niedrigen Auflösung verdammt viel Rechenpower. :D
 
  • Gefällt mir
Reaktionen: .fF, PS828 und knoxxi
Wadenbeisser schrieb:
Falsch, es ging um die Frage ob für 32 Kerne 4 oder 8 Chiplets zum EInsatz kommen und 256 MB L3 Cache sind mit 4 Chiplets ganz einfach unmöglich.
Sorry, dann habe ich das mißverstanden.
 
Zuletzt bearbeitet von einem Moderator:
Macht eigentlich nur sinn wenn man mehr PCI-E Lanes benötigt. In meinen Fall wäre es somit Lohnenswert.
Aber mein Verstand und mein Geldbeutel sagen nein :evillol:
 
deady1000 schrieb:

Tja, wie hiess es neulich in der internen Intel-Memo (gab da irgendwo eine News zu) ... soweit ich mich erinnere: Die Mitarbeiter sollten doch auf Vertrieb und Marketing vertrauen.

Auf die Ingenieure vertrauen hat man wohl aufgegeben. Aber "der Vertrieb" war ja immer schon recht kreativ bei Intel. Vielleicht war er ja auch hier am Werk, vielleicht ist auch ein Intel-Fanboy von alleine auf die Idee gekommen sich die Welt so zu machen, wie sie ihm gefällt. Ist ja auch nichts neues.
 
  • Gefällt mir
Reaktionen: greeny112, peru3232 und Mort626
Crashtest schrieb:
Mein Intel-Prozessor taktet manchmal, wenn ich nichts tue runter und schafft dann nur 800MHz. Ich bin super enttäuscht von Intel und werde diese Firma in Zukunft meiden. Das geht gar nicht. Auf der bunten Verpackung, die für mich kaufentscheidend war, stand was von Unlocked und Boost und Hyper und Gigahertz. Gerade bei Zen 2 ist die base clock natürlich entscheidend. Und 200W/64 sind 3W für jeden Kern, den teuren IO nicht berücksichtigt.

Fassen wir kurz zusammen:
  • Threadripper 3000 kommt mit mehr als 32 Kernen, AMD hat eine hohe Steigerung der Kernzahl bestätigt, sollte auch @Volker und andere Journalisten realisieren. 64 Kerne sind nach den getroffenen Aussagen absolut wahrscheinlich.
  • X399 bindet die Lanes direkt über den Prozessor an. PCIe 4.0 ist über die bisherigen Boards prinzipiell möglich, hängt (wie bei X470) wiederum von technischen Parametern und AMDs Haltung ab. Die Ryzen sind SOCs, sie benötigen keine Chipsätze. Ein X599 bleibt wahrscheinlich, Unternehmen wollen Geld verdienen.
Schreibe ich "wahrscheinlich" ist es eine Vermutung von mir, andernfalls gibt es Quellen.
Ergänzung ()

Mort626 schrieb:
Außerdem hatte die PS2 schon 128 bit.
Das tut beim lesen weh.
 
  • Gefällt mir
Reaktionen: Kazuja
Mort626 schrieb:
Arbeiten die meisten Prozessoren nicht intern sowieso mit mehr bits?

Nicht das ich wüsste. Wie soll das auch gehen? Wenn das OS nur 64 Bit hergibt kann die CPU nicht auf einmal mit mehr arbeiten wo sollen die Bits herkommen?

Mort626 schrieb:
Außerdem hatte die PS2 schon 128 bit.

PS2 ist aber auch eine Cell CPU gewesen, das hat überhaupt nichts mit x86 zu tun.
 
  • Gefällt mir
Reaktionen: Kazuja
Cool Master schrieb:
Nicht das ich wüsste. Wie soll das auch gehen? Wenn das OS nur 64 Bit hergibt kann die CPU nicht auf einmal mit mehr arbeiten wo sollen die Bits herkommen?
803692

Quelle: https://books.google.de/books?id=jTJfCAAAQBAJ&pg=PA525&lpg=PA525&dq=busbreite+intern&source=bl&ots=8M3NMG9TBk&sig=ACfU3U38muP8MSERoOAJ6I-i_QjGFRiSig&hl=de&sa=X&ved=2ahUKEwj0to_5hdHjAhWRp4sKHUDVCXM4HhDoATAFegQICBAB#v=onepage&q=busbreite intern&f=false

Das entspricht wohl am ehesten dem, was ich meine.
 
wern001 schrieb:
wenn ich eine 20.000x20000 pixel datei per photoshop an den drucker schicke belegt die spooler.exe ca. eine minute lang 1 cpu kern.
miniaturansichten von bilder im explorer. bei 50 mp bilder in jpg oder raw und bei ca 2000-3000 bilder im ordner dauert es mehrere minuten bis der windows-explorer die anzeigt ist extrem lästig wenn er das alle paar tage mal macht. die datei explorer.exe benutzt dabei nur 1 cpu kern

Ja, aber das liegt daran, dass der Drucker das Bild verarbeiten muss, in der Zeit dreht deine CPU Däumchen.

Den Thumbnail-Cache zu füllen ist leider nicht parallelisierbar, wenn dieser zu oft bei dir neu einliest, ist entweder Festplatte defekt, RAM defekt oder es sind einfach zu viele Bilder in einem Ordner. Falls du Windows 7 benutzt, dann gibt es definitiv ein Limit für die Thumbnail.db, welches du in jedem Fall überschreiten würdest!
 
Naitrael schrieb:
Ja, aber das liegt daran, dass der Drucker das Bild verarbeiten muss, in der Zeit dreht deine CPU Däumchen.

Den Thumbnail-Cache zu füllen ist leider nicht parallelisierbar, wenn dieser zu oft bei dir neu einliest, ist entweder Festplatte defekt, RAM defekt oder es sind einfach zu viele Bilder in einem Ordner. Falls du Windows 7 benutzt, dann gibt es definitiv ein Limit für die Thumbnail.db, welches du in jedem Fall überschreiten würdest!

Natürlich könnte man den Thumbnail Cache parallelisiert aufbauen. Warum sollte das nicht gehen? Mit den heutigen SSDs können die Bilder schneller eingelesen werden als die CPU diese zu Miniaturbildern verarbeiten kann. Das liesse sich wunderbar parallelisieren.
 
Zurück
Oben