Test AMD Ryzen Threadripper im Test: 1950X und 1920X im Duell mit Core X

Aldaric87 schrieb:
Oh gott, jetzt fängt der Unbekannte wieder mit seinem Epyc Gespräch an....

Er hat ja auch kein Plan was NUMA ist also lass ihn :D 309 Beiträge in nichtmal 7 Monaten ist schon stark :D
 
anderseits muss man sagen das die dual epic boards mit 550 € recht attraktiv sind, oder anders ausgedrückt die TR4 boards sind irgendwie zu teuer im Vergleich ;)

TR ist halt für alle die zocken und rendern möchten, wer nur arbeitet bekommt mit epic natürlich mehr Leistung bei geringerem verbrauch (Sweetspot liegt ja bei rund 3 Ghz)...

preislich gehts ebenfalls bei rund 2k für dual 16 kern inkl. MoBo los.... also für Leute die Kerne brauchen schon ne alternative...
 
Oh hast du mal nen Link?
Hab noch keine Preise für EPIC gefunden.. Deswegen das Interesse.
Und TR zum Zocken ist halt nen Goodie, gilt ja auch für SKL-X...
 
Zuletzt bearbeitet:
@AMD-Mafiosi

die boardpreise findest du breits im Preisvergleich, für die CPU´s hab ich einfach die uvp 1:1 umgerechnet(https://www.computerbase.de/news/prozessoren/xeon-sp-epyc-preise-vergleich.60228/), es sollte bei entsprechender Stückzahl also auch noch einiges günstiger werden,

ein Kumpel von mir der Serversysteme verkauft nannte die UVP bei den intel Xeon jedenfalls Phantasiepreise auf denen sie erhebliche Rabatte bekommen, aber das hilft uns ja nicht die nur 1 oder maximal 2 cpu´s benötigen ;)

@ Topic
der 16er TR wird sicherlich gut einschlagen, für nur 200 € mehr bei gleichem Verbrauch und eingies an Mehrleistung stellt sich die Frage ob 1920X oder 1950X eigentlich nicht wirklich...und für alle anderen gibts Ryzen 5 und 7
 
Zuletzt bearbeitet:
AMD-Mafiosi schrieb:
@Palmdale:
Angesichts der katastrophalen Effizienz

Jein, da muss man ganz klar differenzieren: Ryzen ansich hat einen katastrophal verschwenderischen Speichercontroller. Dieser macht zum Großteil den Idle Verbrauch aus; Ryzen über 40W im Leerlauf, Threadripper logischerweise das doppelte, also über 80W. Die Kerne dagegen sind überaus effizient, und reißen den gesamten Prozessor gerade noch raus.

Die Geschwindigkeit des RAM hat bei AMD einen großen Einfluss auf dessen Grundverbrauch:
Wir müssen darauf hinweisen, dass die Ryzen Threadripper für verschiedenene Taktraten auch verschiedene Teilspannungen für die SOC-/SMU-Rails nutzen. Wenn man die Leistung des gesamten Packages bewertet, haben auch diese, von Speichertakt abhängigenTeilspannungen, einen großen Einfluss auf die ermittelten Werte! AMD hatte uns nahegelegt, die 32 GB als DDR4 3200 im Rahmen des hinterlegten Profils zu betreiben. Würde man diesen Speicher jedoch mit den Standard-SPD-Werten von DDR4 2133 betreiben, so läge die Leistungsaufnahme für das Package um mindestens 15 Watt niedriger!
Quelle: Tomshardware


So sehr ich Threadripper und Ryzen auch mag, für den Portable Bereich sieht es für AMD aktuell gar nicht gut aus.
 
Raucherdackel! schrieb:
Jein, da muss man ganz klar differenzieren: Ryzen ansich hat einen katastrophal verschwenderischen Speichercontroller. Dieser macht zum Großteil den Idle Verbrauch aus; Ryzen über 40W im Leerlauf, Threadripper logischerweise das doppelte, also über 80W..

Und ich werd hier als Intel Fanboy gebasht, wenn ich sage, das mit der Idle Verbrauch zu hoch ist. Dass das bei viel Laufzeit im Jahr gern mal mehrere Hundert € sind wird gerne mal vergessen. Da ist es dann auch nicht mehr so weit bis zur nächsten Intel CPU :)
 
16-Bit schrieb:
Dass das bei viel Laufzeit im Jahr gern mal mehrere Hundert € sind wird gerne mal vergessen.

Rechne deinen Gedankengang mal konkret vor.
 
Ja bitte. ich bin interessiert wie man da auf mehrere 100€ kommt. Schon wieder bla...
 
Raucherdackel! schrieb:
So sehr ich Threadripper und Ryzen auch mag, für den Portable Bereich sieht es für AMD aktuell gar nicht gut aus.

Und wieder für dich:

Raven Ridge besteht aus einem CCX und soll dadurch deutlich effizienter sein, zusätzlich wird er im Mobilbereich doch deutlich näher am Sweetspot betrieben. Du kannst von Ryzen nicht auf Raven Ridge schließen, da jeder Ryzen aus mindestens 2 CCX besteht.


@16-Bit:

Das ist eine Arbeitsmaschine, mit Quadchannel Ram, 16-Kernen und etlichen Bord Features. 80 W Idle Verbrauch bei dieser Leistungsklasse sind ein Witz. Wenn ich weiß er idlet lange, schalt ich die Kiste halt aus. Ein 10-Kerner von Intel verbraucht im Vergleich ja auch 77 Watt.

Wo dich das jetzt bestätigen soll weiß ich ehrlich gesagt nicht. Deine Argumentation ist eigentlich recht dünn. Du vergleichst lahmarschige Mainstream-CPU's ohne große Features auf dem Board mit einer HEDT Plattform, welche viel mehr mitbringt.

Und mehrere hundert €...sorry, aber wenn ich die Kiste ein Jahr lang im Idle rumstehen lasse, fahr ich das Teil einfach runter oder erlaube Windows den Rechner in Stand-By zu versetzen. Diese Argumentation ist für solche CPU's einfach ein Witz.
 
Zuletzt bearbeitet:
@16-Bit, du redest Unfug, weil AMD unter Last die gleiche Leistungsaufnahme wie Intel hat aber bei passenden Anwendungen mehr leistet.

@Aldaric: das muss man erstmal abwarten, da Raven Ridge auch einen Dual Channel Speichercontroller nutzen wird, und dieser höchstwahrscheinlich der gleiche sein wird. AMD wird da wohl oder übel zur Verbrauchsoptimierung den Speichertakt senken...
 
Zuletzt bearbeitet:
16-Bit schrieb:
Und ich werd hier als Intel Fanboy gebasht, wenn ich sage, das mit der Idle Verbrauch zu hoch ist. Dass das bei viel Laufzeit im Jahr gern mal mehrere Hundert € sind wird gerne mal vergessen. Da ist es dann auch nicht mehr so weit bis zur nächsten Intel CPU :)

Na, da bin ich mal gespannt wie viele Jahrhunderte lang Threadripper vor sich hin idleen muss, damit sich die 3 Watt in mehreren Hundert Euro verwandeln.

Ich hoffe inständig, dass das mit der K.I. bald kommt, die sämtliche Beiträge sofort als Blödsinn abstempelt und erst gar nicht als Post zulässt. Dann haben wir endlich einmal eine richtige gehaltvolle Diskussion am laufen. :)
 
40 Watt mehr sind bei 24/7 betrieb und kosten von 0,28€/kWh knapp 100€ im Jahr worst case, bei nur 12h am Tag entsprechend die hälfe, bei Last schaut es wieder anders aus, da mehr Leistung vorliegt das Projekt schneller fertig ist...
Die Rechnung ist also extrem individuell 😉.
 
@Raucherdackel:

Der Speichertakt kann ja getrost gesenkt werden. Im Mobilbereich wird in 90+% der Fälle kein schneller Ram verbaut, ist aber dann für die CPU selbst auch nicht von Nachteil da es nur die extrem schnelle interne CCX Kommunikation gibt.


@JemHadar:

Er versteht halt nicht das die Intel CPU's ebenso diesen hohen Idle Verbrauch haben. Er macht weiter so, als wäre der Intel 10 Kerner bei der hälfte im Idle, er verbraucht aber lediglich 3 Watt weniger, bei (je nach Anwendungsgebiet) deutlich weniger Leistung.
 
kisser schrieb:
Meinst du den 1900x Threadripper?
Der dürfte keinen Vorteil gegenüber einem Ryzen 1800x bieten.

Und wieder sieht man ganz klar wie manche Leute weder etwas von AMD noch von Threadripper wissen oder gar gelesen haben, aber trotzdem hier etwas posten wollen, was logischerweise ganz und gar falsch ist.
Der kommende 1900X wird wie alle anderen Threadripper über Quad-Channel verfügen sowie die unbeschnittene Anbindung an 64 PCIe-Lanes.
Zudem ist die TDP ebenfalls auf 180 Watt gesetzt und somit kann die CPU erst richtig und frei boosten wie sie gerne möchte. Gepaart mit dem großflächigen Headspread ist es für jeden Kühler ein leichtes die Wärmeentwicklung unter Kontrolle zu halten.

Ist alles im Test zu lesen und zu verstehen, wenn man sich darauf einmal einlässt. ;)
 
Zuletzt bearbeitet:
Nach dem Test geben sich Intel Core i9-7900X und AMD Ryzen Threadripper 1920X im Leerlauf nicht viel: 77W vs. 80W. Auch die Single-Core-Last (Cinebench 1-CPU) 97W vs. 100/103W ist zu vernachlässigen.
„Ungefähr wie Skylake-X“ lautete AMDs Aussage zu den Verbrauchswerten im Alltag der neuen High-End-Plattform. Im Test bestätigt sich das. Sowohl im Leerlauf als auch unter voller Belastung siedelt sich die Threadripper-Plattform auf dem Niveau vom Gegenspieler mit Skylake-X von Intel an.
Ein Core i9 oder Ryzen Threadripper wird sicher gekauft, um ihn nicht im Leerlauf oder auf einem Kern laufen zu lassen.

Warum freuen sich nicht alle das AMD trotz der wenigen Ressourcen (Kapital, Arbeitskraft, ...) im Gegensatz zu denen von Intel gelungen ist eine gute CPU zu entwickeln. Es kommt immer mehr der Eindruck auf das dies einfach nicht sein darf.

Aktuell kann nur Intel verglichen werden, aber interessant ist die Entwicklung:
Intel Core i7-5820K 50W
Intel Core i7-6850K 62W
Intel Core i7-7800X 71W

Die Leistungsaufnahme steigt mit jeder Generation.

@JemHadar
Diese Rechnung gilt auch für Intel und die Differenz ist hier noch größer: Intel Core i7-7700K 33W vs. Intel Core i7-7800X 71W. Der Vergleich stimmt aber nicht, da eine Mainstream mit einer Enthusiast Plattform verglichen wird. Dies war und ist auch bei Intel immer so gewesen.
 
Zuletzt bearbeitet: (Ergänzung)
JemHadar schrieb:
40 Watt mehr sind bei 24/7 betrieb und kosten von 0,28€/kWh knapp 100€ im Jahr worst case, bei nur 12h am Tag entsprechend die hälfe, bei Last schaut es wieder anders aus, da mehr Leistung vorliegt das Projekt schneller fertig ist...
Die Rechnung ist also extrem individuell 😉.

Hier geht es um Arbeits-CPUs und nicht um 4-Kern-Krüppel-Daddel-Kisten. Das ist genauso argumentativ als wenn man sich über den Verbrauch zwischen einem VW-Polo und einem Lamborghini unterhält.
 
Tenchi Muyo schrieb:
Die Leute sind aber auch bereit €+800,- für ne TI zu zahlen - Nutzungsdauer: 2 Jahre !?

Da ist der 16 Kerner für €1.000,- wirklich besser investiert auf lange Sicht.
(Von der Gewichtigkeit her müsste die CPU eher €2.000 kosten wenn die Graka schon €800,- kostet.)
Aber vermutlich bin ich einfach zu alt - ich kenne noch Zeiten da war die CPU das teuerste am PC. ^^

aber auch nur wenn du die 16C ausnutzt. Die meisten hier im Forum zocken sicher deutlich häufiger als zu rendern, Filme wandeln oÄ.

Wenn ich ab und an mal nen 4 K Urlaubsvideo klein mach gefallen mir 16C ja, aber meine GPU bekomm ich je nach Game Auswahl über Stunden am Tag auf 100% Last. Ergo lohnt sich in meinen Augen 800€ für ne GPU auch bei wegen mir 2-3 Jahren deutlich mehr.

Zudem skaliert die Gaming Leistung viel besser über den Preis als zb bei CPU, da das mehr an GPU Leistung bei eigentlich jedem Spiel bei rumkommt und nicht nur in wenigen Workloads wie bei ner CPU.

@DarkerThanBlack

seh ich aber wie Kisser. Die 64 Lanes bringen einem mit Multi GPU vielleicht 0-4%. Die 180W vielleicht 4,2 Ghz statt 3,9 Ghz OC.

Lass ihn in Summe 15% schneller sein als ein Ryzen 1700 OC auf B350 Board. In der Anschaffung kostet das schon allein wegen dem exorbitant teuren Board bei X399 das doppelte der AM4 Variante. Das wiegt doch kein PCIe oder Quad SI auf... der Use Case müsste schon speziell sein.

Wenn man sich von AM4 wegbewegt , dann sollte die CPU schon 12 oder mehr Kerne haben - und nicht nachher das Board teurer als die CPU sein ^^
 
Zuletzt bearbeitet:
Ede aus'm Knast schrieb:
Na dann lass mal so "nebenbei" Prime95 laufen, dann ist Schluss mit lustig.
Weiß zwar nicht wozu, aber hab's mal gemacht. Prime nutzt dann die 4 Kerne noch einen Ticken mehr als die Simulation und der Prozessor wird heißer. Das Spiel arbeitet wie zuvor...
 
Zurück
Oben