Test Ryzen Threadripper 2000 im Test: 2990WX, 2970WX, 2950X und 2920X im Vergleich

Kann TR zukünftig mit den neuen X4..Boards 2019 dann XGMI ?
 
Da ich nur sehr vereinzelt längere HDR Streifen klein rechne oder 4K Material aus der Sony, nutze ich zumeist HEVC via CPU, gerade wenn man die Bitrate runter schraubt liefert CPU das bessere Bild aber bei etwas mehr Bandbreite sieht man am TV vermutlich keinen Unterschied mehr. Auch hier ist das Ergebnis ja auch massiv kleiner. Aus dem 700MB jellyfish Video werden 8-42 MB. Dafür sehen sie noch gut aus.

Hätte ich vor 1000 MBs klein zu machen würde ich glaub ne kleine Pascal um wenig Asche holen (welche Pascal is da glaub recht egal da es nicht so sehr mit der GPU Power an sich skaliert).

Pascal hat etwas mehr Features, zb Lossless und HDR bei HEVC, das kann Maxwell nicht bzw da muss die CPU herhalten. Generell lässt sich da ggf auch etwas mehr Speed rausholen oder eben Qualität die näher an der CPU ist.
 
wobei GPU encoding auf die Qualität geht , mag mittlerweile etwas verbessert worden sein , jedoch ist das encoding per CPU flexibler .
 
ja klar, CPU seitig dürfte die Quali immer etwas höher sein. Aber wenn es einem zb auf + 20% File Size nicht ankommt und man dafür lieber mit ner 200€ GPU oder einer die man eh schon hat die 3-20x Performance hat... geht man vielleicht auch einfach den GPU Weg, gerade wenn man wirklich viel zu encoden hat.

Edit: Mein i7 6700 auf Arbeit kommt auf
frame= 900 fps=2.5 q=-0.0 Lsize= 40004kB time=00:00:29.93 bitrate=10949.0kbits/s speed=0.0835x

Mein i9 is also etwa 5x fixer.
 
Zuletzt bearbeitet:
Dr4go schrieb:
Entweder ich hab es jetzt auf die Schnelle nicht gefunden oder hab es offensichtlich übersehen: Welches Windows wird eigentlich für die Benchmarks verwendet? Habe kürzlich mal irgendwo gelesen, dass ThreadRipper erst auf einem Windows 10 1809 richtig funktionieren würde.

Ich zitiere mich ja ungern... aber hat jemand eine Ahnung des Betriebsystems vom Testsystem?
 
easy-max schrieb:
..."Würde dann noch der Grafikkarte Leistung abverlangt, kommt die 1.000-Watt-Marke rasant schnell näher. "
da werden sich die deutschen Stromanbieter freuen.


Kann ich beides nicht bestätigen. Habe zwar nur einen 1900X aber komme bei Volllast nicht über 450W
k0ntr schrieb:
mit so nem teil könnte man doch seinen kleinen Server zuhause aufbauen, Hyper-V Exchange usw, oder irre ich mich?


Klar. Das Teil ist dafür prädestiniert. Ich selbst hab zwar nur den 1900X (8C/16T) am Laufen. Aber es läuft ein Win10 + Steam + Steamlink als Zockerkiste fürs Wohnzimmer (statt ner Playstation oder Ähnlichem). Nebenbei ein Mailserver, Nextcloud inkl. Office, Kameraüberwachung, PiHole, ein Reverseproxy und der Host stellt via ZFS Samba und NFS zur Verfügung. Läuft 1A. :) Und im Idle zieht die Kiste unter 200W. Mein NT ist ein 650W EVGA.
 
dürfte noch 1803 sein, das Testsystem wurde ja erst auf verschiedenen SSDs neu aufgesetzt als das 1809 noch buggy war. Wird das nun eig wieder verteilt?
Ergänzung ()

joshlukas schrieb:
Und im Idle zieht die Kiste unter 200W

what? 200W. Das auch ganz schön Holz 24/7. Mein massiv OC i9 mit schon recht exzessiver Wakü zieht ~95W aus der Dose, idle.
Gut, wenn du natürlich 10 rotierende Platten drin hast is das was anderes.
 
  • Gefällt mir
Reaktionen: Dr4go
Danke CB für den guten Test. Wenn auch diese CPUs für mich derzeit uninteressant sind ist es schön zu sehen das AMD den Markt wieder mit guten CPUs beliefert.
Mehr als 8 Kerne brauche ich privat derzeit nicht, und auf der Arbeit ist es mir egal. Da ist für mich primär wichtig dass das System das leistet was ich brauche, und dafür ist unsere IT da. :D
 
joshlukas schrieb:
Und im Idle zieht die Kiste unter 200W
Wtf, was hast du denn noch an Platten etc. am Laufen. Finde ich extrem viel für Idle! Selbst mein massiv übertakteter 3930K der im idle die Spannungen kaum senkt in Kombination mit ner Vega 64 und einigen mechanischen Platten liegt bei gerade mal 160-180 Watt, was ich schon für sehr viel erachte.

joshlukas schrieb:
Kann ich beides nicht bestätigen. Habe zwar nur einen 1900X aber komme bei Volllast nicht über 450W

Merkst schon selbst oder? Hier geht es um Prozessoren mit 12, 24 bzw. 32 Kernern plus eine entsprechende High End GPU wie z.B. eine 2080i, Vega etc. und nicht um einen 8 Kerner. Klar gibts da massive Unterschiede.
 
Krautmaster schrieb:
dürfte noch 1803 sein, das Testsystem wurde ja erst auf verschiedenen SSDs neu aufgesetzt als das 1809 noch buggy war. Wird das nun eig wieder verteilt?
Ergänzung ()



what? 200W. Das auch ganz schön Holz 24/7. Mein massiv OC i9 mit schon recht exzessiver Wakü zieht ~95W aus der Dose, idle.
Gut, wenn du natürlich 10 rotierende Platten drin hast is das was anderes.

Muss halt auch dazu sagen, dass da auch mehr dran hängt:
1 x TR 1900X
2 x 16 GB ECC RAM
3 x WD EcoGreen F3 3TB
1 x 960 GB Sandisk Ultra2
1 x 500 GB Samsung Evo 850
1 x 250 GB Samsung 840
1 x GTX 1080
1 x GT 710

Und ich schrieb nicht 200W sondern unter 200W. :)
 
okay, is immernoch knackig als Dauerverbraucher aber die 2 GPU und 3 Platten werden natürlich auch etwas ziehen.

Denke mit ner kleinen Plattform dürfte man auf ~75W runterkommen mit dem Zeuch. Aber du wirst schon deinen Grund für 2 GPU und ECC Support usw haben.
 
joshlukas schrieb:
Und ich schrieb nicht 200W sondern unter 200W. :)

Und wie viel unter 200 sind es? Finde ich im Idle für die Hardware trotzdem ziemlich knackig. Einiges dürfte die zweite GPU schlucken (wo zu nutzt du die? Als GPU für den Host und die 1080 durchgeschliffen?) Aber im Idle dürften die Platten eh in den Sleepmode gehen. Auch Die SSDs verbrauchen im Idle nicht die Welt.
 
Was mur noch einfällt und mich schon eine Weile beschäftigt!

Tests zum Speicher: Single vs dual tank + Latenzen, verschiedene Speicher Geschwindigkeiten

Zb kann man dual rank sinnvoll nutzen und kriegt man den Speicher auch mit über 1866Mhz zum laufen?! Welche Auswirkungen haben die Latenzen und hat das ganze beim Betrieb positive Effekte?!
 
@ Windows Version

Aktualisiertes Windows, neues BIOS, neue Versionen von Anwendungen
AMD hatte bereits vor einigen Monaten erklärt, dass man zusammen mit Microsoft daran arbeitet, Windows für den Umgang mit mehr als 32 Threads auf Threadripper 2000 zu optimieren. Erste Ergebnisse sind davon sichtbar, sowohl umfangreiche Windows-Updates der letzten Wochen als auch BIOS-Updates für das Asus Zenith Extreme (BIOS 1501 vom 12. Oktober 2018) zeigen einen Fokus auf eine Verbesserung der Leistung von Threadripper mit vielen Kernen und Threads

ggf kam auch schon 1809 zum Einsatz. Weiß aber nicht genau seit wann das nun stable ausgerollt wird. Außerdem kann man kaum so schnell alles nachtesten. Vielleicht sagt uns CB ja noch ob 1803 oder 1809.
 
  • Gefällt mir
Reaktionen: Dr4go
Shoryuken94 schrieb:
Und wie viel unter 200 sind es? Finde ich im Idle für die Hardware trotzdem ziemlich knackig. Einiges dürfte die zweite GPU schlucken (wo zu nutzt du die? Als GPU für den Host und die 1080 durchgeschliffen?) Aber im Idle dürften die Platten eh in den Sleepmode gehen. Auch Die SSDs verbrauchen im Idle nicht die Welt.

Genau habe ich es mangels präzisem Messgerät nicht gemessen. Sind nur grobe Beobachtungen über das Monitoring meiner PVE Anlage. Kann gut sein, dass der Verbrauch weit geringer ist aber definitiv nicht über 200W. Was ich damit nur zum Ausdruck bringen wollte, dass auch bei Last die 1000W in weiter Ferne liegen. Das System von mir hat zwar nur einen Octacore, ist aber auch weiter nicht nackt sondern relativ gut bestückt.


Krautmaster schrieb:
Denke mit ner kleinen Plattform dürfte man auf ~75W runterkommen mit dem Zeuch. Aber du wirst schon deinen Grund für 2 GPU und ECC Support usw haben.

ECC, weil "Heimserver" und zwei GPUs, weil eine fürn Host, die 1080 wird an die Win10 VM durchgeschliffen.
 
(welche Pascal is da glaub recht egal da es nicht so sehr mit der GPU Power an sich skaliert).

GPU-encoding ist ja leider ein Thema welches (auch von CB) nie behandelt wird. Man nimmt das mal in einem Nebensatz eines Tests auf. Man testet mit 1-2 komischen Tools. Aber ein ECHTER TEST mit einer Übersicht der 10 besten Tools und Benchmarks zwischen verschiedenen Karten und Generationen wäre genial.

Bis heute kann ich nicht finden ob meine GTX970 schneller als die GTX960 meines Vaters ist. Sind da 2 statt 1 NVENC Modul eingebaut? Wie sieht das generell bei den verschiedenen GEnerationen aus. Klar wurden da Dinge verbesser, aber wie sieht es innerhalb einer Generation aus? Welche Tools sind wie stabiel und mit welchen Karten arbeiten Sie zusammen? Und zwar so das auch am Ende ein File rauskommt welches abgespielt werden kann. Wie oft denke ich "ENDLICH HAT ES GEKLAPPT" um dann zu sehen das im VLC nur schwarz zu sehen ist obwohl das File von der Größe her passt.

Und wie schon geschrieben: Die Qualitätsnachteile könnte man durch eine 20% höhere Bitrate ausgleichen und man hat statt 2-3 fps auf einmal 60-120fps. Das macht sich bei der Stromrechnung bei genug Material schon bemerkbar.
 
  • Gefällt mir
Reaktionen: fox40phil
joshlukas schrieb:
Was ich damit nur zum Ausdruck bringen wollte, dass auch bei Last die 1000W in weiter Ferne liegen. Das System von mir hat zwar nur einen Octacore, ist aber auch weiter nicht nackt sondern relativ gut bestückt.

Naja und im Artikel ging es um CPUs mit 12-32 Kernern plus High End GPU. Eine 1080 ist ja nun z.B. nicht sonderlich Stromhungrig eine 2080Ti, Vega etc. hingegen schon. Dazu haben die CPUs hier im Test nicht mehr Kerne, sie takten auch ein gutes Stück höher.

Merke ich bei meinem System. Mit übertaktetem Sandybridge E und übertakteten Vega 64 Habe ich Peaks auf 850 Watt, mit nem 32 Kern Threadripper und evtl. erhöhtem Allcore Takt sind die 1000 Watt wohl nicht Allzufern.
Ergänzung ()

joshlukas schrieb:
ECC, weil "Heimserver" und zwei GPUs, weil eine fürn Host, die 1080 wird an die Win10 VM durchgeschliffen.


Sehe zwar nicht ganz den Sinn von ECC im Heimgebrauch, aber muss jeder selbst wissen. Ist ja eine kleine Glaubensfrage. Aber wozu brauchst du beim Host ne GPU? Sind bestimmt alleine ca. 15 Watt. Nicht die welt, aber bei 0,3€ / KWh auch 40€ im Jahr. Oder nutzt den den Host noch andersweitig?
 
Mich hätten noch realistischere Spieletests interessiert. Also mit Settings, die jemand mit 1300€ GPU und 600-1800€ CPU verwenden würde. Also WQHD und 4K. Man liest überall, dass die Abstände kleiner werden usw. So wirklich testen und berichten tut's niemand.
 
Shoryuken94 schrieb:
Das stimmt ohne Zweifel, aber es ist ja auch der 1920x im Raum. Da kommt der Intel am Ende gleich teuer bei gleicher Anwendungsperformance und deutlich besserer Spieleleistung. Zudem sinken die Preise aktuell immerhin wieder etwas.
Du meinst sicher den gesamten "Plattformpreis" inkl. Mainboard, denn rein vom CPU-Preis trennen 1920X (ab 404 €) und 9900k (ab 659 €) über 250€.

Derzeit tendiere ich stark zum 2700X.
Nochmal zurück zum Thema Video-Transcoding via GraKa: Ab welcher GraKa lohnt sich das und ist hier eher AMD oder Nvidia zu bevorzugen?
Ergänzung ()

ghecko schrieb:
Wenn die Qualität vergleichbar ist, sollte Weyoun wohl lieber in einen 2600X und eine entsprechend starke Grafikkarte investieren.
Der 2600X ist "nur" ein Ryzen 5 (6 statt 8 Kerne). Da hätte ich schon gerne derer acht.;)
Obwohl das Preis-Leistungs-Verhältnis natürlich nochmals besser wäre...

Zum Thema GraKa: Welche wäre hier am besten geeignet? Wie gesagt, tabu ist die neue RTX von Nvidia.
Es muss nicht "krankhaft" kleingerechnet werden. Festplattenkapazität ist nicht der limitierende Faktor.
 
Zuletzt bearbeitet:
Zurück
Oben