Test AMD Ryzen Threadripper im Test: 1950X und 1920X im Duell mit Core X

ZeroZerp schrieb:
Es würde mir grundsätzlich widerstreben, meinen Rechner so unnötig zu quälen. Womöglich laufen dann auf den 40 Tabs noch Werbung, Flash- Gedöns und sonstige Animationen. Dann wundert mich allerdings nicht, dass man einen 40-Kerner zum flüssigen Surfen benötigt.
Man handelt sich Latenzerhöhungen noch und nöcher mit so einer Verhaltensweise ein und diese kompensiert Dir auch ein Mehrkernprozessor nicht, weil da auch die IO/Subsysteme schön damit belastet werden.

Jeder vernünftige Browser verschwendet keine unnötigen Ressourcen auf Tabs die keinen Fokus haben. Mein FF55 braucht mit 800 Tabs etwa 1,2GB RAM und niedrige einstellige Prozentwerte an CPU-Power. Da wird nix gequält.

Außerdem gehört Computer quälen zum Grundrepertoire eines Enthusiasten. Oder was meinst Du was OC genau macht ? ;)
Mein Computer muss ne Menge an Last verkraften, dafür spendiere ich ihm aber auch nur hochwertige Komponenten, feinste Hardware und eine exzellente Kühlung. Dem gehts im Sommer besser als mir :D. Mitleid braucht der glaube ich nicht ;)
 
Eine neue CPU für den es noch keine 100%ig passende Kühler gibt. Geil!
 
ottoman schrieb:
@Computerbase

Bei den Anwendungen im Computerbase Test sollten mal mehr Titel dabei sein, welche auch von MultiCore profitieren. Wenn man sich die Auswertung von 21 (!) Launchreviews auf 3DCenter bzgl. Anwendungs-Performance anschaut, wird das offensichtlich:

Anhang anzeigen 637165
Quelle: https://www.3dcenter.org/news/threa...tate-zur-anwendungs-performance-im-ueberblick

...

Nein, denn dein Beispiel zeigt ja umso deutlicher, dass es darauf ankommt, welche Programme man einsetzt.

Hierzu den Benchmark Parcours ändern, welchen CB für alle anderen CPUs benutzt hat, wird der Sache nicht gerecht (solange ändern, bis das Bild passt....). Man sucht sich den Test, wo die eigenen Programme im Vergleich verwendet werden und entscheidet dann über einen Kauf.

Mein Bruder z.B. als Grafik und Mediendesigner nutzt hauptsächlich die Adobe Creative Suite, die gekonnt mehr als 4 Kerne ignoriert. Die Investition wäre Nonsense

@Topic

Schaltet der Kompatibilitätsmodus nun Kerne oder HT ab? Bei pcgh steht Kerne
 
ottoman schrieb:
@Computerbase

Bei den Anwendungen im Computerbase Test sollten mal mehr Titel dabei sein, welche auch von MultiCore profitieren. Wenn man sich die Auswertung von 21 (!) Launchreviews auf 3DCenter bzgl. Anwendungs-Performance anschaut, wird das offensichtlich:
echt jetzt? heul doch!

dass 16 Kerne theoretisch doppelt so viel schaffen wie 8 sollte jedem klar sein der seinen Rechner alleine einschalten kann, bringt dir halt nur nix wenn z.B. dein XY-Zip im günstigsten Fall zwar mit allen Kernen packen kann wie der Teufel, aber nur mit einem Singlethread entpackt (gut ist jetzt Anwendungsfall abhängig was man öfter braucht)
Entsprechend finde ich es schon OK wenn Anwendungen genutzt werden die schlecht skalieren, oder unter Ausnutzung von Befehlen womöglich ein Taktlimit forciert das man nicht zwingend auf dem Schirm hat - ob dann bei der Gesamtübersicht an % mehr oder weniger herauskommt ist doch sowas von egal, wer sich daran aufhängt hat offenbar sonst keine Probleme
 
@Madman_One+ottoman
Man lernt nie aus.

Somit fällt aber auch der viel bemühte Grund eine X- Core CPU zu brauchen, weil man xy Tabs offen hat, weg, wenn man der technischen Referenz des Links folgt.

Grüße
Zero
 
Holt schrieb:
Nein SMT wird deaktiviert, nicht die Hälfte der Kerne.

Nur hat man im NUMA Modus eben praktisch kein Quad Channel mehr, da ja jeder Thread soweit möglich nur auf den Speichercontroller des Dies zugreift und damit nur auf 2 RAM Kanäle.

Nein, es wird nicht nur SMT deaktivert, es wird quasi ein Die deaktiviert. AMD beschreibt es so:

Game Mode puts one full die into the c6 sleep state. This is an ultra-low-power state that instructs the OS scheduler to ignore the sleeping die. Game Mode tells the OS scheduler to run processes on the one die that remains active. Full access to all PCI Express lanes, USB, SATA, and other SoC I/O is retained.

Das mit dem Dual-Channel-Speicher stimmt dann, im Game Mode ist es halt einfach ein Ryzen 7/5.
 
Vorweg, die CPU ist nicht für Spieler gedacht, also würde ich sie daran auch nicht messen.

Allerdings finde ich wiedermal die von PcPer gezeigte Latenzgrafik sehr interessant.

Im Grunde entstehen die Probleme einfach wenn zwischen den CPU-Blocks hin und hergewechselt werden muss, weil die Latenz 10x so hoch ist wie ein CCX Wechsel. Als sie z.b. ein Spiel spielen wollten + gleichzeitig einen Rendertest machten war das Spiel völlig unspielbar (5sek Spikes) ohne Numa/Compatibility Mode.

Hier wird es sehr von der Software abhängen und den AMD-Treibern wie gut man Multiprogram-Multitasking machen kann, denn bei 16 Kernen will ich nicht unbedingt nur 1 Projekt rendern, sondern nebenbei noch was anderes tun.
 
ZeroZerp schrieb:
@Zuckerwatte
In der Urtümlichen Zeit, aus der ich zu kommen scheine, hat man dafür Bookmarks mit guter Sortierung benutzt.
Mir erschliest sich der Vorteil der 40 geöffneten Tabs entgegen einer Bookmark- Tabelle nicht.

Ich hasse Bookmarks.

ZeroZerp schrieb:
Es würde mir grundsätzlich widerstreben, meinen Rechner so unnötig zu quälen.

Das ist eine Maschine. Die hat keine Gefühle.

ZeroZerp schrieb:
Womöglich laufen dann auf den 40 Tabs noch Werbung, Flash- Gedöns und sonstige Animationen. Dann wundert mich allerdings nicht, dass man einen 40-Kerner zum flüssigen Surfen benötigt.
was hab ich nochmal geschrieben? Ach ja richtig, dass man selbst mit dieser Art der Nutzung keine 16c/32T braucht....
Damit sollte genau ein was zum Ausdruck gebracht werden:
Nur weil du nicht mehr als 12 Tabs oder was auch immer verwendest kannst du nicht von dir auf die Anderen schließen...ok du kannst..ist nur suboptimal.


ZeroZerp schrieb:
Ich kann auch jede GPU einfach mit 16x DSR in die Knie zwingen. Bringt nur in der Praxis wenig.

Dieses Szenario ist natürlich viel realitätsnäher als ein Szenario, in dem ein Benutzer einfach viele Tabs öffnet ... und dann noch eine oder mehrere Anwendungen nebenbei laufen hat. Ja die Latenz steigt. Die frage ist ab wann mich das stört.
 
Finds geil!
endlich nach all den Jahren mit 4 Kernen im User-Bereich und vllt. mal 6-8 Kernen in ner kl.Workstation tut sich mal was hier!

btw: die Beiträge zu Browser & Tabs sind Kinderkram, alles notwendige dazu wurde schon wiederholt
 
Findus schrieb:
echt jetzt? heul doch!

dass 16 Kerne theoretisch doppelt so viel schaffen wie 8 sollte jedem klar sein der seinen Rechner alleine einschalten kann, bringt dir halt nur nix wenn z.B. dein XY-Zip im günstigsten Fall zwar mit allen Kernen packen kann wie der Teufel, aber nur mit einem Singlethread entpackt (gut ist jetzt Anwendungsfall abhängig was man öfter braucht)
Entsprechend finde ich es schon OK wenn Anwendungen genutzt werden die schlecht skalieren, oder unter Ausnutzung von Befehlen womöglich ein Taktlimit forciert das man nicht zwingend auf dem Schirm hat - ob dann bei der Gesamtübersicht an % mehr oder weniger herauskommt ist doch sowas von egal, wer sich daran aufhängt hat offenbar sonst keine Probleme

Palmdale schrieb:
(solange ändern, bis das Bild passt....)

Es sagt ja keiner, dass nicht skalierende Anwendungen rausfliegen sollen bzw. sollte das "es kommt darauf an" natürlich immer im Text zu finden sein. Nur finde ich den aktuellen Parcours ungünstig für CPUs, welche immer mehr Kerne haben. Es macht wenig Sinn, später einen 18C Skylake-X im Labor zu haben, wenn man nur wenig Anwendungen testet, welche diese Anzahl an Kernen auch auslasten kann.
 
Soviel zum Thema Poweruser, Multitasking und 10.000 Sachen gleichzeitig machen und Spielen:
Endlich räumt mal einer mit diesem Gerücht auf...

https://www.pcper.com/reviews/Processors/AMD-Ryzen-Threadripper-1950X-and-1920X-Review/Gaming-Performance-and-Mega-tasking

Ich musste hier immer innerlich schmunzeln, wenn einer rendern will und nebenbei noch gemütlich zocken, Streamen, rippen und Youtube und und und...

Das kann kein Scheduler der Welt sinnvoll abbilden...
Und mit steigender Kernanzahl und der sich erhöhenden Latenzen steigt die Anzahl der Lags.... Nix mehr mit "smooth" spielen.

Da müssten auch völlig neue Konzepte her. Oder wieder hardwarenahe Programmierung mit Kernzugriff ohne automatisiertes Threading. Den Aufwand tut sich aber keiner an.


Grüße
Zero
 
Zuletzt bearbeitet:
Hmm ein Szenario fiele mir ein wo sich so eine Monster CPU für Spieler lohnen könnte: für den vollständigen Umstieg auf Linux :D.

Man kann dann für Windows ne VM Aufsetzen und gibt der genug Ressourcen (an Kernen mangelts ja nicht, beim RAM auch nicht geizen) und schon kann man smooth spielen.

P.S.: der Begriff "lohnen" ist hier sehr weit gedehnt.

Aber Mal im Ernst: müsste an sich besser laufen als mit WINE und man hätte keine Kompatibilitätsprobleme, oder? Ich kenn mich mit VM zugegebenermaßen nicht aus, werf die Frage also Mal in den Raum.

Edit: Ah okay les gerade dass unter einer VM wohl vor allem die GPU massiv Leistung einbüßt da sie eben auch nur emuliert wird. Schade. War ne nette Idee.
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Das kann kein Scheduler der Welt sinnvoll abbilden...
Und mit steigender Kernanzahl und der sich erhöhenden Latenzen steigt die Anzahl der Lags.... Nix mehr mit "smooth" spielen.

Also mit dem 8 Kerner gleichzeitig eine Simulation laufen haben und nebenbei ruckelfrei spielen funktioniert sehr gut, wenn man beiden Programmen jeweils einen CCX zuweist. Die arbeiten dann nämlich unabhängig voneinander und profitieren von den niedrigen Latenzen. Tomb Raider müsste von so einer Konfiguration auch noch profitieren, da es ja nur 4 Kerne nutzt (Außer der Vorteil durch Quad Channel hebt das wieder auf). Allgemein sollte man bei solchen Kernzahlen immer die zugeordneten Kerne pro Programm begrenzen, bis entweder der Windows Scheduler oder das Programm selbst das kann.
 
@Colindo
Die Affinität setzen wäre eine Möglichkeit. Dennoch beseitigt das nicht die Bandbreitenproblematik und die Inter Die- bzw. Inter CCX Kommunikationslatenzen.

Wie ich schon schrieb. Da wäre mal ein neues Bedienerfreundliches Konzept für eine neue Art Scheduler fällig, der die zusammengehörigen Prozesse automatisch in den Kernen bzw. Zwischenspeicher mit den wenigsten HOPs betreibt bzw. dessen einfache Zuweisung durch die steuernde Applikation.

Denn selbst wenn man die Kernanzahl für ein Programm XY begrenzt heisst das nicht, dass nicht zufälligerweise ein Lastthread davon z.B. in den Renderthread eines Spieles reinfunkt

Sonst darf man nämlich erst per trial und error testen, welcher Thread von Programm X nun am sinnvollsten in der Nähe des logischen Cores/XY platziert wird.



Grüße
Zero
 
Zuletzt bearbeitet:
Leute ich brauch mal wirklich eure Hilfe jetzt. Wie man auch an meiner Sig sieht bin ich jemand, der seine Hardware (insbesondere Mainboard und CPU) über einen sehr langen Zeitraum nutzt. Und da ich mir dieses Jahr endgültig ein neues System zulegen werde steh ich aktuell vor folgender Entscheidung:

AMD 1950X + X399 oder aber Intel 7940X + X299 (128GB DDR4-3200 CL16 Speicher, eine 960Pro 512GB sowie ein Noctua NH-D15 sind bereits vorhanden)

Für AMD und gegen Intel spricht:
  • unschlagbares Preis-Leistungs-Verhältnis
  • Rechenleistung (in nicht AVX-optimierten Anwendungen) dürfte vergleichbar mit dem 7940X sein
  • 64 PCIe-Lanes
  • verlöteter HS
  • Mainboards mit vernünftiger Stromversorgung (zumindest nach aktuellem Stand)
  • ich mag AMD

Gegen AMD und für Intel spricht:
  • zukunftssicherer dank AVX512
  • vermutlich bessere Übertaktbarkeit (wenn man den 7900X als Anhaltspunkt nimmt)
  • Thunderbolt 3
  • deutlich höhere Single-Core-Leistung
  • Verfügbarkeit von CPU-Kühlern

Das Problem ist: ich nutze meinen Computer (aktuell) hauptsächlich zum Konvertieren von 4K-H.264-Videos in 4K-H.265 via Handbrake und ab und zu für eine Runde GTA V, Crysis 3 oder Project Cars, selten auch für (mehrkernoptimierte) MATLAB-Simulationen. Und genau in diesen Anwendungen (mit Ausnahme vll von der MATLAB-Geschichte) nützt mir AVX512 sowie eine hohe Single-Core-Leistung:
90034.png
Benchmarks: GTA V

Nachdems aktuell eh noch keine vernünftigen Kühllösungen für TR4 gibt müsste ich mit dem Kauf einer entsprechenden Plattform aller Voraussicht nach ohnehin bis mindestens Anfang Semptember warten und dann steht bereits der 7940X vor der Tür. Andererseits juckts mich langsam schon wirklich in den Fingern. Wie würdet ihr euch entscheiden?
 
Zuletzt bearbeitet:
aRkedos schrieb:
Hmm ein Szenario fiele mir ein wo sich so eine Monster CPU für Spieler lohnen könnte: für den vollständigen Umstieg auf Linux :D.

Man kann dann für Windows ne VM Aufsetzen und gibt der genug Ressourcen (an Kernen mangelts ja nicht, beim RAM auch nicht geizen) und schon kann man smooth spielen.

P.S.: der Begriff "lohnen" ist hier sehr weit gedehnt.

Aber Mal im Ernst: müsste an sich besser laufen als mit WINE und man hätte keine Kompatibilitätsprobleme, oder? Ich kenn mich mit VM zugegebenermaßen nicht aus, werf die Frage also Mal in den Raum.

Edit: Ah okay les gerade dass unter einer VM wohl vor allem die GPU massiv Leistung einbüßt da sie eben auch nur emuliert wird. Schade. War ne nette Idee.

Du kannst einer VM auch direkt Hardware wie eine Grafikkarte zuweisen. Die ist dann für den Host nicht mehr verfügbar. Das ganze soll wohl auch kaum Performance kosten. Ist aber die Frage, was du jetzt unter Linux anders machen willst als unter Windows bzw. was für Programme du laufen hast.
 
https://www.pcper.com/reviews/Proce...0X-Review/Gaming-Performance-and-Mega-tasking

Das sind wirklich sehr interessante Ergebnisse - gerade bei NUMA / UMA. Wenn ich so nen KernMonster hätte würde ich wohl auch parallel zum Zocken nach X265 wandeln ;)

With the Core i9-7900X, performance of the game with and without the rendering running in the background was consistent and smooth. For the 1950X running in NUMA/Local mode, performance does drop some in RoTR (15%) but the game remained smooth and provided an excellent gaming experience. However, the 7900X took almost 10 minutes longer to complete the rendering workload, more than 25% slower than the 1950X. Also note that compared to running the Blender render alone, the AMD system only took 15% more time when adding in the game session. The 7900X took 31% longer when we added RoTR to the mix.

Our experiences when the 1950X system was in the UMA/Distributed mode were much different. The average frame rate of the game dropped tremendously but the experience in the game was awful, stutter and freezing were abound. Clearly the compartmentalization of the NUMA mode helps in this mega-tasking situation.

Da scheint der NUMA Mode das Mittel der Wahl zu sein. Manuelles Zuweisen ist keine Lösung in meinen Augen.
 
Zuletzt bearbeitet:
Komme was wolle, ich liebe AMD dafür.
Quasi vom Abendessen zum Frühstück sind über nacht von 4 Kernen auf einmal 8/12 Kerne geworden.

AMD ist mit dem Kopf durch die Wand und egal ob Intel oder AMD Fanboy, jeder profitiert davon.
Diese hinhalte-taktik a la core i7 xxxx mit nunmehr +100mhz in der spitze! unleash the power blabla gedöns von intel ging mir schon seit der dritten core ix generation so auf die nerven.
Und dann kommt AMD Mal eben so als sterbender alter Mann um die ecke und schmeißt uns die 8/12/16-Kern CPUs einfach so um die Ohren 😂
Ich werde erst Mal eine Zeit lang aus Prinzip, wenn die Leistung ausreicht, immer bei AMD einkaufen.

Top Test und pünktlich wie eh und je, danke Computerbase, immer weiter so!
 
autoshot schrieb:
Das Problem ist: ich nutze meinen Computer (aktuell) hauptsächlich zum Konvertieren von 4K-H.264-Videos in 4K-H.265 via Handbrake und ab und zu für eine Runde GTA V, Crysis 3 oder Project Cars, selten auch für (mehrkernoptimierte) MATLAB-Simulationen. Und genau in diesen Anwendungen (mit Ausnahme vll von der MATLAB-Geschichte) nützt mir AVX512 sowie eine hohe Single-Core-Leistung:
Anhang anzeigen 637179
Benchmarks: GTA V

Interessant dabei ist aber, daß ryzen bei den fps Messungen "nur" im stabilen Mittelfeld ist dafür aber ganz oben bei der frametime. Da liegt sogar die heißgeliebte "Spieler cpu" 7700k dahinter.

Mal abwarten welches Spiel mal richtig schön Kerne frisst :king:
 
Zurück
Oben