Test AMD Ryzen Threadripper im Test: 1950X und 1920X im Duell mit Core X

Was für ein Monster, auch der 1920X. Einfach nur geil! Das schlägt förmlich ein, wie eine Bombe. Ich weiß gar nicht, wann es so eine Situation zuletzt auf dem CPU-Markt gab. Auch an eine ähnliche Formulierung wie Zitat: "Im Test ist deren Leistung teilweise extrem." kann ich mich kaum erinnern.

Wenn CB es nicht ausspricht, dann eben ich: KLARE KAUFEMPFEHLUNG :)

Schafft es das ansatzweise in die Mobilsparte, dann ist ein neuer Laptop sowas von gekauft! Das wird die nächsten 8 Jahre halten :)

Verstehe die Gayming"probleme" nicht - HUUURGA mein Gayme es läuft nur auf 5000 fps statt 5500 und die Frametimes sind 2 ns zu lang. Wenn ihr zwei Rechner, ein Intel und ein AMD, hingestellt bekämt und nicht wüsstet welcher welcher ist, ihr würdet einfach gar nichts merken. Auf den TR-Kisten kann man zocken wie man will - und im Hintergrund noch zusätzlich Renderings UND einen YouTube-Livestream laufen haben :D
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
nVidia hat leider keine Hardware-Unterstützung für einige DX12 Aspekte. Dadurch wird es mehr oder minder emuliert in Software und auf die CPU abgeladen. Das scheint bei Ryzen einen negativeren Effekt zu haben, da der nVidia Treiber anscheinend die Bandbreite des IF limitiert.

Also da wird nix in Software emuliert, prüfe mal das was du da sagst.
Warum Nvidia da teilweise unter Directx12 mit Ryzen hinten liegt ist ne ganz andere Baustelle, liegt auch häufig an SMT.

Jedenfalls war auch beim normalen Ryzen 5 / 7 die FPS deutlich höher sobald in DX12 eine AMD GPU dazugeklatscht wurde, statt einer nVidia GPU.

Nur bei 2 oder 3 Titeln.
 
bellencb schrieb:
Richtig muß es heißen:

Die Anzahl der nativen SATA-Anschlüsse wird von 4 auf 8 verdoppelt und zwei native PCIe-3.0-Lanes lassen sich zur Anbindung weiterer SATA-Ports nutzen.



Es fehlt der zweite Asterisk in der Tabellenzeile:

CrossFire / SLI ja / ja ja / ja ja** / – ja** / – nur X300
**CrossFire-Support durch eigene Lösungen der Mainboard-Hersteller

auch nicht richtig : Der 399 kann bis zu 8 Sata bereitstellen , dazu zusätzlich die CPU theoretisch 3 x Sata , praktisch ginge das jedoch von den M2 NVME ab , deswegen werden vermutlich alle MB 3 Full Speed M2 NVME Pcie 4 x 3.0 verbauen und die Sata Ports über den 399 realisieren
 

Anhänge

  • kevin_lensing_threadripper_tech_day_legally_approved_7.31.17_13.jpg
    kevin_lensing_threadripper_tech_day_legally_approved_7.31.17_13.jpg
    188,2 KB · Aufrufe: 517
Zuletzt bearbeitet:
@Topic
Gelunge Vorstellung, wie es nun zahlreiche Benchmarks beweisen. Nicht fürs Gaming, aber für (fast) alles andere. Die Anfrage nach Aufrüstungen diverser Workstations von SemiProSumer am heutigen Abend sprechen aus meiner Sicht Bände. Das kommt von Leuten, die ganz genau wissen, wofür sie die Leistung benötigen. ;)
Doch habe ich vorgeschlagen, erstmal abzuwarten bis eine größere Auswahl geeigneter Luftkühler auf dem Markt angekommen, genauso wie die Auswahl an Motherboards. Hauptsächlich geht um die Lautstärke, man möchte im Heim-Büro trotz der hohen LEistungsaufnahme - die für die Leistung absolut gerechtfertigt ist - ein möglichst leises Arbeitssystem haben.
Auch OC ist kein Thema, man will Out-of-the-Box genug Power!


@Offtopic
Mittlerweile vermute ich, daß AMD Gaming Leistung anders definieren will. Nicht über höchstmögliche max- oder avgFPS, sonder über dauerhaftes, flüssiges Gameplay. In Zeiten von Free- und G-Sync kann ich das immer mehr nachvollziehen.
Egal, ob CPU oder GPU, in den Frametime-Messungen steht AMD immer öfter besser da.
Die hohe, oft bescholtene Rohleistung, die - gemessen am längsten Balken - nicht 'auf die Strasse' kommen soll, zeigt sich wenn wirklich Leistung gefragt ist. Nämlich dann, wenn Hardware bei besonderes rechenintensiven Szenen in die Knie geht, was bei AMD deutlich weniger der Fall ist.
Was nützt einem Gamer hohe FPS, wenn bei schnellen perspektivischen Bewegungen, vielen Gegnern, heftigen Explosionen die FPS einbrechen? Nix!
Die Rohleistung und die damit einhergehende, höhere Leistungsaufnahme fängt das Einbrechen ab und man bleibt bei flüssigen Gameplay. Das ist viel mehr Wert, als wenn der FPS Counter eine möglichst hohe Zahl ausspuckt.
OT Ende
 
EchoeZ schrieb:
Egal, ob CPU oder GPU, in den Frametime-Messungen steht AMD immer öfter besser da.

Ist das so? Ich glaube aber eher kaum. Du fällst voll auf den Marketingkram herein.

Die hohe, oft bescholtene Rohleistung, die - gemessen am längsten Balken - nicht 'auf die Strasse' kommen soll, zeigt sich wenn wirklich Leistung gefragt ist. Nämlich dann, wenn Hardware bei besonderes rechenintensiven Szenen in die Knie geht, was bei AMD deutlich weniger der Fall ist.

Wie willst denn das technisch erklärn?
Gibts bei AMD Hardware wenns PS mäßig down geht nochmal einen Push oder wie funktioniert das?
Marketingopfer. Kloa sind Framtime wichtig, aber wo sind de bei AMD besser?

Die Rohleistung und die damit einhergehende, höhere Leistungsaufnahme fängt das Einbrechen ab und man bleibt bei flüssigen Gameplay. Das ist viel mehr Wert, als wenn der FPS Counter eine möglichst hohe Zahl ausspuckt.

Eine höhere Leistungaufname fängt das Einbrechen ab? Kriag gleich nen Lachanfall.
 
Sehr interessante Prozessoren.

@CB
Wie hier bereits von anderen Usern erwähnt wurde finde es mittlerweile eigentlich obligatorisch, dass nicht jede Anwendung und jedes Spiel einzeln und ohne weitere Hintergrundprozesse getestet wird, sondern teilweise auch mit anderen Programmen zusammen. So würde man erfahren, wie stark die Leistung bspw. beim Spielen einbricht, wenn währenddessen noch ein rechenintensives Programm im Hintergrund läuft.
 
Es war doch schon bei Ryzen so, dass Intel im Singlecorebereich (im Schnitt) ein paar Prozente vorne liegt, AMD das aber über Kerne idR ausgleichen kann. Immerhin haben sie sich aus der Bulldozer-Katastrophe herausgearbeitet.
Warum ist es jetzt eine Überraschung, wenn es bei Threadripper ähnlich aussieht ? :freak:
Für Anwendungen, die keine 32 Threads nutzen, kaufe ich auch keine 32 Threads. Immer dieser Kindergarten hier..
 
Zuletzt bearbeitet:
Kauft alle weiterhin Intels Zahnpasta Kocher und gut ist 😆👍👍👍👍Scheiß billig AMD aber auch 😱
 
DonL_ schrieb:
Bei meinem Beitrag ging es um die CPU, ich will wissen, ob die schwachen Leistungen von TR und Ryzen unter einigen DX12 Benchmarks, auf das Konto des Grafikkartentreibers eines bestimmten Herstellers gehen oder nicht.
Das ist ein legitimes Interesse und hat ausschließlich mit der CPU zu tun.

Es ist mehr als merkwürdig das Ryzen und TR unter DX11 mit Nvidia im gleichen Spiel performen und unter DX12 im gleichen Spiel völlig abgeschlagen sind zur Konkurrenz!

Ich kann dir nur von Tomb Raider berichten. Kurz gesagt: Kannst du völlig knicken. Ist DX12 aktiv, gibt es alle paar Sekunden Hänger. Mit DX11 hingegen gibt es gar keine Probleme. Wie es bei anderen Titeln aussieht, weiß ich nicht. Dabei wurde Tomb Raider bereits gepatcht. Aber DX12 in Kombination mit Nvidia läuft trotzdem unrund.
 
Hallo SKu,

bei anderen Spielen ist das ja ähnlich, deshalb will ich ja wissen wie Ryzen mit VEGA in DX12 bei disen Spielen performt, damit man mal einen Anhaltspunkt bekommt.
 
Damit hat AMD nun auch im Highend Bereich den Grundstein gelegt und kann darauf aufbauen. Freut mich echt für AMD das sie wieder den anschluss gefunden haben. Hoffentlich macht AMD was daraus.

Nachher darf ich auch endlich mein R7 1700x +X370 Mobo endlich zusammenbasteln :)
 
Dass stimmt und vielleicht sieht es mit Volta von NV ja besser aus was AMD CPUs angeht. Irgendwie glaube ich zurzeit ist es einfach schlauer dei AMD CPU auch eine GPU von AMD zunehmen.

Mal sehen was NV mit der nächsten Gen macht, denn dieses GEN glaube ich kann auch mit Treiber und Patches nichts mehr reisen.

Trotzdem Vorteile vom TR liegen auf der Hand mehre Cores für weniger Geld bessere Mobos mehr lans und dank lot auch mit Luftkühler zu kühlen.

All dass gibt es bei intel nicht zur Zeit.
 
Geil wie der Threadripper Intel in Multicore Anwendungen (und nichts anderes zählt hier) Preis-/Leistungsmäßig vernichtet.
 
bellencb schrieb:
Es fehlt der zweite Asterisk in der Tabellenzeile

Lügner! Es gibt nur einen Asterix! Und wenn dann fehlt Obelix, der ist nämlich der zweite!!!

Spaß beiseite:
Der TR ist ne nette Geschichte, da wohl kein intensiver Entwicklungsaufwand dahinter steht und das dadurch vielleicht sogar wirtschaftlich ist, das Ding zu bringen. Denn sind wir mal ehrlich, auch wenn auch hier der ein oder andere findet, der von dem TR profitiert, ist der wahre Markt wohl bei 0,x % der consumer. Bei Firmen mag es vielleicht etwas mehr sein, aber auch hier sind doch die Masse Bürokisten, deren grösste Leistung die wohl zum rendern von Facebook.com ...
 
@ MK One
Dennoch wiegt allein sowas wie zb die Option auf Raid 5 an X299 für viele wohl deutlich höher als der Unterschied ob die letzten 16 Lanes aus CPU oder Chipsatz kommen...
 
Zuletzt bearbeitet:
Also bezüglich des Themas "native PCIe Lanes" vs "Chipsatz Lanes" sehe ich persönlich kein großes Problem.
Wenn überhaupt gibt es einen kleinen Unterschied bei den Latenzzeiten im µs Bereich und das wars. Dann wird da ne HDD angeklemmt oder vllt. sogar noch ein ODD und man merkt keinen Unterschied mehr, da sich die Latenzzeit von mechanischen Laufwerken sowieso in einer anderen Größenordnung bewegt.
 
Krautmaster schrieb:
AM4 kann nur 24 davon nach außen führen. Zu wenig Pins. Das war schon Dezember bekannt. Da werden auch kaum mehr Lanes kommen, braucht es auch kaum.

Intel 20 bei S1151. Bei beiden sind 4 davon für den Chipsatz.

Brauchen vielleicht nicht. Und irgendwie muss man sich auch von seiner High-End-Plattform differenzieren. Es ist aber trotzdem interessant zu wissen, dass der Zeppelin Die eigentlich 32 Lanes hat.
 
Also ich habe nur die erste Seite gelesen und so vielen Fehlern aufgehört.
Vier der 64 Lanes sind für den Chipsatz und seine Anbindung an die CPU reserviert – somit bleiben 60 zur freien Verfügung für die Mainboardhersteller. Bei Ryzen sind es 20. Gängige Konfigurationen werden auf dieser Basis 3 × x16 für Grafikarten zuzüglich 4 × x4 für M.2 (NVMe)
Da es also nur 60 PCIe Lanes der CPU gibt, die für den Chipsatz zählt man gewöhnlich nicht mit da sie ja belegt sind, kann eben nicht 3x16 und 4x4 realisieren, denn dafür bräuchte man ja alle 64 Lanes, könnte also den Chipsatz dann nicht mehr anbinden.

Der Legacy Compatibility Mode deaktiviert die Hälfte der Kerne
Nein SMT wird deaktiviert, nicht die Hälfte der Kerne.

Er nutzt grundsätzlich den NUMA-Modus, weil Spiele in der Regel eher von weniger Latenz als höherer Bandbreite profitieren – die ist mit dem Quad-Channel-Interface eh schon sehr hoch.
Nur hat man im NUMA Modus eben praktisch kein Quad Channel mehr, da ja jeder Thread soweit möglich nur auf den Speichercontroller des Dies zugreift und damit nur auf 2 RAM Kanäle.

 
Zurück
Oben