Test AMD Ryzen 7 1800X, 1700X, 1700 im Test: König in Anwendungen, Prinz in Spielen

Weil hier nVidia gar nichts verbockt hat. Sonst würde das Problem bei Intel genauso bestehen. Warum ist das nicht der Fall?
 
Die Chip-Architektur von Ryzen SETZT auf Multithreading. Genauso wie DX12. Beides funktioniert am besten mit Hardwareschedulern.
Die nVidia GPU braucht aber einen "Software"-scheduler. Der Vorteil ist dass man damit auch unter DX11 relativ gut Multithreaden kann (Stichwort AMDs DX11 treiberschwäche).
Der Nachteil ist dass man damit unter DX12 nicht arbeiten kann ohne ständig den Cache leerräumen zu müssen. Bei Intel fällt das wegen des Ringbus-Caches nicht so auf. Bei AMD wegen der Kopplung der Infinity Fabric an den RAM und den damit einhergehenden Langsamen Cross-CCX Cacheanbindung macht das aber dann eben eine Performancebremse.
 
Wie bei den Gameworks Müll, man erstellt einfach Settings die der Konkurrenz nicht liegen. Und der muss die Hürden dann nach und nach umgehen.
 
Tja spannende Frage, dazu gab es ein Video was was länger geht aber da ganz gut erklärt.

https://www.youtube.com/watch?v=nIoZB-cnjc0&

Ich meine der Grundtenor ist einfach, dass der Treiber anders arbeitet, einen anderen Fokus hat. Hier einfach zu sagen nVidia baut scheiße ist einfach so plakativ und bescheuert, dass man es so nicht stehenlassen kann. Im Forum ist das natürlich immer einfach gesagt und man hat ein Feindbild, aber zu einfach ist es dennoch.

So wie es Iscaran erklärt macht es Sinn und so erscheint mir die nVidia Lösung deutlich sinnvoller. Man wird es hier keinem Recht machen können weil es eben verschiedene Ansätze sind nach meinem Verständnis. Es hat ja eben einen Grund warum man beide jeweils verwendet.
 
IchoTolot schrieb:
Sonst würde das Problem bei Intel genauso bestehen.

Schon Ashes of the Singularity hat doch gezeigt das manche Optimierungen für Intel CPUs beim Ryzen für Probleme sorgen können (und umgekehrt garantiert genauso, nur wird man wohl keine rein auf AMD optimierte Software "in the Wild" finden). Derjenige der daran Schuld ist und es beheben muss ist derjenige der diese Optimierungen in die Software eingebaut hat und auf CPUs loslässt für die sie unpassend ist.
 
Iscaran schrieb:
Werde das vor allem mit dem letzten Post von MK one vergleichen - der hat auch 2400er RAM drin.

@MK one: Kannst du mir noch den SingleCore run Wert liefern ? Bitte achte auch während des Laufs auf die Taktung der Kerne mit CPU-Z (nutze das Clocks-Tool unter "Tools"). Es ist wichtig dass ich wirklich genau die Taktfrequenz kenne mit der der SingleCore Run gelaufen ist egal was sonst wie eingestellt ist !
eigentlich 3200 er Ram @ 2400 wegen Agesa 1004a , vorher lief er schon mal mit 2933
148 cb single core , 3,642 ghz - kein Boost
2017-05-31 (10).jpg
 
eigentlich 3200 er Ram @ 2400

Wie beim CPU Takt interessiert hier nicht was theoretisch das Ding kann sonder was tatsächlich an Takt anliegt - nur so kann man vernünftig Performance messen, Fit-Modelle der Performance erstellen und damit dann die Archs vergleichen ;)

Jop 2400 RAM takt, 3642 CPU Takt 148CB SC hatte ich deshalb auch schon eingetragen ;) Aber danke für die Bestätigung !
 
Jesterfox schrieb:
Schon Ashes of the Singularity hat doch gezeigt das manche Optimierungen für Intel CPUs beim Ryzen für Probleme sorgen können (und umgekehrt garantiert genauso, nur wird man wohl keine rein auf AMD optimierte Software "in the Wild" finden). Derjenige der daran Schuld ist und es beheben muss ist derjenige der diese Optimierungen in die Software eingebaut hat und auf CPUs loslässt für die sie unpassend ist.

Ja richtig. Ich finde man muss sich nur je mehr man versteht dass es einfach verschiedene Ansätze gibt, davon verabschieden, dass jeder Ansatz überall gleich gut funktioniert. Beide Systeme AMD und nVidia verfolgen einfach verschiedene Ansätze die zwangsläufig auf beiden Systemen verschiedene Auswirkungen haben. Das erklärt er ja im Video ganz gut.
 
nVidia ist aber daran interessiert, dass auch AMD CPU Käufer eine nVidia GPU kaufen, daher muss der Treiber beides können. So haben es auch einige Reviewer ausgedrückt. Und dem ist auch so. Es zeigt das der DX11 Treiber von nVidia wirklich gut war, es zeigt wiederum wie schlecht ihr DX12 Treiber ist. Ihr Treiber muss etliche DX12 Funktionen simulieren, obwohl laut nVidia DX12 doch komplett in Hardware unterstützt wird. :rolleyes:
 
Schau dir doch mal die wenigen verfügbaren Tests mit AMD vs nVidia GPU in Games an die DX11 und DX12 können.

Der Trend ist IMMER

Ryzen + nVidia DX12 = 80% der Performance von Intel+nVidia@DX11

Intel +nVidia @DX12 = Intel + nvidia@DX11 = Ryzen+Nvidia@DX11

Aber Ryzen+Nvidia @DX12 = 70-80% dessen was unter DX11 geht. Nur in manchen Fällen bzw. nachdem "Patches" rauskamen ist die Performance wieder ~gleich bei nVidia @DX11 und DX12.

Wobei AMD GPUs in DX12 komischerweise immer ca. 10-20% profitieren relativ zu sich selbst @DX11.

Ist halt der "schlechte" AMD DX11 treiber.
Ergänzung ()

http://www.tweaktown.com/news/57799/asus-pushes-amd-threadripper-16c-32t-cpu-5ghz/index.html

WTF...wenn im TR schon weitere Zen optimierungen drin sind das man das Ding über die 4.2GHz Barriere kriegt, die es bei Zen bislang noch mehr oder weniger gab, und das auch noch mit einem nativen 16Kerner - dann gibts im Herbst bestimmt Zen+ Refreshes mit deutlich mehr Taktspielraum :-).

R1700+ mit 5Ghz...*Spekulier*
 
Zuletzt bearbeitet:
Refresh wohl eher Frühjahr 2018.
 
Da nichts über die VCore da steht kann man dazu nichts sagen. Da es aber eine Workstation/Server CPU ist würde ich sagen Wasser oder Kompressorkühlung, wobei eher Wasser da das mehr vertreten ist im RZ.
 
Gibts seit dem letzten AGESA neue Benchmarks irgendwo? Mich würd ja mal endlich 3000er Dual Ranked vs. 3600er Single interessieren.
 
Ich habe das neue AGESA drauf (als Beta Version) auf meinem ASUS PRO X370. Mein Speicher kann bis zu 3000Mhz, jedoch steht er aktuell auf 3200 Mhz und läuft seit 30 min im PRIME95 Test stabil mit diesem Takt. Bei dem alten BIOS gingen bei mir 2133Mhz.
Ergänzung ()

Muss hier revidieren, nach 1,5 Stunden die ersten Fehler. Ich takte zurück auf 3066 Mhz, da lief er 7 Stunden stabil.
 
Hast du auch genug Spannung auf den RAM gegeben? Bei mir (i7 7700K LPX Corsair 3000 CL15) standen auf dabei 1.35 Volt. Ich hab zwischendurch mal versucht zu übertakten und den mal 1.3 gestellt. Fiel mir gestern auf, dass er noch immer darauf stand obwohl wieder 3000 am laufen. Scheint also auch zu gehen bei mir. 3200 gehen bei mir auch mit der Brechstange aber dann Command Rate 2 und hohe Timings. Bin daher wieder auf 3000 zurück weil das frisst den Taktvorteil dicke wieder auf.. Sehe das bei den L1 und L2 Cache Werten. Latenz beim RAm blieb aber gleich.
 
Zurück
Oben