Test AMD Ryzen 7 1800X, 1700X, 1700 im Test: König in Anwendungen, Prinz in Spielen

DonL_ schrieb:
Hat das alles sehr wenig mit dem Win 10 Scheduler zu tun und der Ringverteilung (Verschiebung der Last auf jeden Core im Kreis), die eine Kommunikation zwischen den CCX erzwingt, was in diesem Fall unerwünscht ist und nicht sehr schwer abzustellen ist, mit ein paar Zeilen Code.

Vllt ein Grund den R5 1600X und die anderen kleineren Modellen später auszuliefern. bei den Quadcore könnte man vllt vereinzelte Module nehmen, bei den 6 Core nicht.
 
der volker schreibt keine kommentare in der letzten zeit
sieht wirklich so aus als sei er beschäftigt^^
 
Noch gibt es für mich keinen Grund um auf AMD umzusteigen.

Hatte erwartet das der 1700x schneller als mein i5 6600K ist aber vielleicht kommt das noch, sobald die Spiele usw. darauf optimiert werden.
Denke die nächsten zwei Jahre kann ich mit dem i5 gut mithalten.
 
Beitrag schrieb:
Neun AsRock-Phasen, denen ich nicht vertraue. A hat Jemand hier im Forum doch so eins gehabt und meinte ihm sei ein Kondensator geplatzt - ohne OC.
Ernsthaft? Kondensatoren haben nicht mit OC zu tun...
Das mal ein Kondensator defekt ist kann bei jedem Hersteller passieren.
 
Zuerst:Ich möchte keine Empfehlung für einen Prozessor angegeben- aber im schon öfter geposteten Link

https://www.youtube.com/watch?v=BXVIPo_qbc4&feature=youtu.be&t=104

scheinen einige Sachverhalte im Forum nicht korrekt dargestellt worden zu sein.
.
ANFANGS läuft das Video/Spiel im GPU Limit, SPÄTER auf Minute 2:10 läuft das Game beim 7700k im CPU Limit, während der Ryzen an dieser Stelle noch massig Reserven hat. Die GPU läuft dann auf beiden Systemen NICHT auf 99%.

Dann folgen Spiele, wo die CPU in beiden Systemen völlig unterfordert ist.

Dann folgt ab Minute 6:40 ein Autorennspiel, wo der 7700k wieder am Limit läuft,
während der Ryzen wieder massig Reserven hat.

Ich spiele manchmal den online Shooter Planetside 2 und da kommt es nicht selten zu schlachten, wo sich 150 Leute auf der Karte fetzen. Da bricht mein 2500k natürlich im CPU Limit stellenweise ein. Für mich kein Problem, aber für andere wäre dies ein Grund aufzurüsten.

https://www.youtube.com/watch?v=lbT_bXZxgq4#t=162
https://www.youtube.com/watch?v=PeX2_aAreUE
 
syfsyn schrieb:
So als Fazit
Kann man sagen das r7 1700(x) und 1800x nach dem OS sheduler patch
ein quasi numa node dual socket server chip ist.
Somit sind alle Daten die in einen ccx sind nicht direkt teilbar mit dem anderen ccx
So gesehen können serielle programe nur auf 4 Kerne mit smt zugreifen aber windows kann den ccx komplett vom OS hinetrgrundlast befreien was dan die r7 cpu quasi gleich schnell macht wie ein ci7 7700k bei 5ghz
Aber schneller wird dieser nicht.

Warum ist das so

mein verdacht ist das die infinity fab ursprünglich ramtakt mal 128bit zwischen den ccx verbunden ist bzw geplant war
nur hatte man den NB controller ein Problem das die dual channel nicht parallel Daten in den L3 laden kann sondern nur je ccx 64bit
Das reduziert gewaltig die gb/s zwischen den ccx gedacht waren cpu takt ~3,6ghz = 128bit =460gb/s
dann machte der NB controller noch probleme weil dieser nicht den theoretischen ramtakt (ddr4 3600) mit macht sondern nur den realen
1800mhz
ergibt 115.2gb/s
das wäre das Optimum derzeit
Der L3 macht aber 450gb/s somit muss bei ccx L3 share 4 takte warten
Aktuell ist es aber so das das maximal 1333mhz nur gehen also maximal 85,3gb/s
also wartet ein ccx auf 5 Takte
ein takt ist 11,1ns
Die latenzen vom Ram sind indemfall relativ egal außer windows veranlasst den ram als victim Speicher zu nutzen
was bei Latenze ab 70ns im L3 auch egal wäre
Lösung ist derzeit den ramtakt zu erhöhen und auf min ddr4 3200 zukommen (102,4gb/s) was nur 4 takte und 44,4ns bedeuten würde.
ich glaube erst bei zen+ wird amd den bus zwischen den ccx erhöhen können
auf 128bit und somit die latenz auf 2 takte reduziert.
Also was tun
Warten auf OS patch was die cpu als numa node 2 mal quadcore behandelt
Anwendungspatches sind nicht nötig
bios patches was den ramtakt erhöht
was nicht möglich ist bei einen numa node Annahme des OS mehr als 4 Kerne bei serielle Programmen werden nicht gehen sondern nur quad mit smt.
Somit sind intels x99 (x299) hexa octa überlegen in seriellen Anwendungen. teils unterlegen bei linearen Anwendungen.(besseres smt)
das wird die server marke von intel (xeon) empfindlich treffen
ich glaube nicht daran das amd die CPu für home Nutzer entwickelt hat sonder dies ist eine reiner server chip design.
Nur hat amd die NB bit Anbindung einen Fehler drin.
Dies wird es bei zen+gefixt. bis dahin sind die octas von amd als Gegner für den ci7 so1151 anzusehen
Und ein kleiner seitenhieb Richtung workstation xeon
also hat man wohl etwas verkackt beim marketing, wie üblich bei AMD

Sind also die CPu schlecht fürs gaming, nein sind sie nicht aber der Durchbruch das intel hexa und octa billiger werden wird nicht passieren.
Schade und das alles nur weil man einen Fehler in der wichtigsten Verbindung bei einen solchen design hat.

Was wäre die Lösung falls das per design nicht zu lösen ist.
ccx modul mit 6 oder mehr Kernen
mit der brechstange den ramtakt erhöhen. ob ddr4 7200 machbar sind?

Hi, danke für diesen qualitativen Post. Ich hätte da eine bitte. Kannst du nochmal über den Post gehen und gegebenenfalls editieren? Ich würde gerne diesen Post übersetzen und an buildzoid weitergeben. Bin gespannt was er zu sagen hat
 
giessl schrieb:
Ja, aber die Frage ist doch, wie zukünftige Games mit mehr Threads umgehen.

Ja, Su`s Lisa hat ja bei der letzten Pressekonferenz gesagt das man mit xx Spieleherstellern in Kontakt stünde um diese Umstände anzugehen und man sich der Problematik bewusst wäre - die entscheidende Frage ist nur redet sie da von Wochen, Monaten, oder gar Jahren ?

Ist ja nicht so als wäre das Thema Multicore / Thread Unterstützung bei Games was völlig neues - man hat damals schon beim Phenom II X6 darum gebettelt und es kam nur sehr wenig seitens der Spielehersteller. Ist ja auch kein Wunder, die wollen verkaufen ergo die Masse bedienen, und solange die auf ihren Core 2 Duos, i3s etc sitzen bleibt fühlen die sich nicht sonderlich motiviert ihren Gamecode umzukrempeln. Aber wie gesagt, schaun wa doch einfach mal was Frau Su bei den Spieleherstellern erreichen kann.
 
Sologruppe schrieb:
Zuerst:Ich möchte keine Empfehlung für einen Prozessor angegeben- aber im schon öfter geposteten Link
scheinen einige Sachverhalte im Forum nicht korrekt dargestellt worden zu sein.
.
ANFANGS läuft das Video/Spiel im GPU Limit, SPÄTER auf Minute 2:10 läuft das Game beim 7700k im CPU Limit, während der Ryzen an dieser Stelle noch massig Reserven hat. Die GPU läuft dann auf beiden Systemen NICHT auf 99%.

Dann folgen Spiele, wo die CPU in beiden Systemen völlig unterfordert ist.

Dann folgt ab Minute 6:40 ein Autorennspiel, wo der 7700k wieder am Limit läuft,
während der Ryzen wieder massig Reserven hat.

Wie oft denn noch, in dem Video ist bis auf das Rennspiel jedes Game im GPU Limit, schau dir das doch einfach mal an!
Ein CPU Limit besteht NICHT NUR wenn die Kerne auf 100% laufen sondern AUCH wenn die GPU nicht auf 95-99% läuft und die CPU deutlich weniger Auslastung auf den Kernen hat.
Keine Ahnung wie oft man das noch schreiben muss bis die Leute das mal kapieren.
Die Tests im Video sind fast alle im GPU Limit und damit für einen CPU Test unbrauchbar.
Einzige Ausnahme ist das Autospiel wo beide CPUs limitieren. Dazu ein paar Ausschnitte vom BF1 Test, aber auch dort ist die GPU fast im Limit und immer bei ~95%. Unverständlich ist dennoch warum da dann der Ryzen langsamer ist nachdem bei ihm die GPU eher im Limit läuft als beim 7700k und damit eigentlich mehr FPS auf den Schirm bringen sollte.
 
Zuletzt bearbeitet:
Nö, ab Minute 2:10 bis 2:35 läuft das Spiel für den 7700k im CPU Limit- sieh es dir an. Die GPU ist da auf rund 90%. Bei Ryzen ist dann die GPU auf 95-99%.
 
Zuletzt bearbeitet:
immortuos schrieb:
Wie oft denn noch, in dem Video ist bis auf das Rennspiel jedes Game im GPU Limit, schau dir das doch einfach mal an!
Ein CPU Limit besteht NICHT NUR wenn die Kerne auf 100% laufen sondern AUCH wenn die GPU nicht auf 95-99% läuft und die CPU deutlich weniger Auslastung auf den Kernen hat.
Keine Ahnung wie oft man das noch schreiben muss bis die Leute das mal kapieren.
Die Tests im Video sind fast alle im GPU Limit und damit für einen CPU Test unbrauchbar.
Einzige Ausnahme ist das Autospiel wo beide CPUs limitieren.
Also ich habe gestern diese Videos gesehen. Und er betont mehrmals dass natürlich die GPU 100% belastet wird weil kein vsync an ist. Darüber hinaus hat er noch ein 720p Low settings video .

Was soll er machen? Soll er 60 FPS framelimit festlegen damit die GPU nicht mehr unbegrenzt arbeitet? Dann haben wir ein Video in dem alle Systeme bei 60fps laufen. Super
 
Laut dem Ersteller des Videos läuft die gpu aber nur am Limit wegen Vsync off und des 144mhz Monitors sollte ich ihn richtig verstanden haben. Laut Beschreibung sind die Spiele alle 720p.
 
Dieses komische fetzen um eine CPU ist sowieso nur lächerlich und ein Problemchen der 1. Welt. Ich schätze mal, das sogar für 99,99% aller Europäer dieses Thema unwichtig und nebensächlich ist. Die Mehrheit kauft sich einen billigen Laptop und mehr nicht.
 
Ned Flanders schrieb:
Was hat das Platzen eines ElKos technisch mit OC oder Phasenueberlastung zu tun? Vieleicht hilfreich sich mal mit der Funktion eines ElKos auseinander zu setzen!
Tomsenq schrieb:
Ernsthaft? Kondensatoren haben nicht mit OC zu tun...
Das mal ein Kondensator defekt ist kann bei jedem Hersteller passieren.

Das ist mir klar. Blöd bin ich auch nicht. Dennoch ist der Kondensator Teil der CPU-Phasen und gehört so zur Stromversorgung. Mir ging es auch nur darum zu sagen, dass ich lieber etwas mehr Geld für die Spannungsversorgung ausgeben möchte, wenn ich OC betreiben will. Mein jetziges Board hat mich das gelehrt.
 
BlauX schrieb:
Wer erwartet denn konkret 50%?
Ich lese hier eher 3-10% im Besten Fall...

Taxxor schrieb:
50% sind überspitzt ausgedrückt, von 5-10% gehe ich ja auch aus, aber auch nicht mehr.
Aber DonL_ scheine ich ja mit meiner Aussage, dass durch den Fix der SMT Problematik nur um die 3% rausgeholt werden können, schon provoziert zu haben^^

Man sollte vor allem bei SMT Prozessoren den Einfluss des Shedulers nicht unterschätzen denn eine falsche Handhabung kann dort massiv Leistung kosten. Über welche Größenordnung wir da sprechen läßt sich leicht nachstellen indem man beispielsweise das Cinebench auf 2 virtuelle Kerne beschränkt und den Multicore Test einmal auf den beiden virtuellen Kernen eines physischen Kerns laufen läßt und das andere mal auf 2 physischen Kernen jeweils einen virtuellen Kern nutzt.

Als Intel seinerzeit beim Pentium 4 SMT erstmals einführte gab es unter Windows 2000 zum Teil massive Performance Probleme weil Windows 2000 nicht in der Lage war zwischen den physischen und den virtuellen Kernen zu unterscheiden. Das konnte erst Windows XP und darauf liefen sie dann auch ein gutes Stück besser..
 
bucolino schrieb:
Also ich habe gestern diese Videos gesehen. Und er betont mehrmals dass natürlich die GPU 100% belastet wird weil kein vsync an ist.

Und das ist einfach Schwachsinn, eine GPU wird nur dann zu 100% ausgelastet wenn die CPU genug leistet um sie schnell genug dafür zu füttern.
Wenn er da noch einen alten Q6600 dazugeschmissen hätte wäre die GPU trotz deaktiviertem VSync nicht ausgelastet worden weil der Q6600 einfach zu langsam ist um die Karte zu füttern.
 
DonL_ schrieb:
Allerdings ist das witzige, das die Big World engine mit einer AMD GPU wesentlich besser läuft als mit NV.

Das könnte daran liegen das den AMD Treibern nachgesagt wird das sie den zweiten virtuellen Kern pro physischen Kern nicht nutzen.
 
Also erstens kann keiner sagen dass jeder Skylake/Kabylake sich gut über takten lassen dass ist einfach eine große Lüge. Zweitens brauche ich bei AMD nicht ein extra Mobo oder eine extra CPU dafür. Des weiteren würde ich heute keinen 4 oder 4/4 core mehr kaufen, zumindest wenn ich nicht nur zocken tue. ;-)

Also insgesamt hat AMD die bessere Platform billiger und besser ausgestattet ist nu mal einfach so. Des weiteren hat der Ryzen viel mehr Potenzial als die völlig veraltete Core Architektur von Intel.

Also natürlich muss jeder selbst entscheiden was er nimmt nur ich werde definitiv wieder AMD nehmen.
Ich bin nicht wirklich zufrieden mit Intel, trotzdem werde ich erst wechseln wenn Ryzen + kommt. Denn zurzeit reicht mir mein Intel noch aus und als nächstes gibt es erstmal eine SSD oder GPU.
 
Zurück
Oben