Test AMD Ryzen 7 1800X, 1700X, 1700 im Test: König in Anwendungen, Prinz in Spielen

Da sieht man vor Allem bei den Spielen sehr gut, dass der Wechsel von 2133 auf 3200 bei Intel und AMD etwas bringt, im Schnitt aber bei AMD eher 12-17% und bei Intel eher 5-10%
 
Zuletzt bearbeitet:
kisser schrieb:
Die sind aber nicht verbuggt. Die nutzen nur alle Kerne, wie das eben seit DX12 möglich ist.
Leider ist Ryzen 7 kein 8-Kerner, sondern ein zusammengeklatschter 2x4 - Kerner, ähnlich wie die Core2 Quad seinerzeit aus 2 Dualcores entstanden, im Unterschied dazu ist die Verbindung bei Ryzen allerdings on-DIE.

Eine schlechtere Erklärung ist dir nicht eingefallen? :lol:
Eher ist er nicht in der Lage die physischen Kerne von den SMT Kernen zu unterscheiden was unweigerlich zu drastischen Leistungseinbrüchen führt.
 
Mcr-King schrieb:
Und nee immer wenn eine CPU mit mehr als 4 Kernen drin ist und DX12 passiert dass auch bei Intel. Scheint nur keinen zu interessieren bei NV warum auch immer.

ist das tatsächlich so? Woher hast Du denn die Info?

Je mehr ich zu den kompletten Ryzen Thema lese, desto mehr hat man das Gefühl hier versagen alle Beteiligten gemeinsam. Sei es nun AMD, die beiläufig einen 20°C Temp. Offset erwähnen oder MoBo-Hersteller, welche mit den BIOS nicht klarkommen (hier ist AMD mit Sicherheit nicht unbeteiligt) oder sogar keine Boads liefern können. Dann Reviewer und Tester die mit Spielen benchen, bei denen sie selbst herausfinden müssen, dass mit 4 Kernen weniger Details dargestellt werden als mit 8 Kernen (AotS). Tests werden allerdings auch zu schlampig hinterfragt und Ergebnisse als "in Stein gemeißelt" dargestellt. Wieso bringt bei CB höherer Ram-Takt nichts? Was sagt CB zu der DX12 Thematik?
 
Wadenbeisser schrieb:
Eine schlechtere Erklärung ist dir nicht eingefallen? :lol:
Eher ist er nicht in der Lage die physischen Kerne von den SMT Kernen zu unterscheiden was unweigerlich zu drastischen Leistungseinbrüchen führt.
Nein, ist ihm nicht eingefallen.
Würde es stimmen was er sagt, so müsste ja dasselbe Verhalten bei mindestens den DX11 Treibern auftreten. Tut es aber nicht.
Es ist unlogisch, wäre es architekturbedingt, das die DX11 Leistung bei nvidia passt, genauso wie bei AMD GPUs die Leistung unter DX11 + 12 abgerufen werden kann.

Es ist doch immer dasselbe bei ihm. Es kann/darf/ist niemals die Schuld bei nvidia oder Intel zu suchen.

Im aktuellen RX 580 Thread behauptet er das nicht nvidia der Rebranding King wäre, sondern ATi mit der R7000er Serie. Nachweis über diese Behauptung bleibt er schuldig, man solle selber danach suchen.
Bei Mantle hat er behauptet AMD hätte von Microsoft kopiert.
usw. Es zieht sich wie ein roter Faden.
 
Begu schrieb:
MoBo-Hersteller, welche mit den BIOS nicht klarkommen (hier ist AMD mit Sicherheit nicht unbeteiligt) oder sogar keine Boads liefern können.
Soll AMD jetzt auch noch die Arbeit der Mainboard Hersteller machen?
Das sind Unternehmen, welche minimum 20-30 Jahre Erfahrung haben, die ES der Ryzen sollen seit Monaten bei div OEMs/Partnern sein.
 
kisser schrieb:
Haben sie nicht. Die Ryzen-Architektur ist der "Fehler"

Nein ist er nicht, Nvidia kommt nur (noch) nicht mit Ryzen unter DX12 klar. So wie viele Programme und Spiele noch nicht die Leistung von Ryzen zu nutzen wissen. Neue Architektur ist das Stichwort. Intel bringt ja jetzt seit 7 Generationen nichts grundlegend Neues, da brauch man natürlich kein Finger krum machen.


Und zum Thema CCX und Infinity Fabric: Intel und AMD kommunizieren zwischen den Kernen auf unterschiedliche weise, beide Maßnahmen haben ihre Vor- und Nachteile. Innerhalb eines CCX ist die Kommunikation extrem Schnell und können sehr gut den Cache gemeinsam nutzen, außerhalb des CCX ist die Kommunikation langsamer, während bei Intel die Kommunikation eher gleichbleibend dazwischen liegt. Da müssen Programme auch erst einmal damit umzugehen wissen, damit sie die Ressourcen von Ryzen richtig verwenden und nicht versehentlich in einen Flaschenhals laufen.

Infinity Fabric soll sogar die Kommunikation zwischen zwei CPUs übernehmen, wodurch ein 2-Sockel-System so arbeiten kann, wie eine einzelne CPU mit doppelter Kernzahl. Bei Vega wird ebenfalls Infinity Fabric eingesetzt, gibt da dann noch interessante Möglichkeiten bei den APUs.
 
Zuletzt bearbeitet:
@Kisser:

1.) Dann erklär mal wessen Aufgabe es ist physische von SMT Kernen zu unterscheiden ?

2.) Erkläre doch was die Ursache für den Einbruch einer nVidia GPU@Ryzen@DX12 (relativ zu DX11) ist...wo doch AMD GPU @Ryzen völlig normal skaliert. (Es könnte ja noch weitere Fälle geben als nur DX11=>DX12, aber das sind bislang die Fakten).

Tipp. Es KANN NICHT die Ryzen-Architektur sein. Denn die Funktioniert mit AMD GPU@DX12....wenn es ein Architektur-Problem wäre würde der DX11 =>DX12 Einbruch auf JEDEM system mit Ryzen passieren. Tut er aber nicht.

Ich bin gespannt auf deine erleuchtenden Erklärungen.
 
Welches Problem denn? Es wurde nur falsch kommuniziert und die User verstehen das Feature nur nicht.
 
@kisser
Wenn ich einen Erwachsenen sehe gebe ich dir bescheid denn dieser dürfte an der Ursache mehr Interesse haben als an nutzlosen gebashe.
Zumal es denkbar einfach ist rauszufinden ob es am SMT bzw. der Threadverwaltung an sich liegt, einfach mal SMT deaktivieren und gucken was passiert.

Wie du schon sagtest, wenn man keine Ahnung hat....
 
Touchthemars schrieb:
Nvidia wird das Problem bestimmt erst mit Volta lösen.
Öh ja. Schon. Wann denn sonst?
Dass Nvidia eine suboptimale DX12 HW-Implementierung in dieser Generation hat, sollte ja bekannt sein. Wurde ja auch in diesem Forum hoch und runter diskutiert bis zum erbrechen und beyond.
Und dafür haben sie ja ein recht gute Lösung,die das optimale aus den jetzigen Karten rausholt, in ihrem Treiber.
Und der kann halt noch nicht mit Ryzen CPUs. Wenig verwunderlich, ist ja eine neue Architektur. Das wird wohl noch kommen.
 
@Unnu
Das ist so nicht ganz richtig. Richtig ist, dass NVidia es auch so hinbekommt, die Renderpipelines gleichmäßig gefüllt zu halten und deshalb DX12 nicht den gleichen durchschlagenden Effekt erzielt.
 
@ZeroZerp: Okay, ich präzisiere:
nvidia hat in dieser Generation eine von Maxwell geerbte Asynch Schwäche per Treiber so gut ausgebügelt, dass sie zumindest keinen Leistungsverlust mehr haben. UND sie haben schlicht einen sauguten DX11 Treiber. Im Gegensatz zu AMD, welche eine eher suboptimalen DX11-Treiber haben und "überproportional" von ihrer Asynch-HW-Implementation in DX12 profitieren können.

Wobei man natürlich im Hinterkopf behalten muss, dass die "eigentliche Arbeit" für DX12 ja nun nicht mehr bei den GPU-Vendors liegt, sondern bei den Spieleprogrammierern.

Das Fazit bleibt das Gleiche. Nvidia wird, wenn sie's denn wollen, das Asynch-Thema HW-seitig wohl erst in der nächsten Generation lösen können.
 
@Duffy Duck
Leider wiederum nur Durchschnittswerte. Dabei sind es vorallem die Minima, welche von schnellerem Speicher überproportional stark angehoben werden.
 
Was man vielleicht auch noch bemerken könnte, die Games profitieren mit schnellerem RAM ab 1440p wenig bis gar nicht mehr weil vermutlich bereits ein GPU Limit vorliegt.
Das ist aber kein Grund sich jetzt als 1440p Gamer mit einer GTX1070 nur 2400er RAM zu kaufen, weil es ja eh keinen Unterschied macht.
Denn wenn man dann nächstes Jahr eine 1170/1180 kauft, ist das GPU Limit wieder höher und man dürfte wohl die gleiche Entwicklung beim RAM Takt sehen, wie man ihn heute in 1080p sieht.
 
Zurück
Oben