Test AMD Ryzen „Matisse 2“ im Test: 3900XT, 3800XT und 3600XT zum Jubiläum

Scrush schrieb:
selbst wenn mir 10fps aufgrund meines krüppelrams fehlen sollten, fehlen immer noch über 50 fps zu magischen 144er grenze.

ohh GTA :mussweg: :D

Aber zu deinem Rest: NE! Siehe: https://www.computerbase.de/2020-05.../#diagramm-leistungsrating-frametimes-geforce

Ich sehe hier bei deinem RAM (DDR3200~CL16) ggü TOP-RAM-OC 25%
mehr FPS / Frametimes.

Also das ist ne Hausnummer, finde ich zumindest ;)

PS: Nach der Pareto-Regel reicht es auch vollkommen, wenn du nur 20% der Zeit, die der TOP-OC-RAM für sein Testen & Tuning beansprucht hat, aufwendest um 80% der Mehrleistung zu erreichen.

Also kannst du mit nem guten Micron-E DIE oder Samsung BDie locker 20% mehr FPS bekommen, in vielleicht 1 bis 3 Tagen Testen & Tunen :)
Auch wenn du deinen vorhandenen RAM mal angehst sind sicher 10-15% mehr drinne.
 
Zuletzt bearbeitet:
cyberpirate schrieb:
Hier kannst Du mal nachlesen warum CPU Test für GAmes in der Auflösung gemacht werden. So musst Du Dich nicht weiter wundern:

https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/

Ich darf daraus mal zitieren:

Wenn letztgenannte Auflösungen so populär und praxisnah sind, warum testen wir Prozessoren dann so vehement in 1.280 × 720? Weil das der einzige Weg ist, die Last auf das zu legen, was getestet werden soll: die CPU (sowie die daran hängende Infrastruktur rund um RAM). Ja, wir verfolgen tatsächlich die wahnsinnige Idee, in einem Prozessortest nur den Prozessor zu testen und nicht die Grafikkarte. An dieser Stelle legen wir bitte alle eine kurze Pause ein und denken über das Gesagte nach. Ist das sinnvoll? Sie nicken, da bin ich sicher. Also weiter im Text.

MfG
Was bringt ein Test, wenn er völlig an der realen Anwendung vorbei geht und bei einer anderen Auflösung/Hardware die Ergebnisse dann völlig anders aussehen? Es wird bei HD (720er Auflösung) mit einer 2080TI getestet? Was soll man mit einem völlig imaginären/irrealen Testergebnis anfangen, was im Realzenario niemals vorkommt?? Das habe ich noch nicht verstanden. Vielleicht erklärt mir das mal jemand.
 
  • Gefällt mir
Reaktionen: Heschel, Gortha und PS828
Mich kribbelt es in den Händen. Ich warte auf Zen 3. Dann werde ich sehen, ob es Sinn macht, den Aufpreis zu zahlen oder ob ich mir eine "alte" Zen 2 CPU holen werde. Die "XT" Varianten sind für mich nie interessant gewesen aber für meinen Bruder, der ja eigentlich sein betagtes Intel 2600k System schon lange auf einen Ryzen 3900X umstellen wollte. Vor allem nach seinen persönlichen Reinfall mit der Kombi Ryzen 3700X und GTX 1080 Ti. Das wollte einfach nicht stabil laufen, auch nicht auf unterschiedlichen Brettern und RAM.
 

Ryzen 3800XT nur gut wenn man auf 4.6-4.7ghz all core overclocked
 
Zuletzt bearbeitet von einem Moderator:
@Scrush ah, sorry :x
v_ossi schrieb:
Spiele sind auch keine Wissenschaft; Spiele sind eine Freizeitbeschäftigung. So sollte man sie vlt. mal wieder behandeln.

Die Ergebnisse habe ich übrigens nicht angezweifelt oder abgelehnt, lediglich deren Relevanz in Frage gestellt.

Um bei deinen Fantasiewerten zu bleiben, welche Rückschlüsse ziehe ich denn aus einem Test, bei dem CPU A in allen Spielen 500 und CPU B 5000 Frames (oder Percentile) liefert?
Natürlich ist CPU B schneller!
Da kann ich mir ab einem bestimmten Zeitpunkt aber nix mehr von kaufen. Dann sind Preis, Verbrauch und Kühlbarkeit wichtigere Faktoren.
ja cpu b ist schneller - um was anderes geht es in dem test nicht.

der rest (Preis, Verbrauch und Kühlbarkeit) ist extra zu behandeln. du vermischt jedoch alles sobald die fps zahl X überschreitet. Zitat: "Ab einem bestimmten Zeitpunkt " (deine worte!)
und du hast die relavanz nicht in frage gestellt - du hast die relavanz auf nahezu 0 gesetzt mit den worten "fiktiv" (erdacht/erdichtet) und "fernab jeglicher Relevanz".

für dich haben Tests, wo quasi als ergebnis alles 600 fps (bzw Zahl X)erreicht keine relavanz mehr, weil irgendwann ist genug, dann sind andere faktoren wichtiger ?
die faktoren sind aber allesamt gleich wichtig oder gleich unwichtig. Die Wertigkeit ändert sich nicht, nur weil auf einmal 600, anstatt 80 dort steht.
Die Wertigkeit würde sich für einige vielleicht ändern, wenn angenommen 600 "fps" 1kwh verbrauchen würden und 60 nur 1watt (übertrieben) - dies sagt aber der test bzw die ergebnisse gar nicht aus. daher kann man das auch nicht annehmen.

und das spiele keine Wissenschaft sind ist deine Meinung, man kann aus allem eine machen :P
vor allem wenn sie als benchmark benutzt werden, wie in diesem falle.
 
Es ist vollkommener Schwachsinn bei diesen Preisen sich ein XT-Model zu holen.

3600X vs 3600XT - 189 EUR vs 249 EUR
3800X vs 3800XT - 309 EUR vs 409 EUR

Schon der 3800X war sinnlos. Jetzt noch für 100 MHz 409 EUR auszugeben? Da nimmt man sich lieber entweder einen 3700X oder 3600 bzw. 10700k (wenn man 400 EUR für eine CPU ausgeben will - kostet zur Zeit 368 EUR). Wenn die Preise wenigstens bei X und XT Modellen gleich wären, könnte man für ein XT-Model sich aussprechen. Zur Zeit kann und muss man davor abraten.
 
  • Gefällt mir
Reaktionen: Gortha und KlaraElfer
Tja, den bevorstehenden/geleakten Threadripper Pro/WX Marktstart mit WRX80er Boards fuer Workstations finde ich da interessanter (ebenso wie den schon vorher erwaehnten Renoir Desktop APU Marktstart, der am 21. Juli schon folgen soll, also lange muesste man dann auch nicht mehr warten) als diese XT Matisse Prozessoren, die vorerst unspektakulaer bleiben und wenn sie nicht kraeftig im Preis purzeln sollten, bleiben diese wohl auch relativ uninteressant (auch wenn hier erstaunlicherweise sich schon 18 Threadseiten darum scheinbar ranken, verstehe das wer will).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: max9123, Heschel und cruse
cruse schrieb:
die preise der neuen sind aktuell überzogen und die der alten halt nicht.
Du vergisst, dass zu Marktstart der 3900X kaum verfügbar war. Zum UVP hat man den damals gar nicht bekommen, ich selbst hab auch mehr bezahlt. Der Preis ist dann erst ein paar Monate später deutlich gefallen.

Wer viel Leistung will für "kleines" Geld, sollte mit dem 3900X ohne T dann wohl bald das beste Preis-/Leistungsverhältnis gefunden haben, zumindest was Allround-Systeme angeht. Leider wirken sich die XTs negativ auf die Gebrauchtmarktpreise aus, gerade wenn man nah am UVP oder gar darüber damals gekauft hatte. Kein guter Zug von AMD, IMHO.
 
Sind denn alle drei XT CPUs ohne boxed Kühler oder betrifft das ausschließlich den 3900xt?
 
Buggi85 schrieb:
Sind denn alle drei XT CPUs ohne boxed Kühler oder betrifft das ausschließlich den 3900xt?
Afaik nur den 3800XT und 3900XT. der kleinste hat einen
 
  • Gefällt mir
Reaktionen: Buggi85
MarcoMichel schrieb:
Es wird bei HD (720er Auflösung) mit einer 2080TI getestet? Was soll man mit einem völlig imaginären/irrealen Testergebnis anfangen, was im Realzenario niemals vorkommt?? Das habe ich noch nicht verstanden. Vielleicht erklärt mir das mal jemand.
Das Ergebnis ist weder imaginär, noch irreal, es ist das was es ist: Das Ergebnis eines CPU Tests, der die reine Leistung der CPU zeigen soll.


Gegenfrage, was bringen dir die FPS Werte im GPU Test, die aktuell noch mit einem 9900K OC gemacht werden, wenn du später real mit einem 9400F doch völlig andere Werte haben könntest?

Beide Tests sagen dir das gleiche: Wie die verschiedenen CPUs bzw GPUs zueinander stehen, ohne vom jeweils anderen Part limitiert zu werden.

Ob mir der Unterschied von 3800XT zu 3800X persönlich etwas bringt, kann ich mir dann aus dem GPU Test ableiten. Bringt der 3800XT 160fps und der 3800X 150fps, meine GPU in meiner Auflösung aber sowieso nur 120fps, dann bringt mir der 3800XT nichts.
Plane ich aber mein GPU demnächst zu tauschen, kann es von Vorteil sein, zu wissen, wie viel mehr Reserve der 3800XT bietet.

Es wurde auch schon genug andere Dinge aufgelist. Cyberpunk 2077 wird ja z.B. mit DLSS 2.0 kommen, d.h. eine Nvidia GPU wird mit dieser Einstellung locker 50% mehr FPS liefern, als sie es hier dann im CPU Test tut, wo die Option vmtl. erst mal deaktiviert bleiben wird.

Und schon kannst du nicht mehr ausschließen, dass du damit in ein CPU Limit gerätst, wenn du nur die 2080Ti in 1080p im Test hast, da bereits eine 2070 mit DLSS 2.0 dann schon mehr FPS liefern wird, wo du nicht weißt, ob die CPUs alle gleichmäßig mit hochgehen oder die eine oder andere aussteigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, KlaraElfer, ZeroStrat und 3 andere
Ned Flanders schrieb:
Stimmt natürlich, deswegen sollte man Grafikkarten auch nur in 8K testen. Alles andere ist Unfug.
Die FPS der GPU verändern sich mit der Auflösung, die der CPU nicht, daher ist die Aussage Unsinn.


Sollte in einem Spiel die Situation aufkommen, dass man z.B. in 1080p zwischen 2070 und 2080Ti nur noch 5% Unterschied hat, weil die CPU limitiert, ist es aber in der Tat kein gutes Setting für einen GPU Test mehr, da du jetzt nur noch zeigst, was die verwendete CPU kann bzw dass alles von 2070 bis 2080Ti ausreicht, um mindestens X fps zu haben.

Will man die reinen FPS der GPU ermitteln, hängen diese nun mal von der Auflösung ab, daher kann man es hier nicht so einfach machen, wie bei CPU Tests und muss eben damit leben, dass man hier auch mal ins CPU Limit gerät, da man die CPU Last nicht so einfach aus dem Weg räumen kann, wie die GPU Last(genau deshalb ist es ja so wichtig, im CPU Test auch wirklich das zu bekommen, was sie maximal leisten kann).

Ich habe hier auch schon öfter gesehen, dass auch dann in 1080p einfach mal alles über der 2070 weggelassen wurde, wenn die FPS sowieso gleich waren und die höheren Karten dann erst ab 1440p in der Liste aufgetaucht sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, KlaraElfer, Der Paule und 2 andere
Taxxor schrieb:
Die FPS der GPU verändern sich mit der Auflösung, die der CPU nicht, daher ist die Aussage Unsinn.

Taxxor, das wäre semi richtig wenn die CPU immer unter Volllast laufen würde. Das tut sie aber in real anliegenden Auflösungen nicht mehr eben weil die GPU teilweise limitiert. Du kannst nicht ohne weiteres aus dem einen, Volllast Szenario Rückschlüsse auf das andere Teilllast Szenario ziehen. In Zeiten von Turbos die von ettlichen Faktoren abhängig schon gleich zweimal nicht und ganz speziell dann nicht, wenn dir die GraKa unter Last die Hütte aufheizt. Jeder der beruflicht misst, weiss das sich so Zeug nie linear verhält.

Ich bin ja kein Feind von Messungen. Wegen mir können sie alle auch anfangen mit 16x9 Pixeln zu messen. Aber zu sagen die oben angeführten Argumente seien alle "zu vernachlässigen" ist einfach Quark. Deswegen braucht es eben 1080p Messungen und sogar noch darüber weil sich zwei unterschiedliche CPUs eben NICHT wie ne lineare Funktion verhalten. Sonst könnten wir die CPUs auch einfach auf 1.5GHz, 2GHz und 2.5GHz runter takten und dann im CPU Limit benchen um das Ganze anschließend nach oben hin zu extrapolieren. Das wäre vermutlich sogar genauer als einfach eine Nullhypothese aufzustellen und diese dann ohne zu testen (können) als Falsch anzunehmen.

EDIT: P.S.: Kann mir einer der 720p Protagonisten bei der Gelegenheit mal einen Benchmark verlinken bei dem CPUX und CPUY in 1080p KEINEN Unterschied gezeigt haben und in 720p einen signifikanten Unterschied gezeigt haben der so nicht vorhersehbar war? Signifikant im Sinne von, hätte ich das Gewusst, hätte ich die Leistungsfähigkeit der CPU anders bewertet. Danke!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Botcruscher und Gortha
Ned Flanders schrieb:
Du kannst nicht ohne weiteres aus dem einen, Volllast Szenario Rückschlüsse auf das andere Teilllast Szenario ziehen. In Zeiten von Turbos die von ettlichen Faktoren abhängig schon gleich zweimal nicht und ganz speziell dann nicht, wenn dir die GraKa unter Last die Hütte aufheizt. Jeder der beruflicht misst, weiss das sich so Zeug nie linear verhält.
Ich habe doch schon erwähnt, dass Igor das ganze auch mal getestet hat und dabei auf 3-4% differenz kam.

Soll heißen, CPU A brachte komplett unlimitiert 100fps, CPU B (die auch für den GPU Test genutzt wurde)brachte 130fps.

wenn man jetzt eine schwächere GPU nimmt, könnte man sagen, da sie im GPU Test mit CPU B 60fps erreicht hat, wird sie auch mit CPU A 60fps erreichen, weil beide CPUs unlimitiert weit über 60fps kommen.

Im Realtest brachte mit dieser GPU dann CPU A 58fps und CPU B 60fps.

Das sind diese kleinen Unterschiede, die mMn völlig vernachlässigbar für die Betrachtung sind.
Igor war dabei eben der Meinung, dass eine zu 97% genaue Aussage nicht gut genug ist und lehnt das Konzept der 720p Tests bzw der Extrapolation danach daher ab.


Dabei ist das bei 1080p Tests meist das gleiche, denn auch hier hat man oft genug den Fall, dass ein Spiel nicht von der GPU limitiert wird, also das gleiche Prinzip gilt.

Will man es wirklich genau haben, bleibt einem nichts anderes übrig, als eine CPU mit zig unterschiedlichen GPUs in verschiedenen Auflösungen zu testen, was ja auch Igors Aussage war.

Fürs einfache Extrapolieren ist dann aber eben 720p besser geeignet, da man hier wenigstens nahezu einheitlich den CPU Wert unter Vollast hat und nicht wie beim 1080p Test manche unter Voll- und manche unter Teillast, wo man dann beim Extrapolieren erst mal herausfinden muss welche CPUs wie stark limitiert wurden.

Dann kann man auch sagen, weil CPU A unter Vollast 20% vor CPU B war, wird CPU A im GPU Limit auch noch minimal schneller sein, und hier sprechen wir über 1-3 fps. Für mich ist das als Annahme genau genug und die mögliche Differenz nicht groß genug, um einen so komplexen Test wie 10 CPUs jeweils gepaart mit 10 GPUs in jeweils 3 Auflösungen zu rechtfertigen
 
Zuletzt bearbeitet:
Taxxor schrieb:
Fürs einfache Extrapolieren ist dann aber eben 720p besser geeignet, da man hier wenigstens nahezu einheitlich den CPU Wert unter Vollast hat und nicht wie beim 1080p Test manche unter Voll- und manche unter Teillast, wo man dann beim Extrapolieren erst mal herausfinden muss welche CPUs wie stark limitiert wurden.

Vieleicht fragen wir an dieser Stelle einfach @FormatC nach seiner Meinung, anstatt sich auf ihn zu berufen, wohl wissend, dass er zu einem anderen Schluss gekommen ist.
 
  • Gefällt mir
Reaktionen: cm87
SavageSkull schrieb:
Ich freu mich über einen Test, klicke auf die Tabelle mit den Graphen und frage mich wo der R7 3700X ist
Ei wo isser denn?
Muß ich jetzt ernsthaft den 3700X mit dem 3800X und den dann hier im Test mit dem 3800X vergleichen?
Musst du doch gar nicht. Der 3800X ist bis auf 2% oder so genauso schnell wie der 3700X.

Edit: @Hypocrisy Die du einfach nicht merkst und dabei völlig irrelevant sind. Zu 2% sagt man in der Regel auch Messtoleranz.
 
Zuletzt bearbeitet:
Ned Flanders schrieb:
EDIT: P.S.: Kann mir einer der 720p Protagonisten bei der Gelegenheit mal einen Benchmark verlinken bei dem CPUX und CPUY in 1080p KEINEN Unterschied gezeigt haben und in 720p einen signifikanten Unterschied gezeigt haben der so nicht vorhersehbar war? Signifikant im Sinne von, hätte ich das Gewusst, hätte ich die Leistungsfähigkeit der CPU anders bewertet. Danke!
Darum geht's doch überhaupt nicht. Wenn ich die CPU Leistung messe und in 1080P liegen CPUX und CPUY 5% auseinander während sie in 720p 8% auseinanderliegen, dann möchte ich auf die Frage, wie stark sich die CPUs in ihrer Leistung unterscheiden 8% hören und nicht 5%.

Vergleiche z.B. PCGH wo der 3800XT je nach Spiel 3-6% vor dem 3800X liegt, und dann schau die Gamersnexus an, die in 1080p getestet haben und sich beschweren, dass der 3800XT nur gleichschnell bis maximal 1% schneller ist.

Und der 3800XT ist jetzt eine CPU die nicht die allerschnellste ist, wenn du das gleiche Spiel mit einem 10900K machst, der von der GPU natürlich im gleichen FPS Bereich limitiert wird, wie der 3800XT, kommt dieser aber dann in 720p nochmal ein gutes Stück höher als der 3800X und somit verändert sich auch hier der Unterschied mehr.


Ich verstehe auch nicht, warum du beim extrapolieren die 3-4% Varianz als so extrem ansiehst, dass man es deswegen nicht machen sollte, aber wenn ein 720p Test nur insignifikante Mehrleistung (3-4%) bescheinigen sollte, ist das auf der anderen Seite zu wenig, um den Test zu rechtfertigen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer und ZeroStrat
Ned Flanders schrieb:
Kann mir einer der 720p Protagonisten bei der Gelegenheit mal einen Benchmark verlinken bei dem CPUX und CPUY in 1080p KEINEN Unterschied gezeigt haben und in 720p einen signifikanten Unterschied gezeigt haben der so nicht vorhersehbar war? Signifikant im Sinne von, hätte ich das Gewusst, hätte ich die Leistungsfähigkeit der CPU anders bewertet. Danke!

Worauf willst du hinaus? Du sprichst doch selbst von Nichlinearität. Du wirst wohl kaum den Fall haben, dass es in FHD 0% Unterschied gibt, aber in 720p dann beispielsweise 20%. Die Übergänge sind halt fließend.

Ich verstehe deine Grundabsicht nicht. Soll man etwa auf korrekte CPU-Tests verzichten, weil Bottleneck Analysen im Rahmen von ein paar % nichtlinear sind?

Ich habe das gefühlt schon 10 Mal geschrieben: Man sollte eh mit einer gewissen Toleranz rechnen, auch gerade wegen Reserven. Diese Toleranz wiegt sehr viel geringer als der Informationverlust durch falsche Settings bei einem CPU-Test.

Um mal die Größenordnung vor Augen zu führen. (1920*1080)/(1280*720) = 2.25. In FHD muss eine Grafikkarte mehr als Doppelte stemmen.
 
Zurück
Oben