Test AMD Ryzen „Matisse 2“ im Test: 3900XT, 3800XT und 3600XT zum Jubiläum

Und letztlich wollen alle nur das eine - die meiste Leistung für das vorhandene erarbeitete Budget.

Fassen wir doch mal zusammen:

1. Intel hat dieses Jahr eine gute Revision rausgebracht. Da sind sich alle Tests einig. Billig ist anders - aber es ist guter "Stoff".

2. AMD hat mit der XT Refresh Nummer erstmalig gezeigt das man letztlich "moralisch" auch nur eine Firma ist.

Die Leistungen gehen in allen Szenarien minimal auseinander - je nach Anwendungsvorhaben.

Warum verschwenden wir an diesen Diskussionen soviel unnötige Energie?
 
  • Gefällt mir
Reaktionen: Smartbomb
cruse schrieb:
und du hast die relavanz nicht in frage gestellt - du hast die relavanz auf nahezu 0 gesetzt mit den worten "fiktiv" (erdacht/erdichtet) und "fernab jeglicher Relevanz".

Richtig, das ist (bezogen auf Spiele) eben meine Meinung.
Wenn beide CPUs in einem Spiel mehr als 300fps halten -also Percentile, nicht Durchschnitt-, ist das mehr als der schnellste käuflich zu erwerbende Monitor zum Testzeitpunkt darstellen kann und mMn mehr als zum Zocken nötig ist.

Ich erkenne durchaus an, das auch darüber hinaus Unterschiede vorhanden sind, die sind in meinen Augen aber zu vernachlässigen.
Damit will ich keineswegs sagen, dass die CPUs gleich schnell sind, sondern lediglich, dass sie in der Teildisziplin Gaming dem Enduser beide die gleiche Erfahrung bringen.
Bei Volerant mit seinen über 300fps liegt der Unterschied zwischen schnellster und langsamster CPU im Percentile bei ,6 Millisekunden. Ich kaufe Niemanden ab, den Unterschied ohne Framerate- oder Frametimegraph feststellen zu können.
Er ist da, er ist messbar, aber er ist mMn irrelevant.

Nur weil deiner Meinung nach absolute Leistung bei Spielen das oberste (und einzige?) Kriterium ist, muss ich das nicht ebenfalls so sehen. CB bewertet im Fazit ja auch Preis, Leistungsaufnahme und Wärmeentwicklung mit.
Gerade bei Spielen, einem reinen Freizeitvergnügen, welches nicht unendlich skalierbar ist, nehme ich mir also das recht raus, 'schnell genug' als Urteil zu fällen.

Nochmals, das ist nur meine Meinung und bezieht sich nur auf Spielenenchmarks. Bei professionellen Anwendungen sehe ich das differenzierter.
 
  • Gefällt mir
Reaktionen: KlaraElfer, max9123 und cruse
@v_ossi Auch CB bewertet im Fazit oft mit dem Blick auf Relevanz für den Spieler, trotzdem muss man in den eigentlichen CPU Tests, in denen die Leistung der CPUs gemessen werden soll, ja nicht Spiele weglassen, nur weil der Redakteur der persönlichen Meinung ist, dass diese Werte sowieso alle gut genug sind. Denn sie bieten ja auch abseits vom FPS Nutzen für Spieler auch Informationen, wie die jeweiligen Architekturen mit dem Spiel bzw dessen Technik/Engine umgehen.
 
Minimale Verbesserung, maximaler Preisaufschlag :(
Die CPUs werden aber trotzdem ihre Käufer finden. Sind immerhin mit die neusten und erwiesen schnellsten CPUs am Markt.

Ich aber werde wohl weiter abwarten mit meiner 1700x, die ich Anno dazumal als early adopter für läppische 440 Euro erworben hatte. Selbst den Lüfter für AM4 zu bekommen hat Wochen gedauert...

Bin jetzt eher gespannt auf Ryzen 4000 Desktop
 
Ich warte auf Ryzen 4000, hoffentlich mit IF > 2.000Mhz.
 
  • Gefällt mir
Reaktionen: cm87
redlabour schrieb:
Intel hat dieses Jahr eine gute Revision rausgebracht.
Das wichtigste Feature an Comet Lake sind niedrigere Preise. Es gibt jetzt wieder einen i7-8700 namens i5-10400F, und er kostet nur 160€. Es gibt den i9-9900K nun als i7-10700K schon für 370€. Und ein i7-6700 kostet nun als i3-10100 nur noch 120€. Das alles natürlich grob eingeordnet, mit den passendsten Namenspartnern. Das ist alles sehr zu begrüßen, und mit sinnvollen Power Limits ist auch der Verbleib auf 14nm kein Problem.

Der i9-10900K ergibt allerdings eher wenig Sinn, weil man als Gamer besser eines der kleineren Modelle (10600K, 10700K) übertaktet und mit schnellem Speicher dann auf die gleiche Leistung in Spielen kommt, und als Anwender besser einen R9-3900X nimmt.

redlabour schrieb:
AMD hat mit der XT Refresh Nummer
Die Modelle waren schon seit der Ankündigung meiner Meinung nach sowas wie ein i7-4771. Kaum Leistungsplus, gleicher Preis, aber ein neuer Name. Dies ist nicht die Antwort auf Comet Lake. Die Antwort heißt Vermeer und kommt im 4. Quartal. Wobei: Schon die APUs in zwei Wochen dürften mehr Spaß machen als Matisse Refresh.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha, redlabour und KlaraElfer
Was wäre, wenn man das cpu limit für den 9900ks ermittelt bei game x zb. mit 140fps und dann die gpu settings so wählt, dass diese knapp darüber liegen. Dann müssten sich doch die langsameren cpus darunter reihen und die gpu nicht limitieren?

Naja spätestens mit zen 3 werden die cpus bis zum 8 Kerner bei Games nochmal ordentlich drauflegen und Intel kann mal weiter heulen.
Und für die Produktiven gibts dann auch wieder hoch bis zum 16 Kerner lecker Kerne.

Wird Zeit das die Aktie sich von der 50er Marke löst, los kauft Leute:)
 
Ein 3700 XT wäre interessanter gewesen. Naja, mit dem kleinen Leistungsplus sind sie eh nicht mehr als ein kleines Upgrade für die Leute, die eh den Vorgänger kaufen wollten.
 
  • Gefällt mir
Reaktionen: redlabour
Games profitieren immer mehr von mehr threads aber
nur solange der mainthread schnell genug ist Also mehr takt hat. der rest ist ipc
Die Parallelisierung von threads hat grenzen aktuell sind engines auf etwa 8 threads ausgelegt und mehr gehen schlicht nicht
Den es wird immer schwieriger zu parallelisieren weil man immer den mainthread zum kompilieren des Bildes heranziehen muss.
Da gibt es Lösungen auf api ebene
Indem man das bild aufteilt was dann die Parallelisierung verbessert, weil mehr als ein kern drawcalls berechnen kann.
Da kommen aber timing Probleme dazu
Wie wir sie kennen (mikroruckler) wird sich dann in tearing auswirken
Was bleibt ist das immer ein mainthread die ganze rendersequenz limitiert
Und da hilft nur eins mehr takt und mehr ipc.
Also ich sehe kein wirklichen vorteil von mehr als 8 threads
dabei ist es egal ob echte kerne oder 4+4
Nur die OS Hintergrundlast kann stören. Und somit profitiert man von mehr als 8 threads
Aber darüber hinaus wird in games kein fps mehr.
Somit ist das maß der Dinge octacore ohne smt
Fürs arbeiten 8 core mit smt alles darüber ist luxus denn da profitieren nur noch parallelisierbare Prozesse was wie codecs beim encoden
Und selbst da gibt es limits x264 ~16 threads, x265 12
Dann compilieren oder rendern (blender 3d max und co)
Dem Privatnutzer sind solche 16 kern cpu völlig unnütz
Den meisten wird sogar ein quad völlig ausreichen
Gamer sollten hexacores nehmen ob mit oder ohne smt hängt vom takt ab.

bei mir iste s so das ich mehr mache als nur gaming da wären 12Core echt nett aber nicht unbedingt nötig der nächste wird ein octa mit mehr IPC also ryzen 4000 mit b550
und selbst das ist offen da zuerst eine neue gpu ansteht.
 
  • Gefällt mir
Reaktionen: Gortha
@cruse: Ist halt trotzdem ein Vergleich von Äpfeln mit Birnen. Wenn die XTs genauso lang auf dem Markt sind wie die X-Varianten werden die Preise deutlich unter UVP liegen. Wahrscheinlich kostet das "T" 30 bis 50 € Aufpreis, es gab Käufer für die 3800er, also wird es auch Käufer für die T-Versionen geben obwohl die Leistungssteigerung IMO vernachlässigbar ist. Und das ganz unabhänig von Satzbauten.
 
Ich warte auf Zen3 - meine alte Kiste soll Ende des Jahres in Rente geschickt werden, bis dahin hält sie noch tapfer durch
 
Taxxor schrieb:
Vergleiche z.B. PCGH wo der 3800XT je nach Spiel 3-6% vor dem 3800X liegt, und dann schau die Gamersnexus an, die in 1080p getestet haben und sich beschweren, dass der 3800XT nur gleichschnell bis maximal 1% schneller ist.

Yo, und hier bei CB sinds im Mittel dann in 720p noch 3%. In anbetracht dessen könnte man auch einfach mal sagen, dass das Ganze im Rauschen untergeht. Warum kann man die Sache nicht einfach benennen wie sie ist? Die CPU ist in einigen Anwendungen durchaus schneller, in Spielen ist es aber im Mittel selbst mit High End GraKa einfach nahe der Schwelle des messbaren. Das ist die entscheidende Info von der die Leute auch etwas haben. Die Unterschiede synthetisch auseinander zu ziehen bringt keinem etwas.

Der 1080p Benchmark rückt den real vorhandenen Mehrwert der CPUs ins rechte Licht. Wie gesagt, 720p Benchmarks, fein... aber ausschließlich 720p Benchmarks ist kontraproduktiv

Taxxor schrieb:
Ich verstehe auch nicht, warum du beim extrapolieren die 3-4% Varianz als so extrem ansiehst, dass man es deswegen nicht machen sollte, aber wenn ein 720p Test nur insignifikante Mehrleistung (3-4%) bescheinigen sollte, ist das auf der anderen Seite zu wenig, um den Test zu rechtfertigen?

Ich hab nie gesagt man solle keine 720p Benchmarks machen, man sollte nur nicht jene Benchmarks die für geneigt Kunden am interessantesten sind dafür streichen.

Du sagst ja selbst das du 720er sehen willst weil du eine exakte aber theoretische Zahl sehen willst. Extrapolieren von 1080p aus ist dir zu ungenau. Umgekehrt findest du aber fehlerbehaftetes extrapolieren aus dem 720er in den relevanten Bereich hinein ok.

An der Stelle werden wir uns halt nicht einig. Mir stellt sich kein Mehrwert durch den 720er Bench da. Ich find's aber ok wenn er gemacht wird. Dir und dem Rest der selbsterklärten Benchmark Spieler gehen offensichtlich Benchmarks unter halbwegs realistischen Bedingungen (wir reden hier immernoch von Ultra High end grakas in 1080p) so gegen den Zeiger das manche davon deswegen das halbe Internet inkl. mehrerer Foren und etablierter Reviewer auf Twitter stalken. Und was argumentativ besseres als mir einen confirmation bias vorzuwerfen oder das ganze auf Markenaffinität runter zu brechen, dafür reicht's halt wieder bei keinem. Dabei bin ich der, der den neuen AMD CPUs den Mehrwert im gaming abspricht.

Meine Erwartungen waren aber auch nicht hoch... Trotzdem nicht erreicht.
 
  • Gefällt mir
Reaktionen: Gortha und cm87
Ned Flanders schrieb:
Das ist die entscheidende Info von der die Leute auch etwas haben. Die Unterschiede synthetisch auseinander zu ziehen bringt keinem etwas.

Diesen Fall hier mit den XT CPUs als Beispiel für deine Thesen rauszupicken, ist aber auch nicht gerade die feine englische Art. Die Unterschiede können auch sehr viel größer sein.

Ned Flanders schrieb:
Der 1080p Benchmark rückt den real vorhandenen Mehrwert der CPUs ins rechte Licht. Wie gesagt, 720p Benchmarks, fein... aber ausschließlich 720p Benchmarks ist kontraproduktiv

Du willst dich einfach dem fundamentalen Prinzip verweigern, dass der Gegenstand des Testes auch tatsächlich getestet wird. Ein halber Bottleneck Test ist kein CPU Test. Was soll immer dieser Blödsinn mit der Realität? Es muss schlicht das getestet werden, worum es gerade geht, nichts anderes.

Das ganze kann später immer noch mit den GPU Tests kombiniert werden, es sei denn man reitet albern auf der minimalen Wirkung der Nichtlinearität rum. Das machst du ja gerne so ausgiebig, bis der Fokus aufs Wesentliche völlig vernebelt wird. Das liegt halt an deinem offensichtlichen Bias.

Ned Flanders schrieb:
Dir und dem Rest der selbsterklärten Benchmark Spieler gehen offensichtlich Benchmarks unter halbwegs realistischen Bedingungen (wir reden hier immernoch von Ultra High end grakas in 1080p) so gegen den Zeiger das manche davon deswegen das halbe Internet inkl. mehrerer Foren und etablierter Reviewer auf Twitter stalken.

"etabliert" heißt ja noch nichts. Und ja, ich haue in letzter Zeit auf den Putz hier und da. Mit nett kommt man nicht weiter, habe ich alles schon probiert. Ich möchte, dass die Qualität von CPU Tests wieder steigt, nichts anderes ist mein Ziel.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Der Paule
Heschel schrieb:
Wer hat jetzt mit 720p angefangen?
Wenn es euch hier nicht gefällt, dann geht zu pcgh und trollt dort weiter. Tut so, als ob man mit 1080p keine CPUs testen kann.
ich nicht. wenn du die seiten von anfang an durchgehst wird irgendwann jemand kommen und die 720p als praxisfern bezeichnen.

wenn dann trollen die.

warum willst du nur popeligs 1080p? warum nicht gleich 8k?

CB hat extra 720p tests genommen und das zurecht.

Kann die redaktion hier nichtmal klarstellen warum was wie gemacht wurde? hier wird ja viel entfernt wenns nur 0,1cm vom topic abweicht. kann da ein lied von singen. hier fehlt aber irgendwie die Konsequenz

es schießen immer nur die quer, die sich an den 720p grundlos aufreiben und zwar immer

hab noch nie jemandem gesehen der sich früher an den 1440p tests gestört hat. die die verstehen dass low res für cpu tests genommen werden ignorieren nämlich einfach den 1440p+ abteil und stören sich nicht weiter dran.

aber die andere seite muss immer ihren senf dazugeben wie sinnlos der test sei weil unrealitisch etc...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: alkaAdeluxx
@Jan @Wolfgang

Was ich richtig knorke finden würde, ihr habt ja in der Vergangenheit immer 1080p und 4k gemacht, wenn ihr mit 720p und FHD einfach beides macht. Dann wären wohl alle lecker zufrieden. ^^

Ist halt letztlich der gleiche Aufwand, es sei denn, ihr hattet geplant durch das Weglassen der zweiten Auflösung, den Aufwand zu minimieren.

Das wäre schon extrem nice. Die Konsistenz eurer Tests war ja schon vorher herausragend. Es arbeiten halt erfahrene Leute bei euch, die ein Händchen für gute Szenen haben. Dazu noch die moderne Aufmachung der Daten und die Liebe zum Detail in euren Tests würde das ganze zu einem richtigen Leckerbissen machen. :love:
 
Zuletzt bearbeitet von einem Moderator:
Heschel schrieb:
einen 3700X oder 3600 bzw. 10700k (wenn man 400 EUR für eine CPU ausgeben will - kostet zur Zeit 368 EUR
Ja, und für 409€ kriegt man schon den 3900X mit 12/24 Kernen/Threads. Ein super P/L Verhältnis und meine erste Wahl für ein Upgrade, wenn ich die Kohle hätte. :daumen:
 
  • Gefällt mir
Reaktionen: Gortha
ZeroStrat schrieb:
@Jan @Wolfgang

Was ich richtig knorke finden würde, ihr habt ja in der Vergangenheit immer 1080p und 4k gemacht, wenn ihr mit 720p und FHD einfach beides macht. Dann wären wohl alle lecker zufrieden. ^^

und wenn 4k zum standard wird ist ihnen 1080p wieder zu unrealistisch. usw... die verstehen einfach den Hintergrund nicht.

glaub mir, das bringt nix. da redest du gegen die wand. die kapieren es nicht bzw wollen es nicht verstehen
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
Scrush schrieb:
und wenn 4k zum standard wird ist ihnen 1080p wieder zu unrealistisch. usw... die verstehen einfach den Hintergrund nicht

Es geht ja nicht um 720p explizit, sondern darum, dass der Einfluss der GPU weitestgehend minimiert wird. Wenn 4k Standard ist, dann sind die Grafikkarten wohl schnell genug für FHD. Zur Zeit ist es teilweise sogar so, dass selbst 720p nicht reicht. PCGH reduzieren teils zusätzlich die Renderskalierung drastisch, um ein CPU-Limit zu gewährleisten. Das heißt also, dass man letztlich flexibel bleiben muss.
 
es geht halt ums prinzip richtig, die auflösung ist latte solange man aus dem gpu limit rausgeht ob das 4k oder 1080 oder 720p oder noch niedriger ist, ist latte. in welcher auflösung getestet werden muss bestimmt die gpu und wenn diese zu lahm sind muss man wie du bereits erklärt hast sogar noch tiefer über die renderauflösung nach unten gehen.

aber die wollen es nicht verstehen, warum auch immer. es nimmt ihnen mit einem 720p test auch niemand was weg.

ich hab das gefühl dass die, die da so rabatz machen, irgendwie angst haben dass man ihnen was wegnimmt. dabei ist dem gar nicht so.

ich finds nur lustig dass die nie begründen können warum sie einen 1080p+ tests für sinvoller halten. das einzige argument was kommt ist immer : "das ist viel praxisnaher"

eine erhöhung der auflösung zieht die fps des gpu limits runter. nichts anderes und das will man mit einem low resolution test eben verhindern.

Es nimmt euch niemand etwas weg!

wenn ihr einen 1080p+ test wollt, es gibt gpu tests, dort sind diese zu finden. so schwierig? :D
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben