Test AMD Ryzen „Matisse 2“ im Test: 3900XT, 3800XT und 3600XT zum Jubiläum

Scrush schrieb:
ich hab das gefühl dass die, die da so rabatz machen, irgendwie angst haben dass man ihnen was wegnimmt. dabei ist dem gar nicht so.

Die Ängste muss man halt akzeptieren. Ich hatte auf Twitter einige Auseinandersetzungen wegen des Themas. ^^ Das Hauptargument der Gegner ist tatsächlich die Realitätsferne. Manche versteifen sich so sehr darauf, dass man nichts machen kann. Selbst der Hinweis, dass man es mit den GPU Tests kombinieren kann, prallt teilweise völlig ab. Das absurdeste Kritik ist wohl, dass es "kontraproduktiv" ist. Da denke ich mir, dann immer: "Nein, wirklich. Es ist kontraproduktiv die bessere CPU zu kaufen?" :D Aber dann ist dann auch wiederum realitätsfern, weil man den Unterschied ja eh nicht merkt. Ja ja, und was ist, wenn ich eine bessere Grafikkarte kaufe, was ist, wenn ich die Settings anpasse, was ist mit DLSS, was mit stabilisierten Frametimes usw.?

Es ist halt wichtig zu verstehen, dass korrekte CPU Tests die Ausgangsbasis für alles andere ist. Ob das für den einzelnen in der Realität eine Rolle spielt, ist zunächst egal. Man kann bei Bedarf alles ableiten aus den Daten, was relevant ist für die Realität oder man nimmt es einfach nur emotionslos zur Kenntnis.
 
Zuletzt bearbeitet von einem Moderator:
ZeroStrat schrieb:
Aber dann ist dann auch wiederum realitätsfern, weil man den Unterschied ja eh nicht merkt. Ja ja, und was ist, wenn ich eine bessere Grafikkarte kaufe, was ist, wenn ich die Settings anpasse, was ist mit DLSS, was mit stabilisierten Frametimes usw.?

in deren welt gibts nur cod, crysis und witcher in 1440p oder 4k. also always gpu limit. cpu limit? gibts nicht... :daumen:

dummerweise gibts halt immer noch genug games wo ein cpu limit deutlich unter 144fps herrscht. und wenn man dann ne dicke grafikkarte hat und die settings eben für die 144fps so weit runterdreht ( und ja es gibt menschen, die bereit sind für mehr fps niedrigere settings zu fahren) dann kann ein cpu limit ganz schnell mal nervig werden. :) und im gegensatz zu einem gpu limit kann man dagegen wenig tun
 
ZeroStrat schrieb:
Was ich richtig knorke finden würde, ihr habt ja in der Vergangenheit immer 1080p und 4k gemacht, wenn ihr mit 720p und FHD einfach beides macht. Dann wären wohl alle lecker zufrieden. ^^

Ist halt letztlich der gleiche Aufwand, es sei denn, ihr hattet geplant durch das Weglassen der zweiten Auflösung, den Aufwand zu minimieren.

Das wäre schon extrem nice.

Na sie einer an... Knorke wäre das also! Oder extrem nice! Und wieso war es mal wieder notwendig alle die nicht Deine Meinung zu "720p only Benchmarks" (representative me) mit Schmähungen zu überziehen wenn der Großmeister am Ende zur gleichen Meinung gelangt?

Und zum Thema CPU Benchmarks in 4K. Du weist, genau wie ich und fast jeder hier, dass die CPU in 4K nur noch eine untergeordnete Rolle spielt. Da sich die Welt aber nicht um Dich und mich dreht, sondern Computerbase CPU Reviews für wohl so um die .... ich sag jetzt einfach mal ~100k Leser bringen [ohne zu wissen ob ich eine größenordnung falsch liege]... Muss das halt Infos für Marianne Musterman von nebenan enthalten, die sich ne Kiste zum Zocken bauen will oder eine für ihren Sohn kaufen will. Die weiss das aber nicht. Klar kann CB einfach einen Satz schreiben... "bei höheren Auflösungen als den getesteten spielt die CPU Leistung kaum noch eine Rolle", aber das ganze mit Daten zu zeigen ist halt schon nicht schlecht. Besser als es einfach zu behaupten. Diese Tests generieren also Infos.

Aber klar, Jan, Wolfgang und Volker sind halt wie Steve, Igor, you name it, alle idioten denen das in den letzten Jahren nie aufgefallen ist, dass die CPUs bei 4K garnicht mehr skalieren und sie haben sich völlig vergebenst trotzdem die Mühe gemacht.

Übrigens, wenn du mich für einen AMD Markenfetischisten hällst, dann darfst Du das auch gerne aussprechen. Du musst das nicht in solchen Formulierungen wie "offensichtlichen Bias" verstecken. Du bist doch sonst ein Mann der klaren Worte. Bei der Gelegenheit setzt sich dann vieleicht auch die Erkenntniss durch das nicht jeder der nicht deine Meinung teilt ein Idiot ist.... maybe....
 
  • Gefällt mir
Reaktionen: SVΞN, ahuev0, Heschel und eine weitere Person
Verstehe die Diskussion hier gar nicht. Ob jetzt 720p oder 1080p macht doch keinen Unterschied sofern die Grafikkarte nicht der limitierende Faktor ist.
Wichtig ist nur, dass der Einfluss der Grafikkarte auf ein Minimum reduziert wird und dass alle CPUs unter den gleichen Bedingungen getestet werden.
Die dabei erzielten absoluten Werte sind dann eh nur Richtwerte, da jedes System anders ist und diese Werte somit nur repräsentativ für dieses eine System sind. Wichtig sind daher nur die prozentualen Unterschiede.
 
  • Gefällt mir
Reaktionen: Rockstar85
Ned Flanders schrieb:
...der Sinn von Benchmarks bei real verwendeten Auflösungen ist und warum diese gemacht werden.

Müsste man dann aber nicht jede aktuell benutzte Auflösung testen, weil sonst der Informationsverlust wieder der gleiche ist?

Also
1080p (16:9/21:9/32:9)
1440p (16:9/21:9/32:9)
2160p (16:9/21:9)

Denn woher soll man aus einem einzigen 1080p Test sich die Performance der CPU sowie das Verhalten der Engine von 1440p 32:9 sonst herholen?
 
Ja, überhaupt kein Unterschied zwischen 720p und 1080p. :freak:

1594307258792.png
 
  • Gefällt mir
Reaktionen: KlaraElfer
KlaraElfer schrieb:
Kommt mir langsam so vor wie die Corona-Leugner, ist nur so gefährlich wie ne Grippe, da gibts keine Unterschiede, man muss sich die Datenlage nur so hinbiegen.

Also das, was Du selbst gerne tust (Daten so hinbiegen, wie es Dir passt).

ZeroStrat schrieb:
Ok, RX 5700 (non-XT) Benchmark mit TD 2 incoming... dauert aber nicht ein bösschen. Erstmal was anderes erledigen.

Und was soll das bringen? Wenn eine 2080ti in einem Spiel bei 1080p ins Limit gerät, was passiert dann mit einer 5700 oder 2060S? Hmmm? Werden diese Karten wohl vor oder hinter den fps ggü. einer 2080ti liegen?

Ihr blendet das GPU-Limit vollkommen aus, als ob es überhaupt nicht existiert. Nur spielen die meißten in 1080p, haben aber keine Mittel (oder sind nicht gewillt), um eine 1200 EUR teure Graka zu kaufen. Somit ist eure Richtigkeit des 720p-CPU Tests genau das Gegenteil, was ihr hier ständig prophezeit.
 
aldaric schrieb:
Oh warte. Du sprichst ihnen da ja die Professionalität ab...und unterstellst auch noch, dass sie nur die ganzen AMD Fans hier bedienen möchten, denn das Internet besteht ja nur noch aus AMD Fans.... Huch.

Mensch aldaric, voll erwischt dabei, wie ich CB für ihre Testmethodik kritisiere habe. Was mache ich jetzt ich bloß? :freak:

Heschel schrieb:
Und was soll das bringen? Wenn eine 2080ti in einem Spiel bei 1080p ins Limit gerät, was passiert dann mit einer 5700 oder 2060S? Hmmm? Werden diese Karten wohl vor oder hinter den fps ggü. einer 2080ti liegen?

Hä?? Was denn nun? Erst hängst du dich an der 2080 Ti auf und nun ist dir eine RX 5700 auch nicht Recht. Das verwirrt mich ein wenig... :confused_alt:

Hier der versprochene Test mit einer RX 5700 + 3950X in The Division 2. High Settings 720p vs. 1080p. Das ist die Szene:

1594314248810.png
 
Zuletzt bearbeitet von einem Moderator:
Meint ihr nicht, dass das Thema 720 p vs 1080p nun langsam ausgelutscht ist?? Jedes Mal das gleiche geschafel, egal ob pro oder con!

Lasst es einfach, ihr werdet niemals auf einen Nenner kommen.
 
  • Gefällt mir
Reaktionen: ahuev0, Rockstar85, m2020 und 3 andere
Rockstar85 schrieb:
Weil CB Schlichtweg anders misst (kann man sogar bei beiden nachlesen)..Deswegen kein Kommentar.. Denn Lesen und objektive Vergleiche ziehen, kann ich dir leider nicht beibringen.

Igors Lastverbrauchsmessungen mit denen von CB zu vergleichen, ist wie Mond und Sonne versuchen gleichzusetzen...

Wir hatten ja das Thema 3900XT Mehrverbrauch.
CB sagt +10%

Und nun sagt auch Igor:
+5% Verbrauch für
+3% Performance.

Mächtig :-D
Screenshot_20200710-142516.jpg
 
  • Gefällt mir
Reaktionen: ZeroStrat
CapFrameX kommt so nah an Igors Messungen ran? Noice! :D
 
  • Gefällt mir
Reaktionen: KlaraElfer und Esenel
@FormatC Ist die Leistungsaufnahme der Ryzen 3000 im Idle tatsächlich so hoch? Ich sehe hier etwas über 20W für 3100/3300X und hier etwas über 26W für den 3900X (gut, der hat auch zwei Chiplets). Für den 3700X hab ich keine Daten in Igor's Lab gefunden, weil es hier nichts zu Idle gab. Meldet HWiNFO bei gemessenen 26W dann auch in etwa diesen Wert bei "CPU Package Power (SMU)"? Dort bekomme ich jedenfalls meinen 2700X problemlos auf die knapp 13W runter, die hier gelistet sind. Das hieße jedenfalls, Ryzen 3000 verbraucht doch durch die Bank im Idle mehr als der Vorgänger.

Es hieß doch oft, der Mehrverbrauch von Ryzen 3000 käme eher von X570, und sei da bei den frühen UEFI-Versionen noch höher gewesen als jetzt. Und hier ist auch zu sehen, dass ein 3700X auf X470 durchaus ähnlich wenig an der Steckdose verbraucht. Woher kommen also die mindestens 6W, eventuell auch 13W mehr?

Einen Hinweis zur Ursache könnte dieser Reddit-Thread liefern, wo man teilweise den Stromverbrauch an der Steckdose durch Senken der RAM-Transferrate von 3600 auf 3533 um 20W gesenkt hat. Auch die Energiesparpläne haben offenbar einen großen Einfluss. Vielleicht ist das ein guter Aufmacher für einen Artikel, mit welchen Mitteln man den Idle-Verbrauch minimiert bekommt.
 
  • Gefällt mir
Reaktionen: Rockstar85
Wenn du (Person weiß wen ich meine) jemals verstehst, wie man reproduzierbare Leistungsmessung mit geeigneten Messaufbauten macht, reden wir gerne. Man sieht anhand der Aussagen übrigens wunderbar, dass gute Programmierer keine guten Ingenieure sein Können.

Und ich belasse es dabei. Igor hat sogar eben Grundlagen Artikel geschrieben.
Dieses rechthaberische ist echt keine schöne Angewohnheit

Er hat Recht und ich meine Ruhe
 
Zuletzt bearbeitet:
Ich habs doch mehrmals geschrieben, werde es aber hier aus Gründen nicht verlinken. Lies das Review zum 3900XT und dort meine Aussagen zum B550/X570. Ich komme partiell sogar unter 10 Watt mit einem GUTEN B550-Board. Übrigens sind es mit "Knoll" sicher noch weniger. Was das nun wieder ist, gibt es demnächst :D
 
  • Gefällt mir
Reaktionen: 0madre, Nixdorf, Rockstar85 und 2 andere
@Rockstar85
Du brauchst hier nun nicht das Opfer miemen.

Du hast mich über Seiten hinweg belehrt, dass ich ja zu dumm sei echte Energiemessungen zu verstehn und CBs gemessene Mehrleistung ja nicht stimmen kann weil ungenau gemessen.

Nun siehst du es aus anderer Quelle und ich wäre auf einmal rechthaberisch?
Aber so Sachen von dir gehen in Ordnung?
Rockstar85 schrieb:
@Esenel
Es macht sehr Wohl Einen eklatanten Unterschied, wie man die Leistungsaufnahme misst.
Erstaunlich, dass man sowas dir erklären muss.
Rockstar85 schrieb:
Weil CB Schlichtweg anders misst (kann man sogar bei beiden nachlesen)..Deswegen kein Kommentar.. Denn Lesen und objektive Vergleiche ziehen, kann ich dir leider nicht beibringen.
 
  • Gefällt mir
Reaktionen: KlaraElfer, nachtlampe, DaHell63 und eine weitere Person
Rockstar85 schrieb:
Man sieht anhand der Aussagen übrigens wunderbar, dass gute Programmierer keine guten Ingenieure sein Können.

Da musste ich echt schmunzeln. Igor ist von Haus aus übrigens Softwareentwickler. Er war erst jahrelang in diesem Beruf tätig und hat dann erst umgesattelt. :D

Ich bin übrigens Mathematiker. Ich musste mir auch auch oft anhören, dass man als Zahlenverdreher auch kein richtiger Programmierer sein kann. All diese Pauschalisierungen sind grober Unfug. Interesse, Fleiß und Talent wiegen immer stärker als irgendeine Berufsbezeichnung.

Rockstar85 schrieb:
Dieses rechthaberische ist echt keine schöne Angewohnheit

Puh, was soll das nun? Du hast doch behauptet, es lägen Welten dazwischen. Das hat sich als haltlose Übertreibung rausgestellt und jetzt reagierst du einfach nur bockig.

Nur, um das mal klarzustellen, Igors Messungen sind natürlich technisch korrekt und wegen der Genauigkeit als Referenz zu betrachten. Sensordaten per Software ausgelesen* scheinen aber nicht allzu weit davon entfernt zu sein.

* Igor hat mir übrigen auf die Finger geklopft, dass ich nicht "gemessen" sagen soll. :D
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Der Paule, PPPP, KlaraElfer und 3 andere
FormatC schrieb:
Ich komme partiell sogar unter 10 Watt mit einem GUTEN B550-Board. Übrigens sind es mit "Knoll" sicher noch weniger. Was das nun wieder ist, gibt es demnächst :D

Das kann doch fast nur an Verbesserungen der Low-Power-States des I/O-Die liegen? Die Kerne lassen ja keine weiteren nennenswerten Einsparungen zu.

Bin gespannt :)
 
Inwieweit HWI vergleichbar ist zu Igors Ergebnissen, weiß ich jetzt nicht.
Mit offenen Browser zeigt mir HWI momentan ~17W Package Power an (3900X)
 

Anhänge

  • Screenshot (192).png
    Screenshot (192).png
    383,7 KB · Aufrufe: 304
Zurück
Oben