Bericht CPUs von AMD & Intel im Test: Unsere Testergebnisse waren falsch

ZeroZerp schrieb:
Und wieder beweist Du, dass Du Dir den Beitrag eben NICHT durchgelesen hast. Der geht nämlich weiter mit:

Eine mögliche Theorie wäre dass es an den CCX liegt und dem Umstand dass der 2600X hier 3+3 Kerne hat.

und diversen Praxisbeispielen Erklärungen, die das als valide Ursache belegen könnten.
Nur welche Erklärung soll das sein? Die CCX Geschichte würde etwas erklären, wenn Ryzen generell 30% hinter CL liegt, aber nicht, wenn es überall sonst und auch hier bis vor 2 Wochen nur 10-15% sind.
 
  • Gefällt mir
Reaktionen: Gortha und stinger2k
DonL_ schrieb:
Ich weiß nicht wer das ist, aber es verdichten sich die Hinweise, dass der Test tatsächlich FALSCH ist.
https://www.hardwareluxx.de/communi...nchmarkes-mit-rtx-1210906-3.html#post26545397

Umso besser, dann wäre der Fehler ja gefunden. Bin mal gespannt was sich dann da tut. In 1080p sollte das CPU Limit zwar da, aber noch nicht so eklatant sein. Aber auch da wäre es sinnvoll mal zwei hochoptimierte Systeme gegeneinander durch den parcour zu jagen, auch um zu sehen wie weit die Stock Werte davon entfernt sind.

Und ja, da erwarte ich eine genaue Listung der Settings und Optimierungen, ink 2nd Timings und Cache Clock (sollte sich der Sache bei CB tatsächlich jemand annehmen)

Ich fände das spannender als den Test selber, also mal schauen was man aus beiden Plattformen rausquetschen kann.
Ergänzung ()

Taxxor schrieb:
Nur welche Erklärung soll das sein? Die CCX Geschichte würde etwas erklären, wenn Ryzen generell 30% hinter CL liegt, aber nicht, wenn es überall sonst und auch hier bis vor 2 Wochen nur 10-15% sind.

wenn es dieselben Savepoints wären absolut. Aber das wissen ja nur die Verantwortlichen. Wir wissen dass diese abweichen, allein dadurch kann sich so ein Bild im CPU Limit doch komplett verzerren.
 
Spielinterne Benchmarks wie in Assassin’s Creed Origin geben nur einen groben Richtwert, da sie eine Abfolge vorgefertigter Szenen darstellen. Bei Savegames kommt das tatsächliche Gameplay über Input, Update und Rendering zum Tragen, daher macht es schon Sinn eine CPU fordernde Szene aufzusuchen. Die CPUs arbeiten alle innerhalb eines Frametimings ihre Aufgaben bis zum Rendering unabhängig einer Auflösung gleich schnell ab, jedoch verzögert sich das Rendering in 4k dermaßen, dass der in die Länge gezogene Frametime die marginalen CPU Differenzen obsolet erscheinen lässt.

Spielt auch alles keine Rolle, da 120 Fps oder mehr immer zu Lasten der möglichen Grafikqualität geht, jedenfalls bei neuem Spiel und neuer GPU. Bedeutet, würde Shadow of the Tomb Raider auf der 2080 Ti in 4k max mit 120 Fps laufen, hätten die Designer zu Lasten der Differenz von 60 Hz auf qualitative Ansprüche verzichten müssen. So aber wurde der maximale Grad an Grafik auf flüssig spielbare 60 Fps getrimmt. Wer mehr will muss eben Regler nach links verschieben. Es wird auch in Zukunft so sein, dass das Optimum immer nur im noch flüssig spielbaren Bereich liegen wird.
 
  • Gefällt mir
Reaktionen: Krautmaster
@stinger2k

deswegen der Vermerk "eine mögliche Theorie".

Ich weiß nicht wie CB im Detail getestet hat, wie viel runs. Ich weiß dass in den von mir zur CCX Thematik verwiesenen Videos eine zufällige Abweichung von 20% entsteht, je nach dem ob man zufällig die "richtigen" oder die "falschen" Kerne erwischt (darauf hat nicht mal Windows wirklich Einfuss).

Anders als bei Intel bei denen es z.B. mit 8 Kernen besser ist nach Kern "0" Kern "4" zu belegen (also quasi verteilt über die CPU) ist es bei Ryzen oft besser Kern 1,2,3 danach zu belegen - aber auch nur wenn dieser mit einem der anderen Kerne im CCX schnell interagieren muss.

Es war ne Theorie, die sich wie gesagt aber auch halbwegs nachstellen lässt indem man von 4+4 mal auf 2+2 oder 4+0 wechselt.

@Buggi85

Welcome ;) guter erster Beitrag.
 
Krautmaster schrieb:
wenn es dieselben Savepoints wären absolut. Aber das wissen ja nur die Verantwortlichen. Wir wissen dass diese abweichen, allein dadurch kann sich so ein Bild im CPU Limit doch komplett verzerren.
Andere Seiten testen auch mit eigenen Savepoints und da siehst du diese Abweichungen untereinander nicht, es bewegt sich alles im Bereich +- 5%.
Es ist für mich ziemlich abwegig zu vermuten CB hätte hier als einzige Seite zufällig eine Szene gefunden in der AMD einbricht aber Intel nicht.
Und das auch nicht nur bei einem, sondern gleich in jedem hier getesteten Spiel.
 
  • Gefällt mir
Reaktionen: Gortha
Krautmaster schrieb:
wenn es dieselben Savepoints wären absolut. Aber das wissen ja nur die Verantwortlichen. Wir wissen dass diese abweichen, allein dadurch kann sich so ein Bild im CPU Limit doch komplett verzerren.

Aber doch nicht weiter nach unten, laut Statement im HWluxx, war ja scheinbar das AMD Mainboard falsch konfiguriert, ergo heißt es jetzt abwarten, bis Volker die neuen Test nach dem Wochenende nachschiebt.
 
da gehts nicht ums Einbrechen von AMD und Intel nicht, da gehts eher darum ne Szene zu finden die anders als 99,9% der restlichen Szenen noch CPU limitierender ist als üblich.

Dass man noch weit größere Unterschiede rausarbeiten kann hatte ja die letzten Seiten so etwas wie CS Go, Arma 3, Superposition klar gezeigt - was eben dazu führt dass die CB Werte nicht pauschal ein Ding der Unmöglichkeit darstellen mussten / müssen. (ich mein, was machen besagte "Tests" anders um Coffee Lake so viel besser als Ryzen oder auch SLX zu liegen?)

Ich fand dass, entgegen DonLs Aussage von PCGH,

Ich schreibe deshalb in Ausrufezeichen, weil die Daten sehr abwegig waren und weil genau das passiert ist , was immer passiert bei solch einem "schlechten" Abschneiden von AMD, Haufenweise kamen die Leute wieder hervor, die beschwören das Ryzen nicht zum Spielen taugt,...

die Sache hier nach deutlicher Relativierung der Ergebnisse über weite Strecken sehr sachlich und analysierend ausdiskutiert wurde. Dass da vereinzelt immer wieder jemand bei ist der nach 4K Benches verlangt weil er die Intention nicht versteht, oder ein anderer der, wie erwartet, stumpf Balken interpretiert... war abzusehen. Da geb ich ihm recht.

Vielleicht gehts nur mir so, aber ich find den Aufschrei von wegen "whot, kann nicht sein, da muss was falsch sein" weit aus emotionaler - was auch für sich spricht.
 
Sleight88 schrieb:
60 hz in 2018 lol. Kann man gleich konsole spielen.
Ist aber die Realität... Man darf nicht von seinem eigenen Reality Disortion Field ausgehen...
Schau Dir einfach mal den üblichen Aldi Gaming PC an, das ist noch besser als das Zeug mit dem der überwiegende Teil der Menschheit am PC spielt.
Die meisten Leute in Steam sind glaub ich auf einer 1050er oder 1060iger unterwegs, die meist verwendete Graka ist die Intel IGPU...
Nur soviel dazu.
 
Krautmaster schrieb:
da gehts nicht ums Einbrechen von AMD und Intel nicht, da gehts eher darum ne Szene zu finden die anders als 99,9% der restlichen Szenen noch CPU Limitierender ist als üblich.
Weiterhin so eine Szene soll man in allen Spielen gefunden haben und alle anderen haben sie nicht gefunden?
Und klar geht es ums Einbrechen, wenn eine Szene "noch CPU limitierender" ist. Wenn man eine Szene hat in der alle CPUs limitieren und Intel liegt 10% vorne, dann ist das auch noch so, wenn die Szene noch fordernder wird. Dann liegen weiterhin alle im CPU Limit, nur mit weniger FPS.
Es sollten also sowohl AMD als auch Intel langsamer werden.

Gäbe es wirklich so viele Szenen in denen ein solches CPU Limit herrscht bei dem AMD einbricht, Intel aber genau da bleibt wo sie in anderen(weniger fordernd aber weiterhin im Limit) Szenen auch sind, dass es bei CB mal einfach so in allen 8 Spielen aufgetreten ist, dann wäre das bisher auch großflächig aufgefallen
 
  • Gefällt mir
Reaktionen: Gortha
@Krautmaster

ich zweifle nicht an deinen Aussagen, jedoch zweifle ich an der Testmethodik und deren Aufbau - da von Volker weder darauf eingegangen, noch transparent dargestellt wird.
Deine Argumentation erscheint nicht abwegig in Einzelfällen, aber glaube hier auch nicht bei 33 Testläufen, dies 6 mal auftreten würde.

Die Verlinkung zu deinem Post sollte darstellen das dies in der Testreihe kein Einzelfall war und ohne Angaben des Artikelschreibers nicht nachvollziehbar (gegenzuprüfen) ist. Somit jegliche Spekulation keinen Fakt darstellt.
Dies wollte ich Zero aufzeigen, das es dringend notwendig ist, das CB sich dazu äußert und eigentl. schon im Vorhinein als seriöse Review Plattform, dahingehend Erklärung liefern sollte.
 
In Arma 3 ist doch alles in bester Ordnung, da verliert Ryzen 2000 13% in 720p, wo ist das bitte extrem?
WoT ist ziemlich ein Ausreißer und CSGO, wobei bei CSGO es nada eine Rolle spielt, ob ich mit 450fps oder 600fps spiele, wer da noch von Input Lags schwafelt, ist nicht mehr zu helfen.
Und WoT habe ich selber competive mit einem 1900er WN8 Rating (ersten 10% des ganzen Servers) mit einem Phenom X6 und einer 6950 2GB gespielt, also das geht auch mit Ryzens 20-30fps weniger zu Intel!
 
  • Gefällt mir
Reaktionen: Gortha
@Taxxor

sicher, ich denke jeder hier war schon in der Tendenz über die Deutlichkeit der Unterschiede überrascht - oder? Nicht zuletzt wegen dem großen Unterschied bei 2600X zu 2700X.

Ich klar, wenn ich an die Games denke gibts oft immer ne Stelle wo sich irgend was Beklopptes abspielt und ich sehe dass die GPU nur noch zu 50% rödelt, zumindest kann ich mir das in 1080p und ner RTX 2080 TI durchaus vorstellen.

Was dann im absoluten CPU Limit möglich ist, rein auf zb Drawcall Ebene, das zeigen ja schon diverse syntetische Benches.
Ich denke wenn man 30% Unterschied zwischen einem Coffee und Ryzen 2 finden will, findet man sie auch. Wenn nicht in 1080p, dann in... 720p.

Mich stört aber an dem Test weniger die Tatsache dass da vielleicht irgend ne Eigenart im Bios etwas Unauffälliges ändert ... sondern eher die Tatsache dass so ein Test sehr komische und bedenkliche Signale sendet wenn es zb darum geht dass sich jemand n neues System bauen will. Denke da ist soetwas wie schon erwähnt eher als Sondertest zu klassifizieren, zumindest aber mit anderen Werten zu relativieren. Das bleibt mir hier zu sehr auf der Strecke.

Wenn ich also als Redakteur hier schon 30% Delta über einige Spiele raushaue... dann sollte ich das wie folgt relativieren, (man wähle zb 1 Möglichkeit, besser 2 oder 3 aus)

1. zb noch eine GTX 1060 ins Feld nehmen
2. einfach mal 1440p statt 1080p nehmen
3. man optimiert das "langsame" System aus Eigeninteresse um zu sehen ob man der Sache entgegenwirken kann

Darüber hinaus fehlt mir auch sowas wie nen CPU Lastdiagramm. Frametimes. Da wäre es mir teils lieber man lässt 3 Games weg und geht in die Tiefe.

@DonL_

ich habs Gefühl du steigerst dich da in etwas hinein. Das hast du gar nicht nötig ;)
 
Weist du Krautmaster am Meisten ärget mich, dass ich auf der nächsten "Party", Grillen oder größerem Zusammentreffen wieder dumme Sprüche kassiere, weil ich in letzter Zeit viele Ryzen Systeme für die jugendlichen Kinder meiner Bekannten zusammengebaut habe und sie davon überzeugt habe, eben nicht so viel Geld für Intel herauszuwerfen, weil der Junior genauso gut mit Ryzen zocken kann, was de Eltern auch alle sehr wohlwollend so hingenommen haben. Morgen rennen garantier 4-5 von den Rackern auf Grund des CB Artikels, zu ihrem Papa und erzählen ihm, was ich ihnen für einen Schrott für Gaming zusammengebaut habe.
Das muss ich dann alles wieder gerade biegen und ich habe eigentlich besseres auf "Partys" zu tun. :D
 
  • Gefällt mir
Reaktionen: Gortha
Ich verstehe nicht so Recht, warum hier noch diskutiert wird :D
Der Artikel ist falsch, das AMD System Fehlerhaft im BIOS und am Montag gibt es ein Update von Volker.
https://www.hardwareluxx.de/communi...nchmarkes-mit-rtx-1210906-3.html#post26545397

Abwarten. Der Verdacht dass das System Fehlerhaft ist, war demnach absolut berechtigt.

BTW: Der Schaden ist schon entstanden und kann auch nicht mehr behoben werden, das CB bisher kein Statement abgeben hat, ist eigentlich ziemlich schwach und dürfte von einer der führenden deutschen Online Redaktionen im Bezug Hardware nicht zu erwarten sein. Das wirft ein ziemlich negatives pro Intel Bild auf die Seite.
 
  • Gefällt mir
Reaktionen: Gortha und Iscaran
Im Prinzip wäre in dem Thema auch mal ein "Ryzen Tweaking" Artikel schön. Spiel X nutzt 8 Threads.
Sind sie auf einem CCX besser aufgehoben oder verteilt auf echte Kerne. Ich denke das variiert von Spiel zu Spiel, je nachdem, wieviele Threads welche Last auf den Kernen erzeugen. Man könnte hier wunderbar mal die Eigenheiten von Ryzen und dem Design angehen, und Optimierungspotential herausarbeiten. Ebenso bei spielen die nicht mehr als 4 Threads nutzen, ist es eigentlich Pflicht die auf ein CCX zu pinnen.
Natürlich müssten man die Prozessaffinität dann manuell festlegen. Ggfs. mal SMT deaktivieren etc.pp. Dazu dann noch Tests mit einer 1080 und Vega64 in 720p, und ich wäre glücklich. Dies gehört natürlich nicht in diesen Artikel - da könnte man einen Separaten "Ryzen-Tweaking-Artikel"von machen, bzw. hätte es eigentlich schon so 2-3 Monate nach Ryzen 1000er Release machen können, als die Eigenheiten des Designs bekannt wurden. Natürlich ist sowas nicht unbedingt was für die breite Masse, aber für uns durchaus Interessant denke ich. Und das Festlegen mit ProcessLasse ja auch kein Hexenwerk.

Na dann bin ich mal gespannt, wie die neuen Benches aussehen. Ich tippe mal wieder auf die üblichen 5-15%, je nach Spiel.
 
das müssen komische Partys sein wenns da um sowas geht :freaky:

@aivazi
ich weiß noch nicht so ganz was ich von dem Kerl und Post da halten soll. Fände es gut wenn da was kommt, aber das is bei CB idR eher "sparsam". Leider. Ich mein man müsste ja schon eher hingehen und auch nen Vermerk dalassen dass nachgebessert wird bevor irgend jemand dann da iwas bei der Konkurrenz ins Forum postet.

Wüsste ich wer das war würde ich ihn kicken. Zumindest ordendlich rüffeln. ;)
 
Wieso ganz normale Zusammentreffen von einem Haufen 40-50 Jähriger, die zusammen Essen und Trinken und dabei alle möglichen Themen besprechen.
Und da frotzelt gerne einer den anderen mal an:
"Hey mein Sohn hat mir erzählt dein angepriesener Rechner ist doch nicht so gut und er hätte lieber die Intel CPU gehabt."
Das passiert garnatiert.
 
Im Luxx Forum gibt es noch keine Bestätigung zur Info. Merkwürdig, dass man dort informiert wäre, man hier das aber einfach so ohne kurzen Kommentar im Forum vermissen liesse.

Wir werden sehen...

Angenommen, es wäre das BIOS, dann sollte man sich die Frage stellen, was die Hersteller treiben, wenn per default offentlich "falsche" Einstellungen hinterlegt sind, die dem User 20% Leistung kosten.

Insofern wäre es ein absoluter Glücksfall, wenn das jetzt hier durch Zufall rauskommt, dass vielleicht alle User dieser Hardwarekombi durch falsche Presets durchweg Leistung verschenken.

Selbst dann war der Artikel zumindest hilfreich und hätte einen Zweck erfüllt. Und siehe da- Eine unserer möglichen Erklärungen wäre sogar zutreffend gewesen!

Grüße
Zero
 
  • Gefällt mir
Reaktionen: Krautmaster
Krautmaster schrieb:
2. einfach mal 1440p statt 1080p nehmen

Dann würde die Karte in einem realistischen Szenario getestet und die Leute könnten erkennen, dass der (v.A. jetzige) Premium-Aufpreis eines 8700k sehr oft für die Katz ist.
Ich diskutiere gerne mit Leuten, die mir anhand von (1080p) Gamestar-/CB-Diagrammen erklären wollen, dass sie glücklicherweise keinen Ryzen in ihr bunt beleuchtetes 4K-AiO-RGB-Schaufenster-Case eingebaut haben.
 
ich empfehle zur nächsten "Grillparty" nen Print vom AMD Aktienchart der letzten 2 Jahre mitzunehmen ;)

Bitteschön
1538084899853.png
 
  • Gefällt mir
Reaktionen: Gortha und Aninu
Zurück
Oben