Bericht CPUs von AMD & Intel im Test: Unsere Testergebnisse waren falsch

@DonL_
Zum meinem obigen Beispiel (ROTTR) kann ich aber z.B. auch das entgegensetzen:
1538586768156.png


Beide Besipiele also ROTTR, beides Stock. Im ersten Beispiel läuft der Intel deutlich davon. Im zweiten schnupft der Ryzen den 8700er.

Heftig, nicht? Rennst Du jetzt zu PCGH und erklärst denen, dass ihr Test Müll ist?
Ich hoffe Du verstehst jetzt deutlicher, worauf ich raus will...

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tibone 1990 und Buggi85
Ist auch in DX12 und wir haben doch hier deutlich am Nachfolger gesehen, dass es da erhebliche Unterschiede zu DX11 gibt, ich bin mir sicher der Test von PCGH ist in DX11.
Insoweit sehe ich nicht auf was du hinaus willst!
 
  • Gefällt mir
Reaktionen: Gortha
@DonL_
Wie kommst Du auf die Idee, dass der PCGH Test DX11 ist?
Wo steht das? Er ist natürlich DX12!

Merkst Du jetzt worauf ich raus will?

OK- Wenn nicht, nehm ich noch das von Guru 3D dazu:
1538587554482.png

20% Rückstand auf einen I5 8600?? Was soll das dann erst mit ner 1080TI ergeben, die nochmal mehr ins CPU Limit drängt?

Grüße
Zero
 
Zuletzt bearbeitet:
Wo steht das?
Für mich ist das klasklar DX11!

Nein merke ich nicht!
 
@DonL_
Wo steht das? Ist doch logisch, dass sie DX12 genommen haben!
Sieht doch jeder Blinde mit Krückstock.

Die testen doch keinen topmodernen Prozessor mit uralt- API...

Usw. usf....
Genau so wird hier laufend argumentiert.
 
ZeroZerp schrieb:
@DonL_
Wo steht das? Ist doch logisch, dass sie DX12 genommen haben!
Sieht doch jeder Blinde mit Krückstock.

Die testen doch keinen topmodernen Prozessor mit uralt- API...

Usw. usf....
Genau so wird hier laufend argumentiert.
Nicht ganz so schnell bitte. DX12 wurde erst nachträglich in RotTR reingepatched, da war das Spiel aber auch schon eine ganze Weile draußen.
Ergänzung ()

Stop, dass war Unsinn von mir. Zum Zeitpunkt von 2700x war das natürlich schon alles enthalten. :lol:
 
Hmm.. wobei DX12 für den Ryzen auch nicht der Garant zu sein scheint...

1538589837997.png

OK- Worauf ich hinaus will.
Man kann immer alles entweder bekräftigen oder anzweifeln.

Gewissheit erhält man nur durch eigene Benchmarks, da man im Internet je nach Testkonfiguration immer Positiv- oder Negativbeispiele finden kann.

Kleinigkeiten heben das Ergebnis mal einfach um ein par Prozentpunkte (siehe Beispiel oben Ryzen single- Rank oder dual- Rank RAM, welcher sich aber auch wieder in unterschiedlichen Szenarien anders verhält).

Drückt der Treiber auf die Tube, sind es auch mal 10% Plus. Bei Bugs auch mal 40% die es mit dem Ergebnis bergab gehen kann.

Es geht hier nur darum zu zeigen, wie volatil die Eregbnisse ja nach Szenario, Testzeitraum, Treiber- und API Revisionen sein können.

Lass mal Microsoft durch einen Patch an der DX12 Pipeline schrauben und plötzlich kommen da 10% mehr raus (manchmal mehr, manchmal weniger). Dann kannst Du alle bis dahin gebenchten Werte in die Tonne treten.

Deswegen darf man schlichtweg die alten Werte nie mit den neuen vergleichen. Dazu arbeitet es in den Systemen zu viel - sei es durch BIOS Updates (engeres Speichertraining), Treiberverbesserungen, schnellere Massenspeicher etc. etc.

Deshalb ist die Testmethode von CB letztenendes die einzig wahre.
Alles um den Haufen schmeissen. Zwei möglichst identische Systeme aufbauen, stock Settings rein und losbenchen. Mit all den Stärken und schwächen eines aktuell gepatchten System.

Nur so erhält man einen aktuellen Status.

Allein der Nachtrag von Volker zeigt ja, dass es bei Änderung des Treibers ja dann doch größere Ausreißer nach oben und nach unten gegeben hat.

Egal- Wenn Ihr die Möglichkeit dazu habt, macht mal selbst so einen Test.
Wundert Euch nicht, dass da manchmal was ganz anderes rauskommt, als beim Schnitt der großen "seriösen" Publikationen.

Das ist normal.

Ich rate allen... Hakt den Test ab und wartet auf den Nächsten, der spätestens mit dem I9 und dann anschliessend mit den 3xxx Ryzen wieder kommt.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Buggi85, Tibone 1990 und Krautmaster
ZeroZerp schrieb:
Die 80 Seiten kommen ja auch nur zustande, weil es sagen wir mal 5 hartnäckige Zweifler gibt ....
Wenn man die par Hanseln hier im Thread ...

Nunja, es gibt auch 3 Hanseln einschließlich "ZeroZerp", die jede sachliche, hier schon früh diskutierte Kritik in einem spontanen Anfall von Demenz vergessen haben. Damit sie anschließend jedem, der die diversen Macken (nicht nur!) dieses Tests bemerkt, ein angeblich übersteigertes Fanboy-Tum "vorwerfen" können. Weil ihrer Meinung nach (um jetzt mal den Spieß umzudrehen) Kritik an diesem herausragenden und transparenten Test nicht in ihr Weltbild passt.

Tatsächlich ist das kein Stück besser als die Leute, die sie kritisieren. So viel zu dem Thema.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran, DarknessFalls, Linmoum und eine weitere Person
HaZweiOh schrieb:
Nunja, es gibt auch 3 Hanseln einschließlich "ZeroZerp", die jede sachliche, hier schon früh diskutierte Kritik in einem spontanen Anfall von Demenz vergessen haben.

Das ist so nicht richtig. Hättest Du die 80 Seiten gelesen, so hättest Du auch gesehen, dass ich mich in Sachen Transparenz des Tests nicht gegen die Kritiker stelle.
Auch habe ich mich nie dagegengestellt, dass es einen Fehler welcher Art auch immer geben hätte können.

Es wurde aber im Gegensatz zu mir, der hier alle Eventualitäten einer Erklärung in Betracht zieht (eben auch, dass der Test korrekt sein könnte), genau dies von einer Gruppe der üblichen Verdächtigen, trotz hieb- und stichfester Gegenbeispiele und das Aufzeigen von erheblichen Widersprüchen in Sachen Benchmark auch bei den der Kritiker aufgeführten Publikationen, einfach geleugnet.

Gibts nicht, geht nicht, ist nicht logisch....

Wenn man sich nicht an realen Beispielen und Gegebenheiten orientieren will, sondern alles ohne schlüssige Argumentation auf Technikebene bzw. hieb- und stichfeste Beweise als offensichtlich falsch darstellt, dann ist eine Auseinandersetzung mit dem Thema bei den betroffenen Personen ganz offensichtlich erst garnicht gewünscht.

Es geht dann nur noch darum, sein Weltbild durchzudrücken, weil nicht sein kann, was in den eigenen Vorstellungen sein darf. Der Tester hat dann gefälligst so lange zu testen und nachzuforschen, bis das eigens gewünschte Ergebnis erreicht ist.

Aber so gehts halt einfach nicht. Man muss sich in seinen Hirnwindungen auch immer einen kleinen Bereich offenhalten, in dem man sich trotz festgefahrener Strukturen von Dingen überzeugen lässt, oder zumindest die Möglichkeit einer anderen Sichtweise zulässt.

Und genau deshalb drehen wir uns im Kreis.

Ein Test schlägt aus der Reihe. Ein par Leute heulen auf.

Es gibt dann aber die anderen, die zu forschen anfangen, Benchmarks erstellen und dann zuguterletzt drauf kommen, dass es im Bereich des möglichen wäre, dass der Test stimmen könnte.

Die anderen sitzen kopfschüttelnd daneben, denken sich vielleicht noch "Was treiben die Trottel da" und setzen dann unbekümmert weiter damit fort irgendwelche zu 99% ebenso schlecht und informationslos durchgeführten Benchmarks, wie der den man kritisiert, als Referenz zu zitieren.

Das widerspricht sich dann in meinen Augen irgendwie. Einerseits die Akribie bei einem Tests fordern, die bei denen, die die gewünschten Ergebnisse liefern dann aber unter den Tisch fallen kann. Die werden dann kritiklos zitiert.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Buggi85
Immer noch kein Statement? Das ist mittlerweile echt schwach. Null transparenz, ob gewollt oder nicht ist in dem Fall dann auch egal. Konkrete Benchmarkszene fehlt, konkrete Taktraten bei den GPUs fehlen, die logischerweise je nach Spiel deutlich unterscheidlich ausfallen (können), genaue Auflistung des Testsystems bleibt ebenfalls aus. Naja, schade.

@ZeroZerp
Es ist mittlerweile nicht nur ein Test*, aber macht nichts. Die Ergebnisse hier bleiben solange falsch, bis CB konkret alte/neue Benchmarkszenen offenlegt und man so nachvollziehen kann, was genau gebencht wurde und vor allem, wie es sich zu früher unterscheidet. Beispiel an PCGH nehmen, Transparenz par excellence. So geht Journalismus.

*TR-Review (auch, wenn CB da nicht alleine reingefallen ist), Generationen-Vergleich, wo V64 plötzlich nicht mal mehr 30% schneller als eine Fury X sein soll (und das in FHD, obwohl Fiji da massive Probleme mit der Auslastung hat, die man bei Vega nicht findet), Athlon-Review mit dem Schnitzer beim CB ST (auch, wenn man es da gemerkt und korrigiert hat) und eben dieser Test hier mit fragwürdigen Resultaten...
 
  • Gefällt mir
Reaktionen: HaZweiOh, DarknessFalls und John Reese
ZeroZerp schrieb:
dass ich mich in Sachen Transparenz des Tests nicht gegen die Kritiker stelle.

Immerhin etwas, und vielleicht verstehst du, dass die Kritiker mit den Jahren so langsam genervt sind, wie man stellenweise vielleicht am Tonfall hört. Das ist so eine Kleinigkeit, und eine Selbstverständlichkeit, die jeder Student gelernt hat. Warum wird es nicht einfach mal gemacht?

Was du hier immer übersiehst, ist die Tatsache, dass jede Publikation einen gewisses Renomee hat. Wenn eine Publikation durch eine Reihe von (verschiedenen!) Fehlern, die über einen langen Zeitraum immer wiederholt werden, (als Beispiel sei nur mal das beliebte Thema "reißerische Überschriften" und "unsachliche Artikel" genannt), mit schlechter Qualität auffällt, fällt das auf ihren Ruf zurück.

Auch wenn es hunderte Postings mit Kritik von zig Leuten gab, wurde nichts geändert. Weder am kritisierten Artikel (nochmal: ich meine nicht speziell diesen hier), noch in der Zukunft. Man sitzt es einfach aus oder moderiert es weg.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran
...natürlich kann der Test "stimmen", wenn CB mit niedriger als 2933 getaktetem RAM gebencht hat. Jap.

Dann gehört das aber so beschrieben (was ja möglicherweise mit "Werkseinstellung" getan wurde, wenn man sich auf die Boards bezog) und ist letztlich Käse, weil Ryzen 2x00 mit 2933er spezifiziert ist.
 
@HaZweiOh
Das nenne ich aber messen mit zweierlei Maß. Auch ein PCGH testet unzureichend und legt nicht all die Dinge offen, wie sie hier aber gefordert werden bzw. wie sie zu einem maximal transparenten Test notwendig wären.

Ist das dann das Ziel einiger hier- Gleichschaltung der Presse bzw. deren Ergebnisse, damit man Seelenfrieden und positive Bestätigung für die User unter der Prämisse des Selbstbetrugs schafft?

@DarknessFalls
Nein- Der Test kann auch dann stimmen, wenn sie statt DR einfach SR Ram auf 2933 genommen haben und eine entsprechend ungünstige Szene dazu auftaucht. Vielleicht auch wenn das Board die 2nds und 3rds nicht sonderlich gut trainiert hat.

Alles andere sind nunmal wilde Vermutungen und Spekulationen, die hier speziell auf diesen einen Testparcours keiner nachweisen aber auch nicht enkräften kann (nur CB selbst).
 
CB könnte doch die savegames veröffentlichen oder zumindest als video die stellen zeigen die gebencht wurden. Dann kann man schnell herausfinden ob die Werte stimmen oder nicht.

Damals wurde noch erwähnt welche Stellen man verwendet hat.
Da muss ich an den Test "CPUs für unter 40€" denken. Da wurde noch schön erwähnt welche szenen getestet wurden. Fast 8 Jahre her, wie die Zeit vergeht =(
 
ZeroZerp schrieb:
@HaZweiOh
Das nenne ich aber messen mit zweierlei Maß. Auch ein PCGH testet unzureichend und legt nicht all die Dinge offen, wie sie hier aber gefordert werden bzw. wie sie zu einem maximal transparenten Test notwendig wären.
Komponenten sind klar ersichtlich, die Taktraten der GPUs, die konkrete Benchmarkszene wird in Videoform festgehalten und veröffentlicht. Dasselbe mit Settings, wenn HBAO+ oder ähnliches nicht aktiviert wurden, findet man das direkt übersichtlich mit in dem Diagramm zu den Resultaten.

Was fehlt denn alles und warum testet PCGH unzureichend? Mehr Transparenz geht im Prinzip nicht - und diese Dinge sind wahrlich nicht kompliziert und stellen vor unlösbare Probleme. Im Gegenteil.
 
  • Gefällt mir
Reaktionen: Iscaran
ZeroZerp schrieb:
Ist das dann das Ziel einiger hier- Gleichschaltung der Presse bzw. deren Ergebnisse, damit man Seelenfrieden und positive Bestätigung für die User unter der Prämisse des Selbstbetrugs schafft?

Du willst es einfach nicht kapieren.

Ich kann dir nur ans Herz legen, den Begriff "Fanboy", den du anderen allzu voreilig entgegen schleuderst, aus deinem Wortschatz zu streichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DarknessFalls und DonL_
Linmoum schrieb:
Was fehlt denn alles und warum testet PCGH unzureichend?

Letztenendes ausnahmslos alle Settings.
z.B. auch:
-OS Version inkl. aller installierten Tools die vom Standard abweichen.
-Treiberrevisionsnummern ALLER Komponenten.
-Sämtliche BIOS Settings und damit meine ich jede Abteilung (ganz besonders RAM)
-Patchstand der zu testenden Software
-Patchstand der Softwareplattform (Steam etc.)
-Versionsnummer des genutzten Kopierschutzes der Software
-Genutzter Spielstand
-Makro zum Erfassen der Messung (bei manuellem Benchmark)
usw...

Dann- und nur dann könnte sich der kundige Nutzer ein Bild davon machen, wie sich die Software verhält und das gegebenenfalls auf ihr System übertragen.

@HaZweiOh
Der Begriff Fanboy bedeutet in meinem Wortschatz eine Person mit einen irrationalen Bezug zu einer Bewegung oder zu Dingen.

Eine Abstrakte Zuneigung oder eine sich entwickelnde Beziehung (die dann vielleicht auch einen Beschützerinstinkt und irrationales Verhalten hervorruft).

Das passt hier schon auf einiges.

Ich bin natürlich auch nicht frei, mich ohne persönliche Beziehung schützend vor Dinge zu stellen.
Dies aber nur, wenn ich das Gefühl habe, dass auf jemanden zu Unrecht bzw. ohne eine feste Grundlage eingehauen wird.
Insofern kann ich den Unmut einiger hier nachvollziehen, da man ihr "Baby" beleidigt hat...

Grüße
Zero
 
Zuletzt bearbeitet:
Zurück
Oben