Zwiebelsoße schrieb:
Golem, CapframeX und PCGH widersprechen da als deutsche Reviews nicht, nur CB und Igors Lab.
Bei Igors Lab lief alles schief, BIOS kaputt.
Bin gespannt wie lange es dauert bis das eingeräumt wird.
Vielleicht hätte man man mal eine geeignetere Grafikkarte nehmen sollen? Im NVIDIA-Treiberlimit liegt bei mir auch alles sehr eng zusammen, mit klitzekleinem Vorteil für Intel. Ich habe sogar noch einen längeren Artikel VOR dem Launchreview veröffentlich, wo genau erklärt wird, warum man eine RTX 3090 in 720p (und stellenweise 1080p) schlichtweg vergessen kann und sich damit sogar selbst betrügt.
Bei Igors Lab lief alles schief, BIOS kaputt.
Was ist das denn für eine Aussage? Und nein, das BIOS ist nicht kaputt, es ist sogar richtig frisch. Ich habe die Resultate auf dem kleinen Dienstweg auch mit den internen Zahlen des MSI OC Labs vergleichen können, da ist nichts defekt, die sehen das genauso. Intel hat es verkackt und man sollte es endlich mal akzeptieren. Egal woher man erstmalig vielleicht sein Sample bekommen haben mag. Vielleicht sollte man aber auch mal drüber nachdenken, ob die getesteten AMD-Systeme uptodate waren oder ob man da vielleicht ältere Messwerte galant einfach weiterverwendet hat. Das letzte AGESA brachte hier fast 5% Zuwachs in einigen Spielen. hat man?
Für solche Dinge gibt es übrigens die unverzichtbare MSA (Measurement System Analysis
), das ist unablässiger Standard und solche Basics macht ein objektiver Reviewer vorher immer. Dann hätte einem nämlich auch was auffallen müssen! Der Wert für die RTX 3090 ist verheerend. Da liege ich bei den Unterschieden zwischen einzelnen CPUs sogar unter der Fehlerstreuung für die Benchmarks. Bei der PCGH gewinnt der 11900K mit sagenhaften 0.1%, wenn allein die Toleranzgrenze bei den Spielen immer über 1% liegt? Was soll das denn bitte? Warum wohl habe ich den Aufwand mit der Radeon betrieben? Aus Langeweile? Schlimm genug, dass hier die meisten einfach nicht mitgedacht haben.
Wenn man sich z.B. die Werte bei PCGH mal genauer anschaut und es bei Watchdogs in 720p zwischen den 8 relevanten CPUs nur 9 FPS Differenz gibt, also maximal um die 10%, dann ist da was oberfaul. Zwischen 3 der SKUs liegen da nicht mal 2% und man ist hier mit den drei Probanden bereits im deutlich Fehlerbereich. Eine Grafikkarte, die nicht im eigenen Treibermüll erstickt, schafft da 25 FPS Differenz zwischen allen 8 und ist auch bei den Absolutwerten um Längen schneller. Da liegt jede SKU sauber im Trend. Von den Varianzen mal ganz zu schweigen. Ich habe vorher beides getestet, auch die 3090. Hätte ich die genommen, wäre mein Review genauso verkorkst geworden, wie so manch anderes. Aber warum sollte ich meine Leser in die Irre führen?
In meine Messung gehen bei 50% der Ergebnisse zudem auch die Vorteile von resizeable BAR ein, was ich auf ja mittlerweile auf BEIDEN Plattformen vergleichen kann, da die RX 6900XT das kann, die 3090 (noch) nicht. Warum das bei den meisten Tests komplett ignoriert wurde, schreibe ich sehr höflich mal der Bequemlichkeit zu, um ja nicht in Versuchung zu kommen, da Absicht zu unterstellen.
Edit:
Ich habe mal eben die Logfiles verglichen, um die Unterschiede zu veranschaulichen. Und jetzt nehme ich nur mal den Ryzen 9 5900X, um nicht wieder in Intel vs. AMD abzugleiten. In WQHD sind die RX 6900XT und die RTX 3090 in etwa gleich schnell, aber...
Eine MSI RTX 3090 SUPRIM schafft in SotTR in 720P mit dem Teil 211,2 FPS, die RX 6900XT satte 222,5. In BL3 sind es sogar brutale 244.7 FPS statt der 201.2 FPS mit der NV-Karte. Kinder, das sind 22 Prozentpunkte mehr, also fast ein Viertel! Je größer die FPS-Unterschiede zwischen den SKUs werden, weil eben die Grafikkarte samt Treiber NICHT so limitiert, um so sicherer kann man auch über die Differenzen zwischen den einzelnen SKUs urteilen. Ich würde einfach darum bitten, mal darüber nachzudenken.