Bericht CPUs von AMD & Intel im Test: Unsere Testergebnisse waren falsch

Vielen Dank. Ein sehr interessanter Test. Nur ein i3-8100/8300 wäre noch hilfreich gewesen um aus dem Datensatz weitere Rückschlüsse zu Kernanzahl, HT und Takt zu ziehen. Auch wenn kein Anwender dieses Modell in einem derartigem System einsetzen würde.
 
Einfach nür köstlich, wie so manch einer umgehend gewillt ist seinen R7 2700X zu verschrotten. :D

Man könnte fast meinen die Leute wissen nicht was sie da kaufen.

Ist ja die totale Panik die hier ausbricht.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: R.K.J und cm87
Volker schrieb:
Exakt.

Also: Alle Werte sind neu ermittelt, nichts ist alt. Die Einstellungen sind im Vergleich zum Frühjahr aber nicht die gleichen. Neue Savegames, andere Szenarien, andere Detailstufen usw.. Deshalb alles nicht vergleichbar, sondern eine Momentaufnahme von der 3. Septemberwoche 2018, so wie es im Ryzen-Test eine Momentaufnahme von Mitte April 2018 war.

Ja uns sind die beschriebenen Sachen auch aufgefallen. Aber wie Wolfgang bereits im GTX 2080 Test schrieb, war Nvidias Fokus bei den neuen Karten 4K und "volle Soße", weshalb andere Auflösungen vermutlich darunter gelitten haben. Das sieht man in seinen Ergebnissen zum Teil, hier nun deutlicher.

Ich benche morgen mal Ryzen 7 mit 1080ti und dem alten Treiber und zeige die Werte, bin heute auswärts unterwegs.

Das kann man machen, aber es hinterlaesst nicht den serioesesten Eindruck. Und ich glaube das ist es, was die meisten anprangern. Vor allem, da ueberhaupt keine Muehe zu bestehen scheint mal wirklich darauf einzugehen. Was genau ist der Unterschied? Wie viel macht der Treiber alleine? Wie verhaelt es sich mit einer AMD Grafikkarte. Und so weiter. Genauso die Kritikpunkte die @duskstalker anbringt:

duskstalker schrieb:
schade - wieder keine referenzwerte mit ryzen + radeon. die thematik des nvidia treiber overheads, der sich potentiell negativ auf ryzen cpus auswirkt, wird wieder nicht beleuchtet.

außerdem keine angabe zu der cpu auslastung, weder für einen noch für alle kerne / threads - wäre nämlich nicht das erste "cpu bottleneck" bei einer ryzen cpu, bei der aber kein kern/thread jemals über 80% kommt - hier liegt das bottleneck unter umständen wo ganz anders. *hust*intel compiler*hust*

SMT/HT an/aus wurde auch nicht beachtet.

kern/threadskalierung der spiele ist auch eine unbekannte.

man sollte sich mal gedanken drüber machen, wieso der 8700k mit so einem geringen taktvorteil (single 4,7 vs 4,3 - multi 4,3 vs 4,1 ghz) bei quasi identischer IPC einen abstand zum 2700x von 30% erreicht.

das ist die typische graphenreiterei ohne hintergrund. anstatt in dem text zwischen den grafiken und tabellen den inhalt derselben nochmal in textform darzulegen, wäre ursachenforschung viel wertvoller gewesen.

außerdem:



da fehlen 50% der angaben - timings.

2933 cl 18 ist nicht das selbe wie 2933 cl12 - single vs dual ranked? steht ja nichtmals dabei, obs dual channel ist. das ergibt sich aus dem kontext - aber trotzdem fehlt die angabe.

wieso keine tabelle? wieso unvollständiger fließtext?

hier mal exemplarisch:

TESTSYSTEM

IntelAMD
CPUi7 8700k, i5 8400R7 2700x, R5 2600x
BoardGigabyte Z370 Aorus Ultra GamingAsus x470 Crosshair Hero 7
RAM2x 8gb DDR 2666 CL 16-18-18-38
Kit: Crucial Ballistix Sport 2666 CL 16-18-18-38 - Micron 512Mx8, DR.
2x 8gb DDR 2933 CL 14-14-14-34
Kit: Gskill Trident Z 3200 CL 14-14-14-34 - Samsung B-Die, SR.
GPURTX 2080 ti FE, RTX 2080 FE, GTX 1080 ti FERTX 2080 ti FE, RTX 2080 FE, GTX 1080 ti FE
FestplatteSamsung 970 Pro 1 TBSamsung 970 Pro 1 TB
CPU KühlerNoctua NH-D15, stockNoctua NH-D15, stock
GehäuseOpen TestbenchOpen Testbench
NetzteilSeasonic Prime 1300 GoldSeasonic Prime 1300 Gold
Raumtemperatur24°C24°C

Mich, wie auch anscheinend genug andere, wuerde ein Test interessieren, der auf solche Dinge eingeht. Nicht nur Durchschnitts FPS. FPS ueber Zeit, gleichzeitig CPU Auslastung, auf allen Kernen, auf Zeit, etc etc. Einfach mal untersuchen was der Unterschied ist, woraus es ankommt. Die Ergebnisse werden gerade einfach nur hingeklatscht und nicht hinterfragt. Bringt natuerlich klicks, weil wieder Fanboys hervorspringen. Allerdings werden auch genug Leute von eurer Seite abspringen, weil sie sie nicht mehr als serioes einstufen. Von dem her, bringt so einen Test, nutzt 480p, auch wenn es wieder einige nicht verstehen werde warum, und testet alle Parameter aus. Findet eine Antwort auf die Frage, warum diese Differenz?

Krautmaster schrieb:
mich würde auch nicht wundern wenn dieser Auswirkungen haben sollte. Aber schwer zu testen da AMDs schnellste Karte halb so fix ist und ergo das eh nen ganz anderen CPU Limit verursacht als die neuen RTX.
Krautmaster schrieb:
schwer da beide Karten so dermaßen unterschiedlich schnell sind. Müsste man ggf auf 720p zurückgehen und eine 1080 statt RTX 2080 Ti nehmen damit die reine GPU Leistung etwa gleich ist.

Die Frage nach der Relevanz solcher Tests bleibt aber. Ich bin hier mit 40p in 4k bei Tomb Raider happy und wandel nebenher noch 2x 4K HDR Filme in HEVC.

Die absolute Geschwindigkeit von den Karten interessiert bei solchen Tests doch nicht. Nutz 480p und gut ist. Dann kannst du auf die relative Geschwindigkeit zwischen Prozessoren schauen. Wenn es da eine Diskrepanz zwischen den Kombinationen AMD/Intel, Nvidia/Intel und AMD/AMD, Nvidia/AMD gibt, dann bist du schon mal weiter. Und dann muss man sich die Muehe machen die Gruende herauszufinden. Mit Tests wie sie @duskstalker und andere vorstellen. Das geht, wenn der Wille da ist. Wenn man allerdings nicht will bekommt man solche Tests wie jetzt. Da kann man auch gleich zu Computerbild gehen und gesagt bekommen, Nvidia/Intel, das ist das beste was es gibt, Heil, Heil! (Disclaimer: Keine Ahnung wie Computerbild berichtet, aber einer musste herhalten.) Computerbase ist in meinen Augen in bestimmten Bereichen schon ziemlich gesunken. Und solche Tests machen es nicht besser.
 
  • Gefällt mir
Reaktionen: Gaugaumera, northly, Herr Melone und 8 andere
Krautmaster schrieb:
ich korrigiere das mal

Es sollen tatsächlich auch "normale" Menschen CB Tests lesen und die tun genau dies, was CB gemacht und geschrieben hat, sich einen PC zu kaufen oder zusammenstellen lassen.

Wer Spass am OC und Optimierung seiner Plattform hat, soll dies gerne tun. Jedem vor die Nase zu binden, dass man mit optimierten Werten bessere Ergebnise bei der einen oder anderen Plattform bekommt, ist insofern irrelevant, als dies die wenigsten machen werden.

Ja! CB könnte auch OC Tests machen, ich denke da gibt es aber noch immer Magazine, die diesen Bereich besser abdecken.

HaZweiOh schrieb:
Und schon wieder mit zu langsamem RAM getestet. Niemand, der eine dermaßen teure Grafikkarte kauft, würde in der Praxis so langsames DDR4 einsetzen.

DDR4-2933 ist für dich also zu langsam? Das ist nähmlich wie von CB angegeben der schnellste für diese Plattform freigegebene Speicher.

Mag sein dass DDR4-3200 CL14 hier noch was hätte herausholen können, aber zu welchen Preis? Wer zu viel Geld hat, könnte sich auch DDR4-4333 für den 8700K kaufen.

Nordwind2000 schrieb:
Ich beziehe es ja nur auf mein Nutzungsverhalten. In WQHD ist der Unterschied nicht mehr so riesig und ich habe meine gewollte Multicore-Performance in den Bereichen, wo ich sie benötige.

Der Unterschied ist immer gleich, solange deine GPU nicht limitiert. Das Ergebnis bekommst du auch in 1440p, wenn du deinen Regler soweit nach links schiebst, dass die Grafikkarte nicht mehr im Limit läuft. Das bedeutet umgekehrt beim R5 ist bei 70FPS Schluss, egal wie schnell deine Grafikkarte ist oder wie niedrig die Details eingestellt sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stuntmp02
Sweepi schrieb:
Danke für den Test.
Ich hatte noch interessant gefunden, ob und was (frametimes?fps?welche spiele?) sich durch HT/SMT abstellen beim 8700k / 2700x ändert, was mMn auch zum Thema gepasst hätte.
Das ist ganz einfach. Bei Spielen die nicht von HT/SMT profitieren, bringt das abstellen einen kleinen Schub (da pro Core der doppelte Cache zur Verfügung steht/die Latenzen sinken).

Bei Spielen, die über mehrere Cores skalieren bringt das abschalten nichts bzw. man nimmt sich unter Umständen FPS.

Grüße
Zero
 
Um den Vergleich zu vorigen Tests mal mit Substanz zu füllen: Dieser Test und der Launch-Test der 2000er Ryzen haben vier Spiele gemeinsam: AC:O, Kingdome Come Deliverance, Project Cars 2, Total War: Warhammer. Ich habe mal die Ergebnisse aus den Diagrammen übertragen und die Differenzen ausgerechnet. Als Vergleich habe ich jeweils die 1080Ti und die vier genannten Spiele genommen, damit es so vergleichbar wie möglich ist:

Alter Test: (avg/99th p.)
2600X -> 8700K: +15,8% / +15,4%
2700X -> 8700K: +11,7% / +7,6%
Neuer Test: (avg/99th p.)
2600X -> 8700K: +43,0% / +90,7% (!!!)
2700X -> 8700K: +28,2% / +32,2%

Das ist schon mehr als signifikant. Außerdem sieht man eine Vergrößerung der Differenz auch durch die Bank in allen vier Spielen (2700X -> 8700K).

Average (alter Wert -> neuer Wert) // 99th P. (alter Wert -> neuer Wert):
AC:O: +9,9% -> +19,2% // +8,4% -> +50,3% (!!!)
KC:D: +11,1% -> +22,7% // +6,1% -> +18,1%
PC2: +14,5% -> +43,5% // +6,2% -> +39,4%
TW:W: +11,2% -> +27,9% // +9,7% -> +21,2%

Da ich es für unwahrscheinlich halte, dass CB in allen Spielen zufällig eine für AMD deutlich nachteiligere Stelle ausgesucht hat, liegt für mich der Verdacht nahe, dass irgendwas mit dem Nvidia-Treiber nicht stimmt.
 
  • Gefällt mir
Reaktionen: Seskahin, JohnVescoya, valnar77 und 17 andere
Schon, aber auch fraglich ob dieser Normalo ne RTX 2080 TI mit Full HD kombiniert.

Sehen wir es doch so. Erstaunlich dass CB diese Unterschiede produzieren konnte. Jetzt gilt es zu schauen woher diese kommen.
 
RYZ3N schrieb:
Man könnte fast meinen die Leute wissen nicht was sie da kaufen.

Wo liest du das? Ich denke schon, dass die Leute das wissen. Nun müssen sie noch einen gut gemachten Test von einem schlecht gemachten unterscheiden lernen.
 
Krautmaster schrieb:
Jetzt gilt es zu schauen woher diese kommen.
Nur hätte man das machen sollen, bevor man den Test veröffentlicht. So wirkt das ganze schon etwas dilletantisch.
 
  • Gefällt mir
Reaktionen: valnar77, DarknessFalls, BacShea und 4 andere
  • Gefällt mir
Reaktionen: Orcon, Thraker, Herr Melone und 8 andere
Krautmaster schrieb:
Müsste man ggf auf 720p zurückgehen und eine 1080 statt RTX 2080 Ti nehmen damit die reine GPU Leistung etwa gleich ist.

Auch schwierig, weil man dann irgendwann wieder die CPU durch den Flaschenhals der Pixelpipeline einer GPU schickt...

Den optimalen Test kann es prinzipbedingt diesbezüglich eigentlich garnicht geben, da man immer irgendwo auf einen anderen Flaschenhals stößt, wenn man einen Parameter nur klein wenig ändert.

Das Zusammenspiel der Komponenten ist inzwischen wirklich ein "Wunderwerk".

Grüße
Zero
 
Wenn max. 10% der CB User den Test versteht, wie sollen den weniger Technikaffine den Test deuten!?
Es müsste noch deutlicher gemacht werden das im absoluten CPU Limit getestet worden ist.

Die Ryzen waren vor diesen Test und werden nach diesem Test gute Gaming CPU's
 
  • Gefällt mir
Reaktionen: .Sentinel. und SVΞN
HaZweiOh schrieb:
Wo liest du das? Ich denke schon, dass die Leute das wissen. Nun müssen sie noch einen gut gemachten Test von einem schlecht gemachten unterscheiden lernen.

Ich finde es nur überraschend wenn ich nun von R7 2700X Besitzern lese, „...krass, der i7-8700K ist wirklich viel schneller.“

Oder wie erschrocken sich einige hier auf Grund der Ergebnisse gegeben haben, förmlich schockiert.

Also meine CPU ist auch nach dem Test so schnell wie vorher. :D

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: valnar77, alkaAdeluxx, DarknessFalls und 4 andere
Capthowdy schrieb:
Nur hätte man das machen sollen, bevor man den Test veröffentlicht. So wirkt das ganze schon etwas dilletantisch.

Richtig, und selbst mit ziemlich offensichtlichen Fehlern, genauso wie bei ziemlich reißerischen Überschriften, werden die Artikel nicht ernsthaft korrigiert. Die Fehler bleiben einfach drin.

Beispiel Threadripper-Test: Es war allen sehr schnell klar (allerdings nur den Lesern, nicht für ComputerBase!) dass es sich um ein besonderes Problem mit nVidia und Windows handelt. nVidia hat seinen Treiber korrigiert, eine Korrektur des Tests habe ich hier nicht gesehen. Das hätte man auch vor der Veröffentlichung klären können und den Test zur Not etwas später bringen, damit das Ergebnis nicht grob falsch ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: valnar77, DarknessFalls, peru3232 und eine weitere Person
RYZ3N schrieb:
Ich finde es nur überraschend wenn ich nun von R7 2700X Besitzern lese, „...krass, der i7-8700K ist wirklich viel schneller.“

Oder wie erschrocken sich einige hier auf Grund der Ergebnisse gegeben haben, förmlich schockiert.

Also meine CPU ist auch nach dem Test so schnell wie vorher. :D

Liebe Grüße
Sven

Ich hab direkt ne Runde CB15 gespielt, damit ich wieder wieder den längeren Balken habe :daumen:
 
  • Gefällt mir
Reaktionen: Bard
C.J. schrieb:
Alter Test: (avg/99th p.)
2600X -> 8700K: +15,8% / +15,4%

Neuer Test: (avg/99th p.)
2600X -> 8700K: +43,0% / +90,7% (!!!)
Dieser 99th Unterschied ist natürlich enorm, den hatte ich bisher gar nicht bemerkt, danke dafür.

Ich sehe zwar beim Blick auf die Tabelle mit den 4 genannten Spielen +84% und nicht +90,7 aber sei's drum, beides enorm und völlig utopisch zu glauben, dass es rein an einer anderen Testszene oder irgendwelchen Microcode Updates liegt, dass der 2600X hier nur noch halb so schnell ist, wo er vorher nur 13% langsamer war.
 
RYZ3N schrieb:
Einfach nür köstlich, wie so manch einer umgehend gewillt ist seinen R7 2700X zu verschrotten. :D

Man könnte fast meinen die Leute wissen nicht was sie da kaufen.

Ist ja die totale Panik die hier ausbricht.

Liebe Grüße
Sven

Erinnert mich an die Einführung von T&L auf der Geforce256. Da wurde innerhalb kürzester Zeit eine enorme Last der CPU auf die GPU verlegt.

Jetzt wo wir die Schwelle durch AMD und nVidia mit primitive shading/Mesh shading überschritten haben und zudem auf DX12 gebaut wird, stehen wir wieder vor einem ähnlichen Schritt, der die Bedeutung der CPUs wieder deutlich nach unten schrauben wird....

Da kann jeder hier mit einer halbwegs passabeln CPU künftig alle Spiele ohne CPU-/und Drawcalllimit genießen.
Somit verliert dieser Test in (hoffentlich) naher Zukunft seine Bedeutung...

Grüße
Zero
 
  • Gefällt mir
Reaktionen: Palatas
HaZweiOh schrieb:
Das hätte man auch vor der Veröffentlichung klären können und den Test zur Not etwas später bringen, damit das Ergebnis nicht grob falsch ist.
Genau deswegen erwarte ich von einer seriösen und vor allem neutralen Testseite auch die Überprüfung der eigenen Ergebnisse. Wenn solche Unterschiede auftreten, dürfen wir alle hier von CB erwarten, dass dem nachgegangen wird und zwar ohne das wir darauf hinweisen müssen. Solche wiedersprüchlichen Ergebnisse einfach mal rauszuhauen um dann zu sehen, ob es überhaupt ein Echo gibt, ist IMHO nicht seriös.
 
  • Gefällt mir
Reaktionen: Orcon, valnar77, Herr Melone und 11 andere
CynicalEntity schrieb:
Mal wieder kein 8600K in den Benchmarks. Gibt es 'n Grund warum der immer ausgelassen wird?
weil das zu 100% der selbe prozessor wie der 8700k ist inklusiv sämtlicher prozessor spannungen und taktraten bis auf die höhere power stage und den selbsttaktenden 5ghz als boost.
 
Zurück
Oben