Bericht CPUs von AMD & Intel im Test: Unsere Testergebnisse waren falsch

v_ossi schrieb:
Naja, ich unterstelle der Redaktion mal, dass sie durchaus sorgfältig gearbeitet hat. Aber einige Forderungen zu diesem Test sind (zumindest auf den ersten Seiten; habe weder die Zeit noch die Lust mich durch 30 Seiten gegenseitiger Anfeindungen zu arbeiten) mMn einfach weltfremd und entsprechen auch nicht der Prämisse des Tests.

Wenige Leute übertakten z.B. ihre CPU und garantiert noch weniger Leute ändern die Timings ihres RAMs oder achten darauf auch ja die guten B-Die Chips vom Samsung zu bekommen.

Getestet wurde eben mit Hardware "out of the box" und Spielszenen, die tendenziell die CPU mehr belasten als die vorherigen oder die integrierten Benchmarks. Bei AC Origins ist Alexandria mit seinen vielen NPCs z.B. ein Ort, an dem die Framerate der stärksten GPU einbrechen kann, wenn die CPU nicht mehr mitkommt. Natürlich sieht ein Ergebnis dann -zum Teil- deutlich anders aus, als im integrierten Benchmark.

Der Verweis zum PCGamesHardware Test ist hier mMn der einzig interessante Punkt, denn deren Tests sind auch genau dort gemacht worden. Da könnte die Redaktion durchaus mal nachhaken.

Sonst sehe ich hier aber viele ungerechtfertigte Unterstellungen und Missverständnisse, die in erster Linie darauf zurückzuführen sind, dass man entweder nicht versteht, worauf der Test hinaus will oder man nicht die Ergebnisse sieht, die man gerne hätte.

Was du von dir gibst ist bezogen auf die PCGH und diesen Test ist echt lächerlich!

PCGH, 720p, 1080ti
ACO = 2700x zu 8700k = +4%
Kingdom Come Deliverance = 2700x zu 8700k = + 13%
Wolfenstein 2 = 2700x zu 8700k = +11%

CB, 1080p, 1080ti
ACO = 2700x zu 8700k = +19%
Kingdom Come Deliverance = 2700x zu 8700k = + 23%
Wolfenstein 2 = 2700x zu 8700k = +27%

Alleine wenn beide Tests in 720p gemacht worden wären, würde das schon genug Fragen aufwerfen, hier gibt es aber noch den Unterschied 720p zu 1080p, wobei der 1080p Tests ein merkbar kleineres CPU Limit hat und deutlich mehr auf die GPU geht!

Ergänzung ()

Thane schrieb:
@DonL_
Testet PCGH exakt die gleiche Szene? Gleiche Version vom Spiel? Gleiche GPU? Gleiche Treiber?
Ich denke nicht, dass die Vergleichbarkeit so gegeben ist. Alleine die ausgewählte Szene kann und wird viel ausmachen.
Wie bereits gesagt, das ist alles sehr konstruiert für dieses Szenario, deshalb aber nicht zwingend pauschal falsch.
Soll man euch das Savegame zur Verfügung stellen, damit ihr selber testen könnt?

Die PCGH testet immer die CPU in den anspruchvollsten Szenarien in einem Game und du scheinst immer noch nicht gerafft zu haben in 720p, was die CPU wesentlich mehr belastet als in 1080p!
Die PCGH gibt immer genau an wo und mit welchen Einstellungen sie in einem Game gebencht hat, jeder kann das mit seinem eigenen System nachvollziehen!
Ansonsten gebe ich es auf, glaubt halt das der Test richtig ist und streut Volker noch Puderzucker in den .....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Herr Melone, CMDCake, Wirzar und 5 andere
@Sennox Und jetzt hat man einen anderen Test gemacht und bekommt andere Ergebnisse. So what?

CB schreibt doch explizit, dass der Test nicht mit den vorherigen Tests vergleichbar ist. Dafür kann man die Redaktion doch nicht kritisieren. Der Schwerpunkt (Input) wurde verändert, da muss man sich doch nicht wundern, dass sich die Ergebnisse (der Output) auch ändern.

DonL_ schrieb:
[...]Die PCGH testet immer die CPU in den anspruchvollsten Szenarien in einem Game und du scheinst immer noch nicht gerafft zu haben in 720p, was die CPU wesentlich mehr belastet als in 1080p!
[...]

Erleuchte mich doch mal kurz, wieso ist die CPU Belastung in 720p wesentlich höher als in 1080p? Ist ja nicht so, dass zusätzliche Pixel von der CPU gerendert werden müssten. Wenn in AC Origins beispielsweise das CPU Limit von dem CB Test hier genau so stimmt, dann wirst du in keiner Auflösung mit keiner GPU je mehr FPS erreichen können. Es werden ja auflösungsunabhängig z.B. immer die gleichen NPCs von der CPU simuliert und mit wie vielen Pixeln die dann von der GPU gerendert werden ist nachrangig.

@marko597710 Wir habe es verstanden, du kannst Benchmark Tools bedienen und Screenshorts erstellen.
 
Zuletzt bearbeitet:
1.PNG
2.PNG
Unbenannt.PNG

ist doch egal ob intel oder amd soll doch jeder selber wiesen was er nimmt im spiel merkt man es so nicht bei 60 fps spiele so nur auf led 55 4k hdr:D
 
v_ossi schrieb:
Sonst sehe ich hier aber viele ungerechtfertigte Unterstellungen und Missverständnisse, die in erster Linie darauf zurückzuführen sind, dass man entweder nicht versteht, worauf der Test hinaus will oder man nicht die Ergebnisse sieht, die man gerne hätte.

Naja es geht doch genau darum, dass hier im CPU-Limit getestet wurde und im Releasetest von Ryzen 2 im April wurde auch im CPU-Limit getestet, ob jetzt 720p oder 1080p ist doch komplett Banane.
Nur sind jetzt die Werte drastisch schlechter für AMD, bei Intel ist es nur eine Abweichung von 5% die Vorliegt, was man als Messungenauigkeit abstempeln kann, aber bei AMD sind es teils Abweichungen von 20-30% im CPU-Limit ?

Es kann ja schlecht sein, dass AMD plötzlich durch die Bank 20-30% schlechter ist, wenn doch am Testsystem nichts geändert wurde. Wahrscheinlich wurde einfach ein Falsch konfiguriertes MB genommen oder der Speicher lief nicht korrekt auf 2933 MHz oder der Performance Boost war nicht aktiviert. etc. etc.

Irgendwas stimmt mit dem AMD Testsystem nicht.

BTW: verstehe ich nicht, warum der Schwerpunkt von dem Test anders liegt als beim Ryzen 2 Releasetest, beide hatten den Schwerpunkt CPU-Limit und da sollten so heftige Abweichungen absolut nicht möglich sein.
 
  • Gefällt mir
Reaktionen: Herr Melone, CMDCake, Wirzar und 8 andere
Ich habe einen Freesync Monitor und Spiele in 1440p.

Spiel 1440pVega 64 FPSGtx 1080 Ti FPS
Witcher 3, Ultra89.9118.8
BF1, Ultra97.1116.1
The Division, Ultra79.093.9
Destiny 2, Highest86.099.6

Also reicht eine Vega 64.
 
  • Gefällt mir
Reaktionen: CMDCake, hurcos und marko597710
v_ossi schrieb:
Erleuchte mich doch mal kurz, wieso ist die CPU Belastung in 720p wesentlich höher als in 1080p? Ist ja nicht so, dass zusätzliche Pixel von der CPU gerendert werden müssten. Wenn in AC Origins beispielsweise das CPU Limit von dem CB Test hier genau so stimmt, dann wirst du in keiner Auflösung mit keiner GPU je mehr FPS erreichen können. Es werden ja auflösungsunabhängig z.B. immer die gleichen NPCs von der CPU simuliert und mit wie vielen Pixeln die dann von der GPU gerendert werden ist nachrangig.

Dir ist schon klar, das die CPU in 720p die Daten schneller für die GPU liefern muss, weil die weniger zu rendern hat oder hast du einfach das Prinzip 720p und CPU Limit nicht verstanden?
Ansonsten scheinst du nur auf Provokation aus zu sein, ohne auf die Thematik einzugehen oder eingehen zu wollen!
 
  • Gefällt mir
Reaktionen: Herr Melone, CMDCake, Wirzar und 4 andere
auf jedenfalls mag der ryzen 2700x mehr RAM Takt man sollte den nicht unter 3200mhz laufen lassen
 
Die CPU Last pro Frame(!!) ist natürlich quasi identisch bei 720p, 1080p, WQHD, 4K.

Wenn man also im GPU Limit liegt (z.B. bei 4K) und dann die Auflösung runterschraubt (z.B. auf 720p), dann kann die Grafikkarte deutlich mehr Bilder pro Sekunde berechnen. Das heißt natürlich auch gleichzeitig, dass die CPU auch jeweils die Daten und Berechnungen für diese zusätzlichen Frames liefern muss. Also steigt die CPU Last und gleichzeitig steigt die FPS Zahl.

Die Berechnungen der CPU skalieren für Gewöhnlich nicht mit der Auflösung. (es gibt bestimmt 1-2 Spiele, wo das anders ist - sind mir aber nicht bekannt). Z.B. die KI verhält sich immer gleich, egal welche Auflösung anliegt - also muss auch immer derselbe Aufwand betrieben werden. Dasselbe gilt für Soundeffekte, Netzwerkübertragungen, diverse Physikeffekte (wenn sie nicht auf der Grafikkarte berechnet werden), etc. pp.
 
  • Gefällt mir
Reaktionen: Herr Melone, Wirzar, Gortha und 3 andere
DonL_ schrieb:
Dir ist schon klar, das die CPU in 720p die Daten schneller für die GPU liefern muss, weil die weniger zu rendern hat oder hast du einfach das Prinzip 720p und CPU Limit nicht verstanden?[...]

Dir ist aber schon klar, dass das CPU Limit nicht primär von der Auflösung, sondern der CPU abhängt?

Wenn die CPU in 1080p z.B. die KI Daten der simulierten NPCs maximal so schnell weitergeben kann, dass die GPU daraus 60 Bilder pro Sekunde berechnen kann, dann ist das CPU Limit erreicht.

Wenn du die Auflösung auf 720p runter drehst, kann die CPU nicht plötzlich schneller die NPCs, bzw. deren Verhalten simulieren. Die CPU hängt immer noch im selben 60fps Limit fest; die GPU wird nur weniger beansprucht, weil eben weniger zu rendern ist.
 
Darum geht es hier doch gar nicht!
Es geht hier einzig und alleine um die inkonsistenten Ergebnisse von CB mit Ryzen 2000 und einer 1080ti.

Ich habe 3 Spiele gebracht, die jeweils mit der gleichen CPU und GPU gebencht wurden in 720p und 1080p, wobei das Magazin das in 720p bencht, dafür bekannt ist, sehr anspruchvolle CPU lastige Szenen in allen Games auszuwählen, um das CPU Limit hervorzuheben.
Entweder gehst du jetzt auf diese Thematik ein oder läßt es bleiben!
Ich bleibe dabei, dieser Test von CB ist FALSCH und so länger er Online bleibt ohne Erklärungen oder belegbare Fakten, warum die Ergebnisse sind, wie sie sind, denke ich mir meinen Teil in eine Richtung, die mit einem baldigen Launch zusammenhängen.
Ich habe Fakten auf der Hand und hier gepostet, die meine Argumentation belegen.
Du wirst mich ohne Belege oder Fakten nicht vom Gegenteil überzeugen, habe ich mich jetzt klar genug ausgedrückt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Herr Melone, CMDCake, Wirzar und 9 andere
DonL_ schrieb:
Dir ist schon klar, das die CPU in 720p die Daten schneller für die GPU liefern muss, weil die weniger zu rendern hat oder hast du einfach das Prinzip 720p und CPU Limit nicht verstanden?
Ansonsten scheinst du nur auf Provokation aus zu sein, ohne auf die Thematik einzugehen oder eingehen zu wollen!
Wenns durch 720P zu abartigen FPS zahlen kommt, dann kommt es aber irgendwann zum Flaschenhals Framebuffer-Rasterizer-Pixelpipeline.
Dann blockiert ein Bereich Deiner GPU, der z.B. mit normalen Mitteln nicht erfasst wird (da meist nur die Core- Auslastung dargestellt wird).

Somit kann bei 720P das Ergebnis je nach Karte schon wieder ganz anders aussehen. Wie bereits erwähnt. Man testet hier ja nach Szenario unterschiedliche Flaschenhälse und deswegen muss man den Test als das nehmen was er ist.

Quick und dirty die CPUs und Karten in ein CPU belastendes 1080P Szenario mit höchsten Details werfen (um die Drawcallast aufs Maximum zu bringen) und dann das Schnittergebnis mit den derzeit aktuellen Systemen rauswerfen.

Da gibt es wenig zu verstehen und wenig zu drehen. Es ist einfach so. Ob man jetzt hier oder dort tunen könnte. Diese oder jene Funktion nicht aktiviert hat ist dabei unerheblich. Wie ich das nämlich verstanden habe, wurde der Test einfach out of the box durchgeführt.

Wenn also tatsächlich ein Fehler ursächlich wäre, dann läge dieser an OS/Treiber/BIOS Version oder Settings des Systems, was aber an der ganzen Situation nichts ändert.

Denn derjenige, der das wie in den Spezifikationen so aufbaut würde genau das gleiche Ergebnis bekommen.

Es wurde sich aber hier explizit nochmal vergewissert, dass der Testaufbau gepasst hat, um allen Unkenrufen vorzubeugen. Die Frage ist- Was jetzt?

Die Tests im ursprünglichen Parcours von vor x- Jahren noch einmal mit dem nun verhandenen Systemen gegenchecken, obwohl extra andere Szenen gewählt wurden, um die CPU zu belasten?

Nur um dann die eine oder andere Zahl wieder schöner aussehen zu lassen? Den Frieden und das Gleichgewicht wiederherzustellen? Das bringt doch nichts, weil es eben dieses Ergebnis hier und jetzt nicht egalisieren würde.

Man würde sich dann gegenseitig auf die Schulter klopfen mit einem Seufzer, dass nun glücklicherweise alles wieder im Testdurchschnitt und im Lot liegt. Dass dieser Test aber genau das Gegenteil provoziert, indem er an die extreme geht, ist doch überhaupt erst dessen Sinn!

Ich verstehe überhaupt nicht, warum sich dadurch so viele Leute angegriffen fühlen. Es macht ja keine der CPUs jetzt besser oder schlechter als sie vorher auch waren. Ryzen verliert in den normalen Spielen kein FPS zu den bereits vorhandenen Tests.

Und wenn der Test fehlerhaft ist (aus welchen Gründen auch immer), hätte das in dem Fall nicht CB zu verantworten, sondern eine Software-/Hardwarekomponente in den Systemen.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: NoName und v_ossi
Also warum meine 1080ti in Ghost Recon Wildlands um 8% mehr FPS als die 2080ti liefert und die Frametimes gegenüber dem 2600x um 7% langsamer sind lässt sich mit keiner genannten Argumentation belegen.

Da der Sinn eines Forums der gedankliche Austausch ist, denke ich mir genauso meinen Teil, wenn der Verfasser des Artikels dies weder begründet noch hinterfragt.

Fazit für mich:
Der Artikel ist weder profund noch schlüssig.
Auf gut Deutsch für die Tonne...
 
  • Gefällt mir
Reaktionen: Drainward, Herr Melone, Wirzar und 9 andere
stinger2k schrieb:
Also warum meine 1080ti in Ghost Recon Wildlands um 8% mehr FPS als die 2080ti liefert und die Frametimes gegenüber dem 2600x um 7% langsamer sind lässt sich mit keiner genannten Argumentation belegen.

Doch- Andere Architekturen- Geänderte Renderpipelines und Speicheranbindung, neue Treiber. Nicht für 2080 optimiertes Ansprechverhalten ... und ... und ... und...

Da gibts 1000 Möglichkeiten.

Grüße
Zero
 
Was hier auf einmal so manche User haben? Ist doch klar das Ryzen in Games langsamer ist als Intel. Das ist doch wirklich nichts Neues und wenn man es wie hier darauf an legt und im CPU-Limit testet ist das schon klar das die Abstände größer werden.
Hier reicht eben schon ein 8700K auf Standard aus um in Spielen schneller zu sein. Vielleicht hätte CB noch einen übertakteten 5,2 Ghz 8700K mit einbauen sollen, dann wären die Gesichter noch länger... ;)

Volker hat bereits erklärt das sich die Testbedingungen, die Savegames etwas geändert haben, daher lassen sich alte Ergebnisse auch nicht miteinander vergleichen. Zudem die Geschichte mit dem Treiber wurde bereits auch mit eingebaut.

Beispiel: Erklärung Volker
 
  • Gefällt mir
Reaktionen: Stuntmp02 und .Sentinel.
DonL_ schrieb:
Darum geht es hier doch gar nicht!

Verdammt, dann habe ich den Test wohl vollkommen falsch gelesen. Ich dachte schon nach dem Aufmacher, dass es genau darum geht. Das CPU Limit.

tl;dr: Wie schnell muss der Prozessor sein, damit GeForce RTX 2080 und 2080 Ti ihre Leistung im CPU-Limit ausspielen können? ComputerBase hat es mit den Prozessoren AMD Ryzen 5 2600X und Intel Core i5-8400 sowie AMD Ryzen 7 2700X und Intel Core i7-8700K auch im Vergleich zur GeForce GTX 1080 Ti nachgemessen.

DonL_ schrieb:
Es geht hier einzig und alleine um die inkonsistenten Ergebnisse von CB mit Ryzen 2000 und einer 1080ti.
[...]
Ich bleibe dabei, dieser Test von CB ist FALSCH und so länger er Online bleibt ohne Erklärungen oder belegbare Fakten, warum die Ergebnisse sind, wie sie sind, denke ich mir meinen Teil in eine Richtung, die mit einem baldigen Launch zusammenhängen.
Ich habe Fakten auf der Hand und hier gepostet, die meine Argumentation belegen.[...]

Das Problem ist doch: deine Fakten, in diesem Fall vornehmlich die PCGH Fakten, passen nicht zu den CB Fakten, die hier präsentiert werden. Das stimmt soweit; nachweislich und belegbar.
Du lässt aber konsequent außen vor, dass die PCGH Fakten und die CB Fakten einfach nicht vergleichbar sind.

Es können durchaus beide Ergebnisse stimmen.
 
  • Gefällt mir
Reaktionen: Stuntmp02 und .Sentinel.
Ist vielleicht der RAM schuld? Dazu finde ich nirgends Angaben. Vielleicht bencht der eine mit DDR4-4000 und der nächste mit DDR4-2133 oder so :?
 
benneque schrieb:
Ist vielleicht der RAM schuld? Dazu finde ich nirgends Angaben. Vielleicht bencht der eine mit DDR4-4000 und der nächste mit DDR4-2133 oder so :?

Als Mainboard kamen für die Lösungen Gigabyte Z370 Aorus Ultra Gaming mit letztem finalen BIOS sowie das Asus Crosshair VII Hero jeweils gepaart mit 16 GByte DDR4-Speicher zum Einsatz. Bei den Taktraten wurden die von den Herstellern offiziell vorgegebenen gewählt.

Leider sind diese Angaben aber ziemlich nutzlos, da man nicht weiß ob die vom Mainboard spezifizierten 2666Mhz oder die von AMD spezifizierten 2933Mhz und dazu welche Latenzen benutzt wurden. Bisher wurde auch trotz mehrfacher Nachfrage nicht darüber aufgeklärt, was ich sehr schade finde.
 
  • Gefällt mir
Reaktionen: Wirzar und Gortha
XTR³M³ schrieb:
ich bin echt nah dran, mir schnell nen 8700k und nen passendes brett zu bestellen, um das ganze selber nachzustellen bzw. zu widerlegen.... :freak:

Wie sieht denn deine Spielebibliothek aus? Du scheinst eine optimierte Ryzen Plattform zu besitzen. Ich besitze eine optimierte Coffee Lake Plattform, da können wir die Ergebnisse vergleichen.

Ich kann Far Cry 5, Ghot Recon Wildlands, The Division, Tomb Raider etc Benchmarks liefern. Die besitzen allesamt integrierte Benchmarks. Die Vergleichbarkeit ist also gegeben.
 
  • Gefällt mir
Reaktionen: Gortha
Ich glaube wir sind uns alle einig das sich CB bei diesem "Test" hier nicht grad mit Ruhm bekleckert hat. Unvollständige Angaben zum Testsystem und nicht schlüssige reproduzierbare Ergebnisse die signifikant von allen anderen externen Tests abweichen.
Die Art und Weise wie hier scheinbar "getestet" wurde ist leider als amateurhaft zu bezeichnen.
 
  • Gefällt mir
Reaktionen: Herr Melone, CMDCake, Wirzar und 4 andere
Zurück
Oben