Bericht CPUs von AMD & Intel im Test: Unsere Testergebnisse waren falsch

Taxxor schrieb:
Dieser 99th Unterschied ist natürlich enorm, den hatte ich bisher gar nicht bemerkt, danke dafür.

Ich sehe zwar beim Blick auf die Tabelle mit den 4 genannten Spielen +84% und nicht +90,7 aber sei's drum, beides enorm und völlig utopisch zu glauben, dass es rein an einer anderen Testszene oder irgendwelchen Microcode Updates liegt, dass der 2600X hier nur noch halb so schnell ist, wo er vorher nur 13% langsamer war.

Der Sprung kommt fast ausschließlich durch die völlig unterirdische Performance in Kingdom Come: Deliverance. Dort ist der 2600X nicht mal halb so schnell wie der 2700X, was überhaupt keinen Sinn ergibt. Allerdings ist es komisch, dass CB andere Durchschnittswerte rausbekommt. Ich habe für jedes Spiel einzeln die relative Geschwindigkeit ausgerechnet (also 2600X bzw. 2700X = 100%, 8700K dann entsprechend im Verhältnis) und dann den Durchschnitt davon gebildert. Eventuell hat CB die fps addiert und dann den Schnitt gebildet, was nicht sehr klug wäre. Allerdings ist mir gerade noch ein Fehler in meiner Formal aufgefallen. Ich werde meinen Post oben gleich editieren. Komme aber trotzdem noch auf 90,7% für 2600X -> 8700K in Frametimes. Nevermind, stimmt doch :freaky:
 
AMD wird noch viel mehr Probleme bei Spielen bekommen, wenn sie längere Zeit keine Higend-Grafikkarten im Angebot haben.
Es reicht aus, wenn sie irgendwann bei anspruchsvollen Spielen an die Hardware bei empfohlener Grafikkarte nicht mehr aufgeführt werden. Dann steht dort zum Beispiel RTX1080 und GTX1080ti und keine RX Vega mehr. Die meisten verfolgen keine Fachgespräche und Techniktests, bei denen so macher Marketingtrick aufgedeckt wird. Die wollen sich auch gar nicht groß mit der Technik auseinandersetzen. Es soll funktionieren und von bekannten Marken sein, am besten von den Marktführern und da ist AMD nicht mehr dabei. Weder bei GPU noch bei den CPUs können sie Spitzenleistung bei Spielen vorweisen. AMD ist MIttelmaß, kein Leuchtpunkt, um sich daran zu orientieren. Alle gucken darauf, was Intel und Nvidia vorgeben.
Dafür kann man keinen Tester verantwortlich machen, der nur die Fakten wiedergibt.
 
xexex schrieb:
Standard bei AMD ist 2933, zu 3200 ist da nur noch ein Taktsprung und mit besondern teuren RAM, bessere Latenzen. Das macht keine 10-15% aus.
Stimmt, das macht im CPU Limit häufig sogar 30%+ aus.
 
  • Gefällt mir
Reaktionen: valnar77
Chillaholic schrieb:
Mehr als 640 Kilobyte Speicher braucht kein Mensch"
Was ist denn mit 240Hz Gaming? Schon mal davon gehört?
Um 144Hz auszulasten braucht man oftmals schon ne 1080/1080ti/2080

ja, um die 144hz auszulasten brauchst du ein system was im entsprechenden titeln auch die höheren frameraten erreichen - das bringt einem eigentlich nur noch im bereich e-sport was, wo man extra mit low-settings spielt um den klitzekleinsten vorteil zu haben.
wir könnten uns hier jetzt mit argumenten beharken warum 240hz toll oder unsinnig ist, aber dass brauchen wir nicht machen, den gegen physik und bio-(chemie) kommt man auch mit irgendwelchen fantasievorteilen nicht an.
irgendwo ab 120hz ist die qualität und die tatsächliche schaltgeschwindigkeit des verbauten panels viel relevanter als "wieviel hz" die karte an den monitor ausspuckt..
 
Capthowdy schrieb:
Genau deswegen erwarte ich von einer seriösen und vor allem neutralen Testseite auch die Überprüfung der eigenen Ergebnisse. Wenn solche Unterschiede auftreten, dürfen wir alle hier von CB erwarten, dass dem nachgegangen wird und zwar ohne das wir darauf hinweisen müssen. Solche wiedersprüchlichen Ergebnisse einfach mal rauszuhauen um dann zu sehen, ob es überhaupt ein Echo gibt, ist IMHO nicht seriös.

Du kannst Dir sicher sein, dass CB kein solches Risiko eingeht. Wie gesagt - Es ist eine Momentaufnahme.
Wozu die Coffee Lake im ABSOLUTEN CPU Limit aufgrund der Taktung und der Latenzen fähig ist, war schon weit vorher bekannt.

Dass dieser Unterschied in der Praxis oftmals kaum oder erst mit der Zeit zum tragen kommt, war auch abzusehen.
Ich gehe davon aus, dass die ursprünglichen, wie auch die neuen Tests ihre Richtigkeit haben, aber im allgemeinen nicht Praxisrelevant sind.

Grüße
Zero
 
Der 8700k ist ca. 9-10% schneller bei einer Auflösung von 1080P und auf 1440P beträgt der Vorsprung nur noch 4%. Wie man hier in diesem Test auf solche Werte kommt erschließt sich mir nicht. Gerne könnt Ihr euch auf Youtube paar Benchmarks angucken. Der Unterschied ist wirklich nicht so groß wie hier dargestellt, denke hier scheint Intel seine Finger wieder im Spiel zu haben.
 
C.J. schrieb:
Der Sprung kommt fast ausschließlich durch die völlig unterirdische Performance in Kingdom Come: Deliverance. Dort ist der 2600X nicht mal halb so schnell wie der 2700X, was überhaupt keinen Sinn ergibt.
"fast ausschließlich" ist auch falsch. Nimmt man KC:D raus und nimmt nur die verbleibenden 3 Spiele, sind es immer noch +54% für den 8700K im Vergleich zu +16% beim 2700X Test

Dort ändert sich an den +16% übrigend überhaupt nichts, wenn man KC:D wieder dazunimmt. Und dabei kam doch dafür auch zwischenzeitlich noch ein Patch(ich glaube das war sogar nach dem 2700X Release) der die CPU Auslastung verbessert, was ich mit meinem 1600X auch wunderbar gemerkt habe, 15-20fps mehr in Rattay.
 
Ich finde es seitens der CPU und GPU Hersteller beschämend das die Leistung immer noch nicht reicht um Crysis zu benchen ! ;)

Btt: Das Bild der Leistungsunterschiede ist eigentlich wie bereits bekannt. Warum Ryzen im Verhältnis dieses mal schlechter ausfällt ist trotzdem Interessant. Ein Nachtest würde der Sache bzw den Artikel gut tun. Mir gefällt das Testszenario vom @Krautmaster .
 
ZeroZerp schrieb:
Du kannst Dir sicher sein, dass CB kein solches Risiko eingeht. Wie gesagt - Es ist eine Momentaufnahme.
Wozu die Coffee Lake im ABSOLUTEN CPU Limit aufgrund der Taktung und der Latenzen fähig ist, war schon weit vorher bekannt.

Dass dieser Unterschied in der Praxis oftmals kaum oder erst mit der Zeit zum tragen kommt, war auch abzusehen.
Ich gehe davon aus, dass die ursprünglichen, wie auch die neuen Tests ihre Richtigkeit haben, aber im allgemeinen nicht Praxisrelevant sind.

Grüße
Zero
Das schließt sich bei den eklatanten Differenzen technisch aus, ausser der Treiber wurde massiv manipuliert, keine CPU verliert plötzlich 20-30% mit der gleichen Grafikkarte, das ist schlicht unmöglich!
 
ErrorClone schrieb:
Der 8700k ist ca. 9-10% schneller bei einer Auflösung von 1080P und auf 1440P beträgt der Vorsprung nur noch 4%. Wie man hier in diesem Test auf solche Werte kommt erschließt sich mir nicht. Gerne könnt Ihr euch auf Youtube paar Benchmarks angucken. Der Unterschied ist wirklich nicht so groß wie hier dargestellt, denke hier scheint Intel seine Finger wieder im Spiel zu haben.
Der 8700K ist schon mehr als 9-10% schneller. Die Spiele IPC ist vielleicht 10% mehr, aber du musst dabei bedenken, dass der 8700% nochmal schneller Taktet.

Trotzdem ist dieser Test extrem komisch. Wenn CPU Test, wieso dann nicht gleich 720p?
 
cypeak schrieb:
ja, um die 144hz auszulasten brauchst du ein system was im entsprechenden titeln auch die höheren frameraten erreichen - das bringt einem eigentlich nur noch im bereich e-sport was, wo man extra mit low-settings spielt um den klitzekleinsten vorteil zu haben.
Es ist übrigens auch möglich 144 FPS mit höheren Details und einer schnelleren Grafikkarte zu erreichen.
Dazu muss man auch nicht E-Sports Profi sein um einen Vorteil durch höhere FPS zu erhalten.
 
dr i5 8400 ist schon recht stark für nur 6 kerne ohne ht
 
DonL_ schrieb:
Das schließt sich bei den eklatanten Differenzen technisch aus, ausser der Treiber wurde massiv manipuliert, keine CPU verliert plötzlich 20-30% mit der gleichen Grafikkarte, das ist schlicht unmöglich!

Doch- So wie früher bestritten wurde, dass eine Grafikkarte im RAM- Limit auf teilweise 20% ihrer Leistung zurückfallen kann, ist es hier auch.

Schau Dir doch den Superposition Benchmark oder den DX API Test an, der den Flaschenhals misst.
Kleinste Nuancen und die Lösung unterschiedlichster Flaschenhäls machen da auch mal gerne das Doppelte an FPS aus.

Das hat schon alles seine Ordnung. Sind aber halt extreme, die hier gleich wieder zu Schnappreflexen führen.
Ich experimentiere schon lange mit CPU Flaschenhälsen herum:

Hier:
https://www.computerbase.de/forum/t...-grafikkarten-benchmark.1674357/post-21396101

oder hier:
https://www.computerbase.de/forum/t...le-im-api-overhead-test.1669390/post-20806132

Das sind Extremszenarien. Dennoch kann derjenige, der damit was anzufangen weiss gewisse Dinge extrapolieren, die auch für die Zukunft gelten.

Da kommt ein Ryzen, wie es Krautmaster so schön gesagt hat, aufgrund der Taktbeschränkung/Latenz im Augenblick tatsächlich mit einigem Abstand NOCH nicht mit.

Ist wie mit den neuen Speichertechnologien wie Optane zu sehen. Die Ressource Optane kann aufgrund von Hardware-/Softwareflaschenhälsen derzeit kaum in Realleistung umgesetzt werden.

Das kann sich in Zukunft aber auch schnell ändern...

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: v_ossi
HtOW schrieb:
weil das zu 100% der selbe prozessor wie der 8700k ist inklusiv sämtlicher prozessor spannungen und taktraten bis auf die höhere power stage und den selbsttaktenden 5ghz als boost.
Außer, dass der i5 kein Hyperthreading hat - was durchaus einiges ausmachen kann. Wird in paar Jahren deutlich mehr ausmachen als heute.

Sieh dir nen i5 2500k vs. i7 2600k an. beide 4 kerne und "identsich", aber der i7 hat Hyperthreading. Und zieht in den meisten aktuellen Games daher um 30-40% fps davon.
Das kannst du sogar bei Assassin's Creed Origins und der 7. Kaby Lake generation beobachten (i5 7600k vs. i7 7700k). Ohne Hyperthreading einfach viel zu wenig threads und nicht in der Lage 60 fps zu halten.


Kurz gesagt: i5 8600k und i7 8700k sind eben NICHT 100% identisch. Hyperthreading kann gerne grob bis zu 40% mehr Leistung ausmachen.
 
Einige sollten mal den Begriff "Momentaufnahme" nachlesen. Ein Benchmark mit Ergebnissen spiegelt nie die absolute Performance eines Spiels wieder. Nur weil eine Momentaufnahme ein Performanceplus von 11% wiedergibt, heißt das nicht automatisch, dass der Wert nicht weiter ansteigen kann. Je nach Testszene, je nach Settings variiert die Leistung stark.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Assassin's Creed® Origins2018-9-26-16-44-56.jpg
Habe mal eben gebencht in AC: Origins, komme mit meinem R7 1700 ebenfalls auf 92FPS wie der 8700k. Warum der 2700X nur 77FPS schaffen soll laut Test verstehe ich nicht!
 
  • Gefällt mir
Reaktionen: JohnVescoya, Cenek, DarknessFalls und 4 andere
Hat da CB wieder mit dem DDR2-800er Riegel aus der Grabbelkiste gebencht? :freak:
 
  • Gefällt mir
Reaktionen: Terminator-800, Bard und karl_laschnikow
Zurück
Oben