Bericht CPUs von AMD & Intel im Test: Unsere Testergebnisse waren falsch

Sag ich ja. ;)

Aber auf was willst du hinaus? Dass noch nen Chip mit neuer Maske in 12nm komme soll?

Klar is es für AMD weit sinnvoller sich auf den nächsten Node zu konzentrieren als Geld im Refresh zu versenken.
 
Ich will darauf hinaus, dass wenn der Leak über dieses early 8c/16t ZEN2 Sample stimmt, sie verdammt weit sind 6-8 Monate vor Launch, egal ob der hier und da mal crasht.

Außerdem kann Polaris ein 12nm Step zum Weihnachtsgeschäft nur gut tun, Polaris hat kein Leistungsproblem, solange die 1060 der Hauptkonkurent ist, sonder ein Effizienzproblem.
Meine Karte (RX 570) läuft undervolted und zieht beim popeligen World of Warships mit Werkstaktraten aber massiv gesenkten Stagevoltages 30Watt weniger aus der Steckdose.
 
Krautmaster schrieb:
@Iscaran

Das ist nicht so einfach. Beim Ryzen 2700X kann man sich das schenken da eh immer am Limit.

Beim i7 hat man für den Test relevanten Turbo von knapp 5ghz anyway. Denke beide Modelle geben sich rein vom CPU Takt stock zu OC max 10%. Die meisten Unterschiede kommen in der Tat vom RAM. Gerade beim 2700X.

Außerdem kann man den eigentlichen Takt kaum auslesen da jeder Kern verschieden taktet. Wüsste bei mir nicht wie ich das verlässlich sagen soll.
Beim i7 8700k beträgt der all core Turbo 4,3 GHz @stock, nur single core ist der Turbo bei 5 GHz 4,7 GHz.
 
Ja, aber bei den Game Tests dürfte genau dieser eher entscheidend sein und wir wissen auch dass viele Boards nen weit höheren All Core fahren.

Denke real Takt liegen da schnell 4,7 und mehr an.

@ZEN 2 Sample

Naja. Frage mich eher wieso AMD ein derart instabile Sample auf die Straße schicken soll. Der im Forum behauptet ja iwas von Games oder GPU Treiber darauf optimieren. Ergibt für mich nich wirklich viel Sinn.

Da brauch ich keine instabilen Taktraten für ansetzen sollte es daran liegen.
 
Zuletzt bearbeitet:
Ich dachte die Leute schauen beim Benchen auch in HWMonitor oder CPUz:lol:
 
Ich habe geschaut und bei mir waren es in den Spielebenches meistens um die 4,05Ghz rum. Mal leicht mehr, mal nicht. Wir haben ja im CPU limit gebencht und was ich bei sottr und aco gesehen habe werden auch mehrere Kerne gut genutzt, da ist dann auch nix mehr mit 4,3Ghz.
Falls natürlich der Intel boost noch deutlich aggressiver ist...
 
Taxxor schrieb:
Nur sagt dein Quote, dass er nicht allgemein dichter ist, nur in bestimmten Teilen.
Richtig, in der Logik ist Intel 10nm dichter, im SRAM (->Cache) ist 7nm TSMC dichter.

Schaut man sich einen Coffee Lake die Schema an, sieht man, dass die Logik de Kerne eine höhere Fläche einnimmt als der L3. Der L1 und der L2 sind hier nicht aufgeführt und ich finde auf die schnelle kein Schema eines einzelnen Kerns um die Fläche des L1 und L2 abzulesen. Wenn wir das sehen, können wir abschätzen ob Intels 10nm insgesamt dichter ist.
https://en.wikichip.org/wiki/File:coffee_lake_die_(hexa_core)_(annotated).png

@Krautmaster

In meinen stock Tests lief der Coffee Lake mit den Intel vorgesehen Taktraten von 4,3Ghz all core und 4,7GHz single core. ASUS Multicore enhancement war aus.
Edit: Und kein board taktet den 8700k ohne manuelles OC auf über 4,7Ghz
 
Ja aber ob 4,05 oder 4,3 is quasi unerheblich. Denke nicht dass der CPU Takt da viel Unschärfe rein brachte. Bin eher erstaunt wie gut zb die 95% CPU Frames da bei Tomb Raider mit den Specs skalieren.

@ 8700K stock.
Denke dennoch dass sie da ne Ecke über Base taktet.

Gut, dafür müsste man nochmal nachbenchen und nur RAM und Cache optimieren. Aber eig juck, es ging ja in erster Linie darum was man aus den Systemen rausholen kann :)
 
Beim Ryzen 2700X kann man sich das schenken da eh immer am Limit.

Was heisst "Limit" in Megahertz ? Ich wäre beim Benchmarking und insbesondere beim daraus schlüsse ziehen immer Vorsichtig mit solchen Pauschalaussagen !

In den bisherigen daten sieht man sehr gut wie krass der ganze Bench mit singleCore Takt skaliert - schau dir nur mal die 8700K Werte mit 1080 Ti GPUs an mit stock, und 5GHz und 5.1 GHz...

Das macht DEUTLICH mehr effekt als das spielen an den Timings.
Man sieht denke ich übrigens auch sehr gut dass wenn man das "vermeintliche" CPU-Limit erreicht und an der RAM-Latenz dreht hier noch deutlich was nach oben geht. Das ist für mich ein Indiz auf ein Problem in der Pipeline - man kann schlicht nicht genug passende Befehle zur CPU füttern damit diese das Rendering an die GPU prozessiert (bzw. man hat vermutlich mit dependenzen zu kämpfen, man braucht halt eben die Daten vom vorherigen Frame für den nächsten etc.)

Berechnet doch mal z.B. FPS/MHz Single Core Takt (bei gleicher GPU und gleichem Benchmark)...oder Punkte/FPS und ähnliches und ihr werdet denke ich sehen das der Tombraider Bench hier etwas seltsam aussieht.

ACO ist hier deutlich konsistenter.
 
woher willst du wissen wie er über Single Core Takt skaliert wenn du keine Angabe dazu hast?

Bei den Ryzens zb kannste davon ausgehen das alle 2700X um paar Mhz hin oder her identisch takten. Da man bei Ryzen ja auch nicht den Max Turbo getrennt vom All Core setzen kann macht so ein fixes OC zb auf 4,2 ghz eh wenig Sinn, dadurch verliere ich wieder 150 Mhz XFR Takt, profitiere eigentlich nur bei absoluter All Core Vollast (und dann kaum 5%)

Hätte ich einen würde ich ihn vermutlich auch "stock" betreiben und nur den Ram ordendlich optimieren.

Bei vielen Benchmarks außerhalb dieses User Tests sah man übrigens dass >5 Ghz bei Intel übrigens kaum noch skaliert. Vielleicht trägt da dann aber der parallele Cache / Ram OC dazu bei dass es doch skaliert ja.

Aber eigentlich auch nahezu Wurst ob der Gain nun durch CPU Takt oder Ram kommt oder? Viel mehr als 10% Mehr Takt werdens wie gesagt nicht sein, das wären 500Mhz und wie schon geschrieben nehme ich an dass der Takt meist zwischen 4,5 und 5 Ghz gelegen haben wird, auch stock. Muss also der Rest der teils >30% vom Ram und Cache kommen. Wie bei Ryzen auch.
Ergänzung ()

@aco
hat nicht mal ne vernünftige Angabe zu Min oder so. Es skaliert bei den Totals halbwegs ja, aber da man da doch recht oft im GPU Limit ist ...

Generell skalieren alle Titel die wir angeschaut haben verhältnismäßig gut.
Ergänzung ()

@ Scaling

Vermutlich macht es die Mischung aus beidem, wie bei Grafikkarten auch. Gut skalieren tut es wenn man beide Parameter anzieht. Speicheranbindung und Chiptakt.
Sonst wird eines von beidem eben der Flaschenhals.

Nicht wirklich überraschend.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Muss also der Rest der teils >30% vom Ram und Cache kommen. Wie bei Ryzen auch.

Exakt- Die Kerne bzw. die Pipelines sind sonst unterversorgt und verbraten CPU Zyklen mit der Anforderung von Daten.

Sieht man sehr schön an der 4,7-4,8 GHz Mauer (allcore), die der Coffee Lake in vielen Szenarien zeigt, wenn man nicht Cache und Ram hochzieht. Es wird mit steigender Kernanzahl immer schwieriger diese Adäquat mit Daten zu füttern.


https://de.wikipedia.org/wiki/Von-Neumann-Architektur#Memory-Wall

Logisch und nachvollziehbar...

Deswegen sage ich immer wieder... Kerne sind nicht alles.... Und mit steigender Anzahl sinkt der Grenznutzen durch die stetig abnehmende Zahl von Anwendungen, die diese Kerne nutzen können.

Beim Rendern ist es z.B. kein Problem die CPUs durch hohe Cache Hits und einem persistenten Working- Set zu versorgen.

Bei Anforderungen in welchen ein durchgängiger Austausch mit dem RAM oder schlimmstenfalls dann noch auf den Primärdatenträger stattfinden muss, löst sich der Vorteil dann schnell in Luft auf.

Es sieht dann so aus, als ob die CPU nicht ausgelastet wäre, jedoch ist sie hart am Versorgungslimit.

Grüße
Zero
 
Zuletzt bearbeitet:
woher willst du wissen wie er über Single Core Takt skaliert wenn du keine Angabe dazu hast?

Es sind ein paar Messungen dabei wo die Taktraten z.B. der 8700er angegeben sind.

Aber eigentlich auch nahezu Wurst ob der Gain nun durch CPU Takt oder Ram kommt oder?

Es ist nicht egal um zu verstehen was CB hier gemessen hat, und das ist/war doch der Auslöser für die Benchmarkorgie ?

Hat CB einen Intel mit 4133er RAM (ggf. auch noch mit Auto-OC BIOS) gegen einen Ryzen mit deaktiviertem XFR auf 2400er RAM getestet (und sei es nur aufgrund irgendeines BIOS-Bugs) ? Oder nicht.

Das wollen wir doch wissen.

Die Ergebnisse der bisherigen Benches zeigen mitnichten derart deutliche Trends wie der CB Test, und das selbst mit einem 5GHz OC 8700 vs stock 2700X
geposted hier von nospherato und Tibone1990:
https://www.computerbase.de/forum/t...ergebnisse-waren-falsch.1825920/post-21773062
8700k stock 2666 stock RAM

720p low AA off
CPU: 7 / GPU: 8 / FPS: 125 / Total: 14917 - 8700k + 2666 CL16 + 1080ti

vs

Ryzen 2700X (stock CPU und stock Memory Ergebnisse):
AC:O 720p AA off low preset

CPU: 9 / GPU: 9 / FPS: 107 / Total: 12884 - Ryzen 2700x + 2933 xmp (16-16-16-36) + 1080ti

125 vs 107 = 117% / 100 %

Der Stock 8700 hat SingleCore Boost 4700 der Ryzen 2700X mit XFR maximal 4300 (4700/4300= 9% Takt)
Zur aktuellen IPC nach Spectre/Meltdown hab ich keine guten Werte im Kopf - prä Meltdown war der 8700aber IPC etwas schneller (sagen wir 5%, ich glaube der 2700X hatte ca 41 Punkte/GHz im Cinebench 15, der 8700k kommt hier auf ca 43)
=> 1.09*1.05 = 1.14 Mehrleistung single core....

wir sehen 17% . Die differenz zu den erwarteten 14% das kann das RAM etc machen bzw. liegt im Rahmen der Schwankungen.

CB hat hier jedoch einen MITTELwert von ~23% und das in 1080p und NICHT 720p. !

Mit anderen Worten auch eure UserBenchmarks zeigen was praktisch bislang jeder Test gezeigt hat - der Vorsprung von 8700K zu 2700X beträgt in Games irgendwas zwischen 10-20 % - meist so ~15%. Nicht so jedoch dieser CB-Test.

=> Das wollen wir doch klären - niemand hat hier bestritten dass in den meisten Games aufgrund der SingleCore-Leistungspräferenz eine 8700k nicht bei low 720p die bessere Wahl ist - allerdings haben nahezu ALLE die erhaltenen Werte von CB angezweifelt die sich aus der mangelnden Transparenz des Tests ergeben haben.

Btw. über die Aussagekraft von Latenzeffekten im "CPU-Limit" bzgl. sinnvoll erhaltbarer Maximaler FPS (also im Bereich >>200FPS) müsste man noch mal getrennt diskutieren. Oft würden schon geringfügige Anpassungen in der Renderengine hier zu völlig anderen Ergebnissen führen ! Sobald der RAM einen derartigen Einfluss auf die Ergebnisse hat ist es in der Regel eher ein Pipeline/Dependenz Problem, welches nunmal die Softwarentwickler angehen müssen. Für die Game Developer ist aber das optimieren auf >100 FPS in der Regel völlig egal. Und deswegen sieht man eben bei etwas chaotischem Code öfter den Fall dass hier die Latenzoptimierung übers RAM derart bei den "low settings" die FPS hochtreiben kann. Auch sind in dem Fall die erhaltenen Ergebnisse sehr inkonsist. Andere GPU, anderer Treiber verändert in den Fällen die Ergebnisse oft direkt auch im 2-stelligen Prozentbereich)
 
  • Gefällt mir
Reaktionen: Gortha
Krautmaster schrieb:
Bei den Ryzens zb kannste davon ausgehen das alle 2700X um paar Mhz hin oder her identisch takten. Da man bei Ryzen ja auch nicht den Max Turbo getrennt vom All Core setzen kann macht so ein fixes OC zb auf 4,2 ghz eh wenig Sinn, dadurch verliere ich wieder 150 Mhz XFR Takt, profitiere eigentlich nur bei absoluter All Core Vollast (und dann kaum 5%)

Hätte ich einen würde ich ihn vermutlich auch "stock" betreiben und nur den Ram ordendlich optimieren.

Trifft leider so nicht ganz zu, da es sehr stark vom Board abhängig ist.
z.B. halten die Boards mit pe (crosshair oder strix) den boost deutlich besser als beispielsweise mein x470 pro. Egal ob ich hier mit Standardwerten oder eigenen Limits (1000/1000/1000) arbeite oder scalar auf x10 setze, setzt der 4350Mhz boost nur eher selten ein; bei 2 cores, wenn überhaupt, noch auf 4250-4300 Mhz und danach ist Schluss und das Ding geht auf unter 4200Mhz (und das im kalten Zustand bei unter 50 Grad).
Die Spannung die da anliegt bewegt sich hierbei bei 1,45V-1,52V.
Beim allcore boost erreiche ich meist so um die 4100~ bei 1,4xV.

Deshalb habe ich lieber mein manuelles OC bei stabilen 4,2Ghz allcore bei weniger Spannung.

Würde die CPU, wie bei den pe boards, den boost länger und zuverlässiger halten, würde ich auch nicht manuell eingreifen, allerdings mehr Spannung für weniger Takt sehe ich nicht wirklich ein. Dadurch dass Windows eh meist die Threads verteile wie bekloppt, sind die singlecore boosts leider eher selten anliegend.
Sieht man ja auch an den Benchmarks, dass der Unterschied hier eher positiv für 4,2Ghz ausfällt, wenn auch nicht arg; aber dennoch bei weniger Spannung.

@Iscaran
Der 2700x kommt mit xfr bis auf 4350 Mhz. Ist allerdings bei AC:O natürlich deutlich niedriger, hier lagen, meine ich, beim Benchlauf die Taktraten bei mir so um die 4135~ Mhz.
Denke je nach Board und Kühlung wird das auch gerne mal auf um die 4050~ Mhz fallen.
 
mag sein aber alles in allem sind das ja nur wenige %, ob nun 4,1 All Core + 4,3 Ghz Turbo 1 Core oder manuell 4,2 All Core sollte was die Benches angeht kaum den Brei fett machen.
 
Denke je nach Board und Kühlung wird das auch gerne mal auf um die 4050~ Mhz fallen.

Und schon sehen wir 4700 vs 4050 MHz dank der etwas unglücklichen Thread-Warperei von Windows (was seltsamerweise auf Intel-CPUs selten zum Abschalten des SingleCore boosts führt).

4700/4050 ~16% Takt...passt ja wie Faust auf Auge zu den beobachteten 17% FPS differenz. Wer hätte das nur geglaubt ?

Verstehe bis heute nicht warum CB (und andere Reviewer) nicht mittels CPU-Z die Taktraten während dem Benchen mitloggen und dann den jeweiligen mittelwert z.B. mit Angeben (zumindest mal exemplarisch in einem Test).
Man könnte soooooviel mehr damit anfangen.
Ergänzung ()

mag sein aber alles in allem sind das ja nur wenige %, ob nun 4,1 All Core + 4,3 Ghz Turbo 1 Core oder manuell 4,2 All Core sollte was die Benches angeht kaum den Brei fett machen.
Doch 4.3/4.1 = 5%....also z.B. die Differenz zwischen 17% euer Test zu ~23% CB Test !

Echte Taktraten beim Messen des CPU-Limits sind ENORM wichtig !
 
  • Gefällt mir
Reaktionen: Gortha
Iscaran schrieb:
Die Ergebnisse der bisherigen Benches zeigen mitnichten derart deutliche Trends wie der CB Test,

Kann man ja auch nicht 1:1 vergleichen nur eine Tendenz ableiten. Völlig anders zusammengewürfelte Systeme und ohne das Savegame kann man das nicht direkt vergleichen.
Immerhin hat das einige Beschäftigt...^^
 
Iscaran schrieb:
Und schon sehen wir 4700 vs 4050 MHz dank der etwas unglücklichen Thread-Warperei von Windows (was seltsamerweise auf Intel-CPUs selten zum Abschalten des SingleCore boosts führt).

4700/4050 ~16% Takt...passt ja wie Faust auf Auge zu den beobachteten 17% FPS differenz. Wer hätte das nur geglaubt ?

hm? Es geht doch um den 2700X. Ich komm nich mit ^^
Und woher nimmst du die 17% FPS Differenz im Detail?

Wenn du bei +-5% CPU Taktraten bei den zahlreichen 2700X in unseren User Tests aber Differenzen von
  • 13988 Punkte / 54 FPS 95% CPU - Ryzen 2700X + 2400Mhz CL15 + RTX 2080
  • 21376 Punkte / 79 FPS 95% CPU - Ryzen 2700X + 3200Mhz CL14 + GTX 1080 TI
(Tomb Raider 720p DX 11) = +46% CPU Frames

siehst, dann wird es wohl deutlich eher am RAM anstatt des CPU Taktes liegen, logisch oder (da eben in deinen wie auch meinen Worten vllt 5% zwischen dem einen 2700x und dem anderen liegen werden)? Ich dachte es geht darum ob die Leitung nun eher durch den Mehrtakt der CPU zu Stande kommt oder durch den Ram, innerhalb einer Plattform.

Oder nimmst du Bezug auf den Unterschied Intel / AMD ein, der ja zumeist größer als 17% ist?

Edit: Um den Vergleich zwischen Intel und AMD (absolut gesehen) ging es mir jetzt weniger. Die User Tests und der des CB Test zeigen ja dass der im CPU Limit groß sein kann, auch nicht nennenswert kleiner wird sofern man beide Systeme mit Ram und auch CPU Takt optimiert. Beide Systeme skalieren super über den Ram und Cache, ganz gleich ob natürlich ein Initial Abstand auch wegen CPU Takt besteht.

Im Prinzip ist es auch relevanter zu wissen was und wie viel man wie man aus der eigenen Plattform rausholen kann, weniger zu wissen ob es nun 25 oder 40% Unterschied zwischen optimiertem Ryzen System oder optimiertem Intel System macht und ob da nun der Takt des i7 8700K 10 oder 20% ausmacht. Finde ich.

(das interessiert wenn man mit ner Top End GPU auf 1080p zocken will und ein neues System beschafft werden soll)
 
Zuletzt bearbeitet:
Flynn82 schrieb:
Ich habe geschaut und bei mir waren es in den Spielebenches meistens um die 4,05Ghz rum. Mal leicht mehr, mal nicht. Wir haben ja im CPU limit gebencht und was ich bei sottr und aco gesehen habe werden auch mehrere Kerne gut genutzt, da ist dann auch nix mehr mit 4,3Ghz.
Falls natürlich der Intel boost noch deutlich aggressiver ist...

Also bei einer guten AiO mit Flüssigmetall dazwischen sollte dein 2700x auf dem einen oder den beiden maximal ausgelasteten Kernen schon seine 4,2 bis 4,3 GHz gemacht haben...

Mein 2600x macht in Games (meine ich wo ich das mal vor ein paar Monaten geloggt hatte (HWInfo64)) eigentlich bei einigen Kernen maximal-Takt von 4250 MHz... bei dir wären das 4350 mit XFR+PBO.
 
Krautmaster schrieb:
mag sein aber alles in allem sind das ja nur wenige %, ob nun 4,1 All Core + 4,3 Ghz Turbo 1 Core oder manuell 4,2 All Core sollte was die Benches angeht kaum den Brei fett machen.
Es ging mir nicht um viel Auswirkung nur klang es so, als ob es immer sinnfrei wäre allcore oc zu nutzen, was so nicht stimmt, denn je nach Board bekommst du so bei weniger Spannung mehr Takt, wenn auch nicht viel.
 
achso okay, ja gut, find jetzt den Unterschied nicht dramatisch da der XFR Turbo nur etwas drüber is. Kommt auch drauf an wie oft du deine CPU überhaupt an den Anschlag bringst.

Wenn du zb Renderst macht es mehr Sinn deine Kerne natürlich zb auf 4,2 Ghz bei vergleichsweise kleinerer Spannung zu optimieren, oder sogar weniger Richtung sweet spot halt. Auf die 150Mhz extra im "stock" die du eventuell beim Boosten hast kommt es kaum an.

Etwas anders bei mir. Weil ich "render / wandel" prügel ich meine 18 Kerne ja auch nicht ans Limit, will bei All Core Last ne erträgliche Effizienz haben. Die hab ich bei 4 Ghz, bei 4,5 Ghz nicht mehr. Da ich bei Games aber eher wenig Kerne unter Last habe und nen hohen Boot brauche hab ich da 4,7 Ghz bei Last auf bis 6 Kernen.

Schön wäre es wenn man bei AMD einen XFR Turbo Multi getrennt von AllCore setzen könnte. Beim Ryzen noch recht egal, aber bei einem 16C-32C TR eigentlich doof dass es nicht geht.

Da will man ja ungern gleich alle 32C auf ineffiziente 4,2 Ghz prügeln - rein von der TDP würden aber auch wenig Kerne auf 4,4 Ghz zB gehen was gut für Games wäre.

Edit: Das wäre zb cool wenn man das bei Zen 2 / Ryzen 3K ändert. Hier mehr Konfiguration der einzelnen Turbo Stufen zulassen würde, so dass man auch pro Kern eigene Multis und Spannungen definieren kann.
 
Zurück
Oben