Bericht AMD Ryzen 5000: Zen 3 schlägt Intel auch in Spielen & Single-Core-Lasten

Taxxor schrieb:
Die slides sind größtenteils zwischen 20 und 30% mit je Ausreißer nach oben und unten. Im Mittel wird das schon so hinkommen.

Die Frage ist doch - wo kommen Unterschiede bis zu 50% her? Ich sehe da als einzige Erklärung ein Spiel,dessen Performance am Limit des Speicherinterfaces hängt. Wenn es dann bei Zen 3 komplett im Cache läuft, beobachtet man plötzlich riesige Unterschiede. Durch die Auswahl der Spieletitel kann man dann nahezu beliebige Durchschnittswerte erreichen. Der nächste Tester sieht vielleicht im Mittel +15% oder +10%


Taxxor schrieb:
Und dafür zählst du die Bilder und teilst es durch die gemessene Zeit, das ist Berechnung, oder kommt der Ausdruck FPS ohne ein "geteilt" Zeichen aus?

Gemessen wird der zeitliche Abstand der Bilder(=> Frametimes).
Berechnet werden die FPS indem man die Frametimes auf eine Sekunde hochrechnet, also 1000 durch die jeweiligen Frametimes teilt.

Naja, das halte ich für arg konstruiert. Da hätte man innerhalb einer Sekunde Spielzeit 70 verschiedene Werte für die FPS, da die Frametime für jeden Frame individuell ist.


Ned Flanders schrieb:
Tested by Principle Technologies :-)

LOL. Die Aktion werden wir nicht so schnell vergessen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Taxxor schrieb:
Von Zen2, wovon sonst? Ein 5800X wird im Gaming 20-30% schneller sein als mein 3700X
Na die Auflösung spielt da schon noch gehörig mit. Alles die keine FPS-Jäger sind, sondern lieber in höheren Auflösungen spielen (zB in UHD, so wie ich), bei denen kommt da bei den FPS fast nichts an, bei den Frametimes etwas mehr. Aussnahmen wie die Anno-Games sind natürlich möglich. In der Regel bremsen da die GPUs einfach zu deutlich, selbst bei 30XX.
 
  • Gefällt mir
Reaktionen: McTheRipper, Windell und Mcr-King
cool and silent schrieb:
Naja, das halte ich für arg konstruiert. Da hätte man innerhalb einer Sekunde Spielzeit 70 verschiedene Werte für die FPS, da die Frametime für jeden Frame individuell ist.
Genau die hat man ja auch, wie willst du sonst Perzentil FPS angeben? Das sind alles einzelne Frametime Werte umgerechnet in FPS.
Oder Kommazahlen bei den FPS Werten? Wie "misst" man, dass man in einer Sekunde 70.6 FPS hatte? Das kann man nur berechnen.

Schau dir doch mal an, was dir FRAPS, OCAT, PresentMon, FrameView oder CapFrameX als Messdaten ausgeben, da wirst du keine FPS Werte finden, außer in extra Dateien, wo die Berechungen schon durch gelaufen sind.
Screenshot 2020-10-11 215407.png

Das ist, was ausgelesen, also gemessen wird, markiert sind die Frametimes. Und hier sind wir gerade mal bei 0,2s angekommen. Und daraus werden alle Werte, die etwas mit FPS zu tun haben, berechnet.
(In der Zeile rechts daneben sieht man übrigens wunderbar, dass Vsync aktiviert war und nur ca jedes dritte Bild überhautp dargestellt wurde^^)

Die FPS einer Sekunde mit 70 Werten berechnest du dann, indem du 1000 durch den Frametime Mittelwert dieser 70 Werte teilst.
In dem Fall klingt das natürlich unnötig, wenn die Zeit genau eine Sekunde ist, sind es natürlich 70 FPS, aber die Berechnung läuft für jede Zeit gleich ab.

So sähe die komplette erste Sekunde von dem Datensatz oben dann als FPS Graph aus
Screenshot 2020-10-11 220447.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, Onkel Föhn und Mcr-King
ArrakisSand schrieb:
Also eins ist schon mal klar CB20 verwendet AVX512 Instruktionen, aber in welchem Ausmass ist die große Frage?
In einem sehr geringen Maße, unter 5% Unterschied.
 
Zuletzt bearbeitet von einem Moderator: (Falsches Zitat ersetzt)
  • Gefällt mir
Reaktionen: ArrakisSand und Ned Flanders
Die Frametimes sind bei GTA5 auch oft so, also würde das Spiel immer wieder mal mikroruckeln bei 3-stelligen FPS im 150er-Bereich. Hinzu kommen immer wieder fette Lagspikes, die stärker werden, je näher die FPS an 165 und drüber kommen. Im Engine-Limit bei 188FPS ist es richtig ekelhaft unspielbar mit den ganzen Lagspikes, die ja schließlich zahlreicher und stärker werden, je weilter die FPS nach oben gehen.

Und ist jetzt also der Cache gut vom AMD? "Schnellen" RAM mit 3600 wird der ja auch bekommen. Und der hat gefälligst da auch zu laufen, ohne dass ich Stunden ohne Ende investiere, um einen funktionierenden Takt per Hand einzustellen. Sind G-Skill Ripjaws mit Hynix D-Die.
 
Zuletzt bearbeitet:
Nixdorf schrieb:
Das ist aber nicht die Grundlage für die 18%. Intel hatte dazu diese Folie:

Anhang anzeigen 977864

Die Folie ist mir bekannt, aber wie einer meiner Vorredner schon sagte im Kleingedruckten steht:

"Performance results .......... may not reflect all publicly available security updates."

Das weiß nur der Himmel wie viele Prozentpunkte da bei einem aktuell gepatchten System an Leistung verloren gehen können.
Des Weiteren stehen keinerlei Angaben bezüglich der für den Vergleich verwendeten Systeme dabei, wurde z.B. der selbe Speicher bzw. Takt verwendet? .....................
Das ist nichts weiter als eine Intel Marketing Folie mit 1000 Balken die man noch nicht mal der jeweiligen Anwendung zuordnen kann.
Also sorry, so nicht Intel bei AMDs Präsentation zu Zen 3 standen wenigstens am Ende noch die detaillierten Angaben mit dabei.
Momentan kann Intel einfach nicht liefern und gehen daher sogar den Weg zurück in die Vergangenheit, oder heißt es doch zurück in die Zukunft, so wegen backporting auf 14nm+++
Momentan würde Intel sogar einen Pakt mit dem Beelzebub eingehen um dafür bei Benchmarks 5% besser dastehen zu können.
Daher würde ich der Folie nicht einen mm über den Weg trauen.

Nixdorf schrieb:
Die Aussage basiert also nicht auf einigen sehr speziellen Anwendungen, sondern wurde auf breiter Basis ermitelt. Es sind zwei SPEC-Suites dabei, die jeweils eine Subsuite für Integer und Float Point haben. Damit ist ein signifikanter Teil der gezeigten Einzelbalken aus dem Integer-Bereich. Nimmt man die 5 höchsten Balken rechts weg, sinkt das nur auf ca. 17%.

Na ja, ich beziehe mich bei meinem +/- 5% Stagnation bzw. Zuwachs nicht nur auf den Geekbench 5 sondern auch auf den 3dmark physics score.
Hat da bezüglich der zu erwartenden Leistung in Spielen und um die geht es uns doch wirklich, deine Intel Folie mehr zu bieten?

Nixdorf schrieb:
Wenigstens das hätte man dann auch in Geekbench irgendwo sehen müssen. Stattdessen... nichts. Und du kannst sogar noch vorrechnen, dass sich da nur Crypto verbessert hat und die anderen Unterabteilungen unverändert sind. Da denke ich eher, dass diese angeblich authentische Geekbench-Werte Quatsch sind, als ein Totalversagen der neuen Architektur zu vermuten. Denn erneut: Occam's Razor sagt, dass das entweder Quatsch ist oder Intel komplett aus Vollidioten besteht. Und ich bin geneigt, sie nicht alle zu Vollidioten zu machen.
Was ich durchaus annehme ist, dass sie sich auch bei dem Diagramm oben ein paar Schummeleien erlaubt haben, und der Wert eher bei den ebenfalls kursierenden ~10% als diesen 18% liegt. Derlei Blendgranaten passen zu Intel.
Na siehst du die 10% hören sich doch schon viel realistischer an, aber selbst die werden wir wohl leider bei Spielen kaum zu Gesicht bekommen.

Nixdorf schrieb:
Bezogen auf den Konzern Intel ist diese Diskussion völlig unwichtig. Die brauchen die Gaming-Krone nicht. Aussagen wie "RIP Intel" oder "Das Wasser steht bis zum Hals" übersehen immer, dass Intel seine 5 Milliarden USD Quartalsgewinn nicht mit den popeligen paar Gaming-CPUs macht.

Der Kampf um den schnellsten Gaming-Prozessor ist eine des Prestiges und für Intel kein Überlebenskriterium. Bei AMD sieht das gegenwärtig ganz anders aus. Die Führerschaft im Gaming-Segment ist ganz klar eins von Lisa Sus zwei Hauptzielen (das andere sind steigende Marktanteile bei Servern). Daher messe ich den hochgreifen Aussagen zum Gaming-Plus auch sehr hohe Glaubwürdigkeit zu. Die wissen, was ein Shitstorm ist.
Das mit dem Wasser bis zum Hals muss man jetzt auch nicht so Wortwörtlich nehmen klar wird es Intel auch überleben wenn AMD bis auf weiteres im Desktop / Gaming das Zepter übernehmen wird.
 
cool and silent schrieb:
Durch die Auswahl der Spieletitel kann man dann nahezu beliebige Durchschnittswerte erreichen. Der nächste Tester sieht vielleicht im Mittel +15% oder +10%.
Das mag ja gut sein, aber das sind eben genau die Spiele wo Intel so einen großen Vorsprung hatte, bzw wo AMD eben vergleichsweise schlecht abgeschnitten hat.
siehe zb hier:
(Far Cry New Dawn sind auch 25% unterschied zu Intel, wird nur leider im Performance Rating nicht aufgeführt)
https://www.computerbase.de/2020-05...mm-test-performancerating-fuer-spiele-fps-fhd
1602436288788.png
1602436701000.png
 
  • Gefällt mir
Reaktionen: Cpt.Willard und KlaraElfer
Nixdorf schrieb:
Zum Geekbench: Entweder kann man damit auch die Leistung in Games bewerten. Dann müsste sich der Zuwachs beim Cache zumindest mit ein paar Prozent zeigen. Tut er nicht. Oder der Benchmark ist zu Bewertung der Gaming-Leistung ungeeignet. Warum wird er dann hier als Diskussionsgrundlage genutzt? Ich bin geneigt, diese Geekbench-Ergebnisse komplett zu ignorieren.
Na ja wie ich zwar fälschlicherweise zuerst Annahm hat sich der L3 ja nicht veränder sondern bleibt bei 16MB.
Die Vergrösserung des L1 Cache kann gerade bei Spielen auch kontraproduktiv sein AMD hat z.B. nicht ohne Grund den L1 bei der Umstellung von Zen+ auf Zen2 halbiert.
 
Nixdorf schrieb:
Nein. Es gab keine Titel, die "weniger" profitierten.
Sorry a) habe ich das nicht behauptet und b) sorry Total War hat auch nur 6% zugelegt.. Und nun? Wie gesagt auch Benchmarks sind Software die Fehler haben kann. Wobei wenn Software neue Hardware nicht kennt ist es halt an sich kein Fehler...
Mein Punkt bleibt - eine einzelne Software ran zu nehmen um einem Prozessor Leistung oder das Fehlen selbiger zu attestieren sollte man sein lassen.
Intel zeigt ja das man das auch mit der richtigen Selektion an Software das auch über mehrere Programme hinweg eine Leistung suggerieren die dann doch nicht so da ist....
 
  • Gefällt mir
Reaktionen: Cpt.Willard
VelleX schrieb:
@ArrakisSand
Der L3 Cache beträgt jetzt 32MB pro CCD=CCX.
Davor waren es 16MB, was bei einem 8 kerner also 2x16MB=32MB waren.

Gemäß den Tests, die ich gemacht habe, ist das sogar der gewichtigere Part bei der Performancesteigerung im Vergleich mit der verbesserten Intercore-Latenz. Cache ist enorm wichtig für die Gamingperformance.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Unnu
Taxxor schrieb:
Bei welchem Test? Dem CB Test in dem der 10900k dann mit 2933er RAM läuft? Klar, da wird ein 5900X ca 10% schneller sein.

@Esenel kann ja dann mal seinen 10900K zum Vergleich dagegenstellen^^

Genau, wenn ein Supra @ Werkszustand von einem AMG C43 versägt wird rufe ich natürlich direkt den Buddy mit seinem maxed-out 800 PS tiefer-breiter-härter Supra weil einer muss den Ruf verteidigen, egal ob es dann auf 100km 40 Liter braucht und die Kiste absolut nichts mehr mit dem "normalen" Fahrzeug zu tun hat. Ehre! :freak:
 
  • Gefällt mir
Reaktionen: Hardwarious, Novasun, McFritte und 2 andere
VelleX schrieb:
@ArrakisSand
Der L3 Cache beträgt jetzt 32MB pro CCD=CCX.
Davor waren es 16MB, was bei einem 8 kerner also 2x16MB=32MB waren.
Du redest von Zen3?
Ich hingegen habe von Rocket Lake S gesprochen.
L3 Rocket Lake S
"Der L3-Cache verharrt hingegen bei 16 MB, die bereits aktuelle Achtkerner von Intel bieten."
 
  • Gefällt mir
Reaktionen: Onkel Föhn und VelleX
Tonks schrieb:
Der Quelle würde ich erst mal so nicht vertrauen.
Ich hatte den ja schon den niedrigeren kolportierten Wert von +10% genommen, weil ich bei denen immer Schummeleien erwarte.

ArrakisSand schrieb:
Na siehst du die 10% hören sich doch schon viel realistischer an, aber selbst die werden wir wohl leider bei Spielen kaum zu Gesicht bekommen.
Ich zweifle nicht an, dass es klar weniger als die 18% sein können. Was ich anzweifle, sind die "gar nichts" aus dem Geekbench. Irgendwas müsste man da sehen, und nicht nur in Crypto. Es passt einfach nicht zu "Wir haben 18% mehr mit SPEC, SYSmark, WebXPRT und Cinebench". Wenn das Diagramm nicht komplett gelogen ist, dann entlarvt das eher Geekbench als ungewollt "umgekehrten Userbench". Davon muss was zu sehen sein, oder der Benchmark ist zu spezifisch, oder jemand hat den Eintrag manipuliert, oder das getestete ES war speziell angepasst, oder die gemessenen Takte waren nicht richtig. Was auch immer, zumindest einem SPEC-Ergebnis traue ich mehr als Geekbench.

Novasun schrieb:
Sorry a) habe ich das nicht behauptet
Und was ist das hier?
Novasun schrieb:
Auch bei AMD gab es in der Präsentation Games die nur 5% oder weniger profitierten
(Die Hervorhebung ist von mir.) Nein! Nicht weniger. Oder soll da jetzt eine Ausrede Marke "oder" und Aussagenlogik kommen? Bitte sinke nicht so tief.
Ergänzung ()

Ned Flanders schrieb:
Tested by Principle Technologies :-)
Die hätte ich neulich auch fast wieder angeführt. Das war vielleicht eine peinliche Nummer. Das ist hier aber kein gutes Beispiel, denn die haben ja Intel gegen AMD verglichen, nicht gegen Intel selbst. Da war aber einer der besonders dummen Aspekte, dass sie beim 2700X die Hälfte der Kerne deaktiviert hatten. Das resultierende Dokument war obszön unehrlich.
 
Zuletzt bearbeitet:
Ned Flanders schrieb:
Tested by Principle Technologies :-)

Kann Principle Technologies ja nix für, wenn AMDs "Game Mode" vier Kerne deaktiviert. 🤣
 
cool and silent schrieb:
LOL. Die Aktion werden wir nicht so schnell vergessen.
Welche, die von vor ein paar Tagen, oder die die schon länger her ist? ;)
 
KlaraElfer schrieb:
Von welchem Preis redest du dann, wenn nich von 100Euro? 130 für den 2500K?
Der 2500K war hier überhaupt kein Thema und wurde preislich auch nie kritisiert, jedenfalls nicht von mir (nicht einmal erwähnt habe ich diesen)! Du setzt die Argumente deiner "Gegner" also in einen völlig falschen Kontext, um diesen Strohmann dann meisterhaft zu widerlegen. Grandios!
KlaraElfer schrieb:
Nein, ich stelle das Desktop Top Modell mit dem damaligen Intel Topmodell gegenüber.
Die reine Kernzahl ist da völlig unwichtig, wichtig wären in dem Zusammenhang nur die Herstellungskosten.
Sehr interessant. Deine vorherige Argumentation basierte ja auf dem Vergleich zwischen dem 3600 (non X) und dem 5600X (gleiche Kernzahl), obwohl letzterer ein deutlich besseres Binning und damit eine niedrigere Ausbeute und somit einen höheren Preis hat (und er sich im Übrigen zugleich in einer Leistungs-Klasse mit dem teureren 3700X (8-Kerner) befindet), gleichzeitig soll aber die Kernanzahl keine Rolle spielen? Du widersprichst dich echt mit deinen eigenen Argumenten.
KlaraElfer schrieb:
Und früher hatten die High End CPUs nur 2 Kerne.
Wir reden aber von den letzten 3 Jahren und stellen die Kontrahenten derselben Generation gegenüber, und nicht neu vs uralt.
KlaraElfer schrieb:
Ich sprach von dem Preis des Topmodells im Desktop, wieviele Kerne es hat steht doch gar nicht zur Debatte.
Die Kernzahlen werden in nächster Zeit sowieso immer weiter steigen.
Gegen Intels aktuelles Line-Up habe ich auch gar nichts einzuwenden, aber dessen Modelle und Preise haben wir nunmal AMD zu verdanken. Von 2006/7 bis 2017 gab es bei Intel Stillstand bei 4-Kernen (Q6600 bis 7700K), da war eben nichts mit einer steigenden Anzahl an Kernen im "normalen" Sockel. Das kam erst als Reaktion auf AMD. Alles darüber hinaus war HEDT, und da wurde wie bereits erwähnt der 10-Kerner für knapp 2.000 € verkauft statt für knapp über 500 wie aktuell, trotz des gleichen Herstellungsverfahrens.
KlaraElfer schrieb:
Der 28Kerner war damals für HEDT ja gar nicht zu kaufen.
Danke also an AMD, dass sie Intel dazu gezwungen haben! ;)
KlaraElfer schrieb:
Zwischen 3700x und 3800x lag vielleicht eine höhere TDP aber keine relevant höhere Leistung.
Dein Einwand von Äpfel und Birnen ist somit unzulässig.
Da stimme ich dir zwar zu, aber laut deiner obigen Argumentation, nach der lediglich die Herstellungskosten zählen und nicht die Kernanzahl bzw. Leistung, ist das ebenfalls ein Widerspruch zu deinen anderen Argumenten. Der 3800X hat gegenüber dem 3700X nun einmal deutlich besser selektierte Chips, womit er eben auch teurer ist. Empfehlen würde auch ich natürlich den 3700X gegenüber dem 3800X.
KlaraElfer schrieb:
Intels Topmodell der 7980XE kostete 2000 Dollar, AMD´s Topmodell kostet momentan 3990 Dollar.
Also, wo ist der Unterschied?
18 Kerne + PCI-E 3.0 vs. 64 + PCI-E 4.0, da liegt der Unterschied. Preislich proportional dazu gibt es aber noch den 28-Kerner für HEDT, der bei über 3.000 liegt und den wir auch erst dem Zen 2 zu verdanken haben.

Hier übrigens mal die News zur diesjährigen Preissenkung bei Intel, die wir zweifelslos dem Zen 2 zu verdanken haben: Cascade Lake Refresh: 28 Kerne kosten bei Intel jetzt 6.107 USD weniger
Bisher musste für so ein Produkt bei Intel mindestens 8.719 US-Dollar gezahlt werden, dann gab es den Xeon Platinum 8276. Ab jetzt gibt es den Xeon Gold 6238R für 2.612 US-Dollar. Dieser bietet darüber hinaus auch noch exakt die gleichen Taktraten von 2,2 bis 4,0 GHz und die TDP-Einstufung von 165 Watt – die Preisersparnis hat es deshalb in sich.
 
  • Gefällt mir
Reaktionen: guru_meditation, or2k, Onkel Föhn und 2 andere
SaschaHa schrieb:
Gegen Intels aktuelles Line-Up habe ich auch gar nichts einzuwenden, aber dessen Modelle und Preise haben wir nunmal AMD zu verdanken.
Ich bin mal gespannt, ob das gleiche gesagt wird, wenn Rocket Lake kommt und AMD die Preise von Zen 3 senkt: wir haben Intel die Preise zu verdanken.
 
Zuletzt bearbeitet von einem Moderator:
ZeroStrat schrieb:
Ich bin mal gespannt, ob das gleiche gesagt wird, wenn Rocket Lake kommt und AMD die Preise von Zen 3 senkt: wir haben Intel die Preise zu verdanken.

Entschuldige, aber Du weißt ganz genau, was @SaschaHa damit gemeint hat.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und SaschaHa
@ZeroStrat
Es gibt wenig Leute hier, die bezweifeln, dass Konkurrenzkampf gut für die Preise und Produkte auf beiden Seiten ist. Wenn Intel jetzt etwas liefert, wäre das optimal für alle! :)

Vorsichtig bin ich aber bei der Prognose, dass Intel AMD übertreffen und preislich unter Druck setzen kann. Ggf. werden sie beim Gaming gleichziehen oder gar wieder um wenige Prozentpunkte in Führung gehen, aber die Anwendungsleistung dürfte bei AMD weiterhin besser sein, ganz zu schweigen von der Effizienz. Und auf den 5900X sowie 5950X wird Intel so schnell keine Antwort haben, da weiterhin 14 nm.

Meine Prognose ist, dass sie sich "oben" zwischen den 5800X und den 5900X positionieren und preislich den 5800X angreifen werden, während sie sich "unten" gegen den 5600X aufstellen und diesen vermutlich preislich unterbieten werden. Ich denke, dass das ein weiterer Grund dafür ist, warum AMD den 5700X und den 5600 (non X) erst einmal zurückhält, damit sie dann auf Intel reagieren können und gleichzeitig einen Paper-Launch verhindern, da viele eben auf genau diese preislich attraktiveren Modelle warten, während sie zunächst einmal die Early-Adopter bedienen.
 
Zurück
Oben