News Hersteller-Benchmarks: Ryzen 7950X3D angeblich 6% vor Core i9-13900K in Spielen

"Definitiv. An dem Tag können sich die "Normalen" jeden Kommentar sparen, gegen diese Flut von "Experten Meinungen" dann kommt man eh nicht mehr an und die Sache ist es dann auch nicht."

N1 ...ganz genau.
 
t3chn0 schrieb:
Wenn ich mir das so angucke, rückt der 7900X für mich immer näher statt dem 3D Modell. Bis auf ein Spiel liegen alle hier gelisteten Spiele > 200 FPS bei beiden CPUs. Meine Gsync Range geht bis 120Hz und somit 116 FPS. Die schafft auch ein non 3D Modell komplett durchgehend.

Ich sehe gerade den Usecase nicht. Das kann doch höchstens für Personen mit einer 4080/4090 und WQHD + 240Hz+ interessant sein.

Der FS2020 läuft schon durch Frame Generation perfekt, da brauche ich kein 3D Modell.

Und 6% insgesamt doch nichts. Absolut enttäuschend. Daran sieht man wie stark Raptor Lake ist. Gönnt man hier dem 13900K noch schön die 7200er Speicher, liegt der Vorsprung von AMD bei noch 2% oder so.

Damit holt AMD rein gar nichts, außer der Effizienz Krone.

Ich frage mich hier noch immer, wer alles scheinbar ein 3D Modell benötigt, was ein normales X Modell nicht auch leisten kann.

Hier warten alle SEHNSÜCHTIG auf die 3D Modelle, aber in den Signaturen sehe ich nahezu keine Monitore die dass überhaupt benötigen würden.

Dann bleibt noch immer die Whitelist Geschichte.
Sei bitte nicht so Kleingeistig. Es gibt genug Spiele die CPU Limitiert sind. Ich zb Spiele RUST und hänge trotz 4090 in 4K im CPU Limit. Der 5800x3D ist in dem Spiel 10% schneller als ein 13900K. Dabei sind mir die max. FPS nichtmal das wichtigste sondern die min. FPS.
 
  • Gefällt mir
Reaktionen: Visualist und floTTes
IBISXI schrieb:
Effizienz sollte man primär unter Volllast betrachten. Weil es dort auch die größte Rolle spielt.
Also die allermeisten Nutzer verbringen den Großteil der Zeit im idle oder Teillast. Die Aussage würde ich so pauschal nicht unterschreiben.

Zum Thema an sich: wer bereits eine aktuelle AMD oder Intel CPU hat wird sich das Upgrade sparen können. Wer auf was älteren Sitz oder wirklich das Hobby Technik liebt und das Geld hat macht ein Upgrade durchaus Sinn.
 
Taurus104 schrieb:
Typische Aussage eines Intel Users schon schade das Mancher Vorurteile auch noch bestätigt.

Schon mal auf die einzelnen Spiele geachtet? Hier ist der 7950X3D auch gerne mal 30% schneller als dein 13900k. Die 6% sind Overall für diese spezielle Spieleauswahl. Nimmt man eine andere Auswahl, würde es auch anders aussehen. Desweiteren kann man jetzt schon davon ausgehen das der 7950X3D mit 120W TDP deutlich effizienter sein wird als ein 13900K. Zudem wurde schon bekannt die die Test mit Beta Bios und einem nicht auf die neuen CPUs optimierten Chipsatztreiber gemacht wurden. Weiterhin sind es nur Leaks.
Feier deinen Kauf also mal nicht so früh.
Die 6% durchschnittlich sind alles was ich wissen muss. Sagt mir das sich da kaum was getan hat. Einzelne Spiele rauspicken ist nicht so mein ding. Effizient juckt mich bei Hardware 0. Aber verbrauchen tut der 13900K in Spielen immer zwischen 110 und 130W.
 
Ich möchte mir auch nächsten Monat ein neues System zusammenstellen. Ein paar Prozente hin oder her bei der Leistung interessieren mich nicht.

@ComputerBase, bitte testet die Leistungsaufnahme nicht nur in Benchmarks mit 100% Auslastung sondern auch in Realworld-Szenarien. Beim Entwickeln hat die CPU meist wenig zu tun. Auch bei Videobearbeitung hängt die nicht immer am Limit, oft ist da auch einfach mal nichts zu tun. Denn so gerne ich auch AMD kaufen würde, nach allem, was ich bisher so gelesen und angeschaut habe ist Intel dort im Vorteil, und das nicht zu knapp.

Es wäre daher super zu wissen, wie sich AMDs neue hier schlagen. Ich führe nämlich nicht den ganzen Tag Prime95 aus :) Vermutlich ist die meiste Zeit Leerlauf oder Browsen angesagt!

(Und ja, mich nervts bei beiden Herstellern (vor allem Intel), dass die für 5% Perfomance das doppelte an Strom opfern, um den "längsten" zu haben. Aber das kann man ja einfach beheben. )
 
Taxxor schrieb:
Ist auch das erste, woran ich gedacht habe als ich hier 6% Schnitt gelesen habe, bei der CES war man auf den Folien noch bei 19,5% Schnitt
Anhang anzeigen 1329126
Das Zeigt eindeutig das Windows mit dieser Hybrid CPU noch nicht zurecht kommt u. ist wohl auch ein Grund dafür das AMD den 8 Kerner erst im April Luncht. Der wird in Spielen etwas schneller sein als seine beiden Brüder u. dann wäre AMD auf den Beiden Größeren sitzen geblieben.
 
Shinigami1 schrieb:
Die 6% durchschnittlich sind alles was ich wissen muss. Sagt mir das sich da kaum was getan hat.
Was ist das denn für eine Aussage? Die 6% sind ja nicht gegenüber seinem "Vorgänger" - dem 7950X (ohne 3D V-Cache) - sondern gegenüber dem 13900K. Gegenüber dem 7950X sind es ja immerhin 16%, trotz leicht geringerem Takt und deutlich geringerem Stromverbraucht. Was aber deutlich entscheidender ist als die Durchschnitts-FPS sind die Min-FPS, da solche Einbrüche oft viel stärker auffallen als eben die Durchschnitts-Werte. Das war eher eine Schwachstelle der Non-3D V-Cache-Modelle. Es ist also durchaus ein deutlicher Fortschritt.
Shinigami1 schrieb:
Effizient juckt mich bei Hardware 0.
Ist beim Zocken tatsächlich eher nebensächlich. Macht sich höchstens bei schlechter Kühlung und der daraus resultierenden Lautstärke bemerkbar.

Ich denke, AMD hat hier gut gezeigt, was möglich ist. Es bleibt ja festzuhalten, dass Intels P-Kerne aktuell die stärkeren sind, was AMD aber nun mit 3D V-Cache ganz gut kontern kann. Intel setzt hingegen eher auf L2-Cache.
 
Hardy088 schrieb:
Der 5800x3D ist in dem Spiel 10% schneller als ein 13900K. Dabei sind mir die max. FPS nichtmal das wichtigste sondern die min. FPS.
Mir auch. Und gerade bei den min-fps ist der 13900K besser als bei den average-fps im Vergleicht zum 5800X3D, zumindest laut Computerbase (13900K = 99,0 ; 5800X3D = 81,7) und auch laut mir (hatte vor dem 13900K einen 5800X3D). Aber das kann bei Rust natürlich theoretisch anders sein bzw. du hast jetzt auch nicht das Gegenteil behauptet bzw. bist nicht drauf eingegangen. Fand es daher hilfreich, dass an der Stelle zu erwähnen.
 
Shinigami1 schrieb:
Die 6% durchschnittlich sind alles was ich wissen muss. Sagt mir das sich da kaum was getan hat
Naja, kommt drauf an. Wenn man bedenkt das der 13900k zwischen 11-21% vor dem 7000er liegt und jetzt die 7000x3d CPUs 6% for dem 13900k sind. Wäre das ein Performance Gewinn von 17-27% zum nonX3d Modell und das nur durch Vcache. Das ist mehr als hat sich kaum was getan.

Und das würde auch zeigen das genügend Vcache immer noch eine ordentliche Schippe drauflegen kann egal wie schnell die CPU ist.

Ich fände eben 76003d (65tdp) interessant. Wird natürlich nicht kommen, obwohl sie ja die chiplets haben für den 7900x3d.
 
Rote_Orange schrieb:
@ComputerBase, bitte testet die Leistungsaufnahme nicht nur in Benchmarks mit 100% Auslastung sondern auch in Realworld-Szenarien. Beim Entwickeln hat die CPU meist wenig zu tun. Auch bei Videobearbeitung hängt die nicht immer am Limit, oft ist da auch einfach mal nichts zu tun. Denn so gerne ich auch AMD kaufen würde, nach allem, was ich bisher so gelesen und angeschaut habe ist Intel dort im Vorteil, und das nicht zu knapp.

Es wäre daher super zu wissen, wie sich AMDs neue hier schlagen. Ich führe nämlich nicht den ganzen Tag Prime95 aus :) Vermutlich ist die meiste Zeit Leerlauf oder Browsen angesagt!
Das alles ist eigentlich auch mit dem "Bruder" ohne 3D V-Cache beantwortbar. Bei all diesen Szenarien kommt der 3D V-Cache nämlich praktisch nie zum Tragen, der ist fast ausschließlich beim Zocken von Vorteil. Zumindest war das beim 5800X3D so. Von daher lässt sich die Effizienz auch mit dem 7950X bemessen. Hier zeigt sich, dass er mit Werkseinstellung "in Ordnung", im Eco-Modus aber unfassbar effizient ist - meines Wissens nach etwa >15% effizienter als der 13900K bei identischem oder ähnlichem Power-Limit. Bei der Real-World-Performance dann das gleiche Resultat, da das Power-Limit hier ja eh selten ausgenutzt wird.

Was bei AMD aber aktuell etwas nervt, ist der Idle-Verbrauch. Der ist - vermutlich aufgrund des Chiplet-Designs - deutlich höher als bei Intel. Bei meinem 7950X verbrauchen die 16 Kerne zusammen nur rund 2 Watt im Idle - die Package-Power (also zuzüglich I/O-Die mitsamt iGPU) liegt jedoch bei rund 20 Watt, wobei mein PC gerade auch die iGPU nutzt. Bei Teillast kann AMD dann aber sehr gute Resultate erzielen, und das dürfte für die 3D V-Cache-Modelle natürlich auch gelten.
 
Es wird nicht der große Wurf werden den sich viele erhoffen
 
fox40phil schrieb:
Dafür lieber Totgeburten wie Dawn of War 3 :D und Ashes of Singularity (war doch mal AMDs Benchmark Game schlecht hin - hier -11% :'o)
AoS nutzt als einer der wenigen Spiele mehr als 8 Threads. Der 13900K hat insgesamt 24 Kerne, da kommt AMD schlichtweg mit 16 und davon 8 mit Cache nicht mehr mit.

Interessant ist der Benchmark schon, wenn man mal auf die Zukunft oder einige Strategiespiele schaut, ob der für einen auch relevant ist, muss jeder für sich entscheiden.
 
scotch.ofp schrieb:
Es wird nicht der große Wurf werden den sich viele erhoffen
Das ist die 7000ner Reihe wie sie zu Release des AM5 hätte kommen müssen.
Die CPUs werden Großartig damit sollte der AM5 Sockel an Fahrt gewinnen.
 
6%.

Ich dachte, mit Intel wird der Boden gewischt? Mich haut das nicht vom Hocker.
Ist aber eh am entgegengesetzten Ende des Leistungsspektrums von dem, was mir reicht.
 
Ich finde es wieder klasse wie sich hier die Köpfe eingeschlagen werden um CPUs, die gerade mal 5-15% auseinander sind. :D
Das ist lächerlich....
Und am Ende sind die meisten Leute immer noch hart GPU limitiert und es ist absolut wurscht welche CPU (ob 13900k oder 7950X3D oder 12600k oder 5600X, oder oder oder) werkelt, wenn die lahme RTX3060 oder RX6600XT so gut wie alles limitiert. Aber Hauptsache die CPU ist 10% schneller als die der Konkurrenz :D

Sehr amüsant.
 
  • Gefällt mir
Reaktionen: floTTes, Cyberbernd, Hal14 und 3 andere
xexex schrieb:
AoS nutzt als einer der wenigen Spiele mehr als 8 Threads. Der 13900K hat insgesamt 24 Kerne, da kommt AMD schlichtweg mit 16 und davon 8 mit Cache nicht mehr mit.
Schon doof, AoS nutzt keine E-Cores.

Ob und wie Spiele die von mehr Kernen profitieren, werden wir dann sehen. Ich hoffe CB guckt da genau hin.
 
Shinigami1 schrieb:
Effizient juckt mich bei Hardware 0. Aber verbrauchen tut der 13900K in Spielen immer zwischen 110 und 130W.
Dann bist du halt einer von Wenigen.
Ergänzung ()

Shinigami1 schrieb:
Die 6% durchschnittlich sind alles was ich wissen muss. Sagt mir das sich da kaum was getan hat. Einzelne Spiele rauspicken ist nicht so mein ding.
Dann hast du für dich persönlich halt verpasst das Leistung in 2023 eben etwas anders beurteilt werden muss, nämlich nach dem welche Spiele man spielt und nachdem was man tatsächlich noch für weitere Anwendungsfälle mit seinem System hat. Als Gamer bestimmte MainGames hat interessiert es mich durchaus ob eine CPU oder auch GPU in meinen meistgespielten Spielen deutlich besser performt als die Konkurrenz, Hier ist mir die Leistung in den Games die Ich spiele wichtig und nicht die Leistung in 30 anderen Titeln. Gleiches kann man ebenso auf produktive Anwendungen auslegen.

Zudem ist es immer noch ein Leak, nichts unabhängiges oder offizielles und es ist ebenfalls schon bekannt das ein nicht optimierten Chipsatztreiber dafür noch genutzt wurde.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Kargan, Javeran, Anon-525334 und eine weitere Person
Zurück
Oben