Test Benchmarks Zen 5 vs. Zen 4: AMD Ryzen 9000X(3D) vs. 7000X(3D) bei 4,8 GHz im Vergleich

gedi schrieb:
Ich warte auf den 9950x3d. Wenn tatsächlich ein Zusatzcache pro CCD verbaut ist, dann tausche ich meinen 7950x3d aus.
Dann Wechsel ich auch.
 
Gegenüber dem 7800X3D verbraucht der 9er zu viel.
Die erbrachte Mehrleistung in Spielen ist in Ordnung, rechtfertigt eine Aufrüstung aufgrund des Mehrverbrauchs aber nicht wirklich.😆
 
sentinel_first schrieb:
Gegenüber dem 7800X3D verbraucht der 9er zu viel.
Die erbrachte Mehrleistung in Spielen ist in Ordnung, rechtfertigt eine Aufrüstung aufgrund des Mehrverbrauchs aber nicht wirklich.😆
Das tut er doch nur weil er viel höher taktet. Ist das so wichtig?? Ist ja nicht so, dass der Verbrauch relativ gesehen hoch ist. 7800X3D ist ja fast schon lächerlich wenig, sowas bleibt eine Ausnahme.
Ich würde den 9800X3D auch @ Stock laufen lassen, nur in Anwendungen wird er merklich mehr verbrauchen, beim Gaming nimmt das sich nicht viel im Vergleich zum 7800er.
 
Danke für den Lesestoff.. schau ich mir gleich an.
Aber vorher möchte ich @Jan darauf hinweisen, dass sich im Bezug zur 9800x3D CPU die hoch-seriöse userbenchmark-Seite der totalen Unbefangenheit wieder alle Ehre gibt...

Finde, das ist eine amüsante News wert!

Diese Vendetta gegen AMD-CPUs ist sehr verwunderlich. Welche Motive stehen dahinter?
Gibt's da eine offizielle (inoffizielle) Partnerschaft mit Intel zu Marketingzwecken oder machen sich da Fanbois einfach nur ihren Spass?

Auf Techspot eben die News dazu gelesen

userbenchmark 9800x3D auf Platz 12 lol
 
  • Gefällt mir
Reaktionen: apollostigma, Kommando und stefan92x
5hred schrieb:
"UserBenchmark zieht eine eher weniger positive Bilanz des 9800X3D. Es stellt fest, dass der zusätzliche Cache zu 6 % niedrigeren Boost-Takten und 40 % höheren Preisen als bei der 7700X und 9700X führt."

Naja, (ohne es nachzuprüfen...) damit habe die +-recht - das Problem ist nicht diese Tastsache, sondern das sich daraus ergebende Ergebnis bzw. Fazit.
Die Frage ist natürlich ob ich die absolute Leistung, oder die Leistung pro $ ausweisen will, den Anwendungszweck sollte man dabei auch irgendwie berücksichtigen.

Davon abgesehen,
UserBenchmark ist höchstens geeignet um Intel mit Intel und AMD mit AMD zu vergleichen, auch dabei sollte man aber sein Hirn nutzen.
 
Robo32 schrieb:
Es stellt fest, dass der zusätzliche Cache zu 6 % niedrigeren Boost-Takten und 40 % höheren Preisen als bei der 7700X und 9700X führt."
Dass er dabei auch ~35% schneller als der 9700X ist, ist dort halt auch keine Erwähnung wert^^
 
BloodGod schrieb:
Ich zocke sehr viel und ausgiebig in allen möglichen Genres und immer in 4K maxed out und ich bin fast nie im legendären GPU Limit…
naja...ob exemplarische evidenz so eine große aussagekraft hat, bezweifle ich fast. zum einen dürfte das vor allem von den games abhängen die du spielst zumal du mit der 4090 aktuell die dickste gpu hast.
generelle erfahrung ist eher die dass sich mit zunehmenden auflösungen und höheren settings die hardware auslastung in richtung der gpu verschiebt.

deshalb muss man diese cpu tests immer mit einer kräftigen portion realität betrachten; laborbedingungen mit 720p tests und dicksten grafikkarten zeichnen ein bild von den cpu's und deren performance, welches dann in realistischen nutzungsszenarien in der regel so nicht mehr zustandekommt...
 
  • Gefällt mir
Reaktionen: justFlow
cypeak schrieb:
naja...ob exemplarische evidenz so eine große aussagekraft hat,
Hat sie. Es kommt eben immer auf die eigene Grafikkarte und Spiele an. Es macht rein gar keinen Sinn sich einen Performance Index in 4K anzuschauen und dann als Fazit zu ziehen, man braucht keinen dicke CPU.

cypeak schrieb:
laborbedingungen mit 720p tests und dicksten grafikkarten zeichnen ein bild von den cpu's und deren performance, welches dann in realistischen nutzungsszenarien in der regel so nicht mehr zustandekommt...
Sie zeigen die CPU Performance und natürlich nicht die GPU Performance. Ist ja auch ein CPU Test. Du weißt aber genau welche FPS du von der CPU erwarten kannst.
Musst dann nur noch schauen was deine GPU kann und was du überhaupt für ein Ziel für die FPS hast.
 
Die Verfügbarkeit wäre auch jetzt noch 1A wenn der Preis der angebotenen Menge entsprochen hätte!

Etwa +200€ würde dem 9800X3D sehr gut tun - zumindest in diesem Jahr!
 
Tolle Technik, aber wie immer in niedriger Auflösung wegen CPU-Limit...

Effektiv hat zumindest in diesem Forum wohl die meisten einen WQHD/4K Monitor, wo das dann nicht mehr so krass ins Gewicht fällt...

Zu dem Thema empfehle ich den Bottleneck-Rechner:

https://www.hardwaredealz.com/bottl...-7-5800x3d+nvidia-geforce-rtx-4070-super-12gb

So kann jeder seine Zielauflösung auswählen, mit seiner CPU und GPU und sieht dann, ob ein Upgrade Sinn macht.
 
  • Gefällt mir
Reaktionen: Fylx und justFlow
cypeak schrieb:
jetzt würde mich noch interessieren wieviel von diesen 15% plus übrig bleiben würde, wenn mein 7800x3d dem 9800x3d weichen müsste..(rtx4080s in 3440x1440) ...ob es noch real 10% sind?
Stellvertretend für Dich, sowie für viele andere mit der Frage.
(MMn zielführender als ein Bottleneck-Rechner)



Vermutlich kommt von manchen als Antwort "so viel Zeit habe ich nicht" ;)
Ich muss ja spielen ...

Nehmts mit Humor, vllt. kann der eine oder andere was lernen.
Deutscher Untertitel ist möglich.
 
  • Gefällt mir
Reaktionen: Icke-ffm, cypeak, Perdakles und 2 andere
F1Freak schrieb:
Effektiv hat zumindest in diesem Forum wohl die meisten einen WQHD/4K Monitor
Eine Variable, die man nicht außer Acht lassen sollte bei der eigenen Entscheidung, definitiv.

Was der CPU-Test aber erahnen lässt, ist die Leistung, die man „länger“, künftig gesehen, hat. Ergo im besten Fall weniger schnell die CPU upgraden müsste (wie auch immer die eigenen Anforderungen aussehen mögen).
 
M4xw0lf schrieb:
Was mich aber mit am meisten überrascht (abgesehen von den MASSIVEN Zugewinnen für Zen5) ist der doch deutlich vorhandene Mehrbedarf der X3Ds bei der Leistungsaufnahme. Nach euren Werten sind das ja jeweils um die 6-7W, die durch den Extra-Cache anfallen.

Ein anderer Grund ist, dass die Kerne auch mehr arbeiten: Beim 9800X3D im Vergleich zum 9700X Faktor 1.43 mehr FPS bei (laut Grafik) Faktor 1.11 mehr Verbrauch, beim 7800X3D sind die entsprechenden Faktoren 1.37 und 1.14; laut Tabelle waere der Mehrverbrauch noch geringer. Ich vermute einmal, dass der Grossteil des Mehrverbrauchs in den Kernen anfaellt.

Ich frage mich gerade, wie man das messen koennte; eventuell, indem man die Grafikeinstellungen der X3D hinaufdreht, bis die FPS wieder gleich denen des X sind (bei gleichem Takt), und dann den Strom misst. Dabei muss die CPU aber mehr warten, es wuerde mich nicht wundern, wenn dann der Verbrauch der X3D kleiner ist als der der X-Varianten, einfach weil ein Cache-hit weniger Verbrauch kostet als ein Speicherzugriff (wo auch noch die Datenuebertragung von CCD zum IOD dabei ist, und dann der eigentliche Zugriff auf's DRAM). Bietet aber noch immer keine Antwort auf die Frage, wieviel der 3D-cache kostet. Eine andere Variante ist es, in den Faellen zu messen, in denen der 3D-cache nichts bringt.

@Jan: In der Grafik ist der Verbrauch des 9700X 56W, in der Tabelle 57W. Beim 7800X3D sind es entsprechen 57W und 56W. Ist da irgendwo was vertauscht worden?
 
  • Gefällt mir
Reaktionen: M4xw0lf, Jan und Cinquedea
@5hred 5hred


Ganz oben bei den Kommentaren steht, was ich auch vor einigen Jahren hier bei CB geschrieben hatte, das Google hier auch mitspielt und diese Seite an erster Stelle zeigt, wenn man nach Benchmarks sucht.

Übrigens, der deutsche Pendant zu userbenchmark ist
Pcmasters
!
Die haben dem intel ultra 9 285k
tatsächlich 89 Punkte gegeben und das verfälscht sehr das Ergebnis bei Geizhals z.b.
Einfach nur zum 🤮
 
McFritte schrieb:
Reichte unterstrichen, Fettschrift und eine größere Schrift nicht? Ok, versuche ich es dazu noch mal farbig.
"...im Gaming um hohe Performance gepaart mit bester Effizienz geht."
Das habe ich ursprünglich gepostet. Ich kann dir das auch gerne nochmal in deiner Schriftart und Farbe darstellen, da du das ja anscheinend nicht lesen wolltest und auf einem Teil meiner Aussage, aus dem Kontext gerissen, rum reitest
SavageSkull schrieb:
Dir ist schon klar, dass Intel seitdem den Level 3 Cache auch vergrößert hat und bis zum 14900K mit Gewalt Takt und Leistung hochgeprügelt hat. Bereits ein 13900K braucht sich nicht vor dem 5800X3D verstecken müssen.
Ich hatte nie behauptet, dass die alten Intels die gleiche Effizienz hatten, dennoch, waren die 12er, 13er und 14er Intel auch in der Energieeffizienz nicht pauschal schlecht.
Im Idle/Niedriglast Bereich sind die Ryzen seit der ersten Generation unterirdisch.
Bei Spielen reden wir gar nicht von dem viel kritisierten Verbrauch, der Intel sondern von einem überschaubaren Mehrverbrauch, als die non-3D Ryzens (ganz besonders die AM5 Modelle, die ja auch die Takt-Brechstange hinter sich haben)
Unter Arbeitslast wird der Verbrauch zwar deutlich mehr, allerdings ist die Leistung auch gewaltig besser, da viel mehr AVX Leistung und mehr Kerne/Threads bei mehr IPC. Hier kann der 3D Cache nach wie vor nicht punkten.
Hier hat sich AMD auch deutlich überholen lassen und erst die 9000er Ryzen können in diesem Anwendungsfall wieder gleichziehen.
Die Zukunft, bzw bereits die Gegenwart sind nunmal die Core Ultra und die sind beim Verbrauch in einer ganz anderen Liga als die alte Architektur.
Siehe dazu auch den Rest meiner ursprünglichen Aussage
SavageSkull schrieb:
Ebenso hat man jetzt einen Neustart mit einer neuen Architektur.
Sobald die aus den Kinderschuhen raus ist und sich die Zusammenarbeit Intel - TSMC eingelebt hat, ist durchaus denkbar, dass diese neue Architektur auch gut gegen AM5 gegenhalten kann.
Zumindest in der Basis sind die Core Ultra 200 keinesfalls schlechte CPUs und bieten ein deutlich runderes Erlebnis, als die Core I 14th. Letztlich war das bei Ryzen 1000 ja genauso. Als die kamen waren die weder in Spielen, IPC oder auch Anwendungen, die noch nichts mit den vielen Kernen anfangen konnten "besser" als die bisherigen Intels. Eigentlich erst mit den 3000er waren die Ryzen wirklich konkurrenzfähig.
Kennst du den Spruch "Wie es in den Wald schallt, schallt es heraus"?
Dieses pauschale "Intel ist Böse=Schei*e" nimmt hier im Forum teilweise echt Überhand. Man sieht ja bei Umfragen immer wieder, dass wir hier auf AMDBase sind, denn der Anteil an AMD Hardware ist deutlich höher, als es die Verkaufszahlen im Mittel eigentlich hergeben.
Es tummeln sich hier leider sehr viele Leute, die gar kein Interesse haben, mal objektiv sich das Produkt als solches ohne Zu-/Abneigung des Herstellers zu betrachten.

Der 5800X3D war damals in 2022 ein rundes Produkt, auch weil die AM4 Boards günstig und weit verbreitet waren, das Thema mit RAM OC, was bei AMD immer noch ein großes Thema ist, relativiert hat, die CPU bezahlbar war und 8 Kerne mit dem Takt bei den allermeisten Aufgaben ausgereicht haben.
Ende 2024 finde ich den 9800X3D nicht mehr so rund, weil man einen höheren Preis für immer noch nur 8 Kerne bezahlt, die AM5 Boards weder groß verbreitet sind, noch (mit moderner Ausstattung) günstig sind und man sich 14% Mehrleistung mit 38% höherer Leistungsaufnahme erkauft hat.
Klar die CPU ist die aktuell schnellste CPU bei Spielen. Als das noch bei Intel war, war der Ton hier aber bei weitem nicht derselbe Hype. Das ist teilweise schon lächerlich was hier abgeht.
 
SavageSkull schrieb:
Dieses pauschale "Intel ist Böse=Schei*e" nimmt hier im Forum teilweise echt Überhand. Man sieht ja bei Umfragen immer wieder, dass wir hier auf AMDBase sind, denn der Anteil an AMD Hardware ist deutlich höher, als es die Verkaufszahlen im Mittel eigentlich hergeben.
Weil Intel immer noch arrogant ist, sie haben immer noch nicht ihre Position wahrgenommen. Sie haben eine Historie von Anti-Konsumer Praktiken. Sie haben immer noch ein Monopol. Sie bekommen seit 10 Jahren es nicht auf die Reihen ihre Fertigung zu Glätten.

Mit Error Lake scheint sich das Blatt zu wenden, Intel scheint sowas wie Selbstreflexion zu entwickeln.

Es ist im Interesse des Konsumers Intel fallen zu sehen, bis wir einen ausgeglichenen Markt haben, bis Intel sich aufhört mit ihrer großkotzigen Art.
Wenn es so weiter geht, dauert es noch 5-10 Jahre, bis wir ~50/50 im x86 sehen.
 
  • Gefällt mir
Reaktionen: dergraf1 und eXe777
Robo32 schrieb:
UserBenchmark ist höchstens geeignet um Intel mit Intel und AMD mit AMD zu vergleichen, auch dabei sollte man aber sein Hirn nutzen.
Führt Userbenchmark nicht eh irgendwie gefühlt einen Krieg gegen AMD? Ich bin ja mal gespannt, wie sie die Core-Timings bald in ihren Benchmark wieder neu gewichtet. Der Core Ultra 285K ist da ja auch nicht sehr gut, entsprechend müssen sie da ja auch wieder anpassen, damit das wieder stimmt und Intel vorne ist. ;)
 
  • Gefällt mir
Reaktionen: dergraf1, Sturmwind80, Icke-ffm und 2 andere
Zurück
Oben