Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

Konzentriert man sich auf CPU intensive Titel und nimmt Titel wie Overwatch und COD aus dem Programm ist ein 13900K schon 25% vor dem 7950X.
Da wird AMD auf alle Fälle die X3D Modelle brauchen um Intel einzuholen.
Gaming.JPG

Auf alle Fälle ist eine aktuelle Ryzen CPU kein guter Partner für eine High End GPU, wie die 4090.
 
  • Gefällt mir
Reaktionen: simosh, Hutzeliger und KlaasKersting
zeedy schrieb:
Massive 15% Leistungsunterschied
"Massiv" finde ich witzig. 15% sind alles, aber nicht massiv. Der Wechsel von meiner 3080 auf die 4090 war massiv, da etwa doppelte Leistung bei rauskam.
 
  • Gefällt mir
Reaktionen: Celinna und Vitec
Ragnarök88 schrieb:
Auf alle Fälle ist eine aktuelle Ryzen CPU kein guter Partner für eine High End GPU, wie die 4090.
Wenn man in 720p vorhat in dieser Kombi zu spielen und dazu nur lahmes RAM einsetzt zu seiner restlichen Highend Hardware, dann ja.

Ansonsten, sorry nein. 🤣
 
  • Gefällt mir
Reaktionen: Gortha
Danke für den Test CB, nur leider ist dieser in meinen Augen nicht wirklich praxisrelevant. Ich beziehe mich hier auf den verwendeten RAM. Ich weiß, ihr haltet euch an die offiziellen Angaben von AMD und Intel was den verwendeten RAM angeht. Aber niemand (hoffe ich jedenfalls), wird einen 7950X mit langsamen DDR5-5200 RAM kombinieren. Hier wird immer mindestens DDR5-6000 RAM zum Einsatz kommen. Und AMD selbst sagt ja, dass dies der Sweet-Spot bei Zen4 ist. Und Zen4 liegt mit schnellem RAM nochmal deutlich zu, wie Tests von anderen Redaktionen gezeigt haben.

In meinen Augen hätte es mehr Sinn gemacht, beide CPUs mit demselben RAM zu testen, also z.B. DDR5-6000. Dann sehe das Ergebnis nämlich schon ganz anders aus. Aber macht nichts, es gibt ja schließlich noch andere Seiten, welche die CPUs eben mit gleichwertigem RAM testen. Muss man eben diese heranziehen, um sich einen praxisrelevanten Eindruck von den CPUs und deren wirklicher Leistungsfähigkeit machen zu können.
 
  • Gefällt mir
Reaktionen: Viper816, ynfinity und Bassmensch
Ich seh keine Leistungsunterschiede!

Ich sehe zwei Spiele die wohl keine AMD Optimierung haben, bzw. Die eine Intel Optimierung haben die AMD nicht schmeckt.

10 Titel ist auch zu mau...

Abseits von den zwei neueren Titel ist 2077 auch noch schwach...

Bin gespannt wie das mit der neuen spitzen gpu von AMD dann aussieht.

Mfg
 
  • Gefällt mir
Reaktionen: MegaManX4
ben12345 schrieb:
Oha das ist ein Fakt den du hier nicht nennen darfst, die AMD fanbois wollen das hier nicht hören das Intel in vielen realen Szenarien den besseren Verbrauch hat. Da wird sehr schnell wieder relativiert. Realistische Szenarien zählen nur wenn sie AMD besser da stehen lassen...

Wenn ich jetzt noch die ganzen RTS aufzähle, die ich gern zocke, welche selbst in 4K im CPU Limit sind ist es ganz vorbei. 😅
 
  • Gefällt mir
Reaktionen: His.Instance
Jetzt kommt ein Test eines 7950X aber keine 1/2 CCD Betrachtung, wenn schon bekannt ist, das Windows mal wieder ein Bug hat.
 
  • Gefällt mir
Reaktionen: Gortha
Danke für den interessanten Test.

Wie bereits erbeten, wäre Linux dazu ziehen bei Allegemein Hardwaretests nett.
 
Danke für den Test, alles richtige Monster :love:
Habt ihr vor, diesen noch um den Stromverbrauch zu erweitern, es gibt nicht wenige Leute die das gern sehen würden.
 
Pixelhomie schrieb:
Wozu? Wer sich eine RTX 4090 samt passender CPU in den Rechner packt sollte das wohl kaum interessieren.
Aber hier geht es auch um "Wie gut kann CPU X die derzeit stärkste GPU befeuern" ohne die stärkste GPU selbst zu kaufen (CPUs werden meist seltener getauscht als GPUs).
Man möchte wissen was möglich ist mit der CPU+ wie es mit Verbrauch aussieht dabei.
Eine 5070 könnte dann das selbe leisten mit weniger Verbrauch und ist es wieder ungünstig wenn der Verbrauch bei CPU wiederum nicht berücksichtigt wurde.
 
  • Gefällt mir
Reaktionen: TechFunk
bad_sign schrieb:
Jetzt kommt ein Test eines 7950X aber keine 1/2 CCD Betrachtung, wenn schon bekannt ist, das Windows mal wieder ein Bug hat.

Ist das jetzt Wolfgangs Schuld?
Oder sollte sich AMD mal lieber mit Microsoft zusammensetzen und das Thema lösen?
 
  • Gefällt mir
Reaktionen: MegaManX4, Pro_Bro, KlaasKersting und 2 andere
Tenferenzu schrieb:
..kann man das Komprimieren auch gleich lassen wenn genügend Speicher vorhanden ist...
Na ja, irgendwo sollte man auch das Kosten/Nutzen Verhältnis berücksichtigen. Ob ein Film auf der HDD 12-16 GB oder in Rohform direkt von der BD 40 GB+ braucht ist ein nicht unerheblicher Unterschied.

Spielt Geld keine Rolle und man hat ein NAS mit 6x oder 8x 20 TB HDDs Zuhause mag das anders aussehen. Das ist jedoch nur selten Fall.

ThirdLife schrieb:
Meiner Erfahrung nach ist das Bild meist sichtbar weicher über NVENC265, Banding kommt öfter vor und dunkle Szenen sind immer Problemfälle.

Wird auch schnell von Tools wie VMAF bestätigt und objektiv festgehalten.
Ich habe eher wenig Erfahrung mit H.265 weil HEVC UHD-BD Territorium ist. Bei der normalen BD nimmt man bevorzugt H.264 und dort geht der sichtbare Unterschied gegen null.
 
Intel ist zur Zeit schneller. Aber nicht wirklich relevant. Wer schon eine AM5 Plattform hat hat auch mehr als genug Leistung und bekommt noch lange neue CPUs. Wer eine Sockel 1700 Plattform hat hat noch einen tick mehr Power. Aber keine Option mehr in Zukunft noch aufzurüsten. Im großen und ganzen kann man mit beiden Plattformen aktuell zufrieden sein. Außerdem kommt es sowieso immer auf den Anwendungsfall an.
Ich sehe jedenfalls nicht das das eine oder andere in der Praxis im Moment signifikante Vorteile hat.
 
  • Gefällt mir
Reaktionen: Viper816, Beero84, ErichH. und eine weitere Person
Pisaro schrieb:
"Massiv" finde ich witzig. 15% sind alles, aber nicht massiv.
Doch, 15% sind extrem, vor allem bei 4K.
Das ist nämlich der Unterschied (Durchschnitt) zwischen dem Ryzen 5500 und einem Ryzen 5800X3D.
Oder der Unterschied zwischen einer RTX 3080 und RTX 3090.
 
KlaasKersting schrieb:
Wie immer bei jedem Thema sind sofort die Stromverbrauchsfanatiker am Start und melden sich lautstark zu Wort. Ich würde euch dazu raten, ein Smartphone oder ein Notebook einzusetzen und keinen Gaming-PC für über 3000€, wenn euch die paar Watt hoch oder runter so sehr am Herzen liegen.


Anhang anzeigen 1278146

Anhang anzeigen 1278147
Anhang anzeigen 1278148
Quelle

Hier die wertvolle Erkenntnis, dass der schnellere Intel sogar ganze 3 bis 9 Watt weniger verbraucht.

Bei 4h Gaming an 6 Tagen pro Woche könnte ihr euch damit nach ca. 800 Jahren besagte 4090 zusammensparen, soll sich ja schließlich lohnen.

Ist langsam wirklich nur noch nervig, als käme es bei Hardware auf nichts anderes mehr an.
Interessiert scheinbar viele. Muss man dann halt mit klar kommen. Wenn Sie da keinen Wert drauf legen, ist das ja schön und gut. Würde Sie aber auch nicht dafür kritisieren, wenn Sie andersherum Informationen zu den FPS einfordern, wenn in einem Artikel eine 4090 mit der 580 verglichen werden.
 
Zuletzt bearbeitet:
Esenel schrieb:
Ist das jetzt Wolfgangs Schuld?
Oder sollte sich AMD mal lieber mit Microsoft zusammensetzen und das Thema lösen?
Ja, weil klar ist, dass das kein Normalzustand ist. Man schaltet ja XMP auch ein.
 
Zurück
Oben