Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

Also aktuell spiele ich mit der RTX 4090 FE und 9700k 4,9ghz auf 5120x1440 und habe noch kein Verlangen für einer neuen CPU.

Spiderman und a plague Tale mit dlss3 100-140 FPS.
Der Aufpreis für einer neuen Plattform und schwachen Angebot von DDR5 machen alles unattraktiv.


Ich hatte bis jetzt nur Intel aber mein nächster vielleicht in 1 Jahr wird dennoch AM5.

Einfach da diese Plattform länger leben wird als das von Intel. Wo man bei Intel meist jedes mal ein neues Board kaufen muss.

Ich warte einfach bis die Preise für AM5 Plattform fällt und dann schlage ich zu!!
Ich seh jetzt aktuell kein Grund für ein Upgrade.
 
  • Gefällt mir
Reaktionen: Coenzym
Wer nicht unterm Stein gelebt hat und wem es nicht um Fanboyism geht weiss wie sparsam ADL und RL in Idle und Teillast,also auch Gaming, sind, ebenso,dass eine 4090 auf 300 bis 320 Watt eingestellt kaum Leistung einbüsst. Zudem liegt es bei einem immer noch selbst in der Hand was die CPU verbrauchen soll,das reicht von sinvollen Vcore Einstellungen bis zu harten Limits über PL1 und PL2.

Die, die hier wieder nach Verbrauchswerten schreien sind doch wieder Die, die sich dann einen Ast abfreuen wenn ein AMD 15 Watt weniger verbraucht.
 
  • Gefällt mir
Reaktionen: MegaManX4, Freestyler, simosh und 2 andere
Zunächst mal danke für den Test 👍🙂

Ich hab heute Morgen im Zusammenhang mit der 4090 auch mal diesen Test hier durchgesehe und quergelesen:
https://www.techpowerup.com/review/rtx-4090-53-games-ryzen-7-5800x-vs-ryzen-7-5800x3d/

At 4K, which is really the territory the GeForce RTX 4090 was built for, we're seeing very solid gains in many titles, especially those that are lighter in their rendering requirements. Many games are fully GPU limited here though, and show negligible differences. Especially modern, demanding titles are able to fully load the GPU at that resolution, even with a weaker CPU.

=> Wenn man sich das ansieht, dann sind für die 4090 spätestens in 4K/UHD auch ein 5800X und womöglich auch mein 5600X noch schnell genug. Sicher nicht in allen Spielen, aber doch in einigen. Selbst der 5800X-3D kann sich da im Mittel nur um rund +7-8% absetzen - und ehrlich gesagt bezweifle ich, daß man 7% merkt.
Wie gesagt: Im Mittel - weiß ich. Und natürlich gibt's Spiele, bei denen der 5800X-3D und damit auch die 13x000'er von Intel oder der 7950X gegenüber der alten Generation richtig abziehen. Aber ebenso gibt's genug => wenn man (nur) die spielt, sollte man sich überlegen, ob das CPU-/ Plattform-Upgrade zum jetzigen Zeitpunkt und zu diesen Preisen nötig ist.

Den 5800X-3D hatte ich Anfang des Jahres mal für zwei Wochen drin, und er hat mir in meinen (älteren) Spielen und @VR in der Tat nix gebracht - jedenfalls nichts, was ich gespürt hätte.
Was ihn - oder auch die neuen CPU's eben - nicht zu schlechten CPU's macht - aber je nach Titel und Auflösung scheint es eben doch recht unterschiedlich zu sein.

Ich werd's auf jeden Fall erstmal mit ner NextGen-GPU allein versuchen (vorzugsweise dieses Mal wieder von AMD, wenn das Preis-Leistung-Effizienz-Rating stimmt).

Bouncer503 schrieb:
Es ist erstaunlich wie schnell sich AMD ins Gaming-Abseits manövriert hat und komplett uninteressant wird bei der neuesten Generation.
Hohe Aufrüstkosten und dann auch noch bei der Leistung hinterher, da muss man schon ein ziemlicher Fanboy sein um da bei AM5 zuzuschlagen.
Naja - also von nem "Gaming-Abseits" würde ich jetzt nun nicht sprechen.
Für mich sieht das eher nach dem üblichen und von uns Verbrauchern eigentlich gewünschten Schlagabtausch aus: Eine Generation ist Intel besser, in der nächsten AMD, dann wieder Intel... laß es auch mal zwei Generationen am Stück sein. Aber gleich von "Abseits" zu sprechen, finde ich übertrieben.
Insbesondere, wenn man berücksichtigt, daß wir hier von Meßergebnissen in einer Größenordnung sprechen - sowohl absolut wie auch relativ -, die die meisten Spieler je nach Auflösung und Grafikeinstellungen nachher wirklich nicht spüren werden.
 
  • Gefällt mir
Reaktionen: Demon_666, simosh, ottocolore und 2 andere
Ist Gotham Knights nicht dieses total unrund laufende Spiel, was einfach nur grottig läuft und vom Gameplay sowie Grafik nicht wirklich gut ist? Wieso nimmt man dann sowas mit in den Testparcour?

Also nichts gegen den Test, der ist gut. Aber so eine Gurke sollte man dann nicht mit rein nehmen.

Und ja Zen5 stand jetzt ist nicht so der Oberknaller im Gaming, muss es aber auch nicht unbedingt, wenn die Preise dementsprechend niedriger wären.

Aber bin ja mal gespannt, wenn dann die 3D Varianten kommen, was die dann drauflegen werden. Und wenn, wovon ich fast ausgehe, die 3D Varianten in Gaming auch den 13900K schlagen, ob der dann auch total uninteressant ist, weil gibt ja dann was schnelleres :P
 
  • Gefällt mir
Reaktionen: Celinna, Thrask und danyundsahne
wern001 schrieb:
Handbrake oder wie die alle heißen und die GPU nutzen ist einfach nur bää.
So h.265 auf GPU ist doch nur für Streaming gut. Die eigenen Filme lässt man per CPU umcodieren. CPU sieht besser aus und ist auch kleiner bei gleichen Qualitäts Einstellungen.
Von Hardware-Encoding war nie die Rede, also wie kommst Du überhaupt auf das schmale Brett? Wenn ich in Hardware encoden will, nehme ich ohnehin VideoToolbox 😉
 
  • Gefällt mir
Reaktionen: Zarlak
Wie immer bei jedem Thema sind sofort die Stromverbrauchsfanatiker am Start und melden sich lautstark zu Wort. Ich würde euch dazu raten, ein Smartphone oder ein Notebook einzusetzen und keinen Gaming-PC für über 3000€, wenn euch die paar Watt hoch oder runter so sehr am Herzen liegen.


1667390508443.png


1667390529014.png

1667390552536.png

Quelle

Hier die wertvolle Erkenntnis, dass der schnellere Intel sogar ganze 3 bis 9 Watt weniger verbraucht.

Bei 4h Gaming an 6 Tagen pro Woche könnte ihr euch damit nach ca. 800 Jahren besagte 4090 zusammensparen, soll sich ja schließlich lohnen.

Ist langsam wirklich nur noch nervig, als käme es bei Hardware auf nichts anderes mehr an.
 
  • Gefällt mir
Reaktionen: MegaManX4, Viper816, firemon und 16 andere
RichieMc85 schrieb:
Ohne Overwatch und GoW im GPU Limit sähe es für AMD noch schlechter aus.
"Ohne Spiderman und Gotham Knights in 4K sähe es für Intel sehr eng aus."

Die schlechtesten Vergleichswerte sind die, die man beliebig drehen kann.
 
  • Gefällt mir
Reaktionen: Veitograf, Cruentatus und eXe777
nutzername schrieb:
Intel = 1828,79 €
AMD = 1532,47 €
Warum vergleichst du Äpfel mit Birnen? Anderer RAM, der Preis des älteren AMD Boards inzwischen gesunken etc.

Ich habe bei meinem Beispiel UVP Preise angeführt.
 
  • Gefällt mir
Reaktionen: Viper816
Damit dürfte auch das Duell Ryzen 7000 3D und 13900K(S) ohne großartigen Sieger ausgehen...
Vielleicht einer weniger als 5% vorne, mit mehr rechne ich nicht.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
kicos018 schrieb:
Und jetzt schau dir nochmal deinen zitierten Post an. Da ging es offensichtlich um die 6% Unterschiede im Performancerating von 4K.
Du kannst dich jetzt nicht einfach hinstellen und behaupten "DER IST ABER 18% SCHNELLER!!!11"
Doch, weil die Argumentation in der Basis schon nicht passt.
Es geht hier um die zwei Topmodelle von AMD und Intel und welche CPU schneller unterwegs ist. Wer sich also nun für diese zwei CPUs interessiert bzw. die jeweils schnelle kaufen möchte, macht das doch nicht vom 4K Test abhängig?
Dann kann ich mir auch eine kleine CPU kaufen und komme wesentlich günstiger bei weg, werde aber u.U. am Ende enttäuscht sein, wenn das GPU Limit nicht (mehr) greift, die CPU ihre volle Leistung entfaltet und ich merke, dass die andere CPU doch schneller gewesen wäre.

Tornavida schrieb:
Der Test relativiert sozusagen ein wenig das schlechte Abschneiden von AM5 und zeigt was für ein Monster die 4090 ist.
Und genau das ist ja mein Kritikpunkt, weshalb der 4K Vergleich hinkt bzw. nicht relevant ist.

Beispiel:
Ich möchte mir eine neue Plattform zulegen und schwanke zwischen den beiden CPUs. Die 6% Unterschied kann man fast vernachlässigen und ich entscheide mich nun für den 7950X. Jetzt kommen mit der Zeit neue Spiele raus, welche die CPU besser auslasten, das GPU Limit verschieben und aus den 6% werden auf einmal 18%+ in 4K. Dann hab ich mich am Ende falsch entschieden. Wenn mich aber nun nach dem 720p Benchmark richte, erhalte ich hier genau das, was ich erwartet habe.
 
  • Gefällt mir
Reaktionen: Skript
MrHeisenberg schrieb:
Es gibt hier um die zwei Topmodelle von AMD und Intel und welche CPU schneller unterwegs ist.
Ja es geht hier nur darum, weil die Leistungsaufnahme als zweites Kriterium welches man vergleichen könnte, fehlt.
Genau das wurde ja im Post gefordert, sodass man 2 Metriken vergleichen kann statt nur einer.
 
  • Gefällt mir
Reaktionen: Veitograf und Rockstar85
Daggy820 schrieb:
Außerdem finde ich einen Test unter Win 11 zurzeit mit AMD ziemlich verfälscht, da ja bekannt ist das etliche AMD CPU´s unter Win 11 noch nicht wirklich rund laufen.
Bei Ryzen 7000 scheint das überwiegend das hier nicht verwendete 22H2 Update zu betreffen.
 
Hutzeliger schrieb:
Auch da kenne ich keinen der sein erstes AM4 Board (Ryzen1XXX) behalten hat, die meisten haben trotz gleichem Sockel immer mal geupgraded....
Moin 🤝 jetzt kennste einen! 😄
 
  • Gefällt mir
Reaktionen: Veitograf
Schade, dass mal wieder 1440p fehlt, das wird für viele schätze ich relevanter sein als 4K oder 1080p.
 
iamcriso schrieb:
Wer eine RTX 4090 + 13900 CPU betreibt…den Interessiert doch der Stromverbrauch nicht wirklich
Warum nicht? Nur weil man das Geld für Hardware hat bedeutet das nicht, dass man mit Geld grundsätzlich verschwenderisch umgeht. Vermögen wird man nicht in dem man Geld ausgibt oder einfach nur verheizt. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Veitograf, Starkstrom und GERmaximus
Computerbase am Sonntag:

Opera Momentaufnahme_2022-11-02_131126_www.computerbase.de.png


Computerbase am Mittwoch:
more-power.gif


Ja, mir ist klar, dass der Test hier länger in der Mache war, trotzdem ist der ganze Gaming Fokus mMn nur noch ein Feigenblatt von Herstellern und Presse, um ihr Zeug zu verkaufen und Clicks zu generieren.

Realitätsnah ist an einem 3k Euro Gesamtpaket für die Meisten sehr wenig und fürs Gaming notwendig ist davon noch weniger.

Spiele momentan Uncharted in 1440p mit einem 8750H und einer 2060 Super. Macht nicht weniger Spaß.

Aber wird sicher wieder ein toller Thread um sich über die "Gaming Krone" zu streiten und hinterher 3 Klassen tiefer falsche Empfehlungen auszusprechen.
 
  • Gefällt mir
Reaktionen: MegaManX4, ShiftyBro, simosh und eine weitere Person
Ist ja wie mit Ryzen 5000 und Intel 12000.

Gefühlt die gleichen bench Abstände, nur mit neuer Bezeichnung.
 
Taxxor schrieb:
Ja es geht hier nur darum, weil die Leistungsaufnahme als zweites Kriterium welches man vergleichen könnte, fehlt.
Genau das wurde ja im Post gefordert, sodass man 2 Metriken vergleichen kann statt nur einer.
Frage an dich: Wenn du dich für eine der beiden CPUs entscheiden müsstest, würdest du das abhängig von der 4K oder 720p Leistung machen? (Von den anderen Faktoren wie Verbrauch etc. mal abgesehen)

In anderen Threads werden die 720p Tests von dir und vielen anderen verteidigt und hier versuchst du mir gerade weiß zu machen, dass der 4K Test relevanter als der 720p Test ist. WTF?
 
Tja da sieht was Hochfrequenzkerne wert sind, wenn sie nicht gleichzeitig auch Hochleistungskerne sind. Es hat sich endgültig ausgeryzt. Massive 15% Leistungsunterschied. Intel und NVIDIA sind the way it's meant to be played again.
 
  • Gefällt mir
Reaktionen: firemon, Einfallslos^99 und Helge01
Zurück
Oben