Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

ruthi91 schrieb:
Wenn man dabei ist sich einen Gaming PC weit über 1000€ zusammenzustellen, ist diese Frage vollkommen legitim. Klar kann man stumpf nach dem Ist-Zustand kaufen und sich keinen zukünftigen Upgradepfad ausmalen - muss man aber nicht.
und in 2 Jahren ist deine Grafikkarte wieder "veraltet"
CPU´s Tauscht man selten, GPU öfter
 
die 7000er zen's sind schon flott - gerade wenn es um produktives arbeiten geht.
aber aus spielersicht muss niemand mit einem 12000er intel oder einem 5000er zen upgraden..es bringt zuwenig.
erst mit dem x3d cache könnte es bei den 7000ern für amd einiges zu holen geben - allerdings zu welchem preis? denn die am5 plattform ist für das gebotene jetzt schon einen guten tick zu teuer..
 
  • Gefällt mir
Reaktionen: McTheRipper
Warum wurde nur wieder auf Win 11 getestet, welches quasi bei sehr wenigen in Verwendung ist? + Wenn dann auch noch bekannt ist, dass AM5 scheinbar Probleme mit Win 11 hat im Punkt "Performance"? Stellt das nicht eher ein verzerrtes Bild dar?
 
  • Gefällt mir
Reaktionen: Anon-525334
Nizakh schrieb:
Was mich persönlich interessieren würde: Wie sieht die Performance aus, wenn der 13900K mit DDR4 betrieben wird. Beim i5 13600K sah es ja nicht schlecht aus mit DDR4. Aktuell sieht das für mich persönlich nach einem attraktiven Upgrade aus: 13900K + Z790 DDR4 Mainboard. Die 64GB DDR4 3600er CL16 könnte ich dann einfach übernehmen, was die Plattform für mich rund 500€ günstiger machen würde.
wozu das denn ? 13900k ~750EUR + Z790 DDR4 250 = ~1000EUR um 3Monate das schnelleste zu haben ?
was wie im Text steht bei Deiner Aktuellen GPU eh nichts bringt mit der 4090 sicher aber damit spielt keiner unterhalb 4k für durchschnittlich 6% mehr Leistung bei DDR5 und warscheinlich 1-2% mit DDR4 ?`wenn dann im Jan23 ein 7950x3D kommt der 6% schneller ist musst eh DDR5 kaufen.
Endweder immer das schnellste egal was es kostet oder aber auf den Preis achten
ich hab mir nun auch noch mal den 5800x3D geholt und zocke noch FHD auf RX590 wollte eigentlich mal ne neue Grafikkarte aber die preise sind mir zu hoch nun warte ich wie schnell & teuer die kleinen RTX oder RX werden und was die alten im abverkauf kosten. das besste P/L bei max 400EUR wird geholt
 
@Wolfgang werdet ihr das Phänomen, das AMD im Zusammenhang mit Win10/Win11 und den FPS unzerschieden, noch weiter beleuchten und gegebenenfalls anpassen?
 
@Wolfgang
Danke für den Test, aber in meinen Augen eine völlige Verschwendung von Ressourcen.
Alles über 720p hat jetzt rein gar keine neuen Erkenntnisse gebracht. Da hätte man lieber mehr Spiele oder andere Speichersettings testen können.
 
bensen schrieb:
Alles über 720p hat jetzt rein gar keine neuen Erkenntnisse gebracht.
Es hat immerhin ein wenig gezeigt, bis wohin die 4090 noch von der CPU limitiert werden kann.
 
  • Gefällt mir
Reaktionen: Laphonso und RogueSix
Tja, und das wirklich interessante, nämlich die Leistungsaufnahme, darf man woanders nachlesen, echt enttäuschend.
 
Zuletzt bearbeitet von einem Moderator:
bensen schrieb:
Danke für den Test, aber in meinen Augen eine völlige Verschwendung von Ressourcen.
Alles über 720p hat jetzt rein gar keine neuen Erkenntnisse gebracht.
Nachdem neulich 720p als völlige Verschwendung von Ressourcen galt, sind wir in diesem Punkt jetzt also komplett. ^^
 
  • Gefällt mir
Reaktionen: .Sentinel., Pisaro, Rockstar85 und 10 andere
Esenel schrieb:
Was hat XMP nun mit dem abschalten von Chiplets zu tun?
Du wirst doch nicht je nach Game CCDs an und abschalten.
Je nachdem was gerade besser performt?
Es ist ein bekannter Bug von Windows
Warum sollte man den wissentlich kommentarlos das einfach so übernehmen?
Sind wir bei der Bild?
Ergänzung ()

Philste schrieb:
Bei Ryzen hingegen gibt es 3.5 Jahre nach Erscheinen der ersten CPU mit 2 CCDs immernoch das selbe Problem mit dem Scheduling.
Aber das ist doch genau das Problem, das gab es in Win 10 nicht, das ist ein Bug eingeführt mit Win11. Warum man AMD CPUs unbedingt anders ansprechen muss Win10 vs 11, muss MS erklären.
 
  • Gefällt mir
Reaktionen: Rockstar85, eXe777 und McTheRipper
Warum wieder nur mit 5200er Takt beim 7000er Ryzen?

Wer betreibt denn Zen3 auch nur mit 3200 MHz gemäß Spezifikation?

Warum nicht gleiche Bedingungen schaffen?
 
Casillas schrieb:
Warum wieder nur mit 5200er Takt beim 7000er Ryzen?

Wer betreibt denn Zen3 auch nur mit 3200 MHz gemäß Spezifikation?

Warum nicht gleiche Bedingungen schaffen?
Spec ist Spec. Und 6000MT bei beiden (wie in vielen anderen Tests) sind für mich auch nicht gleiche Bedingungen, wenn ZEN4 spätestens bei 6600MT abschmiert und Raptor Lake easy über 8000MT macht.
 
  • Gefällt mir
Reaktionen: Pro_Bro
Jetzt wäre es natürlich noch schick gewesen zu sehen, wieviel denn tatsächlich zwischen zB einer 5900x mit 4090 und einer 7900x mit 4090 liegt...
Bzw. wie sehr die CPU dann tatsächlich limitiert (ergo 5900x +4090 vs 5900x vs 4080)

Liest sich ja sehr dramatisch.
 
Schön, wo die Reise hingeht. Ich bin Mal gespannt, ob es 2030 überhaupt noch Produkte wie aktuell die 4090 geben wird.

Eine höhere Auflösung als 4k und Bildraten über 120fps sind definitiv im Bereich der diminishing returns.

Oder anders: heutzutage ist es für jemanden mit fhd- Monitor schlicht nicht spürbar ob da eine 4060 oder 4090 rendert. Hoffentlich kann man das dann auch über 4k Monitore behaupten.
 
rony12 schrieb:
@Wolfgang generell super Arbeit - bei 4K aber bitte auch die Native Auflösung benchmarken.
Weil mit Upscaling werden eben nicht knapp 8,3Megapixel von der Grafikkarte gerendert, sondern eben nur dargestellt.
Da ich persönlich die native Darstellung der hochskalierten bevorzuge würde es mich freuen, würden auch die native Auflösung gemessen werden :)
Danke, ich hab nach so einem Kommentar gesucht. Upsampling mag für schwächere Systeme eine schöne Sache sein, aber in nem Benchmark will ich die native Auflösung sehen und das Upsampling dann gerne als optinales Features.
 
  • Gefällt mir
Reaktionen: McTheRipper und Anon-525334
Übrigens findet sich ein ähnlicher Test mit RTX 4090 bei TechPowerUp, aber dort leider nur AMD vs. AMD und leider auch nur "last gen" in Form des 5800X vs. 5800X3D.

In 4K ist der 5800X3D dort im Schnitt 6,8% schneller unterwegs. Es gibt aber auch ein paar beeindruckende Ausreißer. Wer zum Beispiel Hardcore Anno 1800 Spieler ist, der sollte dringend über ein CPU-Upgrade nachdenken, denn da sind es über +30% selbst in 4K!

Auf jeden Fall zeigt sich auch dort, dass die RTX 4090 selbst noch in 4K jedes bisschen Mehr an CPU-Performance dankbar aufsaugt.
 
Ich warte noch bis die 3D Cache Zen aufschlagen, dann kommt ein neues System ins Haus, mein 6700k+2070S ist definitiv zu langsam für DCS und HP Reverb G2
Vielleicht gibt es dann auch Grafikkarten beim Händler zu besseren Preisen
 
Jack3ss schrieb:
und jetzt das ganze noch mit Stromverbrauch?
Laut PCGH im Durchschnitt bei Spielen:

7950X = 135 Watt
13900K = 148 Watt

FPS pro Watt:

7950X = 3.625
13900K = 3.5

Leistungsaufnahme bei Anwendungen:

7950X = 214 watt
13900K = 276 Watt
 
Zurück
Oben