Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

Intel ist stärker zurück denn je, so gefällt mir das. AMD kann spätestens bei Meteor Lake nur noch existieren, dann werden sie von Intel meilenweit geschlagen. Echt erstaunlich wie sich das ganze in den letzten zwei Jahren entwickelt hat, bis zur 12 Generation bekam man eigentlich bei AMD immer mehr Kerne und eine höhere Leistung fürs Geld geboten, da hat sich das Blatt jetzt aber wohl gedreht. Wenn jetzt noch meine Intel Aktien deutlich steigen würden...
 
  • Gefällt mir
Reaktionen: Tiara G.
Ben_computer_Ba schrieb:
Intel ist stärker zurück denn je, so gefällt mir das. AMD kann spätestens bei Meteor Lake nur noch existieren, dann werden sie von Intel meilenweit geschlagen.
Genau, denn AMD wird bis dahin einfach garnix mehr entwickeln und das ab heute so belassen wie es ist. 😂
 
  • Gefällt mir
Reaktionen: Pisaro, ottocolore, eXe777 und 3 andere
Schade, hatte gehofft AMD schafft es diesmal!
Naja, dann werden halt die Preise weiter steigen und AMD bleibt 2. Wahl, wie gehabt.

Haldi schrieb:
Habt ihr eigentlich aktuellere Nutzerzahlen zu Windows 11?
Die aus dem Januar sagen noch die Mehrheit nutzt windows 10.
Ja, weil viele "noch" ein zu altes System haben wo Win11 nicht lauft.
Ist aber kein Grund Win10 deswegen als "besser" hinzustellen, denn im Grunde sind beide 1:1 das gleiche, abgesehen von ein paar features.
Aber am Ende werden alle Win11 haben sofern die Systeme nicht 10+ Jahre alt sind und mit Ausnahme derer, die jetzt noch Sicherheitslücken Win7 oder gar WinXP betreiben!

BTICronox schrieb:
Am besten mit Downscaling für beide als Vergleich. Also der 13900K auf ~100W und die 4090 auf ~250-300W :)
Hmm, deine Werte sind "nicht so ganz" Realistisch :D
Eine 8700k undervolted braucht schon 100-200W bei Volllast und eine RTX 3070 braucht 250-350W undervolted bei Volllast...

Realistische Werte beim 13900K sind eher 200-300W und 500-600W bei der 4090 (beide Stock) und da will ich noch gar nicht erst von Overclocked auch nur anfangen :P
 
Ich sag es hier nochmal!
Auch wenn man das seit Jahren ignoriert! :D
Der Speichercontroller von Intel ist um Welten besser als der von AMD,
das schon seit sehr vielen Jahren so!
 
  • Gefällt mir
Reaktionen: Neubauten, HansDetflefAndi und Trent
Nö. Hier im Test wurde schnelleres RAM für Intel benutzt zum Einen und bei AMD ist eher der IF Interconnect der Latenztreiber. Da Intel (noch) monolithisch arbeitet kann man das nunmal nicht 1:1 vergleichen wie du es tust.

Mit dem Memory Controller hat das mal so ziemlich garnix zu tun. Darum wird deine Aussage vermutlich auch weiterhin ignoriert.
 
5900x/3080 ziehen mal eben 750W aus der Dose beim Gaming(inkl Monitor 40W), im Idle 175W
Die Werte im HWiNFO sind nichts weiter als Schal und Rauch. Haben 0 Realitätsbezug

Rot hat fertig bei solchen Messungen. Blau ist unübertroffen sparsam im Idle.
 
  • Gefällt mir
Reaktionen: Tiara G.
Wolfgang schrieb:
High-End-Hardware ist in den letzten Wochen deutlich schneller geworden.
Testsystem:
"Windows 11 21H2 mitsamt sämtlichen Updates wurde vor den Tests neu aufgespielt. Als Grafikkarten-Treiber ist der GeForce 522.25 installiert."

Sag mal Wolfgang, könntest du Spaßeshalber das ganze mal mit Windows 10 machen? Ich habe immer noch die Phoronix Benchmarks im Kopf und frag mich, wieso Windows so mies skaliert:

https://www.phoronix.com/review/intel-core-i9-13900k/18
Vllt kannst du ja mal Windows 10 gegentesten, irgendwie scheint der Win11 Sheduler Schluckauf zu haben
 
Zuletzt bearbeitet:
Danke für den ausführlichen Test.👍

Die 13. CPU Generation von Intel ist schon ne Wucht, aber AMD ist auch nicht schlechter.

VG
 
  • Gefällt mir
Reaktionen: daknoll, TechFunk und danyundsahne
rony12 schrieb:
bei 4K aber bitte auch die Native Auflösung benchmarken.
Weil mit Upscaling werden eben nicht knapp 8,3Megapixel von der Grafikkarte gerendert, sondern eben nur dargestellt.
Da ich persönlich die native Darstellung der hochskalierten bevorzuge würde es mich freuen, würden auch die native Auflösung gemessen werden :)
Bei einer nativen 4k Auflösung geben sich die beiden wohl wenig. Die 6% werden einfach noch weiter schrumpfen. Beim einzig sinvollen Einsatzgebiet der 4090 also doch nicht ganz so ausschlaggebend, ob man sich für Intel oder AMD entscheided.

@Topic: Danke für den Test! Echt beindruckend, das der i9 in 720p doch knapp 20% mehr FPS schafft, bevor das CPU Limit greift. Das MEHR an Energieverbrauch würde mich aber auch noch interessieren. 😉
 
q3fuba schrieb:
Hmm, deine Werte sind "nicht so ganz" Realistisch :D
Eine 8700k undervolted braucht schon 100-200W bei Volllast und eine RTX 3070 braucht 250-350W undervolted bei Volllast...
Ich rede auch nicht von Undervolting, sondern Downclocking. Ein 13900k bzw. 7950X ist bei 65W so schnell wie ein 12900k bzw. 5950X bei ~240W!
q3fuba schrieb:
Realistische Werte beim 13900K sind eher 200-300W und 500-600W bei der 4090 (beide Stock)
Sorry, aber das ist auch "nicht so ganz" realistisch :D Eine 4090 braucht Stock je nach Spiel 330-450W. Ein 10%iges Downclocking senkt den Verbrauch um ~33%, ein 15%iges um ~45%.
q3fuba schrieb:
und da will ich noch gar nicht erst von Overclocked auch nur anfangen :p
Overclocking ergibt bei beiden Nullkommanull Sinn, die laufen quasi schon übertaktet. Aus einer 4090 lässt sich aktuell kaum mehr als 5% Leistung zusätzlich rausholen dank Voltage Limit, beim 13900k geht auch kaum mehr.
 
Mit Blick auf das anstehende Darktide: Hat mal jemand eine der dicken Intel CPUs in Vermintide 2 getestet? Da klappt mein 5900x bisher am massivsten ein und ist, sobald Horden kommen, nicht mehr in der Lage, die 4090 jenseits 60% Auslastung zu bringen.

(Am Start der Karten oder in ruhigeren Abschnitten dümpelt die CPU bei 20% Auslastung und die Karte schafft in 4k auch gerne über 200 Frames, bei großer Gegneranzahl steigt die CPU Last während die Karte mit 200 Watt bei 70 Frames kurz vor dem Abstellen der Lüfter ist)

Wenn das in Darktide ähnlich wird: Hätte nicht gedacht, dass Team Blau so schnell nochmal so attraktiv auf mich wirken könnte ;-)
 
Solange nicht mit dem selben Speichertaktraten/Timings getestet wird kann man meiner Meinung nach nur Äpfel mit Birnen vergleichen.
Gerade AMD CPUs haben in der Vergangenheit enorm von schnellem Speicher profitiert........
 
Zuletzt bearbeitet:
Caramelito schrieb:
AM5 ist nur interessant, weil man hier wohl 3-4j CPU Upgrades draufschnallen kann.
Aber das wiederum kostet halt sehr viel Geld...ein "E"-Board (also mit PCIe5..) kostet halt 300+ wenn es halbwegs gescheit ausgestattet ist..

Raptor Lake ist wohl das letzte Stück auf Z690/Z790 B660 usw..
Auch schade da eigentlich dann 600+ für CPU/Board auszugeben.

Nie war es verkehrter die neuen CPU Gens zu kaufen als jetzt finde ich.

Alder Lake und AM4 waren da deutliche Kaufempfehlungen^^
Das sehe ich ähnlich.
Der Test zeigt lediglich das, was für eine sehr kleine Zielgruppe interesannt ist.
Wir sprechen hier immerhin von Hardware (nur CPU, GPU, Board, RAM) im Wert von gut 4.000€.
Wohl dem, der sich das in der aktuellen Situation leisten kann/will.
Wenn ich allerdings hier so manch einen Kommentar lese, kommt es mir so vor als ob sich die meisten genau das was hier getestet wurde auch kaufen werden.

Ich jedenfalls werde erst wieder aufrüsten, wenn die Preise wieder auf dem Boden der Tatsachen angelangt sind. Im Moment ist mir die aktuelle Hardware im Verhältnis zum gebotenen einfach zu teuer.
Und das gilt für alle 3 der hier getesteten Hersteller.
 
  • Gefällt mir
Reaktionen: Rockstar85
Meine Güte, ist das ein Hickhack hier. 🤦 Weder ist AMD noch Intel besser. Sie sind Kopf an Kopf. Der eine ist da besser, der andere da. Getestet wurden beide mit DDR5. Da ist auch kein Preisvorteil, für Hins und Kunz. Intel zu vergleichen, mit alten Mainboards ( Straßenpreis und DDR4) und neue AMD mit DDR5, macht keinen Sinn. Das AMD nicht wieder den Unsinn macht, wie zu AM 2 (+), AM3(+), ist Folge richtig. Die eine CPU läuft da, aber da nicht, obwohl Pin Kompertiebel.
Von AMD, kamen ja auch nur erst die ersten CPU's. Die ganze XXXXG CPU's,fehlen ja noch. Die freuen sich über DDR5. Das die Hersteller, die Mainboardpreise angezogen haben, ist auch irgendwo verständlich. Auf meinen X370 Mainboards, laufen alle AM4 CPU's. Von ehemaligen FM2+ ( A 9xxxx) ? Oder was das war, bis zu Zen 3. Inklusive 58003D.
Klar spiegelt sich das jetzt im Preis🤷. Was, von wem, in Zukunft kommt, ist Glaskugel. Stand heute, würde ich klar erstmal einen 58003d auf mein MB setzen, wenn ich nur spielen würde. Das wäre schon eine beachtliche Mehrleistung, zu meinem 130€ 2700x. Davor war es ein 1700x für ~300-350€. 🤔
Von DDR3/ Phenom, zu Ryzen DDR4, war auch kein Pappenstiel, aber es hat sich gelohnt🤣
 
Zuletzt bearbeitet:
Zu der ganzen "schlechte Performance in Windows bei Ryzen" Thematik:

Klar, MS baut den Windows Scheduler, aber sind die es dann wirklich Schuld? Als Alder Lake rauskam, hat Intel was Hardwarebasiertes eingebaut um das Scheduling zu verbessern und MS hat gleichzeitig eine darauf optimierte Windows Version rausgebracht. Warum? Weil man zusammengearbeitet hat.

Bei Ryzen hingegen gibt es 3.5 Jahre nach Erscheinen der ersten CPU mit 2 CCDs immernoch das selbe Problem mit dem Scheduling. Was hat Microsoft jetzt damit zu tun? AMD kann nicht einfach rumstehen und Däumchen drehen, die müssen auch aktiv daran arbeiten. Aber so wie es aussieht hat man ja kein Interesse mit MS zusammenzuarbeiten oder gar was in die Hardware zu implementieren, damit beim Gaming immer nur Threads von ein und demselben CCD verwendet werden. Und kommt mir bitte nicht mit irgendwelchen abenteuerlichen Geschichten an, MS werde von Intel geschmiert oder was auch immer! Deswegen gab es auch schon Surface Laptops mit exklusiven Ryzen CPUs usw.
 
  • Gefällt mir
Reaktionen: Esenel, Pro_Bro und TechFunk
MrHeisenberg schrieb:
In anderen Threads werden die 720p Tests von dir und vielen anderen verteidigt und hier versuchst du mir gerade weiß zu machen, dass der 4K Test relevanter als der 720p Test ist. WTF?

Man muss auch zwischen Verbrauchsmessung und Leistungsmessung unterscheiden.

Bei der Leistungsmessung möchte ich wissen, wie viel Performance mir die CPU im Worst Case noch geben kann, sollte ich in meiner Auflösung mal in ein CPU Limit geraden, also brauche ich das, was die maximal leisten kann.

Für die Beutreilung des Stromverbrauchs ist für mich eher das relevant, was man dann bei sich im Betrieb auch hat und nicht dass, was man im Extremfall mal ziehen könnte.


Ich weiß, dass in meiner Auflösung zwei CPUs gleich schnell wären, weil sie beide durch meine GPU limitiert werden würden.
Ich weiß, dass CPU A in 720p 20% schneller ist und genau so viel verbraucht wie CPU B, also würde ich erst mal dazu tendieren CPU A zu wählen, um später noch etwas länger Reserven zu haben.

Wenn ich aber dann gleichzeitig weiß, dass in meiner Auflösung im GPU Limit dann CPU B 40% weniger verbraucht(und dieser Zustand für den Großteil der Nutzungszeit so sein wird), dann würde ich insgesamt eher CPU B nehmen.
 
  • Gefällt mir
Reaktionen: KamfPudding, Sun-Berg und cbmik
Wolfgang schrieb:
Ohne Upsampling wäre die GPU-Last zwar noch höher, doch ist dies nicht zwangsläufig die bessere Einstellung, denn oftmals sieht das Bild mit DLSS 2 respektive FSR 2 besser aus

Ist das was neues seit 40xx? Ich dachte immer DLSS sei die Schmalspur-Option?
 
Zurück
Oben