Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

MrHeisenberg schrieb:
Über die Leistungsaufnahme habe ich kein Wort verloren, sondern nur über die Leistung.
Und jetzt schau dir nochmal deinen zitierten Post an. Da ging es offensichtlich um die 6% Unterschiede im Performancerating von 4K.
Du kannst dich jetzt nicht einfach hinstellen und behaupten "DER IST ABER 18% SCHNELLER!!!11"
 
danyundsahne schrieb:
Richtig, deswegen kann man dennoch eine AM5 Plattform kaufen und sich einmal anfangs eine CPU kaufen und einmal am Ende des Lifecycle. Man spart sich dennoch 1x Mainboard.
Ein Preisvergleich ist nicht ganz einfach.

Ein Intel B560 Asus Tuf Gaming Wifi kostet UVP ca. 160€
Ein AMD B650 Asus Tuf Gaming Wifi kostet UVP ca. 310€

Das neue Intel B760? kostet sich etwas mehr.

Unterm strich ist man mit AMD ein wenig günstiger (vielleicht 50€ aber was ist das schon aufs Komplettsystem über mehrere Jahre ), hat aber wie gesagt nicht die neusten Standards welche man mit Intel dann hat. (Fehlt bei AM5 nicht TB4?) Teurer sind die AMD CPUS dann auch noch.

Es gibt sicher gute Gründe für AMD. Das bessere P/L Verhältnis sehe ich aber nicht.
 
  • Gefällt mir
Reaktionen: Viper816
Mal eine unpopuläre Meinung zu all den Stromverbrauch Jüngern hier..

Wer eine RTX 4090 + 13900 CPU betreibt…den Interessiert doch der Stromverbrauch nicht wirklich
 
  • Gefällt mir
Reaktionen: Skript, Nomos, MegaManX4 und 16 andere
Die Rufe nach dem Leistungsverbrauch sind mir unverständlich. Entsprechende Daten kann jeder im Zen 4 Test einsehen. Für diesen puren Highend Gaming Test sind die 20W mehr für Intel in Spielen absolut unerheblich, wenn man gleichzeitig eine 300W+ GPU in sein System baut.

Wenn man etwas kritisieren kann an dem Test, dann doch eher, dass man den 5800X3D flach fallen lässt, wenn man schon das Beste mit dem Besten in Spielen vergleicht.
 
  • Gefällt mir
Reaktionen: MegaManX4, simosh, tritratrullala und eine weitere Person
MrHeisenberg schrieb:
Wenn dich nur 4K interessiert, dann brauchst du auch keinen 7950X. Es geht in diesem Test darum, welche CPU mehr Leistung bietet und nicht um 4K.
Das wussten wir aber auch schon vorher welche CPU theoretisch schneller ist und m.E. wird hier anschaulich dargestellt,dass es schon eine GPU von diesem Kaliber braucht um "nennbare" Unterschiede darzustellen.

Der Test relativiert sozusagen ein wenig das schlechte Abschneiden von AM5 und zeigt was für ein Monster die 4090 ist.
 
Starke Vorstellung von Intel. Das kann man so stehen lassen. Da AMD in Applikationen hier auch nur eine minimal bessere Performance liefert, muss man sich da echt was einfallen lassen. Mit dem V-Cache wird man vermutlich wieder aufschließen können. Mehr aber (vermutlich) auch nicht.

Was mich persönlich interessieren würde: Wie sieht die Performance aus, wenn der 13900K mit DDR4 betrieben wird. Beim i5 13600K sah es ja nicht schlecht aus mit DDR4. Aktuell sieht das für mich persönlich nach einem attraktiven Upgrade aus: 13900K + Z790 DDR4 Mainboard. Die 64GB DDR4 3600er CL16 könnte ich dann einfach übernehmen, was die Plattform für mich rund 500€ günstiger machen würde.
 
iamcriso schrieb:
Mal eine unpopuläre Meinung zu all den Stromverbrauch Jüngern hier..

Wer eine RTX 4090 + 13900 CPU betreibt…den Interessiert doch der Stromverbrauch nicht wirklich

Die Kosten des Stromverbrauchs sind egal. Der Stromverbrauch selbst ist aber ein viel größeres (Umwelt-) Thema. Dazu kommt eben auch die Kühlung, die Lautstärke usw. Gibt ja auch viele, die die 4090 mit 300-350 Watt laufen lassen und 2-10% Performanceverlust hinnehmen für 1/3 weniger Stromverbrauch.

Entsprechend ist der Stromverbrauch immer interessant bei solchen Vergleichen. Ich würde auch lieber 5% weniger Performance haben, wenn ich 20% weniger Strom dafür benötige bei der CPU.
 
  • Gefällt mir
Reaktionen: Exit666, Gesualdo, ynfinity und 7 andere
Innocience schrieb:
Die Rufe nach dem Leistungsverbrauch sind mir unverständlich. Entsprechende Daten kann jeder im Zen 4 Test einsehen.
Eben nicht, da man dort nur die Verbräuche in 720p sieht.

Hier wurden aber explizit 720p, 1080p und 4K+Upscaling getestet, dann gehören für mich auch die entsprechenden Verbräuche in 1080p und 4K dazu.

Es war damals schon so, dass Intel CPUs unter Vollast ineffizienter waren, dann aber im Gaming weniger verbraucht haben als AMD, weil sie einfach bei weniger Last effizienter arbeiten.

Nun verbraucht Raptor Lake in 720p mehr als Zen4, das könnte sich aber bereits in 1080p umkehren und ob das so ist, hätte ich halt gerne gesehen.
Ergänzung ()

iamcriso schrieb:
Mal eine unpopuläre Meinung zu all den Stromverbrauch Jüngern hier..

Wer eine RTX 4090 + 13900 CPU betreibt…den Interessiert doch der Stromverbrauch nicht wirklich
Ich für meinen Teil interessiere mich für die technischen Aspekte der CPUs, mich stören 20W mehr oder weniger auch nicht, aber es ist trotzdem eine interessante Info, die in einem Technik Artikel ruhig enthalten sein darf.

Noch dazu machen gerade bei den Chiplets der Ryzen 20W mehr oder weniger mal ganz schnell ziemlich viel aus was die Temperaturen und damit die Kühlung betrifft.
 
  • Gefällt mir
Reaktionen: ArtVanderlay, Bright0001 und Cruentatus
Schade, daß mittlerweile fast ausschließlich auf die Spieleleistung wert gelegt und getestet wird.
Mich interessiert das nicht die Bohne - ich will wissen, was in Handbrake und Co. abgeht und was bei der neuen Intel-Architektur in VMs so geht....
 
  • Gefällt mir
Reaktionen: Starkstrom
supermanlovers schrieb:
Ein Preisvergleich ist nicht ganz einfach.

Ein Intel B560 Asus Tuf Gaming Wifi kostet UVP ca. 160€
Ein AMD B650 Asus Tuf Gaming Wifi kostet UVP ca. 310€

Das neue Intel B760? kostet sich etwas mehr.

Unterm strich ist man mit AMD ein wenig günstiger (vielleicht 50€ aber was ist das schon aufs Komplettsystem über mehrere Jahre ), hat aber wie gesagt nicht die neusten Standards welche man mit Intel dann hat. (Fehlt bei AM5 nicht TB4?) Teurer sind die AMD CPUS dann auch noch.

Es gibt sicher gute Gründe für AMD. Das bessere P/L Verhältnis sehe ich aber nicht.
Nur mal schnell zusammengeklickt auf Geizhalz:
Die hier im Test (laut Artikel) verwendete Hardware stand heute:

Intel = 1828,79 €
https://geizhals.de/?cat=WL-2775111

AMD = 1532,47 €
https://geizhals.de/?cat=WL-2775110

Im Artikel: https://www.computerbase.de/2022-11...tt_das_testsystem_und_die_spieleeinstellungen
 
  • Gefällt mir
Reaktionen: Viper816, fairlane24, simosh und 8 andere
Wie sieht so ein nativ 4k benchmark, ohne Tricks wie FSR 2 oder DLSS 2, aus?
 
  • Gefällt mir
Reaktionen: RumRula und daknoll
Erstaunlich wie schnell sich Intel von der AMD Überlegenheit erholt hat und jetzt das bessere Gesamtpaket hat.. mit im Grunde alter Architektur..

Zeigt mal wieder dass man sich nicht ausruhen darf und den Fuß auf dem Gas lassen muss
 
  • Gefällt mir
Reaktionen: tritratrullala und ben12345
@crackett Dafür hast du doch den Raptor Lake Test, da wurden doch genug anwendungen getestet.
Wolfgang ist halt der Spiele-Tester^^
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
Vielen Dank für den Vergleich...

Ich hatte auch ganz kurz überlegt zu wechseln, aber mir reichen meine FPS mit der 4090 und ein Plattformwechsel ist mir einfach zu teuer. Dann schon eher der 5800 X3D und ein bis zwei Generationen warten. :daumen:

Manchmal bekomme ichs aber auch in den Kopp und bestelle doch was Neues. ;)
 
  • Gefällt mir
Reaktionen: MegaManX4 und Celinna
Am interessantesten in dem Test ist zu sehen, wie konstant die AMD CPU zwischen 720p und 1080p performt. Da schauen quasi immer die gleichen fps heraus, während Intel doch hie und da mal 10% verliert. 1440p wäre noch spannend zu sehen in dieser Hinsicht.
Danke für den Test.
 
Ka warum sich Overwatch 2 in den Test gemogelt hat,
total unsinnig und verfälschend des Ergebnisses.
 
  • Gefällt mir
Reaktionen: simosh, danyundsahne und RichieMc85
crackett schrieb:
ich will wissen, was in Handbrake und Co. abgeht

Handbrake oder wie die alle heißen und die GPU nutzen ist einfach nur bää.
So h.265 auf GPU ist doch nur für Streaming gut. Die eigenen Filme lässt man per CPU umcodieren. CPU sieht besser aus und ist auch kleiner bei gleichen Qualitäts Einstellungen.
 
  • Gefällt mir
Reaktionen: MegaManX4 und bad_sign
Ohne Overwatch und GoW im GPU Limit sähe es für AMD noch schlechter aus.

Beim Stromverbrauch ist Intel eh besser. Hat Igor ja gezeigt. Im Teillastbereich ist Intel total überlegen. In der aktuellen Form sprich nix für AMD. Selbst die Mobos und CPUs sind bei Intel günstiger.
 
  • Gefällt mir
Reaktionen: Viper816 und ben12345
Kann der Empfehlung nicht folgen:

Für die 4090 reicht sogar noch mein Intel 10900F, hab den quasi offen und er boostet bis zu 4,8 Ghz
Dazu hab ich noch guten Gskill-Ram auf 4200 Mhz mit guten Timings laufen.
Hab selber Tests durchgeführt, und mein Intel ist gleichauf mit dem neuem I5 und nahe dran am 13900k

Zudem mit einer 4090 ist es auch kein Problem DLDRS und CO zu nutzen dann ist es wieder GPU limitiert.
Und PCIE 3.0 jetzt bei meinem Z490 ist auch nur 2 Prozent langsamer.
Eher sollte der bericht in die Richtung gehen, schmeißt eure alten CPUs nicht raus..

Aber das Rad muss sich eben weiter drehen..
 
  • Gefällt mir
Reaktionen: joxe und Gast0ne
Taxxor schrieb:
@crackett Dafür hast du doch den Raptor Lake Test, da wurden doch genug anwendungen getestet
Die habe ich auch gelesen und da steht nichts über Virtualisierung, also Kernauslastung P/E - 1 vs. 2 CCD usw.
 
  • Gefällt mir
Reaktionen: Viper816
Zurück
Oben