Test High-End-Benchmark-Duell: Ryzen 9 7950X und Core i9-13900K spielen auf RTX 4090

Bouncer503 schrieb:
Es ist erstaunlich wie schnell sich AMD ins Gaming-Abseits manövriert hat und komplett uninteressant wird bei der neuesten Generation.
Hohe Aufrüstkosten und dann auch noch bei der Leistung hinterher, da muss man schon ein ziemlicher Fanboy sein um da bei AM5 zuzuschlagen.
Man kauft auch eine 4090 um auf 1280x720 zu Spielen..................................
4K für das was die 4090 da ist, ist kaum Unterschied vorhanden

Und natürlich kann man ab sofort mit einer AMD CPU nicht mehr spielen.
Ziemlich verblendet
 
wenn alle was zu meckern haben, dann will ich auch mal!
Wirklich schade das hier im Vergleich der neue i5 13600K sowie der i7 13600K fehlt!
Möglicherweise hätte sich auch dann das Fazit geändert und die Aussage für eine RTX 4090 reicht auch ein i5 / i7 - solange es ein Raptor ist!
Wie wir im anderen Test ja schon gesehen haben, ist der i7 schon den neuen AMD überlegen - der i5 nicht weit davon entfernt!

Dann wäre das korrekte Fazit: "Ist Deine CPU älter als 1 Jahr, lohnt sich das aufrüsten wenn man erwägt sich eine 4090 zu kaufen".
Das wäre ja was neues, große Sprünge bei den CPUs hatten wir ja länger nicht.

Und ja, Raptor mit DDR4 bleibt interessant solange brauchbares DDR5 so teuer ist!
 
  • Gefällt mir
Reaktionen: simosh
Knopfchaos schrieb:
Mich hätte hier noch die Leistungsaufnahme interessiert.mag ja nicht jeder Wert drauf legen, aber 6 % wären zu vernachlässigen, wenn wir von mehr als 50 Watt höherem Verbrauch sprechen.
Wäre auch mein Anliegen...i.V.m. der Leistungsaufnahme ergäbe das erst ein rundere Beurteilung..auch wenn evt bei den Besitzern dieser HighEnd HW der Fokus nicht auf dem Stromverbrauch liegt ;-)
 
RichieMc85 schrieb:
Ohne Overwatch und GoW im GPU Limit sähe es für AMD noch schlechter aus.

Beim Stromverbrauch ist Intel eh besser. Hat Igor ja gezeigt. Im Teillastbereich ist Intel total überlegen. In der aktuellen Form sprich nix für AMD. Selbst die Mobos und CPUs sind bei Intel günstiger.
Oha das ist ein Fakt den du hier nicht nennen darfst, die AMD fanbois wollen das hier nicht hören das Intel in vielen realen Szenarien den besseren Verbrauch hat. Da wird sehr schnell wieder relativiert. Realistische Szenarien zählen nur wenn sie AMD besser da stehen lassen...
 
Wenn @Wolfgang, der die Tage unterwegs ist (Huch, wo ist der denn wohl?), die Logs wie immer fein säuberlich archiviert hat, kann ich die Tage den Verbrauch in "UHD" nachreichen! :)

Wir hatten das Thema Stromverbrauch zwar schon, aber nur in 720p (Theorie) und die Praxis fehlt damit in der Tat noch! :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh, Celinna, RumRula und 6 andere
Ok, das der 13900k schneller ist, war ja klar.
Aber das er sogar bei 4k+upsampling schneller ist verwundert mich.

Das war ja auch immer die Aussage der AMD-Fraktion das es in der Praxis bei 4k keinen Unterschied mehr macht. Sollte hiermit widerlegt sein.
 
  • Gefällt mir
Reaktionen: Hutzeliger
KlaasKersting schrieb:
Wie immer bei jedem Thema sind sofort die Stromverbrauchsfanatiker am Start und melden sich lautstark zu Wort. Ich würde euch dazu raten, ein Smartphone oder ein Notebook einzusetzen und keinen Gaming-PC für über 3000€, wenn euch die paar Watt hoch oder runter so sehr am Herzen liegen.


Anhang anzeigen 1278146

Anhang anzeigen 1278147
Anhang anzeigen 1278148
Quelle

Hier die wertvolle Erkenntnis, dass der schnellere Intel sogar ganze 3 bis 9 Watt weniger verbraucht.

Bei 4h Gaming an 6 Tagen pro Woche könnte ihr euch damit nach ca. 800 Jahren besagte 4090 zusammensparen, soll sich ja schließlich lohnen.

Ist langsam wirklich nur noch nervig, als käme es bei Hardware auf nichts anderes mehr an.
Danke dir, ich hatte die Hoffnung in diesem AMD Forum schon aufgegeben...
 
@Jan

Ich raff nicht so ganz warum im 13900k Test die 720p Auflösung verglichen zu diesem Test in Spiderman Remastered die FPS Unterschiede so stark abweichen. Ich mag diese Tests nicht so gerne die im Nachgang dann schlecht zu vergleichen sind. Man müsste den vorherigen Test im Balkendiagramm mit auflisten.
 
Zuletzt bearbeitet:
Ich hätter gerne mal einen Test von Escape from Tarkov und Anno 1800 gesehen, da diese beiden Spiele massive Hardwarefresser sind.
 
  • Gefällt mir
Reaktionen: simosh, Viper816 und Javeran
in 4k, und nur dahin gehört die 4090, 6% Leistungsunterschied in Spielen zu haben, ist ja fast zu vernachlässigen.
bei vergleichbaren preisen (780€ AMD vs. 710€ Intel laut Preisvergleich) klingt das für mich eher wie eine Empfehlung für die Zen-Architektur, die noch jede Menge MultiCoreLeistung in Anwendungen mitbringt. Meine Meinung.
 
  • Gefällt mir
Reaktionen: Zarlak
Blackfirehawk schrieb:
Solang ihr das mit CPPC/CPPC pref cores testet wird das ganze eh nix.. schaltet es aus und bencht dann

Oder AMD setzt sich nach nun knapp 3,5 Jahren Chiplets endlich mal mit Microsoft an einen Tisch, um dieses Problem zu lösen.

Wäre auch eine Möglichkeit. Oder?
 
  • Gefällt mir
Reaktionen: simosh, KlaasKersting, Javeran und eine weitere Person
Jan schrieb:
kann ich die Tage den Verbrauch in "UHD" nachreichen
die Anführungsstriche bei UHD verwirren mich... meinst du damit echtes UHD (2160p Renderauflösung)
oder "echtes UHD" (1440p Renderauflösung plus Upscaling)

DLSS und FSR könnt ihr gerne als Bonus on Top noch mal dazu verkaufen, aber es hat in meinen Augen weiterhin nichts bei der Performance Beurteilung der Karten, P/L Diskussion und vor allem nicht Preisfindung, wie es Nvidia mit DLSS 3.0 vs. DLSS 2.0 zwischen Lovelace und Ampere versucht, verloren.
 
Danke für diesen interessanten Test. Mich würde das Szenario noch mit 12600k vs 13600k mit DDR4 und DDR5 mit der RTX 4090 interessieren.
 
  • Gefällt mir
Reaktionen: Col.Maybourne
Novasun schrieb:
Sorry deine Aussage ist Mist... Für dich eventuell wenn du nur zockst... Schon wenn du dir Gedanken machst ob du beim nächsten Update alles wieder neu kaufen willst - ist die Sache schon nicht mehr so eindeutig...
Ich nehme mir beim Systemkauf immer wieder vor das ich mein System ja doch upgraden kann. Neue CPU und wieder glücklich. Wenn man jährlich bereit ist zu upgraden - klappt das vielleicht - aber mir ist es bisher noch nie gelungen nur die CPU zu tauschen. Ich nutze meine Systeme halt etwas länger und dann ist nicht nur die CPU veraltet und der Rest muss auch getauscht werden.

Aus der "Upgrade"-Sicht macht es z.b. bei mir daher keinen Unterschied ob ich jetzt sauteuer AM5 kaufe oder noch günstig AM4. Nach 6-7 Jahren (Systemwechsel) brauch ich auch ein neues AM5-Board weil das heute gekaufte B650/X670 irgendein super-duper-Feature nicht hat .... von daher sicher nicht nur für mich völlig wurscht mit der "Upgrade"-Sicherheit. Das einzige was ich in bestehenden Systemen immer mal getauscht habe: GPU und Massenspeicher.
 
  • Gefällt mir
Reaktionen: Gesualdo, simosh und Viper816
@Wolfgang

mir erscheinen die CP77 Benchmarkwerte etwas zu gering nachdem ich mal verglichen habe mit dem internen Benchmark bei meinem System.

Mein System mit 12900k auf B660 Brett :D und DDR4 3800 CL 16 und der 4090 auf PL70%

Preset Ultra @ 4k & Raytracing Psycho DLSS Qualität

CP@4.png

Preset Ultra @4k ohne RT&DLSS (Verbrauch CPU laut HWI im Schnitt 103Watt)

Screenshot_20221102_135559.png
 
Zuletzt bearbeitet:
Aus dem Artikel:
"Ist die CPU noch eine Generation älter, ist es wiederum nicht sinnvoll, sich eine GeForce RTX 4090 zu kaufen. Dann ist es sinnvoller, bei der GPU eine oder zwei Leistungsklassen darunter einzusteigen, oder stattdessen den gesamten PC aufzurüsten."

Ich denke nicht, dass diese Aussage so pauschal für alle Anwendungsfälle zutrifft.
Nehmen wir beispielsweise Virtual Reality. In kaum einem anderen Anwendungsfall wird der Grafikkarte eine dermaßen hohe Leistung abverlangt wie hier. Das gestern vorgestellt Headset Pimax Crystal hat eine Auflösung von 5760*2880 Pixel. Diese wollen mit dauerhaften 90 FPS befeuert werden um ein optimales Spielerlebnis zu ermöglichen.
Da wird wahrscheinlich auch der nachfolgenden Grafikkartengeneration noch eher die Puste ausgehen als manchem Last Gen Prozessor.
An einem Ryzen 5800x3d hat man in diesem Szenario noch lange seinen Spass :D
 
Legalev schrieb:
Man kauft auch eine 4090 um auf 1280x720 zu Spielen..................................
4K für das was die 4090 da ist, ist kaum Unterschied vorhanden

Und natürlich kann man ab sofort mit einer AMD CPU nicht mehr spielen.
Ziemlich verblendet
Ehm und wenn in 2 Jahren neue Gpus kommen spielt die Leistung der cpus auch in 4k eine deutlich größere Rolle. Und niemand hat gesagt das man mit mit AMD nicht mehr spielen kann. Verblendet bist nur du...
 
  • Gefällt mir
Reaktionen: Hutzeliger
Atma schrieb:
Hab es doch selber getestet. 2-3 Filme einmal bei gleichen Settings per CPU und einmal per GPU encodiert. Fazit: Sichtbarer Unterschied nicht vorhanden und die per GPU encodierten Filme waren vielleicht 400-800 MB größer als die per CPU encodierten. Bei einer typischen Dateigröße von 12-16 GB interessieren mich die paar MB in Zeiten von 18-20 TB HDDs genau null.
Meiner Erfahrung nach ist das Bild meist sichtbar weicher über NVENC265, Banding kommt öfter vor und dunkle Szenen sind immer Problemfälle.

Wird auch schnell von Tools wie VMAF bestätigt und objektiv festgehalten.
 
  • Gefällt mir
Reaktionen: MegaManX4 und crackett
Zurück
Oben