Test AMD Ryzen 7 9800X3D im Test: 9000X3D gegen 7800X3D, 5800X3D & Intel Core Ultra

bogge101 schrieb:
da war die CPU Auslastung mal ungewöhnlich hoch und die GPU nur bei 80%
[...] Ich bezweifle, dass eine andere CPU da einen Unterschied gemacht hätte

Das ist ein Widerspruch in sich. Deine Daten zeigen klar, dass du in dieser konkreten Situation CPU-Bound warst und die Min-FPS (Warum auch immer) stark abgefallen sind. Eine schnellere CPU hätte da natürlich für höhere Min-FPS gesorgt. Ob man deswegen dann gleich eine neue CPU sich holt, steht auf einem anderen Blatt Papier...

bogge101 schrieb:
Insgesamt liegt die CPU Last über alle Spiele bei mir im Bereich 10-40%. Demnach dürfte ein CPU Upgrade doch wohl nur Sinn machen, wenn man da im oberen Drittel liegt.

Dir ist aber hoffentlich klar, dass die Gesamtauslastung über alle Kerne hier wenig Relevanz hat? Wenn das Spiel nur wenige Kerne nutzt, die dafür aber voll ausgelastet sind, sitzt Du trotzdem im CPU-Limit...
 
Sorry, dass verstehe ich halt einfach nicht, wie soll ich in einem CPU Limit sein, wenn die 4090 immer ausgereizt ist?

Meine CPU gibt es 2 Jahre länger als den aktuellen Spitzenreiter - in den FPS Testergebnisse von techpowerup zeige, dass es im Echtbetrieb bei 4k keinen Unterschied macht, welche halbwegs aktuelle CPU verbaut ist

https://www.techpowerup.com/review/amd-ryzen-7-9800x3d/20.html

Bei Baldurs Gate und Spiderman mit RT sind Unterschiede sichtbar, aber alle im so guten Bereich, dass es auch egal ist.

Bei der Minimum FPS fallen einige CPU unten ab, da scheint ein Unterschied hervorzutreten

Also spielt die CPU keine Rolle, so lange die GPU bei 99% läuft

Star Wars Outlaws zB hat manchmal die 24 GB VRAM überschritten, da wollte das Spiel 27 GB belegen - also VRAM der Flaschenhals

Ich versuche immer 4k nativ max.settings zu spielen, da landet man eh bei 30-100 FPS

Ich zitiere mal aus dem Gamestar Test vom 26.09.2022 zu meiner CPU:
Warum wir für unseren CPU-Test nur in 720p testen? Um die Prozessoren überhaupt miteinander vergleichen zu können. Denn gerade bei höheren Auflösungen ist schnell die Grafikkarte der limitierende Faktor.“
https://www.gamestar.de/artikel/amd-ryzen-9-7950x-test-review-cpu,3384757,seite2.html

beim 4k Gaming könnte man also keine Unterschiede hervor testen
 
bogge101 schrieb:
Sorry, dass verstehe ich halt einfach nicht, wie soll ich in einem CPU Limit sein, wenn die 4090 immer ausgereizt ist?
Du hast doch gerade selbst ein Szenario mit nur 80% Auslastung erwähnt. Da warst du im CPU-Limit. Aber natürlich nicht die ganze Zeit, wenn du eben meistens eine volle GPU-Auslastung siehst.
 
  • Gefällt mir
Reaktionen: Asghan
Das war bei einem Spiel in einem einzigen Kampf. Da Stalker 2 diverse Probleme hat, kann es also auch am Spiel oder der Game Engine gelegen haben

Da keine echten Unterschiede bei 4k bestehen, ist also anzunehmen, dass auch mit jeder anderen CPU so passiert wäre.

Die 2 Minuten FPS Einbruch und nicht Vollauslastung der GPU rechtfertigen allerdings keinen CPU Neukauf, um dann 2 FPS mehr zu bekommen
 
Hier mal 2 Bestätigungen / Erklärungen


(Ab 2:19)

bei 4k und 99% GPU Last ist die CPU ziemlich egal

ausser Aufbauspiele oder online Shooter

und das bestätigen eben die Techpowerup Testergebnisse

so schaut das bei mir in der Regel aus
(Dying Light 2, Stalker 2, Avatar)
eine neue CPU bringt da nichts, solange die GPU bei 99/100 % Last läuft

CE17FF7E-3A91-4EEC-9B5B-6A217B797A44.jpeg
 
Zuletzt bearbeitet:
@bogge101

Du könntest auch mal die Regler bedienen ... dann stehen da auch keine 99% mehr ...
Wie sagt @HisN immer so schön , eine Graka bekommst du immer klein ... wird mit der 5090 sicherlich ähnlich sein ...
 
  • Gefällt mir
Reaktionen: Asghan und HisN
@Wurzel klar könnte man das. Aber wie er selber schon schrieb lohnt sich das halt bei Shootern, wo man mit mehr FPS die Reaktionszeit optimieren kann, aber für viele andere Spiele braucht man ja nicht wirklich mehr FPS.

Ich persönlich hab auch bei den meisten Spielen alle Regler nach rechts und 72 FPS Limit eingestellt (passt ja gut zum 144Hz Monitor). Das wirkt für mich absolut flüssig und ich freue mich über die Grafikqualität.
 
  • Gefällt mir
Reaktionen: Cyberbernd
bogge101 schrieb:
Hier mal 2 Bestätigungen / Erklärungen


(Ab 2:19)

bei 4k und 99% GPU Last ist die CPU ziemlich egal

ausser Aufbauspiele oder online Shooter

und das bestätigen eben die Techpowerup Testergebnisse

so schaut das bei mir in der Regel aus
(Dying Light 2, Stalker 2, Avatar)
eine neue CPU bringt da nichts, solange die GPU bei 99/100 % Last läuft

Anhang anzeigen 1560190
In Zeiten von dlss bei der upscale läuft stimmt das nicht mehr. Hier wird eine niedrigere Auflösung auf 4k skaliert und wir haben mit einer besseren cpu viel mehr fps
 
Zuletzt bearbeitet:
Tho, DLSS wird halt genauso wie Elektroautos im Land der „Technologieoffenheit“ verteufelt. Die ersten Iterationen waren halt nicht so gut, das kann dann ja nicht besser werden. 🙄

DLSS hat halt bessere Schärfe bei mehr Performance. Gut, bei FHD wirkt es nicht so gut, aber bei 4K gibt’s keinen Grund drauf zu verzichten. Da sieht nativ im Vergleich blockig aus.
 
Selbst auf FHD und WQHD-Monitoren gibt es mit DLDSR eine schöne Option, um von intern höher gerenderten Auflösungen zu profitieren, sofern die GPU entsprechende Leistung hat. Und gerade bei älteren Titeln, die eh nicht so GPU-fordernd sind, bringt es die Optik noch mal nach vorne.
 
  • Gefällt mir
Reaktionen: Kommando
das mit der CPU Relevanz beim Upscaling macht total Sinn, da nicht mehr in 4k gerechnet wird

ich spiele fast immer nativ in 4k, wenn ich mindestens 30-40 FPS bekomme. Nur selten muss ich dann Frame Generation oder DLSS aktivieren. Deshalb scheine ich bisher nicht oder nur selten in CPU Limits reingelaufen zu sein. In der Regel hab ich 60-100 FPS (nativ 4k) Oder ich stelle den WQHD auf den Tisch, wenn ein Spiel mal nicht nativ 4k laufen sollte.

Die CPU Unterschiede scheinen eher bei den 1% Lows sichtbar zu sein, als bei den durchschnittlichen FPS

DLSS ist ein super Entwicklung, wenn das Resultat ähnlich gut aussieht wie nativ. KI wird das noch weiter verbessern. Allerdings verzichte ich darauf, weil bisher immer Abstriche sichtbar waren.

Außerdem gibt es ja ruhige Spiele wie Silent Hill 2 oder Alan Wake 2, da spielen FPS kaum ein Rolle.

Mit der 5090 wird dann nochmal alles neu gewürfelt.
 
bogge101 schrieb:
bei 4k und 99% GPU Last ist die CPU ziemlich egal
...und was machst Du gegen den Stutter, die in CPU- Gebundenen Situationen entstehen?
Bei einigen Streaming- Intensiven Open- World- Engines, steigen mit der Leistung der CPU die Min- FPS mit Leistungsfähigeren CPUs deutlich an (z.B. Hogwarts Legacy).


Und es sind leider immer die Min- FPS bzw. die Perzentile, die zwischen Ruckeln und flüssigem Spielerlebnis entscheiden. Das auch ganz unabhängig von der Auflösung....
 
Mein 120 Hz OLED TV ist sicher träger als ein Monitor

Ansonsten ist mir schöne Grafik deutlich wichtiger als extrem smoothe FPS und ich bin da vermutlich weniger empfindlich und lebe mit den Mini Rucklern, wenn sie selten sind. Ansonsten würde ich DLSS aktivieren oder notfalls auf WQHD wechseln (wie bei SW Outlaws)

Hogwarts Legacy hab ich noch mit der 3060 gespielt.

Das zitierte Video läuft nie mit GPU Vollauslastung, dass es dann ruckelt ist für mich nicht wirklich verwunderlich, weil die CPU stärker beansprucht wird. So spielt doch hoffentlich niemand.

Ich hab nur weniger als 99% GPU Last wenn das Spiel mit mehr als 120 FPS laufen könnte und ich es mit RivaTuner oder ingame auf 120 FPS begrenze.

Es finden sich halt diverse YT Videos wo gezeigt und erklärt wird, dass bei GPU Volllast und hohen Auflösungen die CPU nur minimale Unterschiede macht. Es mögen bei 4k 2-10 FPS Abstand sein, aber das ist laut denen eben kein CPU Upgrade wert. Nicht umsonst testet man CPU Unterschiede bei 720p oder 1080p hervor.

Ich lasse mich gern eines besseren belehren.
War schon kurz vorm bestellen, hab dann aber recherchiert und verstanden, dass nur bei geringen Auflösungen nennenswerte Unterschiede messbar sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AQi666 und .Sentinel.
bogge101 schrieb:
Ansonsten ist mir schöne Grafik deutlich wichtiger als extrem smoothe FPS und ich bin da vermutlich weniger empfindlich und lebe mit den Mini Rucklern, wenn sie selten sind.
Das ist der springende Punkt. Es gibt manche, die die Wände hochlaufen bei schwankenden Frametimes. Andere wiederum legen keinen so großen Wert drauf.

Nochmal zum Beispiel Hogwarts:
1735311226194.png


So ganz unerheblich ist das Ganze nicht.... Und die Unreal- Engine steht exemplarisch für einen Haufen Spiele da draußen, die ähnlich reagieren....

Stichwort Traversal- Streaming- Compilation- Stutter.....
Alles CPU- Abhängig.

Es ist halt schon ein Unterschied, ob die CPU gesichert 68 FPS (und das sind 1% Lows, also nichtmal die 0.1%) auf Deinen 120Hz Bildschirm bekommt oder eben 103.

Früher (TM) glat die Regel tatsächlich lange Zeit, dass sich schnelle Prozessoren kaum gelohnt haben, da die GPUs nicht hinterhergekommen sind.

Ist aber schon länger nicht mehr so, da GPUs inzwischen pro Generation deutlich höhere Performance im Gegensatz zu ihrer Vorgängergeneration drauflegen.

Aber wie Du schon sagst- Jeder hat da andere Prioritäten bzw. Toleranzen.
 
Hab Hogwarts wie gesagt damals mit einer 3060 gespielt
Heute mal mit der 4090 angeschaut - nativ 4k

außerhalb von Hogwarts komme ich an die GPU Vollast ran
in Hogwarts sind es um die 80% GPU Last
interessant ist, dass die CPU Last sehr gering ist
der Flaschenhals kann/müsste also irgendwo anders liegen

die 1% Lowe zeigt mir Afterburner nicht an, obwohl aktiviert

ist allerdings sehr offtopic
ich werde vielleicht ein extra Thema eröffnen.
Hab heute einige Benchmark Vergleiche gemacht

942127E7-3CE9-4A4B-945E-CE8B5DEEFF1F.jpg
 
Ja 33% mehr Leistung im gpu limit mit upscaler bei hogwards zeigt uns deutlich das es selbst in 4k eine starke cpu benötigt :) Zeiten ändern sich
 
Frohes neues Jahr allerseits!

@Jan @Volker


Bei MF sind jetzt (gerade) auch Stückzahlen der verkauften Einheiten zu sehen.
Screenshot (4).jpg
 
  • Gefällt mir
Reaktionen: Veitograf und Jan
Habe nun bisschen testen können, wie es sich mit der CPU-Leistung verhält, bei Witcher 3 gleich mal die FPS verdoppelt. o_O

----------------------

12700K, Stock-Takt, RAM-OC auf 3800 mit dem Samsung-B-Die, E-Kerne an, Win 10:

Da kamen ca. 145FPS raus.
12700K, stock, 3800-RAM-OC, E-Kerne an.jpg


Und hier nochmal mit E-Kerne aus, Win 10:

Da waren es ca. 172FPS. CPUs mit aktiven E-Kernen scheinen schon mal nichts für das Spiel zu taugen. (Aber aus Erinnerung, der Cache-Takt ist ohne E-Kerne höher, auch war jeden Fall damals beim Testen mit AIDA der Durchsatz beim RAM besser.)
12700K, stock, 3800-RAM-OC, E-Kerne aus.jpg


9800X3D, Stock-Takt, RAM auf 6000er-Expo, kein zusätzliches OC per Hand, Win 11:

Weil das mit 200FPS etwa ins Graka-Limit lief, habe ich die kleinste verfügbare Auflösung von 1024x768 genommen und selbst die hing es im Graka-Limit und produzierte ca. 349 FPS. (Wenn ich da in Krähenfels rumlaufe, geht es teilweise auf 380FPS, aber das wäre Äpfel mit Birnen vergleichen.)
9800X3D, stock, 6000-Expo-RAM.jpg


Das kommt mir schon absurd vor, dass bei Witcher 3 die CPU-Leistung etwa verdoppelt (!!!!!!!) wird. Oder verfälsche ich das zu sehr mit der winzigen Auflösung? Da beim 12700K kein CPU-Limit verursacht wurde, schien es mir nicht nötig, die kleinste Auflösung zu wählen. Verfälscht das Betriebssystem zu sehr?

Grafikeinstellungen sind dieselben, DX11, fast alles auf Max, bis auf sowas wie Weichzeichnen, Unschärfefilter, Chromatische Abweichung.

Edit 1: Korrektur, es war beim 349FPS-Bild fälschlicherweise Umgebungsverdeckung noch an, bei den anderen nicht, also hier noch eins ohne Umgebungsverdeckung, 359FPS:
9800X3D, stock, 6000-Expo-RAM, Win 11 (2).jpg

Edit 1 Ende.


------------------------

RE4 skaliert auch besser.

12700K, Stock-Takt, RAM-OC auf 3800, E-Kerne an, Win 10:

Hier gab es 218 FPS. Um das GPU-Limit zu entfernen, habe ich die Auflösung auf 720P gestellt.
12700K, stock, 3800-RAM-OC, E-Kerne an.jpg


Und hier mit E-Kernen aus:

Da kamen nur noch 205FPS raus.
12700K, stock, 3800-RAM-OC, E-Kerne aus.jpg


9800X3D, Stock-Takt, RAM auf 6000er-Expo:

Hier kamen dann ca. 300FPS raus. Da bei 720P ein Graka-Limit mit 240 oder 260FPS (weiß ich nicht mehr so genau) vorlag, habe ich Auflösungsskalierung auf 50% gesetzt, um ein Graka-Limit zu entfernen.
9800X3D, stock, 6000-RAM-Expo.jpg


Hier Grafikeinstellungen alles auf Max. ohne FSR-Zeug, jedoch unten mit 50% Aufösungsskalierung. Also kann man hier je nach Ausgangslage von 37-45% Mehrleisung ausgehen, das sollte dann realistischer sein. Und dabei hat der 12700K RAM-Settings, die leicht besser sind als das vorgegebene 3600er-XMP-Profil des B-Die.

----------------------------

GTA5 ohne Bilder, im Casino hatte ich mit dem 12700K, Stock-Takt und 3800er-RAM-OC im Bereich vor dem Glücksrad immer so 140 bis ca. 160FPS, da war das Spiel nicht konstant. Mit dem 9800X3D auf Stock und 6000er-Expo waren es dort immer 188FPS, wo die Engine ihr Limit hat. Beim Rumfahren auf der Map immer 188 durchgehend, wo beim 12700K auch die ca. 150 nicht immer erreicht wurden. Beim Flug über der Stadt ging es auf 160 beim X3D runter, glaube beim 12700K waren das mal 110 etwa. Die Einstellungen jedoch nicht alles auf Max.

----------------------------

Minecraft mit der Java-Krücke skaliert gefühlt am schlechtesten. Meine Stadion-Map ist CPU-lastig und selbst der Seus-Renered-Shader geht mehr auf die CPU. Dort wo es vorher so auf 30-35 runterging, waren es diesmal so 40-45FPS etwa, wieder mit den weiter oben mehrfach genannten CPU- und RAM-Settings.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: L1nos
Banger schrieb:
Das kommt mir schon absurd vor, bei Witcher 3 die CPU-Leistung etwa verdoppelt (!!!!!!!) wird. Oder verfälsche ich das zu sehr mit der winzigen Auflösung?
Wenn du alles runterstellst, siehst du einfach nur wieviel Frames die CPU hergibt bis die mal in ein Limit läuft. Mit einer geringeren Auflösung verfälscht du daher nichts wenns nur um die Performance der CPU geht.
 
Zurück
Oben