Test Windows 11 24H2 & 23H2 Update: Wie groß ist das Leistungsplus für AMD Ryzen 9000 in Spielen?

fdsonne schrieb:
sondern die FPS steigen, wenn du die Auflösung unter die absenkst, mit der du spielst. Denn damit werden CPUs, die größere Caches haben, bevorteilt.
Jetzt muss du aber mal erklären wie höhere FPS die Cache-Nutzung ändern. Solange du jetzt nicht mehrere Programme gleichzeitig laufen lässt, die um den Cache konkurieren und die Laufzeitverhältnisse dieser Konkurenten änderst.

Es geht ja nicht um die FPS selbst. Sondern wie du vorher erklärt hast um die Zusammensetzung der Frametime. Und dass wenn man den Anteil von GPU-busy reduziert, werden Vorteile der CPU in der gesamten Frametime stärker gewichtet. Das will man aber doch auch von einem CPU Test. Möglichst alles irrelevant machen und zurückdrängen das nicht von der CPU kommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Miuwa
Ach Gott wie gut das Windows so einfach ist und schlicht läuft.
Das ganze Gefrickel bei Linux, kann man ja keinem antun.
 
  • Gefällt mir
Reaktionen: iron_monkey, Obvision, KurzGedacht und 5 andere
Jan schrieb:
Wie ist das Wort gemeint, also wenn du heute eins Kaufst oder in der "Flotte" also wenn man bei irgend jemand daheim schaut der vor 6 Monaten 12 Monaten ein AM5 Board gekauft hat ist es dort >50% an? Den letzteres ist denk ich entscheidender zumindest momentan.
 
Simanova schrieb:
Neues Testszenario: Windows 7 aufsetzen, auf Windows 8 updaten, auf Windows 10 updaten, auf Windows 11 updaten. Alle Windows-internen Sicherheitsfeatures deaktivieren. Das wäre dann meine Konstellation.

Vielleicht sollte man Windows 11 mal irgendwann sauber installieren :)
Niemals :)
Win8 habe ich ausgelassen, dafür Chipsatzwechsel von Intel zu AMD vollzogen und min. 6 verschiedene Grafikchips Intel/AMD/Nividia verbaut.
Die Kiste ist wie ein guter alter Whiskey, das darf man mit einer Neuinstallation nicht verhunzen!
 
theGucky schrieb:
Ist nicht 100%ig richtig.
Richtig wäre: Die Auflösung spielt nur eine minimale Rolle für die Framerate die die CPU erreichen kann.
Ist absolut Richtig. Auflösung gleich Pixel.
Pass auf ich zeigs dir:
theGucky schrieb:
Z.b. 21:9 Widescreen hat eine erhöhte CPU Last, da mehr der Spielwelt gleichzeitig angezeigt wird.
Bildschirmverhältnis ist nicht Auflösung, selbst wenn sich die Auflösung bei veränderdem Bildschirmverhältnis ändert bzw. ändern kann.
theGucky schrieb:
Bei einigen Spielen ist das auch in 4k der Fall.
Nein. 16:9 ist 16:9, die Auflösung ändert nichts am Bildschirminhalt. Mag sein, dass es Spiele gibt die bei 4k auf 16:10 schalten oder so. Dann müsste das Bild auch etwas gestaucht sein oder Balken haben, was sicher dann nicht so vorgesehen ist.
theGucky schrieb:
Auch erzeugt RT in 4k eine höhere CPU Last als in 1080p oder 720p.
Ja. Ja aber. Ja, RT erhöht ganz allgemein die CPU Last. Dementsprechend erhöht sich die zusätzliche CPU Last, wenn RT Effekte in höherer Auflösung berechnet werden.
Und jetzt das Aber: RT und 4k sind mit aktueller Hardware sowieso GPU Limitiert, in der Praxis also irrelevant.
Ausserdem werden RT Effekte zwarbin einer Auflösung, das ist aber nicht die Auflösung die man fürs Spiel einstellt.
theGucky schrieb:
Und so nebenbei... ich merke, das mein 5800X3D in 4k mit einer 4090 nicht ausreicht...
In Anno, Stellaris, Factorio, X4, CIV? Oder in Black Myth Wukong, CP2077 etc?
Ich denke du kommst selber drauf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mimir
Schinken42 schrieb:
Und jetzt das Aber: RT und 4k sind mit aktueller Hardware sowieso GPU Limitiert, in der Praxis also irrelevant.
Dennoch ist damit die Aussage, dass die CPU in egal welcher Auflösung immer die gleichen FPS liefern kann, mit RT in dem Fall halt nicht mehr so ganz korrekt.

Sprich wenn ich ein Cyberpunk mit RT in 720p mit DLSS Performance, also 360p benche und im CPU Limit bei 150FPS liege, kann es sein, dass die CPU in 1440p mit DLSS Performance, also dann 720p nur noch 140FPS liefern kann, weil die Draw Calls sich durch höher aufgelöstes RT erhöhen, während ich im Bench ohne RT in 360p und in 720p 180FPS erreiche.

Auch gibt es mWn mittlerweile noch andere Faktoren, die die CPU bei höheren Auflösungen zusätzlich belasten, sodass die möglichen lieferbaren FPS sinken können.


Das ganze kann man dann auch soweit treiben, dass sich die Frage stellt, wenn CPU A in oben genanntem 360p Szenario 10% schneller ist als CPU B, ob das bei stärkerer Belastung in 720p immer noch 10% Unterschied sind.
Wir haben ja auch schon oft Fälle, in denen CPUs bei wenig anspruchsvollen Benches wie z.B. Integrierten Benchmarks bei hohen FPS relativ gleichauf sind, dann aber in fordernden Szenen, wo die FPS stark einbrechen, plötzlich eine der beiden CPUs deutlich weniger einbricht als die andere.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verak Drezzt
Taxxor schrieb:
und die Aussage, dass die CPU in egal welcher Auflösung immer die gleichen FPS liefern kann, stimmt mit RT in dem Fall halt nicht mehr so ganz.
Ich denke das liegt aber mehr daran dass hier Dinge und Unterschiede vermischt werden. Grundsätzlich ist der Game Engine die Auflösung egal. Pixel werden auf der GPU berechnet. Aber gewisse Einstellungen können halt automatisch an die Auflösung gehängt werden. Wie zB Viewdistance. Oder LOD. Oder Texturauflösungen die gestreamt werden.
Und für RT: wenn du aufgrund höherer Auflösung mehr Details in deinen BVH packst (soweit ich weiß das einzige mit Raytracing das die CPU macht), dann braucht das eben mehr Leistung. Aber es ist nicht direkt die Auflösung, sondern das andere Dinge, die unabhängig von der Auflösung sein könnten eben implizit dran hängen.
Und wenn man diese stattdessen manuell regeln könnte, müsste man eigentlich dahin kommen, dass die CPU unabhängig von der Auflösung läuft. Mit eben mehr optisch auffallenden Effekten.

Also mehr ein Praxisproblem mit den jeweiligen Spielen, als ein Problem der Theorie.
 
Ray519 schrieb:
Aber es ist nicht direkt die Auflösung, sondern das andere Dinge, die unabhängig von der Auflösung sein könnten eben implizit dran hängen.
Gut, das macht für uns aber keinen praktischen Unterschied weil wir ja daran nichts ändern können.
Für uns als Spieler und Tester gilt dann eben, dass in solchen Fällen ein Erhöhen der Auflösung gleichzeitig zu erhöhter CPU Last führt.
Ray519 schrieb:
Also mehr ein Praxisproblem mit den jeweiligen Spielen, als ein Problem der Theorie.
Exakt, aber wer hat bei dem ganzen Aufwand, der aktuell schon für Benchmarks betrieben werden muss, auch noch die Zeit, solche Fälle zu identifizieren und hier ggf vom Regelfall "Auflösung egal" abzuweichen und die Spiele anders zu testen?
Das wird in den nächsten Jahren alles noch sehr viel komplizierter für die Tester...
 
Ja, ich stimme zu, dass man vorsichtig sein muss das einem gewissen Spiel zu unterstellen, ohne es getestet zu haben.
Aber am besten für Benchmarks, wäre es die Optionen die die CPU Last beeinflussen angeben zu können. Denn dann wären Ergebnisse aus CPU Tests besser auf die Praxis übertragbar. Oder: man weiß besser welche Teile davon wie gut auf die Praxis / andere Einstellungen übertragbar sind und welche nicht.

Also einfach nur einen Dump der internen Optionen eines Spiels zu haben um sicherer zu sein, was man vergleichen kann und was nicht wäre gut. Und ist eine Forderung die Spieleentwickler durchaus auch beherzigen könnten. Schließlich müssen die genau solche Kopplungen ja auch tunen und zum Debuggen Probleme eben auf die eigentlich ursächlichen Optionen zurückführen. Die Spiele die eine eingebaute Konsole anbieten, die von Testern dann auch gerne genutzt wird um wiederholbar custom zu testen, gibt sowas vermutlich auch her.
 
theGucky schrieb:
Auch erzeugt RT in 4k eine höhere CPU Last als in 1080p oder 720p.

Taxxor schrieb:
Dennoch ist damit die Aussage, dass die CPU in egal welcher Auflösung immer die gleichen FPS liefern kann, mit RT in dem Fall halt nicht mehr so ganz korrekt.

Sprich wenn ich ein Cyberpunk mit RT in 720p mit DLSS Performance, also 360p benche und im CPU Limit bei 150FPS liege, kann es sein, dass die CPU in 1440p mit DLSS Performance, also dann 720p nur noch 140FPS liefern kann, weil die Draw Calls sich durch höher aufgelöstes RT erhöhen, während ich im Bench ohne RT in 360p und in 720p 180FPS erreiche.

Auch gibt es mWn mittlerweile noch andere Faktoren, die die CPU bei höheren Auflösungen zusätzlich belasten, sodass die möglichen lieferbaren FPS sinken können.

Sag mal, ist das ne Annahme oder tatsächlich getestet? Ich fand die These zumindest so interessant, dass ich es gerade eben getestet habe. Und was soll ich sagen. Ist leider komplett falsch.


Hier Cyberpunk mit Pathtracing mit einer besonders CPU-lastigen Szene.

720p mit DLSS Ultra Performance = 240p interne Renderauflösung
720p_Ultra_Performance.jpg



1080p mit DLSS Quality = 720p interne Renderauflösung (=9 fache Pixelanzahl !!!)
1080p_Quality.jpg


Und ja, die FPS schwanken in der Szene gerne mal um 2-3 FPS rauf und runter, ist also wirklich identisch.


Das ganze nochmal im internen Benchmark. Hier konnte ich nur bis maximal 720p mit Quality upsampling gehen, da sonst die GPU langsam limitiert. Aber ist wenn man die internen Renderauflösungen vergleicht trotzdem 240p vs 480p und somit die vierfache Pixelanzahl:
Benchmark.jpg



Also nein, dass RT/PT mit steigender Auflösung die CPU stärker belastet kann ich nicht bestätigen. Die CPU Performance im CPU Limit ist je nach Szene oder Testsequenz immer identisch und unabhängig von der Auflösung.

RT und PT kosten zwar CPU performance und drücken die Framerate im CPU Limit, das ist richtig. U.A. wegen der BVH. Aber Auflösungsabhängig? Nein.
 
  • Gefällt mir
Reaktionen: Iscaran, Stimpanse, Gallo2000 und 3 andere
szaKaL23 schrieb:
…Und vor allem ging die ganze Sache ja erst mit dem Ryzen 9000 und dem Marketingversprechen los.
Aber das hat ja nichts mit dem 9000er zu tun! Das update beschleunigt ja generelll ryzen... wo ja vor wochen ja viele rumgeheult haben und natrülich "wussten" das an den AMD Treibern liegt. ^^

Tatsächlich lags aber am Windows. Das Ryzen 9000 so bescheiden abschneidet, liegt ja an dem geringen Leistungspluss gegenüber der schon starken vorgänger. Also 7k vs 9k. Das wird aber mit dem Update ja nicht angegegangen, da die ja genauso profitieren.

1725301177037.png


 

Anhänge

  • 1725301165830.png
    1725301165830.png
    688,8 KB · Aufrufe: 471
Mimir schrieb:
Sag mal, ist das ne Annahme oder tatsächlich getestet?
Cyberpunk hab ich nur als Beispiel für ein RT Game genommen. Mag sein dass es dort nicht so ist, ich hatte aber schon Spiele gesehen wo es so war. Wenn ich mich recht erinnere müsste Watch Dogs Legion dazu gehören, aber da kann ich dir jetzt leider auch nichts konkretes zu liefern.
 
Was leider viele nicht verstehen ist, dass Windows 11 23h2 / 24h2 von Grund auf schon sehr aufgebläht sind. Ich hab mir extra eine Ntlite Lizenz geholt , um meine Custom ISO zu machen und ich hatte damit immer schon 5-10% mehr FPS in Valorant/CS2.
HVCI hab ich in der ISO schon entfernt, da es nicht notwendig ist wenn man seinen Rechner sicher nutzt. Ich hab auch Defender entfernt, aber das ist dann schon wieder zu hardcore für die meisten. Ich hab auch so gut wie keine vorinstallierten Apps und Hardwarebeschleunigung usw. alles aus. Wer möchte , dem kann ich gern mal meine ISO geben.Das Problem ist halt auch, dass viele ihren Rechner einfach schlecht behandeln. Da wird jede Seite der Welt angesurft und alle möglichen Tools geladen. Krieg da schon halben Anfall wenn ich bei Crystaldiskinfo sehe wie jemand einfach 300 unsafe Shutdowns hat und ich einfach 0 habe. Da fängt das schon an wie jemand seinen PC nutzt. Leute lassen nicht mal mehr die Software richtig laden. Da wird einfach parallel alles geöffnet und drauf geklickt und dann sich gewundert wenn die „keine Rückmeldung“ Fehler erscheinen.Muss aber jeder selbst für sich wissen.
 
  • Gefällt mir
Reaktionen: CrAzYLuKe
Dachte eigentlich auch, dass der Witz am hardwarebeschleunigten Raytracing ist, dass es auf der Grafikkarte ausgeführt wird, und nicht auf der CPU^^.

Und ist das Erzeugen des BVHs (was ja immer auf der CPU läuft) auflösungsabhängig? Wat sagen denn die Blender Spezialisten? Mein Bauchgefühl würd mal behaupten, dass die Auflösung keine Rolle beim BVH spielt, aber ich hab mich damit nie groß beschäftigt, also ka.

Edit: Mal ne Demo File in blender gerendert, aber die Zeit fürs BVH Erzeugen wird da nicht angezeigt. Einer nen Plan, wie man das evt. in Erfahrung bringt?^^
 

Anhänge

  • untitled.jpg
    untitled.jpg
    99,1 KB · Aufrufe: 56
  • Gefällt mir
Reaktionen: Mimir
Ich finde, nach dem ganzen Stress und der Aufarbeitung/Analyse, was da für ein Quatsch von Seiten AMD beim 9000er Ryzen-Release verzapft wurde (wohl keine Absprache mit MS oder überhaupt irgendwelche Windoof-Tests in Augenschein genommen, wie die 9000er damit performen), hat CB einen moralischen Support in Form einer finanziellen Unterstützung verdient. Vor allem, wenn man bedenkt, dass bald alle CPU-Tests, wenn alles zu diesem Fall geklärt worden ist, neu gemacht werden müssen, um eine genaue Ausgangsbasis für alle kommenden Benchmarks zu haben. CB steht viel Arbeit bevor.

Werde für diesen Monat ein Abo abschliessen. Hoffe, viele werden folgen.

EDIT: Erledigt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und Jan
1.) Vielen Dank an @CB für diesen Artikel und Test. Insbesondere das nette sehr schöne offenlegen der Testmethodik inklusive der Softwareschritte und der seltsamen Windows Bugs (wie z.B. das der Installer einfach die Settings ignoriert)

2.) Könntet ihr noch ein wenig mehr Background dazu liefern was VBS, HVCI, Kernisolierung, Speicherintegrität, (und sowas) ist und wofür es da ist und wogegen es schützt.

z.B. in meinem Win11H23 ist bei der Gerätesicherheit irgendwie alles Default OFF

Da steht:
Standardhardwaresicherheit wird nicht unterstützt

Und die Info liefert dann:
Dies bedeutet, dass Ihr Gerät keine der Anforderungen für Standardhardwaresicherheit erfüllt.


3.) Auch müsste es da ja gerade Unterschiede geben, denn wenn ich es recht verstehe sind ja seit Zen2 die AMD CPUs gegen die Spectre Attacken "in Silicon" gesichert. Das VBS braucht man aber AFAIK doch genau dafür. Würde also ja gerade Sinn machen, wenn das nun auf "neueren" Zens Default OFF ist, weil sowieso gesichert über "Silicon". Macht das Windowsupdate vielleicht also gerade das?
Lässt HVCI und Co an, bei CPUs die es brauchen und deakviert es bei CPUs die es nicht brauchen?

Ansonsten, TOP-Arbeit, vielen Dank für eure viele Zeit die ihr in diese gründliche Aufarbeitung des total konfusen Themas gesteckt habt!
 
  • Gefällt mir
Reaktionen: danyundsahne
Zurück
Oben