Test Windows 11 24H2 & 23H2 Update: Wie groß ist das Leistungsplus für AMD Ryzen 9000 in Spielen?

Verak Drezzt schrieb:
@Whistl0r hatte vorhin RDR2 in medium Details bei 720P getestet gehabt und da waren 56 max. FPS und 30 avg. FPS nach drei hintereinander gemachten Durchgängen drinne,

also in einigen Titel kommen da schon etwas mehr als nur 5-10FPS rum
Auf welche Werte kamst du denn zuvor? Und hast du denn mal den Gegentest gemacht? Patch wieder deinstalliert und war es dann wirklich messbar schlechter?
 
@Whistl0r hatte heut Mittag erst nachdem Artikel hier das update aufgespielt und HVCI deaktiviert gehabt, vorher hatte ich, weil ich noch RDR2 auf der SSD hatte, mich an den internen Benchmark erinnert und dachte ich teste es mal damit

bevor ich die Umstellung gemacht hatte sahen die Werte nach drei mal benchen wie folgt aus, 189 avg. und 263 max. FPS, nach der Umstellung dann 219 avg. und 319 max. FPS und auch wieder drei mal durchlaufen lassen

und nein, habe es dann so gelassen gehabt
 
Bald erschafft MS ein neues Gaming-Genre: Windows Gaming. Der Gamer ist so sehr mit der Optimierung von Windows beschäftigt, dass er nicht mehr zum eigentlichen Gaming kommt und somit überwiegend Windows gamen wird :daumen:
 
  • Gefällt mir
Reaktionen: NoNameNoHonor, Rockstar85 und Qyxes
qiller schrieb:
Und ist das Erzeugen des BVHs auflösungsabhängig?
Es beschreibt die Geometrie. Direkt also überhaupt nicht. Höchstens wenn der Detailgrad LOD-mäßig an die Auflösung gekoppelt wird. Habe aber keine Ahnung wie häufig das bei Spielen gemacht wird wenn überhaupt. Weil mit niedrigerer Auflösung braucht man zB auch weniger hochauflösende Texturen oder Geometrie.
Iscaran schrieb:
Das VBS braucht man aber AFAIK doch genau dafür.
Dann lies besser mal noch ein wenig nach wozu VBS da ist. Weil da liegst du sehr falsch. Windows hat sogar so hilfreiche "Learn more" Links direkt unter den jeweiligen Optionen.
 
Ray519 schrieb:
Dann lies besser mal noch ein wenig nach wozu VBS da ist. Weil da liegst du sehr falsch. Windows hat sogar so hilfreiche "Learn more" Links direkt unter den jeweiligen Optionen.

Dann klär mich mal rudimentär auf?

Denn das was da steht: https://support.microsoft.com/de-de/windows/geräteschutz-in-windows-sicherheit-afa11526-de57-b1c5-599f-3a4c6a61c5e2#hardwarescore
erklärt nahezu gar nichts (rein technisch zumindest)

Den Ursprung der Kernisolierung hat man wegen Meltdown und Spectre eingeführt:
https://en.wikipedia.org/wiki/Meltdown_(security_vulnerability)

https://en.wikipedia.org/wiki/Spectre_(security_vulnerability)

https://support.microsoft.com/de-de/topic/kb4073757-schützt-windows-geräte-vor-silicon-basierten-mikroarchitektonischen-und-spekulativen-ausführungsseitigen-channelsicherheitsanfälligkeiten-a0b9f66c-f426-d854-fdbb-0e6beaeeee87

ABER:
https://en.wikipedia.org/wiki/Zen_2

Zen 2 includes hardware mitigations to the Spectre security vulnerability.

Die Frage ist nun, welche der VBS-Maßnahmen sind damit "hinfällig" weil "nativ" dagegen gesichert?

Kannst du mir das näher erläutern, wenn nicht, dann warte ich ob vielleicht Computerbase dazu etwas beitragen kann.
 
https://support.microsoft.com/de-de/windows/kernisolation-e30ed737-17d8-42f3-a2a9-87521df09b78
Das ist der Artikel den ich bekomme wenn ich dem Link aus dem Menü folge. Nur dass ich die Englische Website bekomme weil mein Windows auf Englisch steht.

Die Deutsche Übersetzung ("Stapelschutz" :rolleyes:) macht es nicht unbedingt verständlicher.

Aber WO bitte nimmst du her, dass das alternativ sein sollte? VBS ist so ziemlich unabhängig und in eine andere Richtung als Microarch-Sidechannel Exploits. Das sind gefundene Exploits / Schwachstellen die man verhinden möchte. VBS ist mehr Isolierung um es schwerer zu machen sicherheitskritischen Code zu erreichen. Ähnlich wie ASLR das extrahieren/finden von Daten im Speicher erschwert. Und Controlflow Integrity Maßnahmen den Missbrauch / die Manipulation an existierendem Code verhindern sollen. Genau wie Execute-Xor-Write Maßnahmen es getan haben. Nichts davon ist gegen eine einzige spezifische Schwachstelle. Sie isolieren Dinge besser voneinander und schränken ein wie viel Unfug man aus versehen oder mit bösen Absichten machen kann, wenn man schon Kontrolle über das System hat.
 
  • Gefällt mir
Reaktionen: Miuwa
@Jan
In der Schritt-für-Schritt-Anleitung zur Installation von Windows, Treibern und weiterer Software fehlt leider ein recht relevanter Punkt, der besonders für X3D-CPUs wichtig ist: Es ist notwendig, die Xbox Game Bar über den Microsoft Store auf die neueste Version zu aktualisieren.
Über die Windows Update-Funktion erfolgt leider keine Aktualisierung. Und wer denkt schon an den Microsoft Store...

Insbesondere bei neuen Spielen sollte man zudem überprüfen, ob der jeweilige Titel bereits als Spiel erkannt wird.

Ich "liebe" diese großartige Umsetzung von AMD... 🙄
 
Zuletzt bearbeitet:
BFG schrieb:
@Jan
In der Schritt-für-Schritt-Anleitung zur Installation von Windows, Treibern und weiterer Software fehlt leider ein recht relevanter Punkt, der besonders für X3D-CPUs wichtig ist: Es ist notwendig, die Xbox Game Bar über den Microsoft Store auf die neueste Version zu aktualisieren.

Insbesondere bei neuen Spielen sollte man zudem überprüfen, ob der jeweilige Titel bereits als Spiel erkannt wird.

Ich "liebe" diese großartige Umsetzung von AMD... 🙄
Aktuell nur bei 7900x3d und 7950x3d.
 
CPUs testen war nie aufwändiger und nerviger als jetzt.
 
  • Gefällt mir
Reaktionen: DeMeP und Galatian
dernettehans schrieb:
HVCI ist natürlich auf jedem Gaming PC seit Jahren schon aus und sollte auch bei jedem Benchmark aus sein, der gemacht wird.
Wieso sollte es? Bei mir definitiv nicht. Hast du für die Behauptung eine Quelle?
 
Mimir schrieb:
Sag mal, ist das ne Annahme oder tatsächlich getestet? Ich fand die These zumindest so interessant, dass ich es gerade eben getestet habe. Und was soll ich sagen. Ist leider komplett falsch.


Hier Cyberpunk mit Pathtracing mit einer besonders CPU-lastigen Szene.

720p mit DLSS Ultra Performance = 240p interne Renderauflösung
Anhang anzeigen 1518661


1080p mit DLSS Quality = 720p interne Renderauflösung (=9 fache Pixelanzahl !!!)
Anhang anzeigen 1518663

Und ja, die FPS schwanken in der Szene gerne mal um 2-3 FPS rauf und runter, ist also wirklich identisch.


Das ganze nochmal im internen Benchmark. Hier konnte ich nur bis maximal 720p mit Quality upsampling gehen, da sonst die GPU langsam limitiert. Aber ist wenn man die internen Renderauflösungen vergleicht trotzdem 240p vs 480p und somit die vierfache Pixelanzahl:
Anhang anzeigen 1518671


Also nein, dass RT/PT mit steigender Auflösung die CPU stärker belastet kann ich nicht bestätigen. Die CPU Performance im CPU Limit ist je nach Szene oder Testsequenz immer identisch und unabhängig von der Auflösung.

RT und PT kosten zwar CPU performance und drücken die Framerate im CPU Limit, das ist richtig. U.A. wegen der BVH. Aber Auflösungsabhängig? Nein.
Naja, doch. Allerdings hängt es mit der Auflösung der RT Effekte zudammen, nicht mit der des Spiels. Bei manchen Spielen ist das dieselbe, bei fast allen aber ist die Auflösung der RT Effekte niedriger und unabhängig.
So oder so machts aber keinen Unterschied, da RT eben Stand heute so oder so GPU Limit bedeutet. Soll heissen, es ist irrelevant ob RT mal 1-4% CPU Leistung kostet, wenn es gleichzeitig 70% GPU Leistung kostet. Für jefen CPU Test schaltet man es daher ab.
 
Ancient Gameplays:
 
  • Gefällt mir
Reaktionen: DeMeP
Schinken42 schrieb:
Soll heissen, es ist irrelevant ob RT mal 1-4% CPU Leistung kostet, wenn es gleichzeitig 70% GPU Leistung kostet. Für jefen CPU Test schaltet man es daher ab.
RT kann auch gerne mal deutlich mehr CPU Leistung kosten, deshalb sollte man für jedes Spiel welches RT bietet auch RT nutzen für einen CPU Test.
Es ist schon schwierig, dass hier nur RT Niedrig bei Cyberpunk getestet wurde, man hätte auch RT Ultra nehmen und wenns dann halt ins GPU Limit kommt, DLSS einschalten sollen.
 
Schinken42 schrieb:
Naja, doch. Allerdings hängt es mit der Auflösung der RT Effekte zudammen, nicht mit der des Spiels. Bei manchen Spielen ist das dieselbe, bei fast allen aber ist die Auflösung der RT Effekte niedriger und unabhängig.
So oder so machts aber keinen Unterschied, da RT eben Stand heute so oder so GPU Limit bedeutet. Soll heissen, es ist irrelevant ob RT mal 1-4% CPU Leistung kostet, wenn es gleichzeitig 70% GPU Leistung kostet. Für jefen CPU Test schaltet man es daher ab.

Die Auflösung des RT hängt vor allem mit Pathtracing 1:1 an der Renderauflösung. Deswegen braucht es ja unbedingt Upscaling. Wenn du das Spiel in 4K statt in 1080p renderst, kostet das auch 3-4x so viel Leistung bzw. die FPS sinken entsprechend. Bei klassischer Rastergrafik ist das nicht so. Die Kosten für steigende Auflösung sind da viel geringer.

Und selbst wenn die Auflösung der RT effekte sehr gering sein sollte, würden sie immer in einem relativen Verhältnis zur Spielauflösung stehen und niemals einen fixen Wert haben.

Und nein, wenn ich in Cyberpunk an der CPU-lastigen Stelle teste, dann komm man mit Standard RT (nicht Pathtracing) bereits je nach CPU ins CPU limit, bei ganz normal spielbaren Settings.

Ist auch bei z.B. Star Wars Outlaws kein Problem. Das Spiel nutzt immer RT und je nach Szene und CPU kannst du schon bei unter 100 FPS ins CPU limit laufen. Das ist jetzt auch nicht besonders hoch, deswegen wüsste ich wirklich nicht, warum man RT für einen CPU Tests abschalten sollte. In Unreal Engine 4 Spielen ist das RT sogar oft so mies umgesetzt, dass das CPU limit richtung 50 FPS oder so wandert bzw. die Frametimes CPU bedingt schlecht werden. Selbst mit ner langsameren GPU killt die schlechte CPU performance jegliche Hoffnung auf flüssiges gameplay (siehe Hogwarts Legacy oder Jedi Survivor mit RT)
 
Mimir schrieb:
Das ist jetzt auch nicht besonders hoch, deswegen wüsste ich wirklich nicht, warum man RT für einen CPU Tests abschalten sollte.
Hast du verifiziert dass das dann alleiniges CPU Limit ist? Der Punkt ist ja dass man den BVH ständig aktualisieren muss. Möglich dass sich da auch die PCIe Verbindung / Kommunikation mit der GPU mit reinschleicht und du entsprechend weniger die CPU Kerne testest.
 
Taxxor schrieb:
Es ist schon schwierig, dass hier nur RT Niedrig bei Cyberpunk getestet wurde, man hätte auch RT Ultra nehmen und wenns dann halt ins GPU Limit kommt, DLSS einschalten sollen.
DLSS reduziert die Renderauflösung und damit die Anzahl der zu berechneten Strahlen. Aus RT Hoch wird im Grunde RT Mittel und wieder auf Hoch skaliert.
Das weist du doch selbst.

Das sieht man halt erst immer ein paar Generationen später.

Egal wie die Einstellung für den Benchmark sind, so hat der Titel CP2077 bei CPU Tests wie ich auch finde nichts zu suchen, da die Engine nicht mehr benutz wird.
Es gestaltet sich wie du schreibst auch zu schwierig eine passende Einstellung zu finden.

Starfield auch nicht, da wenig beliebt und auch die Engine kaum noch Anklang findet.

Mir helfen diese Test in nichts wenn ich mich für ein Produkt entscheiden muss.
 
Zurück
Oben