Test Windows 11 24H2 & 23H2 Update: Wie groß ist das Leistungsplus für AMD Ryzen 9000 in Spielen?

Mimir schrieb:
Wow, ist das wirklich so schwer zu verstehen?

Du kannst auch ne theoretische RTX 9090 nehmen und in 240p testen. Wenn ein CPU limit bei Framerate X entsteht, dann hast du dieses CPU limit bei Framerate X auf JEDER GPU und bei egal welcher Auflösung. Die CPU wird bei Framerate X limitieren. Nicht mehr und nicht weniger will man bei einem CPU test wissen.

Dass hier mit einer 4090 getestet wird ändert rein gar nichts an der relevanz oder korrektheit der Daten für andere Systeme wie z.B. Leute mit einer GTX1060 oder einer RtX3060.


Kann CB vielleicht bitte bei der Accounterstellung unter Nutzungsbedingungen nen Artikel verlinken wo erklärt wird, warum man CPUs so testet und wo der User einen Haken zur Zustimmung setzen muss, wo dann etwa folgendes steht: „Hiermit bestätige ich den Artikel gelesen und verstanden zu haben und werde im Forum deshalb niemals diesen Aspekt der testmethodik hinterfragen oder kritisieren“.

Sorry, aber gibt kaum was, was mich so hart triggert. Ist echt nicht böse gemeint, aber dass das für viele so schwer zu verstehen ist, begreife ich einfach nicht.
Ich verstehe zwar, warum man nur mit 720p (weniger wird nicht gehen) testet, aber tatsächlich ist doch die Frage legitim, was mir eine theoretisch erreichbare Zahl bringt, wenn ich im Normalfall immer mit 1080p oder WQHD oder sonstwas unterwegs bin. Da ist dieser Normalfall für mich (nicht für den Tester) relevanter. Daher könnte man doch zumindest immer was zum "Normalfall" mit höherer Auflösung schreiben, vielleicht auch, damit die Rumnörgelei im Forum aufhört.
 
  • Gefällt mir
Reaktionen: JoeDante
@Mimir sehe ich vollkommen genauso, das traurige ist dabei, selbst bei langjährigen Mitgliedern hier auf dem Board, bei jemanden der von der Materie keinen Peil hat und hier frisch angemeldet ist, sicher kein Thema, aber wenn man dann teils in fast jedem CPU Test oder wie hier dann auch, die selben Leutz immer wieder liest, dann doch mühselig irgendwann
Ergänzung ()

Verak Drezzt schrieb:
wenn du einen 165Hz Monitor hast und willst aktuelle Shooter mit entsprechenden FPS zocken wollen, was bringt dir dann ein Test in 4K, WQHD oder FullHD, wenn dort mit einer 4090 getestet wurde, trotz alledem diese bei 100FPS am Anschlag in 4K dicht macht

sagt dir dann rein gar nichts darüber aus ob dir dann ein 7500F, 7700X, 7800X3D für 165FPS ausreicht, oder du wegen der Mehrkernoptimierung doch lieber zu nem 7950X3D greifst oder du mit generell hohen Details im Schnitt mit min. 140-160FPS zocken willst und du aber siehst dass eine 4090 in 4K schon bei 105FPS bei ultra Details dicht macht

wie willst du dann eine grundlegende Kaufentscheidung der CPU treffen, die dann ggf. auch in den nächsten 2-3 Jahren annähernd so viele FPS liefern soll, ahjo kauf ich halt mal blind statt nem 380€ teuren 7800X3D, nur nen 7500F für weniger als die hälfte, da dieser ja auch seine 105FPS im CPU Test im GPU Limit mit einer 4090 in 4K gemacht hat

verstehsde die Krux an der Sache ? deshalb testet man keine CPU's im GPU Limit, weil ich wissen möchte was die CPU's an Rohleistung liefern und ich dementsprechend meine Kaufentscheidung dann fällen kann, da bringen mir CPU Tests im GPU Limit nix
@NoNameNoHonor weil !
 
NoNameNoHonor schrieb:
Ich verstehe zwar, warum man nur mit 720p (weniger wird nicht gehen) testet, aber tatsächlich ist doch die Frage legitim, was mir eine theoretisch erreichbare Zahl bringt, wenn ich im Normalfall immer mit 1080p oder WQHD oder sonstwas unterwegs bin. Da ist dieser Normalfall für mich (nicht für den Tester) relevanter. Daher könnte man doch zumindest immer was zum "Normalfall" mit höherer Auflösung schreiben, vielleicht auch, damit die Rumnörgelei im Forum aufhört.
Es ist halt ein CPU Test und kein Gesamtsystemtest.
Daher ist das zwar auch etwas, was von Interesse ist, aber eben nicht in einen CPU Test gehört.

Und doch, dank FSR/DLSS geht es deutlich niedriger als 720p, wenn nötig^^
 
  • Gefällt mir
Reaktionen: iron_monkey, Solavidos, Rockstar85 und eine weitere Person
Ich bin schon erstaunt darüber, dass bei so vielen Leuten Unklarheiten zu gerade zwei Dingen auffallen:
1. Wie testest man GPU und CPU.
2. Welche Dinge der Anwender in Windows beeinflussen kann um seine Gaming Performance zu steigern.

Zu 1.:
Wenn man die Suche von CB bemüht dann findet man die Tests. Und wenn man da nicht gleich zu den Balken hüpft, dann erfährt man auch wie getestet wird und warum. Z.T. Sogar Zusatzinfos wie HVCI:

https://www.computerbase.de/2023-11/cpu-gaming-benchmark-2023-amd-ryzen-intel-core/

Zu 2.:
Hat CB hier auch schon ordentlich abgeliefert:
https://www.computerbase.de/2023-03/windows-11-vbs-hvci-spiele-benchmarks/

Hierbei könnte man wenn überhaupt mal freundlich anfragen, ob die Redaktion für 2024 und Windows 11 mal eine schlangenölfreie Komplettübersicht zu „Windows/BIOS Optimierung für den Gaming PC“ erstellt.

So insgeheim muss man sich jetzt schon fragen, wieviele Leute sich eine neue CPU kaufen oder sogar die Plattform wechseln, obwohl sie die gleiche Leistungssteigerung mit den Themen von oben + gescheites RAM-Kit und Timings bekommen könnten.
 
  • Gefällt mir
Reaktionen: DKK007, Rockstar85 und Terrschi
Das ist seit Ewigkeiten das erste das ich Abschalte. Ist das jetzt so Neu?
 
viele die so argumentieren von wegen keine realistischen Bedingungen, denen reichen meist auch 60-90FPS oder zocken keine high FPS Games und sagen sich dann, für was brauche ich solche Tests, wenn mir im Grunde eine 200€ CPU in 4K vollkommen ausreicht, da ich ja eh im GPU Limit bei ultra Details hänge

dass man dahingehend die Regler Richtung CPU Limit bewegen kann um dann annähernd in dem FPS Bereich zocken zu können, darauf kommen sie irgendwie nicht, deshalb sind hier auch in der Kaufberatung sehr viele unterwegs, die, wenn sie sehen dass derjenige in 4K unterwegs ist, direkt meinen und empfehlen, dass ein 5600/7600 vollkommen ausreichen würde

auch wenn dieser dann explizit schreibt er wolle mit 140-160FPS im high FPS Bereich, Shooter XY zocken, mag vielleicht für einen aktuellen COD Titel noch hinkommen, oder für irgendwelche Toaster Games ala CS2, Valorant, Fortnite etc. aber spätestens beim nächsten CoD oder Battlefield in 1-2 Jahren wird es dann nicht mehr reichen

und genau für sowas brauch man einfach die maximale Leistung unabhängig von der Auflösung, die wie gesagt eh egal ist da die CPU in jeder die selben FPS macht und die Grafikkarten Leistung dafür verantwortlich ist diese FPS in Auflösung und Details umzuwandeln
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey, FreedomOfSpeech und Mimir
In eingen Spielen bringt das ganze ja 27% in anderen nur 8% aber alle Zuwächse sind besser als keine Verbesserung. Ich warte die Offiziellen Updates ab, wenn dann noch das neue Power Level per Bios Updae freigeschaltet wird, dann rennen die CPUs.
 
Tripleh84 schrieb:
Das ist seit Ewigkeiten das erste das ich Abschalte. Ist das jetzt so Neu?
Ne. Aber irgendwie kommt mir das so vor, als ob viele Leute Dinge gar nicht lesen.

Auf den Balken schauen. 7800x3d rein. 4090 rein. Los gehts. Repeat.
Dabei sind gerade Tests unter Standardeinstellungen sehr hilfreich für eine Kaufentscheidung.
 
NoNameNoHonor schrieb:
Ich verstehe zwar, warum man nur mit 720p (weniger wird nicht gehen) testet, aber tatsächlich ist doch die Frage legitim, was mir eine theoretisch erreichbare Zahl bringt, wenn ich im Normalfall immer mit 1080p oder WQHD oder sonstwas unterwegs bin. Da ist dieser Normalfall für mich (nicht für den Tester) relevanter. Daher könnte man doch zumindest immer was zum "Normalfall" mit höherer Auflösung schreiben, vielleicht auch, damit die Rumnörgelei im Forum aufhört.

Das hätte keinerlei Mehrwert. Wirklich gar keinen.

Je nach Settings und Upscaling einstellung kannst du auf ein und der selben GPU in einem Spiel mal eben um Faktor 3 oder noch mehr unterschiedliche Framerates erreichen.

Der eine spielt in 1440p mit allem auf maximalanschlag und hat 40 FPS, der andere spielt mit leicht optimierten Settings, nutzt upscaling und spielt mit 140 FPS und hängt deshalb vielleicht im CPU limit. Ebenfalls 1440p.

Was soll es also bringen in höheren Auflösungen bzw. Im GPU Limit zu testen? Was willst du damit herausfinden, welche Settings willst du nutzen, welche GPUs? Du testest dann genau eine Kombination aus CPU, GPU und einstellungen, die dann im GPU limit laufen und nur exakt für diese Config gültig sind. Kurz gesagt, du machst einen GPU Test.

Wenn du hingegen im absoluten CPU limit testest, weißt du was die CPU an FPS schaffen würde. Dieses Ergebnis gilt dann für jede Grafikkarte in jeder Auflösung bei beliebigen Upscaling einstellungen.

Du hast einen Messwert und kannst ihn auf nahezu beliebig viele Konfigurationen übertragen. Wenn der Test sagt, die CPU schafft jetzt mit dem Patch 120 statt 100 FPS in Spiel X, du aber weißt, dass du mit deiner GPU in dem Spiel mit DEINEN gewünschten Settings nur 60 FPS erreichst, dann weißt du auch, dass du keinen Unterschied merken wirst, da das CPU limit ja erst bei 120 FPS liegt.

Jemand der aber gerne mit 140 FPS spielt, weil er ne stärkere GPU hat oder upscaling nutzt und die 140 FPS bisher nicht erreichen konnte, weil seine CPU limitiert, der kann im Test sehen, dass er mit der CPU jetzt eben 120 statt 100 FPS erreicht und von dem Update direkt profitieren würde.

Aber auch dem 60 FPS Spieler sollte hier klar werden, dass hier in meinem Beispiel 20% mehr performance gewonnen wurden, die sich früher oder später auch für ihn auswirken würden, wenn die CPU in irgend nem künftigen oder aktuell sehr CPU fordernden Spiel z.B. nur noch 50 FPS schaffen würde, dank des Updates aber 60 FPS möglich sind. Nur weil der performancezuwachs momentan durch das GPU limit maskiert ist, heißt das ja nicht, dass der zuwachs niemals sichtbar werden kann. Spätestens wenn man ins CPU limit kommt, merkt mans halt. Und genau diesen Punkt (CPU limit) testet man hier. Alles andere ist sinnfrei und bringt keine erkenntnisse.


In der hinsicht sind CPU Benchmarks eigentlich sogar viel dankbarer als GPU Benchmarks, man schaut einfach, dass man ins CPU limit kommt, testet einmal. Fertig. Der Wert ist dann für JEDEN, der diese CPU nutzt relevant, egal welche Grafikkarte, egal welche Auflösung.

Bei GPU tests hingegen sind die jeweiligen Messwerte nur relevant, wenn jemand die Grafikkarte bei exakt gleichen Einstellungen betriebt.
Deswegen wird ja bei GPU tests immer in unterschiedlichen Auflösungen und unterschiedlichen Upscaling stufen getestet. Man könnte hier unendlich viele Varianten durchtesten. Die Möglichkeit wie im CPU Test nur einen einzigen Test machen zu müssen gibt‘s beim GPU test nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey, DKK007, Solavidos und 5 andere
Worauf fußt eigentlich die Behauptung, dass KB5041587 irgendwelche Fehlerkorrekturen für den Umgang mit oder die Optimierung für AMD-Prozessoren enthält? In den Dokumenten von Microsoft ist hierzu nichts zu lesen.

Aber zum eigentlichen Artikel: Diese herumgeisternden Prozentzahlen entsprechen in der Praxis, abhängig vom Spieletitel, 5-10 FPS. Schnell kam eine Kontroverse bzgl. HVCI auf, da offenbar den ersten Testern nicht aufgefallen war, dass dies in einem neuen Insider-Build abgeschaltet war. Trotzdem zeigen die neuen Tests und auch Tests Dritter wie bspw. durch ComputerBase, dass sich an diesen 5-10 FPS Unterschiedlich nicht wirklich etwas geändert hat.

Hier möchte ich eine grundsätzliche Frage zur Diskussion stellen: Kann Windows 11 überhaupt zuverlässig gebenchmarkt werden? Heutige Betriebssysteme wie Windows 11 sind extrem komplex, und es laufen ständig Hintergrundprozesse, die durch Timer oder Ereignisse getriggert werden und mind. CPU-Ressourcen beanspruchen. Diese Prozesse – sei es durch Windows Update, Telemetriedatenverarbeitung, Überprüfung und Bereinigung des Component-Stores, Maintenance irgendeiner EDB, Windows Defender Update oder andere Tasks – verlangen CPU-Zeit, selbst wenn sie mit niedriger Priorität laufen. In dem Moment, wo der Scheduler diese Prozesse einplanen muss, beeinflusst das die Verteilung der Ressourcen. Selbst wenn ein neuer Prozess keine Priorität hat, wird der Scheduler trotzdem belastet, und das kann die Performance der eigentlichen Benchmark-Tasks beeinflussen.

Außerdem erreichen moderne Multicore-Prozessoren selten den maximalen Clockspeed auf allen Kernen gleichzeitig. Selbst wenn das getestete Spiel den am höchsten getakteten Kern verwendet, kann ein zusätzlicher Hintergrundprozess dazu führen, dass die Taktrate sinkt. Die Folge: Das Spiel erhält weniger oder langsamere CPU-Zyklen, was zu den besagten 5-10 FPS Unterschied führen kann.

Diese Problematik begegnet mir auch in meinem Alltag als Entwickler. Ich nutze eine leistungsstarke Workstation mit einem Threadripper und Wasserkühlung, und arbeite oft in virtuellen Maschinen, in denen ich verschiedene Programme von GCC über Rust bis zum Linux-Kernel kompiliere. Die VMs sind auf "Background" gestellt, sodass ich im Vordergrund Spiele wie PubG laufen lassen kann. Trotzdem beobachte ich gelegentlich FPS-Einbrüche, die mit den In-Game-Stats korrelieren. Diese Einbrüche treten genau dann auf, wenn ein Buildsystem statt 12 plötzlich 48 Jobs parallel ausführen kann (bspw. nach der Pre-Processing-Phase).

Die Frage, die sich mir stellt: Wie kann man diese Schwankungen in Benchmarks ausgleichen? In meinen Augen ist das nur durch eine signifikante Erhöhung der Anzahl der Benchmark-Wiederholungen möglich. Bei solch geringen Unterschieden wie 5 FPS halte ich alles unter 100 Wiederholungen für statistisch kaum aussagekräftig. Wie geht ComputerBase damit um? Werden Benchmarks tatsächlich 100-mal oder öfter wiederholt, um solche Schwankungen auszuschließen? Ich halte das für schwierig.

Hinzu kommt, dass nicht nur Windows selbst ein potenzieller Störfaktor ist. Nehmen wir an, der NVMe-Controller startet plötzlich sein Housekeeping, weil Schwellwerte erreicht wurden – dann bricht die I/O-Kapazität für einige Sekunden ein. Bei einer Benchmark-Reihe mit nur ~10 Wiederholungen könnte auch dies das Ergebnis stark verfälschen.

Ein weiterer Aspekt: Nicht jedes Spiel ist gleichermaßen CPU-limitiert. Ein stärker CPU-abhängiges Spiel zeigt bei Änderungen in der CPU-Verfügbarkeit, Clockspeed oder ähnlichen Faktoren größere Abweichungen.

Beim Entwickeln von Linux-Kernel-Modulen versuche ich immer einen Gegentest, um sicherzustellen, dass eine Änderung tatsächlich die gewünschte Performance-Verbesserung bringt. Im Idealfall kann ich meine Code-Änderung hinter Flags verbergen, die ich zur Laufzeit togglen kann. Manchmal bleibt mir aber nichts anderes übrig als mit zwei verschiedenen Kernels – einmal mit und einmal ohne der Änderung zu testen. Dabei besteht immer die Gefahr, dass durch Compiler-Optimierungen anderer Maschinencode entsteht. Auch kann sich durch die Code-Änderung die Datenstruktur verändern, so dass sie nicht mehr in einen Cache Block passt. Das hätte als Konsequenz, dass die CPU ständig Instruktion aus dem RAM in ihren limitierten Cache nachfordern müsste, was jeweils für Unterbrechungen in der Berechnung führen würde (Stichwort "Cache-Unfriendly Code"). Wie sieht das bei Benchmarks durch ComputerBase bzw. in der Szene aus? Macht man immer den Gegentest? Und wie geht man mit den unvermeidlichen Abweichungen durch Messtoleranzen um? Gerade bei 5 FPS Unterschied könnte der Gegentest nicht die erwartete Abweichung zeigen. Wird dann so lange an den Einstellungen herumgeschraubt, bis das vorherige Ergebnis wieder erreicht wird? Müsste man in diesem Fall nicht auch wieder eine Gegenprobe machen, um sicherzustellen, dass keine anderen ungewollten Effekte aufgetreten sind?

tl;dr
Glaubt ihr wirklich, dass diese Messungen, die Unterschiede von 5-10 FPS zeigen, verlässlich sind? Sind sie dauerhaft reproduzierbar? Mit welcher Sample-Größe arbeitet ihr? Wäre es nicht ehrlicher, zu sagen: "Tendenziell sind die neuen Prozessoren schneller – sie bieten mehr Leistungsspielraum nach oben als die vorherige Generation – aber die Unterschiede sind nicht mehr in einem sicher messbaren Bereich"?
 
  • Gefällt mir
Reaktionen: Iscaran und Qyxes
Galatian schrieb:
Bleibt ja irgendwie immer noch undurchsichtig, wieso mal nur das Update oder mal 24H2 schneller ist.

Ist davon auszugehen, dass ein Softwarehersteller auch für aktiviertes HVCI und VBS hin optimieren muss? Also das die starken Ausreißer nur durch den Developer behoben werden können und nicht nur Microsoft?

Das erklärt doch die Sache? Also HVCI langsamer ist, weil Sandbox!

Eigentlich Type 1, daher sollte bei richtiger implementierung der impakt gering sein... scheint aber in der praxis noch nicht der fall sein.... bzw optimal zu laufen.... da die sicherheitsabfragen offenbar latenz der hölle verursachen....

"
HVCI (Hypervisor-Protected Code Integrity) läuft tatsächlich auf einem Typ-1-Hypervisor, weil Hyper-V ein Typ-1-Hypervisor ist. Jedoch gibt es einige Gründe, warum HVCI trotzdem die Leistung beeinträchtigen kann, obwohl es auf einem Typ-1-Hypervisor basiert:

### Warum HVCI die Leistung beeinflussen kann

1. Zusätzliche Sicherheitsüberprüfungen: HVCI führt kontinuierlich Überprüfungen der Codeintegrität durch. Diese Überprüfungen erfolgen auf einer niedrigen Ebene, was bedeutet, dass jeder Kernel- und Treibercode validiert wird, bevor er ausgeführt werden darf. Diese zusätzlichen Sicherheitsüberprüfungen beanspruchen CPU-Zyklen und können die Gesamtleistung des Systems beeinträchtigen.

2. Virtual Trust Level (VTL) und Speicherisolation: HVCI nutzt die Virtualisierung, um verschiedene "Virtual Trust Levels" (VTLs) zu implementieren. Der Kernel und sicherheitskritische Komponenten laufen in einem höheren Vertrauenslevel, während andere Prozesse in einem niedrigeren Level laufen. Diese Isolation erfordert zusätzliche Speicherverwaltung und Übersetzungsschichten, was die Leistung negativ beeinflussen kann.

3. Hyper-V Ressourcenverbrauch: Obwohl Hyper-V ein Typ-1-Hypervisor ist und direkt auf der Hardware läuft, muss er dennoch Ressourcen verwalten, um verschiedene virtualisierte Umgebungen und Sicherheitsfunktionen zu unterstützen. Das bedeutet, dass ein Teil der Hardware-Ressourcen von Hyper-V verwaltet wird, was zu einem Overhead führt und die verfügbare Leistung für andere Aufgaben verringert.

4. Kompatibilitäts- und Treiberprobleme: Einige Treiber und Anwendungen sind möglicherweise nicht für die Ausführung in einer Umgebung optimiert, die von HVCI geschützt wird. Dies kann zu unerwarteten Leistungsproblemen führen, da unsignierte oder nicht kompatible Treiber blockiert oder langsamer ausgeführt werden.

### Typ-1 vs. Typ-2 Missverständnis

Der Gedanke, dass HVCI über einen Typ-2-Hypervisor läuft, entsteht möglicherweise aufgrund der Art und Weise, wie Hyper-V in Windows integriert ist. Hyper-V wird oft als ein "Service" innerhalb von Windows angezeigt, was den Eindruck erweckt, dass es wie ein Typ-2-Hypervisor funktioniert. Tatsächlich ist Hyper-V ein Typ-1-Hypervisor, aber es kann so erscheinen, weil es nahtlos innerhalb des Betriebssystems integriert ist und sowohl auf Hyper-V als auch auf Host-Ebene Zugriffe verwalten muss.

Obwohl HVCI und Hyper-V eine Typ-1-Architektur verwenden, bedeutet die zusätzliche Sicherheitsschicht und die Isolation, dass zusätzliche Overheads unvermeidlich sind, was zu einer spürbaren Leistungseinbuße führen kann.
"

Der Dev kann da ncihts machen! Dafür stellt der Admin das ja auch auch aus! Was soll auch der Dev da machen können? Da die Ursache HVCI ist, sprich das Sandboxen vom Game... Wen das vernünftig implementiert wäre, dann sollte es da auch nicht so nen impakt geben...!?!?!? Aber wen du die Anwendung geziehlt ausspehrst, kann der Dev auch nichts machen... Wundert mich ehrlich, da angeblich HVCI über Hyper-V Typ1 bewerkstelligt werden soll.... aber wen das nicht gut umgesetzt ist, dann läufts halt trotzdem scheiße...

Ganz ohne verlust geht ohnehin nicht. Um so näher du an der Hardware bist, das war ja schonmal Thema bei Vulkan, um so mehr FPS kann man rausquetschen! Wenn dein Postbote(Dev-Datenstream) zwischen CPU, GPU und Ram immer wieder durch den "Kernel" plus "V-Schicht" muss, dann frisst das halt x ms sekunden. Das kann man minimierne, aber nie auf null setzen.... akut, ist es aber sehr schlecht umgesetzt.... den Hyper-V soll Type1 unterstützen, daher praktisch nicht den umweg über den Kernel gehen müssen...

@Jan

Hast du näheres, warum HVCI so abkackt? Bzw warum das erst jetzt so auffählt? Ist HVCI eine Typ 1 Sandbox, wie gpt schreibt, oder stimmt das so (noch) nicht)`? lg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Galatian
@Whistl0r hatte vorhin RDR2 in medium Details bei 720P getestet gehabt und da waren 56 max. FPS und 30 avg. FPS nach drei hintereinander gemachten Durchgängen drinne,

also in einigen Titel kommen da schon etwas mehr als nur 5-10FPS rum
 
Sehr Stark, freut mich auf Ryzen gesetzt zu haben.
 
Danke für den Artikel, aber so ganz ohne Vergleichswerte ob und wieviel andere profitieren ist er wertlos. Denn letztendlich suggeriert die Headline das nur für Ryzen 9xxx Leistung frei wird.
Laut anderen Artikeln trifft das auch für andere Archs zu und somit ist die Leistungsteigerung relativ. Damit müsste die Headline eigentlich heißen, "Windows Tuning soviel profitiert deine CPU durch update und Optimierung "
 
DeltaPee schrieb:
Laut anderen Artikeln trifft das auch für andere Archs zu und somit ist die Leistungsteigerung relativ. Damit müsste die Headline eigentlich heißen, "Windows Tuning soviel profitiert deine CPU durch update und Optimierung "
Ja, für andere AMD Ryzen CPUs, damit ist der Titel weiterhin korrekt, denn da steht nichts von Ryzen 9000.

Dass HVCI Off sowohl für AMD als auch Intel CPUs Performance bringt, ist ja bekannt, hier hing es in erster Linie um das neue Windows Update und das soll nur Ryzens betreffen
 
DeltaPee schrieb:
Danke für den Artikel, aber so ganz ohne Vergleichswerte ob und wieviel andere profitieren ist er wertlos. Denn letztendlich suggeriert die Headline das nur für Ryzen 9xxx Leistung frei wird.
Laut anderen Artikeln trifft das auch für andere Archs zu und somit ist die Leistungsteigerung relativ. Damit müsste die Headline eigentlich heißen, "Windows Tuning soviel profitiert deine CPU durch update und Optimierung "
Taxxor schrieb:
Ja, für andere AMD Ryzen CPUs, damit ist der Titel weiterhin korrekt, denn da steht nichts von Ryzen 9000.

Dass HVCI Off sowohl für AMD als auch Intel CPUs Performance bringt, ist ja bekannt, hier hing es in erster Linie um das neue Windows Update und das soll nur Ryzens betreffen
…Und vor allem ging die ganze Sache ja erst mit dem Ryzen 9000 und dem Marketingversprechen los.
 
NoNameNoHonor schrieb:
Ich verstehe zwar, warum man nur mit 720p (weniger wird nicht gehen) testet, aber tatsächlich ist doch die Frage legitim, was mir eine theoretisch erreichbare Zahl bringt, wenn ich im Normalfall immer mit 1080p oder WQHD oder sonstwas unterwegs bin.

Nein Sie verstehen das nciht, sonst würden sie nicht FHD vordern! Hier geht es nämlich nicht darum FHD zu repräsentieren! Sondern es geht darum den CPU Bottleneck von HVCI und dem Kernel abzubilden! Das geht nur, wen die GPU nicht limitiert!

Verzeihung, das eine hat mit dem anderen nichts zu tun! Man möchte in dem man aus dem System die GPU aus der limitierung streicht, möglichst den Impakt ander Teile, hier Kernel, HCVI, darstellen! Deshalb 720p, auf ner "4090" und daher unsinnig FHD, 4k einzufügen! Denn das macht kein Sinn! Andere Baustelle, anderer Test.

Hier will man wissen wie stark bremst der Kernel, darunter HVCI, den Datenstream zwischen CPU und GPU aus! Und das erreicht man beim Maximalen Datenstream zwischen CPU, GPU, und das erreicht man indem die GPU soviel FPS rausballert wie sie kann. Nur so kotzt die CPU, und nur so kann man präzise den Impakt vom Kernel auf den Datenstream messen.

1725293709522.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey und Rockstar85
fdsonne schrieb:
Oder wie auch schon erwähnt, CPU Takt halbieren oder vierteln anstatt die Auflösung zu reduzieren. Dann fällt man weniger in das GPU Limit, da damit dann wahrhscheinlich die FPS automatisch unterhalb der Möglichkeiten der GPU fallen ohne aber die Vorteile des Caches zu stark in die Messung einfließen zu lassen.
In einem CPU Test den Takt verringern statt die Auflösung verringern ist doch Blödsinn.
Man will die CPU doch nicht teilweise testen und dann auch noch mit mehr GPU Limit.
Und was hast du mit dem Cache, das ist ein Teil der CPU , der wird logischerweise voll mitgestestet.

Ich verstehe dein Grundidee, aber ein Teil ist sehr merkwürdig.

Bleiben wir beim Windows Update, die ganze Situation hätte gar nicht passieren sollen. Hätte man vorher schon lösen können.
 
  • Gefällt mir
Reaktionen: lynx007
Taxxor schrieb:
Ja, für andere AMD Ryzen CPUs, damit ist der Titel weiterhin korrekt, denn da steht nichts von Ryzen 9000.

Dass HVCI Off sowohl für AMD als auch Intel CPUs Performance bringt, ist ja bekannt, hier hing es in erster Linie um das neue Windows Update und das soll nur Ryzens betreffen
Was ja gut ist, weil das ja umgekehrt bedeuten könnte, das bei HVCI nur ein optimierungsproblem vorliegt, wobei schon schöne gewesen wäre wie Intel sich da insgesmat verhält. Den HVCI ist halt ein sicherheitsfeature, was schon schöne wäre es ohne so "fetten" impakt einzuschalten.

Könnt ihr das noch nachreichen @Jan
Oder habt ihr das schon getestet? Hat bei Intel HVCI auch son impakt? oder ist "nur" AMD noch nicht optimal "virtualisert"?
 
  • Gefällt mir
Reaktionen: iron_monkey
Zurück
Oben