Test Windows 11 & 10: Benchmarks zum VBS-Leistungsverlust inkl. HVCI

Diese VBS Sache ist sehr kompliziert, das merkt man aber erst, wenn die Threads hier verfolgt. So tiefes Eintauchen ist vermutlich nicht nötig, weil Windows macht, sofern UEFI richtig eingestellt ist, schon alles richtig, was die Sicherheit betrifft.

@cvzone Vielen Dank für deine tollen Erläuterungen, das ist sehr gut. 👍👌

Ich mach jetzt Speicher-Integrität EIN, starte neu und gucke in msinfo32 nach, ich bin so gespannt.
 
  • Gefällt mir
Reaktionen: HasseLadebalken
rgbs schrieb:
Wenn ich ein System habe, welches 10 Bilder pro Sekunde darstellen kann, dauert es vom Aufruf bis zur Darstellung eine 1/10 Sekunde.
Wenn ich ein System habe, welches 1000 Bilder pro Sekunde darstellen kann, dauert es vom Aufruf bis zur Darstellung 1/1000 Sekunde.
Der Widerspruch besteht folglich nur bei Dir selbst.

Gruß
R.G.
So funktioniert die Mathematik des PC's nicht, so funktioniert das Gesamtsystem mit eingabe und ausgabegeräten vom PC auch garnicht....

Da bist du voll auf dem Holzweg , das was dir der Afterburner im Overlay unter Frametime anzeigt, ist so relevant wie ein Schaltjahr.
Der Teufel steckt doch scho im Namen, Reaktionszeit, wenn du klickst und dabei schiesst, spürst du garkeine Verzögerung in einem Shooter beispielsweise wenn deine Kiste nicht völlig fehlkonfiguriert ist.
Das zum einen, zum anderen, nur weil du keine Verzögerung spürst, ist das nicht gleich Verzögerungsfrei, denn Mathematisch und praktisch dauert die Schalterrei in der Elektronik nunmal Zeit und das ist der Fakt.

Du müsstest das wenn dann extern Messen mit PDAT beispielsweise, Nvidia hat dafür ja eine Hardware rausgebracht die man sich bestellen kann.
Das kann man natürlich auch anders realisieren, aber definitiv misst du das extern und nicht intern mit einem Tool, deine Mathematik ist also de facto, schlichtweg falsch

Das würde nämlich um Umkerhschluss bedeuten das alte Games genausoviel Leistung ziehen müsste auf aktuellerer Hardware als auf älterer, also mehr Last erzeugen müsste, was nicht der Fall ist.
Ältere Games laufen fortwährend auf jüngerer Hardwarebesser und machen weniger Last.

Weiterhin also der Irrglaube das Zeit, von Formeln der echten Welt die man dem PC für eine Software beigebracht hat irgendwie besser dadurch funktioniert.
Das Dumme ist, Games die wirklich an die Frames per Second gekoppelt sind, laufen hauptsächlich erstmal viel zu schnell dann ja, habe hinreichend Beispiele genannt, auch hier im Thread, völlig offtopic zudem...

Ich gebe dir noch ein Beispiel,
ein CoD1 läuft exakt gleich ab, egal ob meine top Moderne Kiste nun das Engine Limit ausreizt und 1000fps produziert pro Sekunde oder ob ich Vsync an habe und 75hz also 75 fps da limitiert passend auf das Maximum meines Freesynmonitors laufen. (Gsync compatible)
Es macht am Spielablauf keinen Unterschied (nicht an die FPS gekoppelt) und ein Input-Lag daran verändert sich auch absolut rein garnichts spürbar. Sprich in beiden Situationen und die Differenz in dem Falle von 75 zu 1000 FPS ist ja wohl immens.
Ergebnis, es macht absolut 0 Unterschied, naja bis auf den Fakt das die 1000 FPS natürlich mehr Leistung kosten, logisch, mehr Last auf CPU und Graka, völlig unsinnig

Aber hey, wenn eure kwH Stunde bei eurem Stromanbieter günstiger ist als was man so an Nebenkosten für die Heizung bezahlt, der nächste Winter kommt, klar ist das geil die Füsse direkt an die Heizung zu packen zu der Jahreszeit :daumen:

Gruss HL
Ergänzung ()

@Tiara G.
cmd.exe mit adminrechten öffnen
examples
bcdedit /enum (/deletevalue)

bcdedit /set disabledynamictick yes
bcdedit /set useplatformclock no

VBS deaktivieren, oder doch eher HyperV
bcdedit /set hypervisorlaunchtype off
damit kannst du arbeiten.
empfehlen kann ich ganz klar aus der Erfahrung und Praxis heraus
  • disabledynamictick yes
  • hypervisorlaunchtype off (Hyper V, was du ja nicht brauchst)

meiner beschreibung nach in meinen Notizen geht erstmal klar heraus das HyperV deaktiviern nicht auch gleich VBS deaktivieren heisst, das muss auch garnicht sein, das spürst du in der Praxis nicht ob das an oder aus ist

Gruss HL
Ergänzung ()

Tiara G. schrieb:
Ich mach jetzt Speicher-Integrität EIN, starte neu und gucke in msinfo32 nach, ich bin so gespannt.
Ausmachen danach nicht vergessen, denn das kostet dich wirklich sehr unnötig ne ganze Kante an Leistung

Bei Fire Strike, würde ich mal sagen 6xxx Punkte vs 7xxx , roundabout 1000 Punkte ist denn nun schon eine ganze Menge.
Klar man könnte auch in Frage stellen ob das im Alltag auch so ist, aber da muss ich ganz klar sagen, allein auf der Windowsoberfläche und an der Zeit des Hochfahrens merkt man das auf jeden Fall sehr deutlich

Gruss HL
 
Zuletzt bearbeitet:
@cvzone VBS is nun aktiviert, und Tiara noch sicherer, Danke. :)

2 Fragen noch, auf dem Bild unten steht was von Hypervisor erzwungen und Defender erzwungen. Was bedeutet das.

VBS geht, juhuu.png


Wird richtiges VBS möglicherweise nur emuliert, weil es auf Home evtl. garnicht vorgesehen ist?

Kernel DMA Schutz hab ich ja auch nicht.

Also bei dir (Pro) ist die Sicherheitsstufe quasi höher, als bei mir (Home). Ist das richtig?

Meine Birne qualmt langsam. Und es sind schon wieder 2 neue Windows 11 Artikel erschienen. Wie soll man da noch mitkommen.

@Jan Und durch jeden neuen Artikel wird das bisher aktuelle in den Hintergrund gedrängt, ohne zumindest Zusammenfassungen bzw. das Wichtigste in EINEM Windows 11 Artikel/Thread zu verewigen. Das find ich bisschen schade.

Wär es nicht möglich, das wichtigste erworbene Wissen, was ja mittlerweile ziemlich viel ist, in einem Artikel/Thread, der dann oben angepinnt wird im Win11 Unterforum zu sammeln? Weil es gibt mittlererweile seit Monaten so viele Threads und mit jeder neuen Version gerät die alte in Vergessenheit, so als ob es nie existiert hätte.
 
@Tiara G.
Unbenannt.jpgUnbenannt.jpg
Soweit ich das sehe, hab ich durch das deaktivieren von HyperV VBS abgeschaltet
Edit:
SVM ist im Bios an, genauso wie Secure Boot und fTPM mit meinem Ryzen 2600X

@cvzone
es sieht tatsächlich so aus, als ob VBS deaktiviert ist, wenn man HyperV nun so per bcdedit deaktiviert

Gruss HL
 
Zuletzt bearbeitet:
HasseLadebalken schrieb:
So funktioniert die Mathematik des PC's nicht, so funktioniert das Gesamtsystem mit eingabe und ausgabegeräten vom PC auch garnicht....
Da Du offenbar einfachste physikalische Zusammenhänge nicht verstehst, erübrigt sich für mich eine weitere Diskussion mit Dir. Von mir aus kannst Du auch behaupten, dass die Erde eine Scheibe ist.

Gruß
R.G.
 
  • Gefällt mir
Reaktionen: Klever und I'm unknown
rgbs schrieb:
Da Du offenbar einfachste physikalische Zusammenhänge nicht verstehst, erübrigt sich für mich eine weitere Diskussion mit Dir. Von mir aus kannst Du auch behaupten, dass die Erde eine Scheibe ist.

Gruß
R.G.
genau das tust du mit deiner Beschreibung da von der Frametime die totaler Humbug ist aber egal, ist dir und anderen einfach zu hohe Mathematik
Beweist das gegenteil mit einer reproduzierbaren externen Messung oder fügt euch der Fakten der Mathematik, Punkt.
Es geht bei "low latency" um Zeit, eine möglichst kurze Zeit und die ist entweder spürbar oder eben nicht, nicht mehr nicht weniger, ob der Rechner zum aktuellen Zeitpunkt 10 fps raussenden mit einem Signal pro sekunde oder 60 oder 2000, ändert rein garnichts an der Reaktionszeit, die Reaktion des Rechners durch ein Signal beispielsweise von der Maus durch einen Klick und auch nicht daran wie lange es dauert spürbar verzögert oder eben nicht am Bildschirm.
Was genau wollt ihr denn erreichen, verbessern mit FPS ?
Genau das ist ja schon das Problem, von euch, ihr habt 0 Ahnung wie das ganze wirklich mathematisch in welcher Reihenfolge voneinander abhängig funktioniert.
Dummgeschwafel ist das, nichts weiter, Bilder pro Sekunde die der Bildschirm nicht wiedergibt, die nichts ander Reaktionszeit vom System, also vom Rechner und auch nicht vom Gesamtsystem, also Rechner plus Eingabegeräte sowie Ausgabegeräte inklu. verbessern, da wird nur Strom verschwendet ja.
Ihr rendert doch nix, das das Sinn machen würde, weil es die Renderzeit verkürzt natürlich wenn mehr bild pro sekunde gerechnet werden als ein Video beispielsweise nachher bei der Wiedergabe pro sekunde daraus resultierend hergibt.

@Tiara G. and @Everyone



So siehts aus, wenn hyper-V nicht deaktiviert ist, speicherintegrigät aktiviert ist zusätzlich zu VBS

Edit:

So nun speicherintegrität abgeschalten
Unbenannt.jpg

Gruss HL
Ergänzung ()

nunja, verglichen mit zuvor HyperV abgeschalten @cvzone
VBS ist garnicht ersichtlich,
Ergänzung ()

,... denn so siehts aus mit Speicherintegrität aktiviert

Unbenannt.jpg


Gruss HL
 
Zuletzt bearbeitet:
HasseLadebalken schrieb:
Ergänzung ()


Das solltest du wieder deaktievieren es sei denn du willst den Performanceverlust von HVCI wirklich in Kauf nehmen, der ist im Gegenteil zu VBS nämlich dann doch schon sehr erwähnenswert
Warum sollte ich einen solchen Performanceverlust für relevant erachten? Ein Mini-STX-PC ist keine Gamingmaschine. Gaming mache ich nur auf Tablets, z.Z. ein IPad Pro 11 M1.
Ergänzung ()

cvzone schrieb:
Daran wird sich auch nichts ändern. Modern Standby ist nichts, was man per Software bekommen könnte. Netzteil, UEFI und Windows-Installation muss es können. Hast du derzeit bestenfalls bei relativ modernen Laptops und dann ist es im UEFI oft noch aus, sodass Windows neu installiert werden müsste.
..
Ich habe Modern Standby absichtlich deaktiviert, weil ich bereits auf einem NUC10i5 gemerkt hatte, daß ein PC im Modern Standby nicht wirklich zur Ruhe kommt, stattdessen ist dass System mit sich selbst beschäftigt.
 
  • Gefällt mir
Reaktionen: I'm unknown und cvzone
Es sei denn es ist mir nicht möglich über die "Weg" VBS separat durch den HyperV "Schalter" per bcdedit zu deaktivieren und aktivieren.
Man sieht klar den Unterschied speicherintegrität ist an oder aus, was mit VBS ist kann man nicht sagen.

Wenn das bei CPU's die dieses MBEHC können genauso ist, würde ich das auch erstmal in Frage stellen;
Ich denke ja eher das das dort bescheiden übersetzt ist, Speicherintegrität aktivieren ist Kernelisolierung aktivieren und das zeigen mir so halt ja auch meine Benchs.

Woher sind denn urplötzlich diese Kürzel prinzipell auf englisch für irgendwas aufeinmal hier her ?
Das ist ja schonmal n Ansatz, Ob Speicherintegrität an oder aus ist, ist klar ersichtlich durch meine Screenshots, was uns msinfo da preisgibt.

Ich will es mal so, ausformulieren;
wenn "bcdedit /set hypervisorlaunchtype off" nicht gesetzt ist die Zeile mit bcdedit, ich das aber vorher hatte beim hochfahren, es entferne, vor dem Neustart Speicher-Integrität anschalten will geht es nicht.
Speicherintegrität setzt also aktiviertes HyperV vorraus stellen wir mal fest.
Nach einem Neustart geht es dann Speicherintegrität zu aktivieren.

Also würde ich mal erstmal es so formulieren, die Kernelisolierung ist durch eine Funktion die sich durch Speicher-Integrität (arbeitsspeicher /-Überprüfen) aktivieren lässt und ohne dieser garnicht aktiv ist.

Das kann man so zumindest testen durch an und aus schalten der Funktionen über die GUI.
wenn es eine weitere Funktion geben soll, also VBS, ist es schonmal komisch das es dafür offenbar keinen Schalter gibt.

Deswegen schrieb ich ja, es wäre mal super wenn es ein Tool dafür geben würde wie damals bei Meltdown/Spectre mit dem Inspectre.

Es macht zumindest auch Sinn das man eine Kernelisolierung mit der Überprüfung der Integrität des Arbeitsspeicher Inhaltes durch Virtualisierungsfunktionen der Hardware bewerkstelligt.
Es kostet Leistung, funktioniert aber halt.
Ist natürlich bescheuert, wobei der Ansatz einzelne Programme wiederum in einer VM ja nicht aufgeht, so oder so nicht, dann müsste man für jedes Programm ein Betriebsystem unter dem Programm drin haben in einer VM.
Eine VM ist ja nunmal ein emulierter PC, durch Hardwarevirtualisierungsfunktionen ist es eben möglich die CPU-Funktionen für Rechenoperationen nativ durchzuleiten/-führen in die VM (passthrough) so wie man es mit Grafikkarte auf Linux für eine VM macht, was eine Grafikkarte nebst OnBoard vorraussetzt.

Ein kosmetischer Fehler, genauso wie hier auch die Übersetzung nun in Windows für den Eimer ist:
Unbenannt.jpg
Wenn man den Haken setzt wird der Treiber richtig deinstalliert, dann bleiben nur standardtreiber, man kennt die Option aus Windows 10 schon, da war die Übersetzung in der GUI aber richtig.
Ich musste für die aktivierung der Speicherintegrität nämlich auch erstmal den Logitech Webcam Mist vom System wieder herunterbekommen...
Bissle blöde, auf 10 waren das optionale Updates, auf 11 offenbar wird das ohne wenn und aber beim Update/Upgrade vom Stick aus, von 10 zu 11 einfach mal installiert ohne wenn und aber... geilo :D

Gruss HL
Ergänzung ()

saintsimon schrieb:
Warum sollte ich einen solchen Performanceverlust für relevant erachten? Ein Mini-STX-PC ist keine Gamingmaschine. Gaming mache ich nur auf Tablets, z.Z. ein IPad Pro 11 M1.
Ergänzung ()


Ich habe Modern Standby absichtlich deaktiviert
Das macht natürlich Sinn, solange die das nicht stört das es Rechenleistung kostet und dich auf dem Dingen in nichts einschränkt.
Du kannst ja allerding mal die Leistungsaufnahme überprüfen mit einem Leistungsmessgerät, dann wird das wohl schon interessanter für den Alltag auch wenn die Performance dich nicht juckt dabei ;-)

Du meinst Ruhezustand oder Energie Sparen ?
Den Ruhezustand an sich sollte man nicht fahren, das ist richtig, sondern Energie Sparen nehmen, ich waage es zu bezweifeln das dein Rechner wenn der "normal" heruntergefahren wird, dann tatsächlich weniger Strom braucht als bei "Energie Sparen"
den Ruhezustand deaktivieren mit "powercfg -h off" ist dann auch so ne Sache, wenn man damit die hiberfil.sys vom Laufwerk C: entfernt, spielt man am Speichermanagement von Windows herum, abgesehen davon das man "fast boot" deaktiviert passieren da mit einigen Treibern noch ganz andere Dinge, die man nicht haben will, denn da sind abhängigkeiten im System die sind tatsächlich nicht feierlich ;-)

Etwas das weniger schlimm ist/war, das bei einer Audigy 2 ZS die einstellungen nicht mehr gespeichert worden sind sodass die dann wieder hätten geladen werden können.
Und ja die kriegst du zumindest noch auf Windows 10 auf alle Fälle ans laufen, Windows 11 sicherlich auch, gesetz dem Fall dein Board hat noch PCI Steckplätze und das ist echt ein gutes Sounddevice wenn es eine SB0350 ist

Ich will garnicht wissen was da dann sonst noch so passieren kann und völlig schräg laufen kann

Aus genau solchen Gründen, weiss ich lieber was einzelne Tweaks bewirken und habe meine Notizensammlung dazu, alles langzeittesten /-getestet
Wenn dann mal was dazukommt weiss man woran ein Problem liegt, also bevor ich mir Mist auf die Kiste fahre.... dann lieber lassen

Gruss HL
 
Zuletzt bearbeitet:
Eine Diskussion wird sachlich und mit Argumenten geführt. Das ist hier offenbar, warum auch immer, für manche nicht möglich, stattdessen wird es persönlich. Vielleicht fühlt sich ja der ein oder andere angesprochen.
 
  • Gefällt mir
Reaktionen: I'm unknown und Klever
Nickel schrieb:
aber es wird definitiv die SSD nicht defragmentiert wie eine HDD. Hier gibt es nichts zu konsolidieren wie bei einer HDD, Lücken auszufüllen, Daten zusammen zu schieben, bzw an den Anfang wie bei eine HDD. Windows 10 erkennt eine SSD und behandelt diese bei der Optimierung (Defragmentierung) nicht wie eine HDD.
Da hat sich wohl jemand falsch ausgedrückt.

Dann würde sowohl Scott Hanselmann als Developer bei Microsoft, der in seinem Blog schreibt dass Windows in Optimize Drives App die SSDs klassisch defragmentiert, wie bei HDDs, sich falsch ausdrücken, der zuständige Entwickler von Defrag bei Microsoft der auf die Nachfrage von Windowsarea es bestätigt, dass Windows 10 SSDs ganz klassisch defragmentiert, sich falsch ausdrücken, und nicht zuletzt die offizielle Microsoft Dokumentation die besagt:

The defragmentation process runs scheduled task as a maintenance task, which typically runs every week. As an Administrator, you can change the how often the task runs by using the Optimize Drives app.

When run from the scheduled task, defrag uses the below policy guidelines for SSDs:

Traditional optimization processes. Includes traditional defragmentation, for example moving files to make them reasonably contiguous and retrim. This is done once per month. However, if both traditional defragmentation and retrim are skipped, then analysis isn't run. Changing the frequency of the scheduled task does not affect the once per month cadence for the SSDs.

If you manually run traditional defragmentation on a SSD, between your normally scheduled runs, the next scheduled task run performs analysis and retrim, but skips traditional defragmentation on that SSD.

Wenn ich mich zwischen der Möglichkeit entscheiden muss, dass mehrere Quellen die von Microsoft selbst kommen, alle es plötzlich falsch ausdrücken, oder das Dritte behaupten, Windows 10 defragmentiert keine SSDs oder macht es auf eine "besondere" Weise ohne sie wirklich zu defragmentieren (wobei TRIM/Retrim mit Defrag verwechselt wird), entscheide ich mich da für die Aussagen von Microsoft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cvzone und rgbs
https://www.notebookcheck.com/Gamin...u-25-Prozent-Performance-kosten.568657.0.html

diese zeigen, dass die Gaming-Performance von Windows 11 teilweise um bis zu 25 Prozent geringer als unter Windows 10 ist. Dies dürfte an einem für Normalverbraucher neuen Feature namens Virtual-Based Security (VBS) liegen. Hier werden einzelne Programme in isolierten virtuellen Subsystemen ausgeführt, was die Sicherheit des Betriebssystems deutlich verbessert, da Schadsoftware theoretisch nicht mehr auf die Schwachstellen von anderen laufenden Programmen zugreifen kann. Hinzu kommt, dass Microsoft das Feature in Absprache mit den OEM-Herstellern auf den meisten vorgefertigten Rechnern aktivieren möchte. Nutzer von bereits gekauften Rechnern, die das Update auf Windows 11 durchführen möchten, werden davon immerhin nicht betroffen sein.

Was heist das jetzt konkret?
wenn ich mein Win 10 System auf 11 update ist das VBS gedöns deaktiviert?
Wie ist es bei einem Cleaninstall?
 
Ja, gaube das ruhig was du da aus deiner Übersetzung liest und dir dann reininterpretierst.

" for example moving files to make them reasonably contiguous"
Zählt jedenfalls schon mal nicht für die SSDs.
Einfach auch mal ein wenig überlegen wieso.
Unterschreiben tun dir das hier auch nur bestimmte Leute,
ohne es überhaupt gelesen zu haben, zu wissen worum es geht. ;)
 
HasseLadebalken schrieb:
die Page wo ohnehin viel Schlangelöl publik gemacht wird....
Das ist ja nicht die einzige Quelle.
HasseLadebalken schrieb:
optimieren ist aber immernoch kein defragmentieren defragmentieren sowie konsolidieren wird lediglich auf HDD's durchgeführt, das sind die Fakten
Auch SSDs müssen noch gelegentlich defragmentiert werden. Das schreibt z.B. Microsoft Mitarbeiter Scott Hanselman darüber:
This kind of fragmentation still happens on SSDs, even though their performance characteristics are very different. The file systems metadata keeps track of fragments and can only keep track of so many. Defragmentation in cases like this is not only useful, but absolutely needed.
Yes, your SSD's file system sometimes needs a kind of defragmentation and that's handled by Windows, monthly by default, when appropriate. The intent is to maximize performance and a long life. If you disable defragmentation completely, you are taking a risk that your filesystem metadata could reach maximum fragmentation and get you potentially in trouble.
Quelle: The real and complete story - Does Windows defragment your SSD?
 
  • Gefällt mir
Reaktionen: Klever
Aber nicht mit der gleichen Defragmentierungsmethode wie bei HDDs.

Bei Windows 7 wurde schon vor vielen Jahren die Defragmentierung automatich deaktiviert,
sobald hier Windows 7 eine SSD erkannt hat.
Weil nicht versucht werden sollte, diese zu defragmentieren, konsolidieren,
Daten verschieben wie auf eine mechanischen HDD,
weils nicht gut wäre und eigtl. so überhaupt nicht funktioniert, sinnfrei ist.
 
@Nickel Deswegen erklärt es auch Scott Hanselman, der bei Microsoft arbeitet, es auch in seinem Blog (habe ich schon mehrmals verlinkt). Auch wenn die physikalische Beschaffenheit der SSDs anders ist, ist das Datensystem von Windows so gehalten dass es ohne eine klassische Defragmentierung ins NTFS Fragmentationslimit rennt, laut der Aussage von dem Microsoft Entwickler. Eine Defragmentierung ist laut seinen eigenen Worten "absolutely necessary".

Und dasselbe steht auch in der Dokumentation, ohne jegliche Übersetzung in Englisch schwarz auf weiß. Bei der monatlichen Task Kadenz von Optimize Drives für SSDs wird eine klassische Volldefragmentierung der SSDs durchgeführt. Steht in der Doku so, wird auf Nachfrage von der Presse von Microsoft auch bejaht.

Irgendwas anderes rein zu interpretieren lässt sich nach klaren Aussagen (klarer geht's mMn nicht) da nicht.
 
  • Gefällt mir
Reaktionen: cruse, I'm unknown, rgbs und eine weitere Person
Wenn man mal drüber nachdenkt macht es auch absolut Sinn, eine (oder besser viele) Dateien können ja nicht endlos oft zersplittert sein. Irgendwann habe ich gar keinen Speicher mehr in der FAT, um das nachvollziehen zu können.

Der SSD ist das vom Zugriff egal, aber dem Dateisystem nicht.
 
  • Gefällt mir
Reaktionen: I'm unknown und Klever
Klever schrieb:

Mein letzter Beitrag hierzu steht über dir.
Die Defragmentierungsmethode ist hier eine andere als bei HDDs.
Ich lass dir aber deinen Glauben, dass eine SSD defragmentiert wird wie ein HDD von Windows 10.
 
HasseLadebalken schrieb:
Es geht bei "low latency" um Zeit, eine möglichst kurze Zeit und die ist entweder spürbar oder eben nicht, nicht mehr nicht weniger, ob der Rechner zum aktuellen Zeitpunkt 10 fps raussenden mit einem Signal pro sekunde oder 60 oder 2000, ändert rein garnichts an der Reaktionszeit
Es ist natürlich richtig, dass die Frametime nicht die einzige Zeit ist, die bei der Reaktionszeit zu berücksichtigen ist, aber bei 10fps dauert es 100ms den Frame zu erzeugen und bei 60fps nur 16,6ms. Bei kompetitiven Shootern geht es inzwischen um einzelne Millisekunden. Daher gibt es ja auch inzwischen Mäuse mit mehreren 1000Hz Abtastrate. Es ist also richtig, dass eine geringe Frametime nicht hinreichend für eine niedrige Reaktionszeit ist, aber eine niedrige Frametime notwendig ist um eine niedrige Reaktionszeit zu erreichen. Das ist ja inzwischen viele Male, auch unter Verwendung von Nvidia LDAT, nachgewiesen worden.
Ergänzung ()

Nickel schrieb:
Die Defragmentierungsmethode ist hier eine andere als bei HDDs.
Jetzt sind wir uns ja endlich einig. Es wurde ja geleugnet, dass SSDs überhaupt defragmentiert werden müssen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: I'm unknown
@Nickel

Die Behauptung, dass die Defragmentationsmethode eine andere bei SSDs ist als bei HDDs, widerspricht der offizieller Microsoft Aussage in der Microsoft Dokumentation zu dem Defrag Prozess als Teil von Optimize Drive App. Somit ist es kein Glauben, sondern die Gewissheit, dass es sich um eine traditionelle Defragmentierung handelt, dieselbe welche bei HDDs benutzt wird, wie es von Microsoft selbst geschrieben wird.

Die Gründe dafür sind von Microsoft Devs in der Öffentlichkeit auch erklärt worden.

Die Entwickler von Microsoft wissen es am besten, um welche Defragmentierung es sich dabei handelt, und nicht die Vermutungen von Dritten. Schließlich hat ja Microsoft das OS programmiert. Wenn die mehrmals sagen, sowohl in der Presse wie auch in der Doku, dass es eine traditionelle Defragmentierung ist, kann man zwar weiterhin das Gegenteil glauben, zutreffen wird es aber nicht.
 
Zuletzt bearbeitet:
Zurück
Oben