Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestWindows-11-Benchmarks: Gaming- und Anwendungs-Leistung mit Ryzen und Core
Die SSDs werden optimiert und die Dateiverwaltung von Müll bereinigt.
GRUNDSÄTZLICH, versucht man bei SSDs alle möglichen Sektoren gleichmäßig zu verteilen und die hinteren Sektoren mit zu benutzen.
Das ergibt Sinn, da die Geschwindigkeit überall gleich schnell ist und die "äußeren" Sektoren von SSDs nicht unglaublich langsamer sind, als die äußeren Sektoren auf rotierenden Scheiben.
Bei SSDs versucht man, so viel wie möglich, so lange wie nötig zu beschreiben. Nicht immer wieder die einzelnen Sektoren in dem ersten Chip zu töten. Eine klassische Defragmentierung von SSDs im HDD Style, ist die beste Möglichkeit, eine SSD schnellstmöglich zu killen.
Habe lediglich in der Aufgabenplanung, wo der SchedulerDefrag auf "bereit" steht, mit rechts drauf und auf "Ausführen" geklickt. Also manuell ausgelöst und nicht auf die monatliche Durchführung gewartet.
Den Befehl "defrag.exe -c -h -o -$" ist ja standardmäßig so von MS vorgegeben.
Ich hatte früher zusätzlich zum Standard-ScheduledDefrag eine eigene Aufgabe mit dem Befehl "defrag.exe -c -h -o" extra eingerichtet (unter anderem Namen) und den bis gestern so aktiv gehabt.
Für den Test habe ich den dann deaktiviert und den eigentlichen ScheduledDefrag von MS wieder auf aktiv gesetzt, sodass eben der Defrag-befehl mit dem "-$" in der Kette ausgeführt wird.
Das hatte ich damals bei dem Bug in 20H2 so eingerichtet, um diese Defragmentierung zu unterbinden.
Meiner SSD Samsung 860 pro 256GB (system-SSD) hat das bisher nicht geschadet. Die errechnete Lebensdauer lt. SSDLifePro liegt bei derzeit 7 Jahren und dabei ist sie bereits fast 3 Jahre alt.
Ergänzung ()
[wege]mini schrieb:
Genau hier liegt der Casus Knacksus.
Die SSDs werden optimiert und die Dateiverwaltung von Müll bereinigt.
GRUNDSÄTZLICH, versucht man bei SSDs alle möglichen Sektoren gleichmäßig zu verteilen und die hinteren Sektoren mit zu benutzen.
Gebe ich Dir grundsätzlich recht. So ist es ansich auch angedacht.
Fragt sich eben nur, warum bei meinem Test gestern 23GB geschrieben wurden. Das konnte ich so nicht nachvollziehen.
Gestern beim Test wurde mir unter "Laufwerke defragmenteiren und optimieren" bei besagter SSD eine Fragmentierung von 25% angezeigt, als ich auf "optimierung" geklickt habe und eben dann bei Ausführung der Standard-Aufgabe ScheduledDefrag mit "defrag.exe -c -h -o -$" wurden eben die genannten 23 GB an Daten geschrieben.
Das hatte mich, nachdem ich das hier alles gelesen hatte, etwas erstaunt.
Naja wie dem auch sei, ich habe den Standard-ScheduledDefrag von MS wieder deaktiviert und meinen eigenen in der Aufgabenplanung wieder aktiv. Da fehlt eben nur das "-$" im defrag-Befehl und somit fällt das defragmentieren der SSD gänzlich aus.
Wie ich schon weiter oben schrieb, hat man eben nur 3 Möglichkeiten: entweder man lässt es wie es ist, man passt in der Aufgabenplanung den Befehl entsprechend an oder man schaltet das Ganze schlicht vollständig ab für SSD's.
Also ich habe ja einfach auf "Eigenschaften" meiner SSD geklickt und danach auf "Tools" und danach auf optimieren.
Wie kommst du auf die Idee, dass "defrag.exe -c -h -o -$" bei MS das selbe bewirkt, wenn man SSDs oder HDDs verwendet?
Die Total Bytes Written (TBW) Anzeige deiner SSD, wird sich mMn nicht verändern
Heute ist Freitag. Nächste Woche, werde ich mal eine SSD komplett zumüllen. Liegen ja genug hier rum. Dann werde ich mal schauen, was MS tatsächlich so treibt.
Sollten sie tatsächlich für einen unnötigen Verschleiß meiner Hardware verantwortlich sein, werde ich danach Maßnahmen einleiten.
Aktuell, konnte ich dieses Verhalten jedoch in den letzten 10 Jahren SSD Benutzung nicht fest stellen.
mfg
p.s.
Super, ich brauche jetzt also ein "paar" Millionen kleine Dateien, die im besten Falle so groß sind wie die Blockgröße auf der SSD, muss dann per Hand 1/3 davon löschen, dann ein mehrere GB großes File kopieren, dann das 2te Drittel löschen, wieder ein großes File kopieren und dann das letzte Drittel löschen und ein weiteres File kopieren. Danach auf "optimieren" klicken und danach schauen, ob der Wert von TBW sich geändert hat.
Klasse Idee. Genau das, was man am Freitag möchte.
Ich schau mir das auch nochmals genau an am Wochenende.
Denke aber, die Defragmentierungsmethode ist hier eine andere, es wird nicht defragmentiert wie es bei einer mechanischen HDD der Fall ist.
Wo Lücken gefüllt werden, Daten zusammengeschoben, nach vorne, hinten, ... .
Erinnere mich, mal gelesen zu haben, daß Windows (im Gegensatz zu HDDs) zwar weis, welche Dateien auf der SSD sind, aber die tatsächliche Verwaltung durch den Controller geschieht. Letzterer entscheidet was, wann, wo abgelegt wird, nicht Windows.
Also ich habe ja einfach auf "Eigenschaften" meiner SSD geklickt und danach auf "Tools" und danach auf optimieren.
Wie kommst du auf die Idee, dass "defrag.exe -c -h -o -$" bei MS das selbe bewirkt, wenn man SSDs oder HDDs verwendet?
Die Total Bytes Written (TBW) Anzeige deiner SSD, wird sich mMn nicht verändern
Heute ist Freitag. Nächste Woche, werde ich mal eine SSD komplett zumüllen. Liegen ja genug hier rum. Dann werde ich mal schauen, was MS tatsächlich so treibt.
Sollten sie tatsächlich für einen unnötigen Verschleiß meiner Hardware verantwortlich sein, werde ich danach Maßnahmen einleiten.
Aktuell, konnte ich dieses Verhalten jedoch in den letzten 10 Jahren SSD Benutzung nicht fest stellen.
Also ich habe 2 SSD's und 2 HDD's verbaut im Gehäuse.
In der Aufgabenplanung ist standardmäßig der scheduledDefrag mit "defrag.exe -c -h -o -$" seitens MS drin und ist auch aktiv.
Wenn man jetzt diese Aufgabe manuell ausführt, wird bei einer SSD die Defragmentierung, Konsolidierung und Optimierung ausgeführt. Nachprüfbar im Ereignisprotokoll und ersichtlich, wenn man nebenher das Fenster "Laufwerke defragmentieren und optimieren" offen hat.
Die Total Bytes Written (TBW) Anzeige meiner beiden SSD's hat sich aber verändert. Zwar nur minimal aber dennoch ersichtlich.
Klar, wenn man da nie drauf achtet, merkt man es auch nicht. Aufgekommen ist das alles ja eigentlich erst, als in 20H2 der Bug mit dem Datum der letzten Optimierung auftauchte und man dann dieses Phänomen nebenher fand. Zumindest fiel es mir da erst auf.
Die Ereignisprotokoll-Einträge sind sogar in Windows 10 Build 1909 (mein Dienst-Laptop) auffindbar. Hier werden bei meinem Dienst-Laptop 2 Einträge aufgeführt für die SSD: "Defragmentierung wurde von der Speicheroptimierung erfolgreich abgeschlossen" und "erneut optimieren wurde von der Speicheroptimierung erfolgreich abgeschlossen".
Aufgrund fehlender Zugriffsrechte auf dem Dienst-Laptop kann ich hier nicht mal eingreifen oder ähnliches.
Im Endeffekt scheint hier immer eine prüfung zu laufen. Also was hier schon mal angesprochen wurde wegen Fragmentierungslimit usw.
ich kann später daheim noch mal so nen test laufen lassen. Bin gespannt was da dann ausgegeben wird.
NICHT über "Laufwerke defragmentieren und optimieren" gehen, sondern in die Aufgabenplanung unter "Aufgabenplanungsbibliothek/Microsoft/Windows" und hier die Aufgabe "DEFRAG" suchen.
Diese dann manuell mal ausführen und dann siehst Du, dass die Defragmentierung ausgelöst wird.
geht man "nur" über "Laufwerke defragmentieren und optimieren" und klickt auf "optimieren" wird auch nur optimiert und nicht defragmentiert.
Es geht ansich speziell im die Aufgabenplanung und dem Defrag darin, denn das löst mit dem Standardbefehl "defrag.exe -c -h -o -$" auch die Defragmentierung bei SSD's aus, bei der monatlichen Ausführung, wenn sie dann aktiv ist.
Über "Laufwerke defragmentieren und optimieren" wird bei mir auch "nur" optimiert.
Du kannst aber die "Laufwerke defragmentieren und optimieren" öffenen und zusätzlich die Aufgabenplanung aufrufen und hier denn den ScheduledDefrag manuell auslösen. Dann siehst Du die Ausführung im offenen Fenster von "Laufwerke defragmentieren und optimieren".
Ich schau mir das auch nochmals genau an am Wochenende.
Denke aber, die Defragmentierungsmethode ist hier eine andere, es wird nicht defragmentiert wie es bei einer mechanischen HDD der Fall ist.
Wo Lücken gefüllt werden, Daten zusammengeschoben, nach vorne, hinten, ... .
Jedoch frage ich mich trotzdem, was da gestern 23GB an Daten zu schreiben waren während dem Test.
ich mach das heute nochmal. Da ich nichts groß installiere oder lösche auf der System-SSD dürfte heute nichts groß geschrieben werden während die Aufgabe ScheduledDefrag manuell ausgeführt wird.
...Und bestimmte Systemdateien zusammen und nach "vorne" -geschoben, an den Anfang der SSD, damit das System schneller bootet.😉
Ne ne, was auch immer hier geschrieben steht,
die Methode ist eine andere als bei einer HDD Defragmentierung.
Ich habe einmal ein altes Bild meiner Samsung SSD840 gesucht.
Die Sektoren, in denen sie langsam ist, sind voll.
Je älter sie wird, desto langsamer werden die beschriebenen Sektoren. Leider ist dieses ein Problem dieser Generation von SSDs von Samsung und leider dem Controller geschuldet.
Eine manuelle Ausführung einer in Windows standardmäßig festgelegten Aufgabe, die ansonsten nur monatlich erfolgt, ist kein Zwang.
Fakt ist, in der Windows-Aufgabenplanung ist der ScheduledDefrag mit dem Befehl: defrag.exe -c -h -o -$ drin und meist auch aktiv. Zumindest wohl bei den meisten.
Kann jeder bei sich ja nachsehen, wenn gewünscht.
Ob die Aufgabe bei deaktivierter Systemwiederherstellung usw. auch deaktiviert ist, weiß ich natürlich nicht.
Du darfst glauben, dass Gott persönlich die Dateien verschiebt, weil irgend ein Pope es dir sagt. Das ist dein gutes Recht und dieses tut niemandem weh.
Ich darf glauben, dass ich es besser weis. Das ist mein gutes Recht und anscheinend tut es nur "Besserwissern" weh, die an Autoritätsargumente glauben.
Besserwisserei ist für mich die Worte von Entwicklern von einem OS zu ignorieren und stattdessen was eigenes zu behaupten, weil SSD keine Defragmentierung braucht. Natürlich braucht die SSD selber keine Defragmentierung, was nie zur Debatte stand. Das OS ist die Instanz, welche eine Defragmentierung braucht. Warum, wurde dir schon mit vielen Belegen erörtert, aber die blockst du ja ab.
Eine OS ist auch, sorry, keine Kirche oder Religion mit einem Heiligen Geist als Inspiration für Aussagen von Entwicklern. Es ist ein Betriebssystem welches von diesen Entwicklern programmiert wurde, die es besser wissen als du, ich oder jemand anderes, wie sie es programmiert haben.
Und das Windows System ist so programmiert, dass es laut Entwicklern von diesem OS in Fragmentierungslimit läuft und deswegen eine monatliche Defragmentierungtask von Ihnen hinterlegt wird, die die Daten "intelligent" analysiert und, wenn nötig, verschiebt in eime größeren oder kleineren Umfang. Und damit auch Schreibvorgänge generiert - welche aber laut den Entwicklern nicht kritisch sind sollen. Dein Popen-Vergleich ist da absolut fehl am Platz.
[wege]mini schrieb:
Wenn der Controller Mist ist, ist es so. Eine tatsächliche Verschiebung von Dateien oder Fragmenten, kann ich jedoch nicht erkennen.
Jetzt ist der Kontroller Mist. Davor waren es die angeblichen Lügen von Scott Hanselmann, der Presse und allen anderen, es wird also alles andere für die Erklärung herangezogen nur nicht die normale Erklärung die anhand von Aussagen von Scott Hanselmann und den Microsoft Aussagen bei der Presse und den Docs vorliegt, die besagt, dass eine traditionelle Defragmentierung bei SSDs vorgenommen wird die die Daten "contiguous" macht und zusammenschiebt, nicht etwa weil SSDs diese wegen Performance benötigen aber wegen dem Fragmentierungslimit bei dem System.
Es ist nämlich so, wie inge760 schreibt:
inge70 schrieb:
Eine manuelle Ausführung einer in Windows standardmäßig festgelegten Aufgabe, die ansonsten nur monatlich erfolgt, ist kein Zwang.
Fakt ist, in der Windows-Aufgabenplanung ist der ScheduledDefrag mit dem Befehl: defrag.exe -c -h -o -$ drin und meist auch aktiv. Zumindest wohl bei den meisten.
Kann jeder bei sich ja nachsehen, wenn gewünscht.
Ob die Aufgabe bei deaktivierter Systemwiederherstellung usw. auch deaktiviert ist, weiß ich natürlich nicht.
Müsste man anhand von PowerShell überprüfen mit ausgeschalteter Wiederherstellung, ich vermute mal nicht weil laut Microsoft es ja nicht nur an Systemwiederherstellung hängt, sondern auch an der übrigen NTFS Fragmentierungslimit, zusätzlichen IOs die zu viele Child-IRPs verursachen etc.
Bei mir ist jedenfalls die Defragmentierung manuell komplett ausgeschaltet, und wird nicht monatlich von Windows 10 durchgeführt wie es von Microsoft vorgesehen ist. Wenn es weiterhin läuft, sieht man ja dann im Power Shell.
Ich hatte gerade nach Testberichten bzgl. DirectStorage gesucht. Ich dachte es ist mit Erscheinen von Windows 11 verfügbar. Zumindest werden auf MS die specs. genannt. Was mich wundert ist, warum muss die SSD >= 1 TB sein?
DirectStorage
requires 1 TB or greater NVMe SSD to store and run games that use the "Standard NVM Express Controller" driver and a DirectX 12 Ultimate GPU.