Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Wie definiert man "notwendig"? Notwendig war es an und für sich noch nie.
Und wenn Performance ein Problem ist, dann würde ich die HDD durch eine SSD austauschen. Wenn da z.B. nur Video-Dateien liegen (nicht für die Bearbeitung, sondern fürs Abspielen), dann ist es relativ wurscht, ob die HDD fragmentiert ist. Viel schlimmer für eine HDD sind ja eh eher simultane Zugriffe von unterschiedlichen Threads (Programmen).
Kannst du mit dem Windows eigenen Defrag machen. Ist ja eine HDD und da macht es fast immer Sinn.
Seit neuesten wissen das auch einige SSD defrag brauchen um die Daten aufzufrischen.
Macht Windows, wenn nicht manuell deaktiviert, automatisch im Hintergrund. Ist normalerweise ausreichend, wenn es sich nicht gerade um das Systemlaufwerk handelt.
Je höher das Schreib(!) Volumen desto sinnvoller eine Defragmentierung ab und zu.
Wenn da die Hälfte des Inhalts weggeflogen ist nachdem das Teil randvoll war, dann würde ich persönlich auf jeden Fall ein Defrag drüberlaufen lassen (oder zumindest gucken wie es aussieht).
Es geht zwar auch, aber nicht primär, um die Performance. Je mehr da Fragmente da sind und je verteilter die sind (und das nimmt exponentiell zu mit schwindendem Platz auf dem Datenträger) desto mehr mechanische Belastung, desto mehr thermische Belastung, und infolgedessen auch abnehmende Lebensdauer.
Und ja, die Performance leidet trotzdem, und wird es solange tun, bis Suchzeiten vernachlässigbar sind. Aber das ist leider nur bei SSD der Fall. Auf HDD mulitpliziert sich das irgendwann und dann hat man nicht mehr 100MB/s sondern bloß noch 15, weil das Teil den Rest der Zeit erstmal seinen Arm hin und her und rum und num schieben muß und dann die Spur suchen für am Ende vier weitere KB von insgesamt mehreren GB einer Datei.
NICHT die beste Idee dagegen ist regelmäßiges Defragmentieren um des Defragmentierens willen. Vor allem wenn man dann alle Daten quer über den Datenträger schieben muß wegen einer eingebildeten Ordnung auf demselben. Dann holt man sich die Probleme der Fragmentierung buchstäblich manuell selbst ins Haus.
Ich bin inwischen soweit, dass ich reine Datengräber eigentlich nicht mehr defragmentiere. Die Defragmentierung dauert ein Vielfaches dessen, was man sich durch das schnellere Lesen der Dateien wieder spart. Vor allem, wenn es gar nicht notwendig ist (Filmarchiv usw.), weil die Daten trotzdem noch schnell genug gelesen werden, oder nur selten gebraucht werden.
Wenn die Platte normalerweise nicht am Rechner haengt, was bei einer Backupplatte ja sehr sinnvoll ist, wird es wenig Hintergrunddefragmentierung geben.
Also wuerde ich einfach mal das Windows Defrag manuell anstossen.
Und das ganze vielleicht auch ein bisschen als kleinen "Stresstest" sehen: Vorher einmal die SMART Werte mit CDI anschauen, und nach dem Defrag nochmal.
Es geht zwar auch, aber nicht primär, um die Performance. Je mehr da Fragmente da sind und je verteilter die sind (und das nimmt exponentiell zu mit schwindendem Platz auf dem Datenträger) desto mehr mechanische Belastung, desto mehr thermische Belastung, und infolgedessen auch abnehmende Lebensdauer.
Zum Glück bedeutet Defragmentieren ja keine Belastung...
Iqra schrieb:
Und ja, die Performance leidet trotzdem, und wird es solange tun, bis Suchzeiten vernachlässigbar sind. Aber das ist leider nur bei SSD der Fall. Auf HDD mulitpliziert sich das irgendwann und dann hat man nicht mehr 100MB/s sondern bloß noch 15, weil das Teil den Rest der Zeit erstmal seinen Arm hin und her und rum und num schieben muß und dann die Spur suchen für am Ende vier weitere KB von insgesamt mehreren GB einer Datei.
Wenn aufgrund der Fragmentierung die Performance derart einbricht, dann sollte man schon defragmentieren... aber selbst bei gleichzeitigen Schreib-/Lese-Operationen auf der selben HDD, bin ich meist weit weg von 15 MB/s... und das pro Operation.
Im Übrigen: Was ich vermutlich statt einer Defragmentierung machen würde: Alles kurz runterverschieben, Formatieren, und zurückverschieben.
Macht Windows 10/11 automatisch im Hintergrund, wenn du die Laufwerks-Optimierung nicht deaktiviert hast.
Einfach mal nachsehen, "Laufwerke optimieren ..." im Startmenü eingeben.
Festplatten werden hier defragmentiert, bei SSDs dagegen ist es TRIM zur Auffrischung leerer Zellen.
Gibt es noch etwas anderes, was man unter "Auffrischen" verstehen könnte - für den Laien?
Die sind dann wieder "frisch", leer, wie neu, so dass sie erneut beschrieben (geflasht) werden können.
Pym schrieb:
Beugt das Defragmentieren einer HDD einem Bit Rot vor?
Ein "Bit Rot"? Wenn du einen Verlust der Daten nach langer Zeit durch "Inaktivität" meinst, dann würde ich sagen ja, denn ein Teil wird neu geschrieben. Aber halt nur die paar Prozent, die umgeschichtet werden.
@tollertyp bezieht sich auf das Problem das aktuell bei einigen SSDs um sich greift: Daten die lange nicht angepackt wurden werden langsam. Um die Geschwindigkeit wiederherzustellen, muessen die Daten neu geschreiben werden, aufgefrischt sozusagen. Und um die Verwirrung komplett zu machen: Eine klassiche Defragmentierung, die ja grosse Teile der Daten neu schreibt, kann genau das erreichen
eYc schrieb:
Macht Windows 10/11 automatisch im Hintergrund, wenn du die Laufwerks-Optimierung nicht deaktiviert hast.
Im konkreten Fall hier ist aber doch das Problem, das die Platte nicht angeschlossen ist, wenn sie nicht benutzt wird. Was ja auch das richtige Benutzung einer Backupplatte ist. Nur das dann halt keine Hintergrunddefragmentierung laufen kann. Deswegen kann es sinnvoll sein eine Backup/Archivplatte manuell zu defragmentieren nachdem man Daten geloescht hat.
Gegenfrage: Warum sollte man das als "Auffrischen leerer Zellen" bezeichnen? Weil unter einer leeren Zelle versteht man bei einer SSD eigentlich eine Zelle, die beschrieben werden kann, aber vielleicht irre ich mich ja auch. Weil TRIM behandelt eben explizit nicht leere Zellen, sondern als leer markierte Zellen.
Und werden denn dann alle leeren Zellen aufgefrischt? Was verstehst du unter einer leeren Zelle, vielleicht sollten wir da ja mal anfangen?
Ein "Bit Rot"? Wenn du einen Verlust der Daten nach langer Zeit durch "Inaktivität" meinst, dann würde ich sagen ja, denn ein Teil wird neu geschrieben. Aber halt nur die paar Prozent, die umgeschichtet werden.
Bei größeren Datenmengen könnte es mit dieser Methode schwierig werden, wenn einfach der Platz zum Zwischenlagern fehlt. Die Backups sollten als solche ja erhalten bleiben. In diesem Fall hätte das Defragmentieren eine nette Alternative sein können, ist es aber leider nicht.
An der Grundproblematik (Festplatten vorne schneller als hinten) hat sich zwar kaum was geändert
Aber früher - gabs kein RAM Cache (einfach zuwenig RAM für alles immer - die gleichen Daten wurden immer wieder erneut gelesen), kein Datei System Optimierung (Festplatten zu klein, kein Platz frei immer, alles neigt stark zur Fragmentierung), kein Native Command Queueing (Seek Optimierung des OS oder der HDD selbst). Und Festplatten hatten generell geringere Daten Dichte und waren damit langsamer. Mal schanz ab von der IDE Problematik das nicht zwei Laufwerke an einem Kabel gleichzeitig arbeiten konnten
Defrag hat ganz früher u.U. sehr geholfen. War dann Unterschied wie Tag und Nacht. Man hatte von allem zuwenig jedes bisschen hat was gebracht
Heute - im Benchmark fällt es vielleicht auf aber sonst, merkt sich das kein Unterschied.
im Vergleich zur SSD stinkt jede noch so gut defragmentierte HDD
Somit ja relativ sinnlos gewordene. Aber man hat Generationen von Windows usern damit hoch gezogen. Lässt du es weg dann fehlt denen was
Bei größeren Datenmengen könnte es mit dieser Methode schwierig werden, wenn einfach der Platz zum Zwischenlagern fehlt. Die Backups sollten als solche ja erhalten bleiben. In diesem Fall hätte das Defragmentieren eine nette Alternative sein können, ist es aber leider nicht.
Einfach mal richtig lesen und interpretieren. Auf die Frage des TE bezogen, war Deine Aussage korrekt. Vorausgesetzt, der Platz zum Zwischenlagern ist vorhanden. Situativ kann jeder "größere Datenmengen" anders definieren.