Fabian_otto
Banned
- Registriert
- Juni 2013
- Beiträge
- 754
Das Problem ist seit der Samsung 8XX Serie bekannt. Da hilft nur DiskFresh und einmal im Jahr alles neu schreiben.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Die variante mit DD wäre zumindest einfach und erfasst alle Daten. Da muss man sich keinen Kopf machen ob auch die $bitmap und andere ntfs dateien neu geschrieben wurden. Meist dürfte da einfach ein Dateisystemtreiber Dateien sichern und zurückschreiben. Aber gerade die internen Daten des Dateisystems sind doch potentiell alt und noch an der gleichen stelle wie bei deren Erstellung.gymfan schrieb:Wenn die SSD nicht nahezu voll ist, schreibt man damit viel zu viele Daten. Eine sinnvolles Backup-Software würde nur die belegten Sektoren sichern und nach dem TRIM der gesamten SSD wieder zurück spielen.
Der SSDReadSpeedTester speichert doch auch eine tsv Datei samt Pfad für die getesteten Dateien. Da muss man immer noch knobeln und ggf. je nach Dateigröße andere Schwellwerte nehmen, aber prinzipiell ist die Info für die getesteten Dateien da.gymfan schrieb:Nur müsste man dazu wissen, welche Dateien betroffen sind und nicht nur, wie die durchschnittliche Leserate der gesamten Datei ist.
Das kommt noch dazu.gymfan schrieb:Das klappt außerdem nur mit Dateien, die niemand geöffnet hat (z.B. Systemdateien, Datenbanken, VC-Container, Logfiles).
Hier muss ich mal eingrätschen: NTFS verwendet prinzipiell UTC-Zeitsptempel. UTC ist immer gleich, das gibt es keine lokalen Abweichungen und keine Sommerzeit. Windows zeigt dir im Explorer das ganze umgerechnet in deine jeweilige Lokalzeit an, aber der Zeitstempel selbst ist UTC. Und ja, auch wenn Windows die Hardware-Uhr im BIOS/UEFI auf Lokalzeit einstellt, werden die Zeitstempel, die in NTFS wirklich verwendet werden, von dieser (bescheuert) eingestellten Hardware-Uhr über deine Lokalisationsangaben im System in UTC umgerechnet und dann für die Anzeige in deinem Kontextmenü wieder von UTC auf Lokalzeit gerechnet. Der Zeitstempel in NTFS selbst ist in UTC, damit der Hedgefondmanager, der mit seinem Dienst-Schlepptopp 2002 (.com-Crash) zwischen New York und London pendelte, weil die Kinder noch in New York zur Schule gingen, beim Flug über den Atlantik die Zeitzone seines Schleppies ändern konnte, ohne die Zeitstempel im Dateisystem zu vermurksen.ThommyDD schrieb:[...] Kamera-Speicherkarten mit dem FAT32-Dateisystem unterscheiden nicht nach Sommer- und Winterzeit. Änderungszeit ist die jeweils in der Kamera aktuell eingestellte Zeit. Abhängig davon, wann (Sommer oder Winter) man die Daten dann unter Windows auf den NTFS-Datenträger kopiert hat, zeigt Windows automatisch einen Offset von einer Stunde an. [...]
Sorry, hast recht, hatte es falsch in Erinnerung - anscheinend MLC nicht SLC. (bin beim Alter von ~ 11 Jahren von fälschlicherweise von SLC ausgegangen)Arcaras schrieb:Sicher, dass die SLC Speicher hat?
Satsujin schrieb:Ich bin mir noch nicht sicher, in welchen Abständen ich prüfen sollte. Wöchentlich, oder reicht wohl auch ein mal im Monat?
Das hilft aber nur solange die SSD angeschlossen und im Betrieb ist.Denniss schrieb:oder ein intelligente bzw korrekt funktionierende Firmware der SSD
Ein vernünftiges Imaging-Programm nutzt untrer Windows VSS, womit alle genutzten Sektorenn des Live-Snapshots geichert werden, falls sie nicht im Backup-Progrmam ausgenommen werden (Swapfile o.Ä.).Bigeagle schrieb:Die variante mit DD wäre zumindest einfach und erfasst alle Daten. Da muss man sich keinen Kopf machen ob auch die $bitmap und andere ntfs dateien neu geschrieben wurden. Meist dürfte da einfach ein Dateisystemtreiber Dateien sichern und zurückschreiben. Aber gerade die internen Daten des Dateisystems sind doch potentiell alt und noch an der gleichen stelle wie bei deren Erstellung.
Das ist sie eindeutig nicht. Mein 2TB VC-Container wurde am 22.06.2020 einmal vollständig geschrieben. Seitdem wurden Teile davon bis einen Tag vor Test geändert und andere wurden seitdem nicht mehr angefasst. Ich weiss jetzt nur, dass die 2TB am Stück mit 512,7 MB/s (1. Durchlauf) oder auch nur 496,9 MB/s (2. Durchlauf) gelesen werdenn konnten. Gilt das aber für jeden Sektor der Datei oder sind dort ein paar fast nicht lesbare Sektoren dabei, 5% die mit 100 MB/s gelesen wurden und 95%, die schneller lesbar sind (max. sind 545 MB/s)? Einzig, wenn die gesamte Datei nur mit 2-5 MB/s lesbar ist wäre klar, dass die SSD ein Problem hat.Bigeagle schrieb:Der SSDReadSpeedTester speichert doch auch eine tsv Datei samt Pfad für die getesteten Dateien. Da muss man immer noch knobeln und ggf. je nach Dateigröße andere Schwellwerte nehmen, aber prinzipiell ist die Info für die getesteten Dateien da.
Was will ich bei einer SSD mit Defragmentierung? Die Defragmentierung hilft hier nur indirekt, weil die Dateien neu geschrieben und danach ein TRIM ausgeführt wird.Bigeagle schrieb:Potentiell könnte man noch automatisch alle ungewöhnlich langsamen dateien defragmentieren lassen bevor man sie erneut testet. Ausgehend von Windows+NTFS.
Das hängt halt davon ab, was Windows alles im Hintergrund tut. Im Zweifel muss man ein Linux booten ohne die SSD zu mounten, die SSD Sektor für Sektor lesen und dabei die Geschwindigkeit protokollieren. Am Ende könnte man die Sektoren den Dateien zuordnen. Oder man macht das schon vorher und liest dann auch nur die belegten Sektoren.Bigeagle schrieb:Wäre es da nicht sinnvoller den Datenträger offline zu testen, Schrittweise auszulesen und dabei die Geschwindigkeit zu messen?
Was ist jetzt dein Vorschlag oder Fazit? Das Programm ist recht simpel gehalten und kann einfach nicht jeden Fall abdecken, aber muss es dass denn? Übrigens, wenn ich meine SSD (oder generell eig. jede Komponente im PC) Synthetisch teste kommt auch nicht immer 1 zu 1 das gleiche Ergebniss raus, wegen deiner Varianz da im Test.gymfan schrieb:Ich weiss jetzt nur, dass die 2TB am Stück mit 512,7 MB/s (1. Durchlauf) oder auch nur 496,9 MB/s (2. Durchlauf) gelesen werdenn konnten. Gilt das aber für jeden Sektor der Datei oder sind dort ein paar fast nicht lesbare Sektoren dabei, 5% die mit 100 MB/s gelesen wurden und 95%, die schneller lesbar sind (max. sind 545 MB/s)?
Das ist ein wichtiger Punkt den ich ganz übersehen habe. Das macht es dann noch komplizierter.gymfan schrieb:Gilt das aber für jeden Sektor der Datei oder sind dort ein paar fast nicht lesbare Sektoren dabei
Das gleiche wie bei einer HDD, nur weniger dringend. Bislang war noch jede SSD bei random 4k langsamer als bei sequentiellem lesen. Overhead vom Dateisystem durch zu stark fragmentierte Dateien kommen noch dazu und in extremfällen kann man halt nichts mehr schreiben obwohl es noch gehen sollte.gymfan schrieb:Was will ich bei einer SSD mit Defragmentierung?
Wenn man eine schnelle pcie SSD Sektorweise samt Messung auslesen will muss man sich endgültig Gedanken um die Qualität der Zeitmessung machen. Wie lange dauert ein Kontextwechsel so? ^^gymfan schrieb:Im Zweifel muss man ein Linux booten ohne die SSD zu mounten, die SSD Sektor für Sektor lesen und dabei die Geschwindigkeit protokollieren.
Ihr solltet euch vielleicht mal die Hardwarerevisionen und den verbauten NAND der Laufwerke anschauen. Zumindest hier scheint ja nur die FW 401000WD betroffen zu sein. Gibt es denn auch andere Versionen, die Probleme machen?MichaG schrieb:Artikel-Update: Dank zahlreicher Hinweise und Screenshots aus der Community weist vieles darauf hin, dass das Problem nicht generell besteht.
Von User „Corpus Delicti“ stammt noch der Tipp, das Tool DiskFresh zu nutzen, um gegebenenfalls die Speicherzellen der SSD aufzufrischen, ohne Formatieren zu müssen. Das funktioniert offenbar sehr gut.
Die Redaktion bedankt sich an dieser Stelle für die rege Teilnahme zur Untersuchung des demnach nur vereinzelt auftretenden Problems.