Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test SanDisk Ultra II SSD im Test: Das günstigste Laufwerk mit 960 GB am Markt
- Ersteller MichaG
- Erstellt am
- Zum Test: SanDisk Ultra II SSD im Test: Das günstigste Laufwerk mit 960 GB am Markt
DrToxic
Rear Admiral
- Registriert
- Juni 2008
- Beiträge
- 6.068
Aus dem Problem-Thread:
Hmm... Da muss ich unweigerlich an Holt's Prognose denken:
DukeStylez schrieb:habe in letzter Zeit auch nur Probleme mit meinen SanDisk Ultra II, so gerne ich sie habe, aber hatte in den letzten 3 Wochen 6 fehlerhafte Ultras, laufzeit zwischen 9-4 Monate, habe zwar alle in Garantie ausgetauscht, aber die hatten auch alle plötzlich massive perfomance Probleme.
Hmm... Da muss ich unweigerlich an Holt's Prognose denken:
Holt schrieb:und wenn SanDisk da nicht ganz genau aufgepasst hat und die Zellen rechtzeitig refresht, dann werden alten Daten dann nicht etwa langsam gelesen, sondern gar nicht mehr, da liegt das Risiko bei dieser SSD und das kann nur die Zeit zeigen, aber kein Review.
Die Ultra II hat halt einen Controller der eigentlich kein TLC unterstützt, das können nur die neuere Marvell Controller. Außerdem sollte ein Controller der mit TLC NAND arbeitet die erweiterte LDPC ECC können, mit BCH stößt man da an die Grenzen der Technologie. LDPC war aber sehr wahrscheinlich auch der Grund, warum die 840 Evo vor dem letzten FW Update alte Daten teils langsam gelesen hat, was einem bei der Ultra II dann nicht passieren kann, aber dafür werden die Daten dann gar nicht mehr gelesen, wenn das letzte Refresh zu lange her ist. Wenn dann die Daten noch die FW ist, funktioniert die SSD am Ende nicht mehr, dagegen war der Bug der 840 Evo dann doch harmlos.
D
DunklerRabe
Gast
Es könnte übrigens sehr wohl sein, dass es kein Problem mit den SSDs ist, sondern nur mit der Management Software von Adaptec, auf die ich dann reingefallen bin. Das wird sich dann morgen zeigen!
akimann
Banned
- Registriert
- Juli 2010
- Beiträge
- 979
akimann schrieb:habe wegen der nicht angezeigten Lebensdauer (siehe Post Nr. 210 ) im Dashboard den Support angeschrieben, und der meint daß gerade an einem Update der Dashboardsoftware gearbeitet wird, in dem der Fehler/die Funktion dann funktioniert. Aber mit der SSD sei alles in Ordnung.
Das neue Update für das Dashboard ist übrigens da, und die Lebensdaueranzeige funktioniert.
Meetthecutthe
Banned
- Registriert
- Mai 2012
- Beiträge
- 1.966
chappy086 schrieb:Mhm vlt. für die PS4
Exakt für die habe ich die SSD Gestern für 189€ im Sale geschossen.
Liefertermin ist zu morgen angesetzt - ich bin gespannt :-) .
Fragger911
Rear Admiral
- Registriert
- Okt. 2006
- Beiträge
- 5.790
Wer sich nach dem Ende des großen Stresstests noch Sorgen macht um die Haltbarkeit einer Consumer SSD im Alltagsbetrieb, der hat auch Angst vor der Wirkung von Sauerstoff auf den menschlichen Alterungsprozess.
TechReport
TechReport
Die Ergebnisse des Tests sind aber nicht mehr so ohne weiteres auf SSDs mit TLC wie die Ultra II übertragbar, denn die haben andere NANADs als die damals getesteten. Trotzdem braucht sich ein normaler Heimanwender wegen der Schreibzugriffe auf die SSD keine Sorgen machen, die NANDs werden selbst bei solchen SSDs mit TLC NAND nicht so schnell kaputtgeschrieben werden, aber Ausfallen oder andere Probleme bekommen, können die SSDs natürlich trotzdem, denn ein wichtiger Punkt fehlt bei all diesen Dauerschreibtests: Der Faktor Zeit. Die alten Indilinx Barefoot haben im Idle offenbar durch die aggressive Idle-GC eine Menge P/E Zyklen und erzeugt damit einen hohen NAND Verschleiß, die zu schonen war also sinnlos, die P/E Zyklen wurden dann trotzdem verbraten.
Bei den heutigen planaren 15/16nm NANDs mit ihren kleinen Zellen und geringen Zellabständen wird dies durch die im Vergleich zu früher häufig nötigen Refreshs der Ladung ähnlich sein, wenn auch hoffentlich nicht so massiv, denn was passiert wenn die Refreshs nicht oft genug passieren, hat man bei der 840 Evo gesehen, bei der Daten schon vor längere Zeit geschrieben wurden dann nur noch langsam gelesen werden konnten. Langsam geht es, weil dann LDPC Fehlerkorrektur verwendet wird und die dauert deutlich länger, weil die Zellen mehrfach mit verschiedenen Thresholds ausgelesen werden. Hier sehe ich auch gerade bei der Ultra II ein Risiko, denn deren alte Marvell Controller unterstützen eben noch kein LDPC, dafür hat sie intern mehr Redundanz der Daten. Nur haben der Bug und die Zeit wie lange es Samsung zum endgültigen Bugfix gebraucht hat gezeigt, dass es eben besonders schwer ist solche Vorgängen vernünftig zu simulieren die erst mit der Zeit auftreten.
Bei den heutigen planaren 15/16nm NANDs mit ihren kleinen Zellen und geringen Zellabständen wird dies durch die im Vergleich zu früher häufig nötigen Refreshs der Ladung ähnlich sein, wenn auch hoffentlich nicht so massiv, denn was passiert wenn die Refreshs nicht oft genug passieren, hat man bei der 840 Evo gesehen, bei der Daten schon vor längere Zeit geschrieben wurden dann nur noch langsam gelesen werden konnten. Langsam geht es, weil dann LDPC Fehlerkorrektur verwendet wird und die dauert deutlich länger, weil die Zellen mehrfach mit verschiedenen Thresholds ausgelesen werden. Hier sehe ich auch gerade bei der Ultra II ein Risiko, denn deren alte Marvell Controller unterstützen eben noch kein LDPC, dafür hat sie intern mehr Redundanz der Daten. Nur haben der Bug und die Zeit wie lange es Samsung zum endgültigen Bugfix gebraucht hat gezeigt, dass es eben besonders schwer ist solche Vorgängen vernünftig zu simulieren die erst mit der Zeit auftreten.
Zuletzt bearbeitet:
(RAMs auf NANDs korrigiert)
Holt schrieb:, denn die haben andere RAMs als die damals getesteten.
Sollte wohl NANDs sein.
Ähnliche Themen
- Antworten
- 23
- Aufrufe
- 6.566
G
- Antworten
- 57
- Aufrufe
- 12.304