aspro schrieb:
Hmm seit 1 Jahr ist die auf dem Markt und erst jetzt fällt das auf? Also entweder sind nur neuere SSDs betroffen oder es zeigt, dass SSDs mittlerweile so schnell sind, dass es dem normalen User gar nicht auffällt, wenn teilweise nur ein viertel der maximalen Leistung erreicht wird.
Die Vorgängergeneration 840 ist sogar Seid Ende 2012 auf dem Markt, so krass wie manche es hier aufbauschen, scheint das den meisten Users nie aufgefallen zu sein.
Simanova schrieb:
Hab die 250GB Variante drin und konnte keine Leistungseinbußen im täglichen Betrieb feststellen.
So dürfte es den meisten Usern gehen, daher ist das Problem auch weniger dramatisch, als es manche hier nun hinstellen. Es gab bei vielen anderen SSDs weitaus schlimmere Bugs in der FW.
Postman schrieb:
Leider ist Samsung nicht sehr aktiv in Sachen Firmware, da hat die Konkurrenz oftmals schon schneller nachgesteuert.
Was heißt nicht sehr aktiv? Es gab bei den meisten SSDs von Samsung bisher einfach wenige Probleme und daher waren auch nur wenige FW-Updates nötig. Das sehe ich nicht als Nachteil, im Gegenteil.
JuggernautX schrieb:
weil hier auch schon oft darüber diskutiert wurde und einige User dafür matig gemacht wurden, weil sie sich erdreistet haben, solche HDD-Tool zu benutzen!
HD Tune und HD Tach sind nicht geeignet für SSDs, da zeigen auch die teils total unterschiedlichen Ergebnisse der beiden Benchmarks auf der gleichen SSD. Low-Level Benchmarks funktionieren eben nur bei HDDs weil HDDs LBAs fest auf Kopf, Zylinder und Sektor umrechnen und diese dann einfach auslesen. SSDs aber mappen die LBAs auf immer wieder wechselnde Speicherbereiche. Da kann nichts ausgelesen werden, wenn eine LBA noch nie beschrieben oder getrimmt wurde und damit nicht gemappt ist, der Controller liefert dann einfach irgendwas zurück. Obendrein wird mit der Standardeinstellung immer nur alle paar MB mit 64k Zugriffen gemessen, aber 64k sind zu wenig für eine SSD um die maximalen seq. Leseraten auch nur annähernd zu erreichen. Außerdem führen SSDs ein Schattenfilesystem und verteilt die Daten entsprechend so zusammenhängend, wie sie geschrieben wurden. Bei einem Low-Level Benchmarks funktioniert das nicht, weil da die LBAs eben direkt und damit zusammenhanglos gelesen werden.
Der Lesebenchmark stimmt bestenfals halbwegs, wenn die SSD vollständig sequentiell beschrieben wurde, sonst kommt dann genau so ein Müll heraus wie bei
diesem Test einer Intel X-25V bei awardfabrik.de:
bzw.
Die getestete SSD kann gar keine 200MB/s oder gar mehr lesen, die Kurven zeigen nur da die reale Geschwindigkeit halbwegs richtig an, wo der Speicher auch wirklich belegt ist. So schnell kann die lesen, wenn man auch wirklich Daten zum Lesen hineingeschrieben hat:
Wenn man also eine SSDs mit so einem Low-Level Benchmark testen will, muss man sie auch sequentielle komplett beschreiben, sonst kommt Müll raus. Der Zacken nach unten bei HW Tune bei etwas mehr als 4GB kommt vermutlich daher, dass dort kleine Dateien stehen, die einzeln geschrieben wurden und die SSD Controller verteilen die Daten ja so, wie sie geschrieben werden. Werden viele kleine Dateien geschrieben, so müssen sie nicht gut verteilt sein, sondern können durchaus alle im gleichen NAND Die stehen. Liest so ein Low-Level Benchmark dann einfach alle LBAs aus auf denen diese Dateien stehen, kommt eine geringer Geschwindigkeit raus als wenn er einen Bereich ausliest, der zu einer großen sequentiell geschriebenen Datei gehört.
JuggernautX schrieb:
...und immer wieder konnte man lesen, dass dafür spezielle Tools existieren wie z.b. AS SSD Benchmark
Die taugen aber nicht um diesen Fehler aufzuspüren, weil die eben die Dateien direkt schreiben und dann gleich wieder einlesen, die haben also keine Zeit von dem Bug betroffen zu sein.
Blublah schrieb:
Teste mal mit FileBench, das wurde extra entwickelt um diesen Fehler zu testen:
Anhang anzeigen 442375
Genau das Tool sollte man dafür verwenden, das liest Dateien so wie sie geschrieben wurden und keine Bereiche die gar nicht beschrieben worden sind oder LBAs die zu ganz verschiedenen Dateien gehören.
Fr34k8885 schrieb:
hier noch weitere Ergebnisse
1x 830 als Systemplatte
Auch hier sieht man bei der 830er wie unsinnig das Benchen mit den Low-Level Benchmarks ist.
haha schrieb:
Es gab schon vor 3 Monaten jemanden, der von dem Problem im Preisvergleich berichtete:
http://geizhals.de/?sr=977944,-1
Es wundert mich deshalb, dass Samsung erst jetzt was dagegen tut.
Wegen irgendwelche schlechten Kritiken mit wenig konkreten und nicht nachvollziehbaren schlechten Werten? Da steht
Bei belegten LBAs kann man bei 4k Lesend bestenfalls 40MB/s erreichen, 70MB/s gibt es allenfalls bei unbelegten LBAs, wo ja nichts aus dem NAND gelesen wird. Aufgrund so eines Beitrags wird sicher kein Hersteller aktiv, ganz sicher nicht. Erst die Ergebnisse mit dem FileBench dürfte Samsung dazu gebracht haben sich mit dem Thema zu befassen, denn auch die Ergebnisse mit HD Tune und HD Tach dürfte nicht als relevant eingestuft worden sein, ich würde es jedenfalls nicht tun.
Blublah schrieb:
Ja, über das Problem wurde schon an unterschiedlichen Stellen immer mal wieder berichtet. Aber auch weil die normalen Benchmarkprogramme es nicht zeigen glaubten die meisten Leute wohl, dass es an etwas anderem als der SSD liegt.
So ist es, denn es gibt sehr viele Gründe warum die Leseraten schlecht sein können, bis zu den Virenfindern, die zuweilen auch stark bremsen.
Warhead schrieb:
interessant dazu ist nur der as ssd bench, wo auf den ersten blick alles io erscheint, abgesehen von der fehlenden zugriffszeit:
Das liegt aber nicht an der SSD sondern denn Rechten des Programms auf das Physikalische Laufwerk direkt zuzugreifen. Virenfinder und andere Sicherheitsprogramme verbieten sowas oft, da auch Viren sowas gerne machen um sich vor Virenfindern zu verstecken. Vermutlich dürfte AS-SSD dabei auch versehentlich unbeschriebene LBAs lesen wollen und das ist immer etwas suspekt. Der Fehler kommt bei AS-SSD auf viele Systemen vor.
Das liegt also nicht an der SSD und hat nichts mit dem Bug zu tun.
Warhead schrieb:
PS: der vollständigkeit halber:
Vergleich das mal mit
Deinem Ergebnis von HD Tach, da waren die Werte oberhalb von 300GB noch viel schlechter.
Athlonscout schrieb:
OK, du liegst richtig. Scheint Toshiba TLC verbaut zu sein. Ich wußte bisher nicht, dass Toshiba TLC schon marktreif hat.
Doch, das ist ja nun in der Ultra II erschienen. Samsung NANDs gibt es meines Wissen gar nicht mehr in anderen SSDs, das scheint Samsung alles selbst zu verbauen.
thanatur schrieb:
die 3 Bit werden ja auch nur durch 3 verschiedene spannungen erreicht
Nicht 3 sondern 8, die zu unterscheidenen Ladungsniveaus sind immer 2^bpc, bei bpc für Bit per Cell steht.
thanatur schrieb:
wenn da die isolation nicht sehr gut ist(elektronenmigration/ spg sich zu nah am grenzwert befindet), können sich solche probleme ergeben?!
thanatur schrieb:
Die SSD sollten
die Daten laut der JEDEC JESD 218 12 Monate bei 30°C halten, bis sie die spzifizierten P/E Zyklen erreicht haben. Daher wäre so ein Ladungsverlust nach nur wenigen Monaten zu hoch, obwohl der Ladungsverlust bei höheren Temperaturen beschleunigt wird.
Wenn es das ist, könnte die Ultra II durchaus ein ähnliches Problem haben.
thanatur schrieb:
könnte das auch ein großes 3D-NAND problem werden?
Gute Frage, aber die Zellen sind ja bei Samsung V-NANDs sehr groß, womit das Problem weniger stark ausgeprägt sein sollte. Bei den 1xnm NANDs werden ja nur noch einige Dutzend Elektronen pro Zelle gespeichert, da machen dann wenige Elektronen den Unterschied zwischen zwei Ladungszuständen aus.
andr_gin schrieb:
Wenn die Zellen wirklich schon nach ein paar Wochen/Monaten schwieriger auslesbar sind, ist das ein riesiger Skandal. Wie sieht denn das dann nach 3-5 Jahren aus?
Bei 30°C braucht eine Consumer SSD die Daten im ausgeschalteten Zustand nur 12 Monate zu halten, 3 bis 5 Jahren garantiert Dir also keiner. Im Betrieb sieht das anders aus, aber die 840er gibt es seid Ende 2012 und bisher hat es noch keine (massenhaften) Berichte gegeben, dass dort alte Daten nicht mehr gelesen werden konnten und alten Daten wären z.B. die Partitionstabelle oder ein Großteil des installieren Windows, welche dann also nicht mehr booten könnte. Also nicht gleich künstlich aufregen.
andr_gin schrieb:
Wenn die Zellen wirklich die Spannung verlieren, heißt das, dass in naher Zukunft alle SSDs Lesefehler haben werden.
Wieso? Bisher zeigt sich das jedenfalls nicht. Vielleicht refresht die FW ja die Zellen schon heute, nur eben erst später, so dass die Daten zwar schon langsam gelesen werden, aber eben noch sicher gelesen werden können und erst wenn das kritisch wird, werden sie dann umkopiert.
Matzegr schrieb:
Gleiche Dateien wie vorhins und diesmal gibt es keinen Einbruch der Leserate. Beides mal wurde die komplette Partition ausgewählt (knapp 68GB gelesen). Gibt es dafür eine Erklärung?
Wenn nicht etwas anderes den Benchmark gestört hat (Zugriffe von anderen Programme oder Windows auf die SSD während des Benchmarks), dann könnte es genau das sein, was ich eben beschrieben habe: Der Controller prüft ob die Lesbarkeit nahe am Limit liegt und wenn das der Fall ist, kopiert der die Daten intern um. Man sollte nicht vergessen, dass ja auch das Auslesen der Daten aus dem NANDs die Ladung schwächt und daher nach einer bestimmen Anzahl an Auslesevorgängen die Daten erneuert werden müssen.
Blublah schrieb:
Andere Einflüsse sind:
- Power Konfiguration: Für beste Konsistenz nur mit 'High Performance' testen
- Hardware Cache auf der SSD
- Software Caches (Windows caching wird per Flags für das Testprogramm deaktiviert)
So groß ist der Cache der SSD nicht und wenn die Daten aus dem SW Cache von Windows kommen würde, wären die Leseraten vermutlich ungleich höher.
Blublah schrieb:
Ich konnte feststellen, dass selbst die SSD Temperatur eine Rolle spielt bei der EVO (siehe oben).
Liegt womöglich an der thermischen Throttelung, die haben die älteren SSDs ja nicht.
obi68 schrieb:
Business und EVO passt für mich nicht zusammen.
Wieso nicht? Samsung ist nach Intel die Nummer zwei auf dem Enterprise SSD Markt. Die meisten Entscheidungsträger in der IT sehen das also anders also Du.