Sammelthread Kaufberatung und Fragen zu SSDs (Teil VI)

Status
Für weitere Antworten geschlossen.
Dr.Death, bei dem Desktop Kit der Samsung 830 ist sowas dabei und jeder PC Händler sollte so einen Adapter für ein paar Euro anbieten. Die Frage ist da schon ehr, ob das Netzteil den aktuellen Anforderungen überhaupt noch genügt. Früher wurde viel mehr Leistung auf den 5V und 3.3V Schienen benötigt als heute, wo fast die ganze Last auf den 12V liegt. Da kann so ein altes Netzteil dann schnell an seine Grenzen kommen, obwohl die reine Wattzahl eigentlich ausreichend erscheint.
 
Tito_2000, die hat 2x SandForce 1222 im RAID 0, dürfte also eine nochmal höhere Ausfallrate als die schon sehr ausfallfreudigen Vertex2 haben, denn es ist technisch ja nur ein RAID 0 von zwei Vertex 2. Damit hat sie auch kein TRIM und Du hast noch den RAID Controller auf der SSD, der ebenfalls ausfallen und womöglich Probleme beim Booten oder Erkennen der Platte bereiten kann.

Wenn Du Dir Verfügbarkeit ansiehst, so hat nur computeruniverse die auf Lage, bei allen anderen ist sie nicht sofort lieferbar. Das sieht also nach Abverkauf aus. Der Preis scheint mit 0,50€/GB zwar gering, aber eine Spitzen-SSD wie die Samsung 830 256GB kostet auch nur 0,583€/GB und bietet dafür viel mehr Leistung und vor allem Zuverlässigkeit.
 
Möchte mir eine SSD mit 128GB zulegen. Frage ist, welche der beiden ist jetzt eher zu empfehlen, da die ja gleich kosten!? Oder keine Rolle welche man nimmt!?

Sollte für mein MacBook Pro sein.

E
Gibt es überhaupt Alternativen, gern auch was günstiges, da ich später auf mehr GB umsteigen werde?
 
Zuletzt bearbeitet:
dikus23, da ich eine Allergie gegen angebissene Äpfel haben, kann ich dazu wenig sagen, aber einige Nutzer solchen Obstes beschweren sich seid der FW 000F über Probleme mit der m4. Da wäre vielleicht die 830er die bessere Wahl, zumal die ja vom Hoflieferanten der Obsthändler kommt, auch wenn beide sich ständig zanken :D
 
Die hat den SF2281. Die optimale Größe ist bei da 240GB. Bei 480/512GB schwächeln sie ein wenig, besonders beim Schreiben von kleinen Dateien. Aber vermutlich merkt man davon im Alltag nix.
 
Wer Perfromance will, der sollte die sowieso nicht kaufen, denn es wird nicht klar gesagt, welches NAND da verbaut ist. Es steht da nur MLC (25nm) im Preisvergleich und somit muss man wohl vom billigen, lahmen, async. ONFI NAND ausgehen. Die OCZs Agility3 die ebenfalls das async ONFI NAND hat, kommt laut im Datenblatt mit nicht komprimierbaren Daten (AS-SSD Benchmark) auf:

480GB: Seq. Lesen 230MB/s, seq. Schreiben 170MB/s, rand. 34.500 IOPS (135MB/s)/ 19.000 IOPS (75MB/s)

Im Muskin Forum steht:
Chronos - async NAND
Chronos MX - sync NAND
Chronos DX - sync Toshiba NAND
Das kann aber nicht sein, da Toshiba keine sync. NANDs herstellt (nur Toggle NANDs und die arbeiten async.) und auch nie welche in 25nm gefertigt hat.

Auf dem ganze unten in dem Thread verlinken Bild, sieht man dann auch deutlich sync. Micron NANDs (und Micron fertigt NANDs in 25nm), was die Aussage des Forenbetreuers widerlegt und worauf nicht weiter eingegangen wurde:
DSCF2190.JPG


Im Test bei xbitlabs hatte die Chronos deluxe Toshiba NAND und die Chronos async Intel NANDs verbaut.

Wenn man eine SSD von einem Hersteller kauft, der nicht selbst NAND fertigt, dann muss man immer auf die Aussagen des Herstellers vertrauen, um zu wissen welches NAND da wirklich verbaut ist, denn schraubt man sie auf um selbst nachzusehen, ist die Garantie weg.

Der SF-2282 ist ein SF-2281 mit der Möglichkeit mehr NAND Dies im Interleave anzusteuern.
 
Hallo,

ich hab da mal eine Frage wegen diesem ominösem Overprovisioning:

Ich habe jetzt Dutzende Threads durchgelesen, in denen Overprovisioning mal angeraten wird, dann wird wieder davon abgeraten.... Was stimmt denn nun? Overprovisioning bedeutet ja man lässt einen gewissen Bereich unpartitioniert.

Ich habe zwei Samsung 830er SSDs 256 GB, eine für's System und eine für Daten. Die System - SSD hat eine einzige Partition die die gesamten 238 GB belegt, und die Daten - SSD 3 Partitionen, welche auch alle 238 GB belegen. Beide SSDs sind jedoch weit davon entfernt voll zu sein. Da ich XP benutze lass ich alle 3 Monate anhand des Magician TRIM laufen (vorher bemerke ich kaum Leistungsverlust). Ist die Partitionierung jetzt gut oder problematisch? Weil ich werde jetzt kaum Hand an die bestehenden Partitionen anlegen und meine Daten riskieren.

Anmerkung: Auf das Alignment wurde peinlichst genau geachtet, da passt alles.

P.S.: Auf meinem Win 7 Home Premium x64 Notebook habe ich auch vor eine 830er 256 GB einzubauen, soll ich da einen unpartitionierten Bereich schon bei der Installation einplanen?
 
Ich habe mir jetzt eine Samsung 830 128Gb bestellt , bringt die platte bei mir überhaut die komplette Leistung? Weil ich habe nur SATA 3.0 3Gbit
 
Die SSD-Power kommt ja von den Zugriffszeiten und den 4k-Werten und da limitiert Sata2 nicht. Nur die sequentiellen Werte können nicht ausgeschöpft werden, aber das spielt keine Rolle.
 
Es ist ja kein Sata 2 sondern 3 aber ich weis was du meinst habe auch mal noch ein wenig geforscht , um es mal grob auszudrücken 3Gbit/s = max 300MB/s richtig?

Schade ist es dennoch , werde mir aber deswegen keine neue hardware zulegen :-)
 
Nuclear schrieb:
Ich habe jetzt Dutzende Threads durchgelesen, in denen Overprovisioning mal angeraten wird, dann wird wieder davon abgeraten.... Was stimmt denn nun? Overprovisioning bedeutet ja man lässt einen gewissen Bereich unpartitioniert.
Das ist ein komplexes Thema und um das zu verstehen, muss man etwas tiefer in die Technik von SSD einsteigen.

Anders als bei HDDs kann man bei SSDs nicht einfach Daten überschreiben. Die NANDs sind in Pages und Blöcke unterteilt, wobei die Pages die kleines Einheit beim Lesen und Schreiben darstellt (typisch 4kB oder 8kB, künftig auch 16kB) und die Blöcke die kleinste Einheit die man Löschen kann (typisch 512kB, 1MB, 2MB). Lädt man nun z.B. eine Testdatei in einen Editor, ändert einen Buchstaben und speichert sie wieder ab, so wird Windows sie an genau der gleichen Stelle wieder schreiben, also auf den gleichen logischen Adressen des Laufwerks. Bei einer HDD sind danach nur ein paar Bits anders als vorher, die wo das geänderte Zeichen steht und in den Metadaten, wo das Datum gespeichert wird.

Wollte man das bei einer SSD genauso machen, so müsste man die Daten aller belegten Pages in dem Block erst lesen, den Block löschen und dann wieder alles schrieben. Da ein Block aber eben so 128 bis 512 mal so groß wie eine Page ist, würde das einmal sehr lange dauern und dann dazu führen, dass die NANDs sehr schnell verschleissen. Deshalb speichert der Controller die Daten einfach in einer anderen, freien Page ab. Damit der die Daten auch wiederfindet, muss er sich natürlich immer merken, welcher logischen Adresse (LBA) die Daten zugewiesen sind und diese Tabelle jedes mal ändern, wenn er die woanders hin schreibt. Die alten Daten bleiben erst mal noch im Flash stehen, sind aber von außen nicht mehr zugänglich, weil die LBA die ihnen vorher noch zugewiesen war, nun auf eine andere Page zeigt.

Gleichzeitig weiß der Controller nun, dass diese Daten jetzt ungültig sind, er sie also nicht mehr zu kopieren braucht, wenn er den Block löschen will, in dem die Page ist. Dieses Löschen von Blöcken muss er immer dann machen, wenn ihm die freien Pages ausgehen und da dabei die Pages mit den inzwischen ungültig gewordenen Daten nicht kopiert werden müssen, hat er hinterher mehr freie Pages als vorher. Deshalb sucht er sich nach Möglichkeit auch immer Blöcke mit vielen solcher Pages mit ungültigen Daten zum Löschen aus. Dies wird als Garbage Collection (kurz GC) bezeichnet und muss zwangsläufig in jedem Flash Controller vorhanden sein, da man sonst nur einmal die Kapazität schreiben könnte und nicht mehr.

Idealerweise kann er das machen, während er Idle ist, was als Idle-GC bezeichnet wird und da jede SSD immer mehr NAND Kapazität als Nutzkapazität hat, weil NAND in 2^x Byte verbaut wird und die Nutzkapazität in 10^y Byte angegeben wird (was bei GB zu GiB etwa 7% ausmacht), hat jede SSD ein Overprovisioning (der bei geizhals für viele SSD verlinke Artikel von tomshardware.de ist da absolut falsch, was ich denen auch schon geschrieben habe) und der Controller daher immer ein paar freie Pages.

Für die kleine Textdatei aus dem Beispiel oben reicht das, aber wenn es nun eine Datei mit vielen GB ist? Dann sieht die Sache schon anders aus, denn dann könnten dem Controller sehr wohl die freien Pages ausgehen und er muß während des Schreibens erst Platz schaffen, also Pages löschen. Dazu muss er natürlich die noch gültigen Daten in diesen vorher kopieren, was noch mehr Zeit kostet und gleichzeitig wieder einen Teil der vorher gelöschten Pages wieder belegt. Die Schreibrate bricht also massiv ein, wenn das passiert.

Um habe ich vorhin nicht über TRIM gesprochen, sondern nur erwähnt, dass Daten ungültig werden, wenn die LBA die ihnen zugeordnet wird, überschrieben wurde. Wird aber eine Datei gelöscht, so sind die Daten die zu dieser Datei gehören auch nicht mehr wichtig, also ungültig. Die braucht der Controller ja auch nicht mehr zu kopieren, wenn der den Block löscht und kann Blöcken in denen viele Daten gelöschter Dateien liegen, auch löschen um freie Pages zu erhalten, die er dann schnell Beschrieben kann. Genau dafür gibt es das SATA TRIM Kommando!

Über TRIM Befehle sagt das Betriebssystem (so es TRIM denn unterstützt, der Treiber, Controller etc. diese auch durchlassen, denn TRIM ist erst später zur SATA Spezifikation hinzugefügt worden) dem Controller, welche LBAs eine gelöschte Datei belegt hatte. Mit funktionierendem TRIM weiß der Controller also genau, welche Adressen von gültigen Daten belegt sind und welche nicht. Für ihn ist die SSD genau so voll wie für das Filesytem, also in der Anzeige des Explorers. Wenn die Idle-GC gelaufen ist, dann kann er idealerweise auch so viele freie Pages bereit halten, wie freie Kapazität vorhanden ist.

Ein guter Controller kann dann also so viele Daten schnell schreiben, wie es an Patz frei hat. Der Sandforce kann das nicht, denn der funktioniert anders und räumt immer nur so viel NAND auf, wie er ab Werk an Oberprovisioning hat und auch wenn da keine gültigen Daten mehr drin stehen, löscht er die Blöcke immer erst während des Schreibvorgangs, weshalb der auch nach dem erstmaligen Beschreiben der NANDs (Normalzustand) nur durch ein Secure Erease seine volle Schreibrate (Neuzustand) wieder gewinnt. Er räumt auch nicht mehr Pages auf, wenn da keine gültigen Daten mehr drin stehen und deshalb auch noch langsamer in der Schreibrate, wenn man in kurzer Zeit zu viele Daten schreibt (Recovery Mode) und muss erst wieder eine Weile Idle sein, um wenigstens auf die Schreibate im Normalzustand zu kommen. Alleine schon wegen dem ganzen Unsinn sehe ich den Sandforce auch nicht als einen guten Controller an, denn die dafür als Ausgleich versprochene bessere Haltbarkeit hat sich im Dauerschreibtest auf xtremesystems.org bei keiner Sandforce SSD, auch nicht denen von Intel, gezeigt. Die sind im Gegenteil alle bestenfalls Mittelmaß und SSDs mit anderen Controllern ohne solche Einschränkungen haben viel mehr Daten schreiben können, gerade im Verhältnis zum verbauten NAND.

Aber zurück zum Oberprovisioning! Der Controller einer SSD kann immer nur maximal so viele Daten am Stück mit voller Geschwindigkeit schreiben, wie er an NAND vorher freigemacht, also gelöscht hat. Wie viel das ist, hängt davon ab, wie viel er selbst als nicht mit gültigen Daten belegt erkennt. Das hängt nun in erster Linie davon ab, ob TRIM funktioniert oder nicht, denn Dateisystem überschreiben i.d.R. die Adressen gelöschter Dateien nicht so schnell wieder und verteilen daher die Dateien im Laufe der Zeit über den ganzen Adressbereich des Laufwerks, alleine schon um die Fragmentierung der Dateien zu verhindern (was bei HDDs ja für die Performance nicht unwichtig ist). Lässt man einen Teil der Kapazität unpartitioniert, so hat das Filesystem darauf keinen Zugriff und der Controller wird diesen Adressen also niemals gültige Daten zuweisen. Das ist ein Weg um Oberprovisioning zu betreiben, denn es bleibt dem Controller nun immer diese Kapazität als freier Bereich zusätzlich zum ab Werk vorhandenen (die Sache mit den GB und GiB). Das Datenvolumen welches ein guter Controller mit voller Geschwindigkeit schreiben kann, erhöht sich also in jeden Fall um die diese ungenutzte Kapazität.

Jetzt die wichtigste Frage: Brauche ich das? Eine pauschal richtige Antwort gibt es nicht. Wenn man ein System mit TRIM hat und immer mal wieder größere Dateien schreibt und wieder löscht, dann sicher nicht. Hat man TRIM, aber überschreibt größere Dateien regelmäßig, wie es etwa bei Datenbankfiles oder virtuellen Laufwerken der Fall ist (da werden die Dateien ja nicht gelöscht, auch wenn Daten gelöscht werden), so macht das schon Sinn, wenn man wert auf die Performance legt. Ebenso sollte man bei Systemen die ohne TRIM auskommen müssen, also bei Windows vor Windows 7 oder bei RAIDs (mit Ausnahme von RAID 0 am Z77 mit Intels aktuellem RAID ROM und -treiber), sollte man auch Oberprovisioning in Erwägung ziehen.

Wieviele sollte man frei lassen? Mindestens so viel wie man am Stück mit voller Geschwindigkeit schreiben will. Wer also regelmäßig so 10GB am Stück schreibt oder überschreibt und dabei keinen Geschwindigkeitseinbruch erleben möchte, der sollte diese 10GB unpartitioniert lassen, aber von Anfang an oder nach einem Secure Erease, damit die LBA des unpartitionierten Bereich nicht schon beschrieben sind.

Funktioniert das bei jeder SSD gleich? Nein! Wie schon oben erwähnt, funkioniert z.B. der Sandforce anders und kann sowieso immer nur einen kleinen Teil der Kapazität relativ schnell schreiben und dann bricht die Schreibrate ein, egal ob mit oder ohne TRIM und Overprovisioning. Auch bei anderen SSDs hängt es von der Funktionsweise des Controllers und vor allem davon ab, wie der das Idle-GC handhabt. Bei welchen SSDs das gut funktioniert, sieht man bei den SSD Tests von ANDANDTECH auf der Seite "Performance Over Time and TRIM" sehr gut.

Leider sind nicht alle seine Tests so ausführlich wie der der Plextor M5Pro. Nachdem er die SSD vollgeschrieben hat und dann noch 60 Minuten Random Writes darauf durchgeführt hat, testet er sie indem er sie voll seq. beschreibt. Das sieht dann so aus:

Dirty%2060min_575px.PNG


Man erkennt gut, wie am Anfang die Schreibrate anfangs (links) für einige GB noch praktisch auf dem Wert im Neuzustand bleibt (HD Tach ist nur bedingt in der Lage die volle Performance aktueller SSDs zu zeigen). Da beschreibt die SSD die freien Pages die sie trotz des "Folter" noch hatte oder in der kurzen Zeit zwischen den Tests aufgeräumt hat.

Dann lies er die SSD 300 Minuten Idle, damit die Idle-GC arbeiten konnte und beschrieb sie erneut mit HD Tach:

Dirty%2060min%20-%2030min%20idle_575px.PNG


Hier ist die Datenmenge die mit voller Geschwindigkeit geschrieben werden konnte schon viel größer.

SSDs die sich im Test wie die Agiltiy 4 verhalten und keine solche gute Schreibrate auf den ersten GB zeigen, wird auch das Overprovisioning wenig bringen:

60min%20torture_575px.PNG


Auch bei der Corsair Neutron GTX war das Verhalten nicht optimal, denn am Anfang war die Schreibrate imTest deutlich unter dem Wert im Neuzustand.

neutrongtx-206-aftertorturesm.jpg



meckswell schrieb:
Die SSD-Power kommt ja von den Zugriffszeiten und den 4k-Werten und da limitiert Sata2 nicht.
Sagen wir, fast nicht. Die Geschwindigkeit des SATA Kanals hat natürlich Einfluss auf die Zeit die für die Übertragung von Befehlen und Daten benötigt wird. Das merkt man aber ehr bei den 4k_64, wo an SATA 3Gb/s eben kaum mehr als 180MB/s möglich sind, weil der Rest der Kapazität für die Übertragung von Befehlen und dem restlichen Overhead benötigt wird, selbst wenn die gleiche SSD an 6Gb/s über 260MB/s schafft.

Micha83411 schrieb:
Es ist ja kein Sata 2 sondern 3 aber ich weis was du meinst habe auch mal noch ein wenig geforscht , um es mal grob auszudrücken 3Gbit/s = max 300MB/s richtig?
Aber von den 300MB/s die übertragen werden können, sind nicht alle Bytes nur Nutzdaten. Je nachdem über wie viele LBAs ein Zugriff geht, werden mindestens 10% für den Overhead benötigt.

Micha83411 schrieb:
Schade ist es dennoch , werde mir aber deswegen keine neue hardware zulegen :-)
Das wäre auch etwas übertrieben.
 
Hallo, ich suche für mein 2 Jahre altes Lenovo Thinkpad Edge 13 eine 128 GB SSD. Ich würde am liebsten die 830er von Samsung mit dem NB-Upgradekit kaufen.

Ist die mit dem AMD(ATI)-Chipsatz empfehlenswert oder ist die Crucials M4 geeigneter?

Ich würde gerne die vorhandene HD mit Ghost clonen, also keine Neuinstallation, ist dabei etwas zu beachten?

Vielen Dank für die Tipps!

Prozessor: AMD Athlon X2 Neo L325 Dual-Core, 1.5 GHz, L2 - 1 MB
Grafikkarte: ATI Mobility Radeon HD 3200 Shared-Memory
Plattform: Win7 64bit installiert
Ram: 4GB
 
Mit einem zwei Jahre alten AMD Notebookchipsatz sollte es nicht passieren, dass die 830er daran nur mit 1.5Gb/s läuft, sowas habe ich noch nicht gehört. Du solltest also problemlos die 830er einsetzen können, wobei es andererseits bei so einer schwachen CPU sowieso leistungsmäßig keine Unterschied machen wird, ob da nun eine 830er oder m4 drin steckt, erst recht wenn der Chipsatz nur 3Gb/s bietet, was ich mal vermuten würde.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Antworten
848
Aufrufe
116.475
J
Antworten
468
Aufrufe
57.781
J
Antworten
849
Aufrufe
144.636
J
Antworten
1.541
Aufrufe
202.880
J
Antworten
887
Aufrufe
140.666
J
Zurück
Oben