Sammelthread Kaufberatung und Fragen zu SSDs (Teil III)

Status
Für weitere Antworten geschlossen.
Die Crucial m4 128 hat 128GB (1000^3 Byte), was Windows aber anzeigt sind GiB (1024^3 Byte), die Windows aber GB nennt. Bei der m4 128GB sind etwa 119GiB unter Windows nutzbar. Es ist bei allen Laufwerken und Massenspeichern so, dass die Hersteller GB angeben und da Windows GiB anzeigt, hat man dann immer so 7% weniger.
Ergänzung ()

Es sind bei den SSDs übrigens auch immer mindestens so viele GiB an NAND verbaut wie diese an GB als Nutzkapazität haben. Damit hat jede SSD also mindestens so etwa 7% an freiem Speicher, der Teils für Verwaltungsdaten gebraucht wird und Teils für die Garbage Collection für User-Daten und als Reserve für ausgefallene Sektoren zur Verfügung steht. Wer also davon redet, diese oder jede SSD hätte sowas nicht, der hat schlicht keine Ahnung.
 
Holt hat mal erklärt, dass das Defragmentieren einer SSD doch was bringt. Und zwar wegen der LBA-Übersetzung, sofern die Daten im selben Fragment vorliegen.

Kann mir das mal jemand genauer erklären?
 
Das und wie die Fragmentierung Einfluss auf die Performance haben kann, habe ich schon mehr als einmal hier erklärt (Stichwort Zugriffslängenverkürzung). Daraus aber zu schliessen, dass die Derfragmentierung etwas bringt ist falsch und warum, habe ich auch erklärt (Stichwort Datenverteilung über die NAND Kanäle).

Das heisst nun nicht, das Defragmentierung nie etwas bringen kann, es kann aber ebenso sogar zu weniger Performance führen. Deshalb sollte man die Partitionen nie zu voll werden lassen, damit Windows eben nicht gezungen ist die Dateien extrem zu fragmentieren. Das kostet dann auch keine P/E Zyklen wie das Defragmentieren.
 
Zuletzt bearbeitet:
...Der Overhead spielt schon eine Rolle, denn wenn Windows eine Datei liest, so werden immer erstmal die logischen Adressen (LBAs) ermittelt, auf denen diese liegt. Dann liest der Treiber davon mit einem Befehl so viele hintereinander ein, wie in seinen Puffer passen bzw. in einem Fragment vorliegen (ja, auch bei SSDs kostet Fragmentierung wegen des Overheads Performance...

Schlussendlich möchte ich mich auf dieses Zitat von Dir beziehen.

...so viele hintereinander ein, wie in seinen Puffer passen bzw. in einem Fragment vorliegen...

Das fett Gedruckte verstehe ich nicht ganz.

Was heisst in diesem Falle Fragment?

Hat dieses Fragment auch etwas damit zu tun, dass dann die Queue Depth praktisch nie 10 übersteigt?
 
Moin liebe Comunity!

ich möchte mir gerne einen HTPC zusammenstellen und suche unter anderem ein passende SSD.

Mein Thread ist hier zu finden. Würde mich sehr freun wenn der eine oder andere mir dort eine Empfehlung geben könnte.

Ich nutze für meinen Desktop eine m4, gehe aber davon aus das im HTPC 16 oder 32GB dicke reichen müssten, je nach Betriebssystem.

Wenn einer diesbezüglich noch Ahnung hat würde ich mich auch sehr über eine Empfehlung freuen, bis jetzt habe ich nur Dinge bzgl. Win7 gehört!

Danke!
 
Das Fragment bezieht sich auf ein Dateifragment. Wenn eine nicht fragmentiert ist, dann besteht sie aus einem Fragment. Konnte konnte kein passend großes Stück freien Platzes auf der Platte gefunden werden um die Datei am Stück zu schrieben, so wird eben ein Teil hier und ein Teil dort geschrieben, bis die ganze Datei auf dem Speichermedium untergebracht ist. Diese Teile nennt man Fragmente und die Datei wird dann als fragmentiert bezeichnet. Jedes Fragment ist immer mindestens einen Cluster groß und halt nie größer also die Datei selbst.

Fragmentierung passiert auch gerne bei Dateien die wachsen, wie Log Dateien. Diese werden einmal angelegt, dahinter landet eine weitere Datei und wenn die Datei dann über die Größe hinausgewachsen ist für die sie Platz hat, wird der nächste Teil an einer anderen als der folgenden Adresse geschrieben, sobald diese schon belegt ist.

Beispiel: Du hast eine 550kB große Datei und einen mit einer Puffergröße von 128kB. Dann liest Windows 4x die 128kB und danach den Rest von 38kB, wenn diese Datein in nur einem Fragment vorliegt.

Im schlimmsten Fall kann diese Datei in 138 Fragmenten vorliegen (Dateigröße durch Clustergröße, üblich 4k) und dann kann Windows die Datei nur mit 138 Zugriffen über 4k lesen. Statt also 4x mit vielleicht 400MB/s zu lesen und dann noch einen Rest der mit mal angenommen 250MB/s zu lesen, liest man dann 138mal mit nur 20 bis 25MB/s, denn in etwa so sind die Größenordnungen bei den Zugriffenslängen.

Eine derart extrem Fragmentierung ist nun aber unwahrscheinlich, also sagen wir mal, die Datei liegt in drei Fragmenten vor, einmal 300k einmal 200k und das letzte dann 50k. Dann sehen die Zugriffe so aus:
2x 128k + 1x 44k für erste Fragment
1x 128k + 1x 72k für zweite
1x 50k fürs dritte. Aus 5 Zugriffen sind 6 geworden und statt 4x einen langen Zugriff über 128k gibt es nur noch 3 lange und statt einem kurzen, langsamere Zugriff nun drei. Das zeigt auch, so dramatisch wie bei einer HDD, wo jedesmal noch die lange Zugriffszeit beim Positionieren zum nächsten Fragment hinzu kommt, ist die Fragmentierung bei weitem nicht und deshalb praktisch nicht spürbar sofern sie nicht wirklich extrem wird. Obendrein können Treiber sich NCQ zunutze machen und Fragmente paralell einlesen.
Ergänzung ()

Lieber NickHH,

wir hatten das Thema geradde erst auf Seite 34 und dort findest Du auch meinen Kommentar zu SSDs in der Größen- und Preisklasse sowies Moros deutlich Ansage dazu:
Daran hat sich in den letzten 5 Tagen auch nichts geändert.
 
Danke Holt für die zügige Antwort! Dann wirds wohl zwangsläufig auf eine weitere m4 hinauslaufen, auch wenn ich mir eine andere Antwort gewünscht hätte!
 
Das ist leider so, im unteren Preissegment tummelt sich nur Schrott. Früher konnte man da noch eine Kingston SSDNow V100 oder die V+100 96GB empfehlen, die zwar relativ lahm aber solide waren. Nur sind die praktisch vom Markt verschwunden und wenn man noch irgendwo eine bekommt, dann ist der Preis einfach der Leistung in keiner Weise mehr angemessen. Für die V+100 96GB werden 126,47€ für lieferbare Exemplare verlangt, was 1,318 €/GB entspricht und damit genau der Preis pro GB der Crucial m4 64GB. Die Kingston SSDNow V100 Desktop Bundle 64GB kostet bei Händlern die sie noch liefern können so viel wie die m4 und für die Kingston SSDNow V+ Drive 64GB Bundle (hat auch einen Toshiba Controller wie die V+100 96GB), ruft der einzige Händler der noch welche lieferbar hat gleich den Liebhaberpreis von 179€ auf.

Man kann es also drehen und wenden wie man will, die m4 64GB ist der besten Einstiegspunkt wenn man eine SSD haben will, egal ob man deren Kapazität und Performance nun wirklich voll ausnutzen kann.
 
Moin!

Ich besitze momentan eine 80GB Intel X25-M und habe mir überlegt, auf eine Samsung SSD 830 mit 128GB umzusteigen. Meine Beweggründe sind dabei die Leistung und der größere Speicherplatz, da 80GB doch recht knapp bemessen sind.
Aber lohnt sich das überhaupt bzw. würdet ihr das machen? Ich kann mein Geld ja auch in andere Dinge investieren, um meinen Rechner potenter zu machen. Was meint ihr dazu?

Gruß
Warhorstl
 
Da Dein Board kein natives SATA 6Gb/s hat, wird der Vorteil nicht so groß ausfallen, zumal ja auch die X-25M Postville schon recht flott ist. Das man nicht so knapp kalkulieren sollte, schreibe ich ja immer und dann kommen immer wieder Leute die stolz berichten, auf wie wenige GB sie ihr Windows doch verkleinern konnten. Mit der Samsung machst Du nichts falsch, aber das System mal gründlich auszumisten könnte sich trotzdem mal als hilfreich erweisen.
 
OK, dann werde ich es wohl erstmal dabei belassen. CPU, Mobo und GraKa haben dann eher schon nachbesserungsbedarf. Vorerst werde ich mein Geld dann wohl sparen.
80GB sind eigentlich ziemlich ausreichend, nur nutz ich die eben auch für Spiele, in denen man die Ladezeiten gerne kürzer hat und dann passt eben meist nur ein Spiel gleichzeitig drauf, wenn man bedenkt, dass neuere Games gerne mal 15-20GB belegen.
 
Moin,

ist es momentan "schlau" eine SSD zu kaufen, wenn man sie nicht dringend benötigt, also nur zum einfachen Aufrüsten, oder lohnt es sich auf die neue Generation in 2012 zu warten?

Ich würde nämlich gerne meinen PC aufrüsten, in meinem Notebook ist schon eine Samsung 470 und die macht ordentlich Spaß. Alles läuft deutlich flotter und vor allem ist alles ruhiger ^^ die Standard Platte vom Vostro v131 brummt ja schon hörbar vor sich her...

Interessant wäre für mich auch der Preis, da scheint sich seit beginn 2011 nichts mehr getan zu haben(außer bei der Crucial m4), damals haben 128GB um die 170-180 gekostet, wenn ich mich Recht erinnere. Werden die Preise wieder ein Stück fallen mit der neuen Generation?

In meiner engeren Wahl wären die Crucial M4 und die Samsung 830, jetzt stehen mir nur noch die oberen Fragen im Weg.

Gruß,

GogOlo
 
GogOlo, wer den Markt kurzfristig richtig vorhersehn kann, der verdient sein Geld an der Börse und verschwendet nicht seine Seite in Computerforen :evillol:

Die SSD Preise sind 2011 schon gefallen und jetzt im Januar auch wieder, wie es nach dem Weihnachtsgeschäft zu erwarten war, wenn auch nicht so schnell wie noch in 2011. Tendenziell werden die Preise weiter fallen, aber eben immer langsamer und Preishalbierungen in einem Jahr würde ich nicht erwarten. Die Finanzkriese mit den Schwankungen von Euro und USD macht aber alles noch unvorhersehbarer.
 
So,

da ich seit geraumer Zeit ein SSD RAID 0 nutze und mal nach Testwerten gefragt wurde will ich diese mal liefern. Gerade hinsichlich nicht vorhandenem Trim und GC.

267583
 

Anhänge

  • ssd1.jpg
    ssd1.jpg
    48,6 KB · Aufrufe: 507
  • ssd2.jpg
    ssd2.jpg
    189,1 KB · Aufrufe: 507
Es geht kein TRIM für SSDs im RAID (bei AMD auch nicht einmal, wenn die SB im RAID Modus arbeitet), schon weil Windows 7 keine TRIM Befehle an RAID oder SAS Controller schickt. Intel will das mit der 11.5 bzw 11.6 bringen, aber ob das nun wirklich noch für Win7 oder erst bei Win8 funktionieren wird.....

Ansosnten wäre es mal gut zu wissen, welche SSD da überhaupt im RAID stecken und welcher Controller (bzw. welches Mainboard) da verwendet wurde.
 
Auf das Wear Leveling hat man von aussen keinen Einfluss, das ist auch nicht irgendwie eine Extrafunktion sondern im Grunde nur das Ergebnis der Algorithmen die bestimmt, welche Daten wohin geschrieben werden und welche Blöcke gelöscht werden. Da man ja nur auf Blockeben löschen kann, sollten eben diese Algorithmen möglich immer alle Blöcke gleichmäßig oft löschen, aber andererseits auch die Write Ampilfication gering halten, also die Daten möglichst selten intern kopieren. Außerdem ist es natürlich wichig darauf zu achten, dass auch möglichst alle Pages im Block benutzt wurden und keine Blöcke zu löschen, bei denen viele Pages im Block noch nicht benutzt wurden, nur weil andere schon wieder ungültige Daten enthalten.
 
Okay, danke. Nur hat das meine Frage meiner Meinung nach nicht ganz beantwortet, sondern nur die Frage korrigiert.

Achtet der Algorithmus, der entscheidet, wohin die Daten geschrieben werden sollen, nur darauf, wie oft ein Block beschrieben wurde, oder überprüft er auch den Verschleiss der einzelnen Pages oder gar der Speicherzellen?
 
Mit der Frage landen wir jetzt langsam dort, wo Firmen nicht mehr verraten, was sie genau machen und Apple dann ein Vermögen für eine Firma wie ANOBIT ausgibt.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben