Sammelthread / Kaufberatung SSDs

Status
Für weitere Antworten geschlossen.
Danke, Boeby!

Die Crucial schaut sehr interessant aus, mit dem Read-Speed :D
Die Samsung bräuchte ja offenbar noch nen Adapter, der auch nicht gratis ist...

Mal schauen, falls sich nix anderes findet, das ich gebrauchen kann, lege ich halt noch paar Münzen dazu.
 
Ich habe die 128GB Crucial, und bei mir limitiert ja SATA2. Aber 280MB/s sind ja auch schön.. ;)
wieso brauchst du noch einen Adapter ?
Die Samsung und die Crucial sind beide 2.5Zoll und richten sich nach dem Standard, was Anschlüsse und Grösse betrifft..
Auf der letzten Seite hast du ja geschrieben, dass dir egal sei ob 1.8Zoll oder 2.5Zoll oder 3.5Zoll.

Ja ich würde die paar Münzen dazulegen und die Crucial besorgen. Mit Digitec, Microspot oder auch Nextway als Shop machst du sicherlich nichts falsch..
 
Sorry, ich meinte die Samsung aus meiner Anfrage, die 1.8" misst!
Die braucht nen Adapter wegen SATA-Strom oder so.. der kostet 15 Stutz!

Mir ist die Grösse egal, weil das Laufwerk in einen 3,5"-Schacht kommt.

SATA 3 habe ich am Start, sollte also passen, ausserdem gefällt mir die Crucial besser :)
 
Ja dann sowiso 2.5 Zoll oder 3.5Zoll..
2.5 Zoll ist das gängigste Format und daher wohl am günstigsten.
Auf 1.8Zoll zu setzen würde nicht viel Sinn machen, da soweit ich weiss Adapter für Strom und SATA benötigt werden und zudem ein Adapter um die SSD in einen 3.5Zoll Schacht einzubauen. Ein Adapter für 2.5Zoll auf 3.5 Zoll ist hingegen kein Problem (Digitec 9.-).
 
@Sharangir

noch was eher unwichtigeres am rande, weil es oft falsch interpretiert wird.

also die übertragungsgeschwindigkeit bzw. deine "readspeed" ist nicht allein ausschlaggebend, sondern die zugriffszeiten sind das besondere an SSDs.
alle schauen immer nur auf die dicken MB/sek.

aber was bringen diese, wenn die zugriffszeit grottenschlecht ist? nix.

siehe vgl. LKW(5t) mit 500PS oder PKW(1,5t) mit 500PS

beide haben 500PS, aber der pkw zieht dem lkw davon ;)

dennoch, die crucial bzw. die marvell-controller sind mit die besten.

mfg
 
Sharangir schrieb:
Ich habe die einfach per Zufall bei meinem Stammladen gefunden, weil ich DORT ne Gutschrift über 70€ offen habe und das die einzige (bei weitem) SSD wäre, die für das Geld zu bekommen ist.

Was will er denn für die SSD haben? Die dürfte da ja schon eine Weile liegen oder aus einem Notebook ausgebaut (somit ist die womöglich gebraucht). 1.8" Laufwerke werden übrigens gewöhnlich mit 3.3V versorgt, 2.5" mit 5V, was aber normalerweise kein Problem ist, da beide Spannungen am SATA Stromstecker anliegen sollten.
 
Wie gesagt, die SSD kostet dort 70€

Zum Vergleich:
Die Crucial M4 kostet 90€

Aber wie gesagt, anstatt den 12€ Adapter dazukaufen zu müssen, lege ich lieber noch paar cents drauf und hole gleich die M4! :)
Ergänzung ()

Die M4 ist bestellt!

Das Geklacker im HTPC hat mich gestern wieder auf die Palme getrieben!
Nun brauche ich nur nochmal 100€ für das Lian Li EX303, um meine externen Platten schick unterbringen zu können. (Passend zum HTPC)
 
Hallo Freunde,
da ich trotz der Preise die Absicht verfolge, mir eine 256 GB SSD zuzulegen, beschäftigt mich nach wie vor eine Frage, die von den Herstellern m.E. nicht sehr deutlich beantwortet wird:
Ist es zutreffend, dass ein Löschvorgang auf einer SSD eine physische Vernichtung von Speicherzellen bedingt? :(
 
Ein Löschgang vernichtet nicht die Speicherzellen physikalisch. Aber mehrere, viele. Löschen oder Überschreiben von NAND-Zellen geht nicht unendlich. Die Markenherstellen Intel, Micron und Toshiba geben 3.000 bis 5.000 Löschzyklen für ihren NAND an. Die Praxis zeigt aber, dass der Speicher um ein Vielfaches häufiger beschrieben werden kann (>8.000x). In jeder SSD gibt es einen Algorithmus, der versucht, alle Speicherzellen gleichmäßig zu beschreiben.

Und selbst wenn deine 256 GB SSD nur 3.000 Löschzyklen schafft, dann sind das bei 50 GB pro Tag schreibend (!) noch >40 Jahre. Geh aber davon aus, dass der Speicher viel länger hält (2-3fache) und die weniger schreibst (¼ - ½), dann kommst du auf Lebensdauern, die weit über der praktischen Nutzungsdauer liegen. Außerdem: Lesen kannst du immer. Schreiben ist nur das Problem.
 
Das ist wohl auch der Grund dafür, weshalb bestimmte Vorgänge (Defrag. usw.) unter Windows ausgeschaltet sein sollten.
Doch eine weitere Frage beschäftigt mich:
Ist es zutreffend, dass der Marvell-Controller sehr störungsanfällig in Bezug den Betrieb einer SSD ist, und insbesondere OS (Windows 7)-Installationen oft nicht möglich sind?
 
"Langsamer" (als die Nativen bspw.)! Wenn man also die Wahl hat, nativ SATA2 oder Marvell SATA3 zu nutzen, wäre der native SATA2 oft die bessere Wahl.

HeinzNeu schrieb:
Das ist wohl auch der Grund dafür, weshalb bestimmte Vorgänge (Defrag. usw.) unter Windows ausgeschaltet sein sollten.

Nein. Defrag bringt auf einer SSD bspw. gar nichts, weil aufgrund des komplett anderen Aufbaus als eine HDD, eine SSD nicht fragmentieren kann. Du hast quasi keine Zugriffszeiten und demnach kann nichts besser werden, weil es fragmentiert auf der Platte liegt und der Lesekopf hin und her wandern muss.

TRIM und passendes Alignment werden wohl auch bei HDDs aktiviert, auch wenn die davon nicht profitieren. AHCI wird nicht von Windows verwaltet. Was anderes wird, glaub ich, nicht verändert.

Der Rest sind Optimierungstipps (Index, Ruhezustand, Pre- und Superfetch, Systemwiederherstellung, Timestamp, WBEM-Logging abschalten, Auslagerungsdatei minimieren), die man machen könnte, aber längst nicht muss. Vor allem aber, weil sie auf einer SSD weniger bringen, nicht weil sie Daten schreiben. Das war gaaaanz früher mal so, dass die ersten SSDs mit gleichzeitigen Zugriffen nicht richtig klar kamen. Heute aber nicht mehr. IMO braucht man sich keine schnelle SSD zu holen, um dann alle Schreib- und Lesezugriffe zu unterbinden. Das macht ja keinen Sinn! Viel eher sollte man diese Tipps bei herkömmlichen, langsamen HDDs anwenden. Wenn überhaupt! Denn man sollte da echt wissen, was man tut und warum. Windows 7 ist out-of-the-box schon ziemlich gut und sinnvoll eingerichtet. Wer da was ändert, sollte das ganz genau wünschen und nicht blind irgendwelche Tricks abtippen.
 
HeinzNeu schrieb:
Das ist wohl auch der Grund dafür, weshalb bestimmte Vorgänge (Defrag. usw.) unter Windows ausgeschaltet sein sollten.
Ausser dem Defrag braucht man heute bei aktuellen und nicht zu kleinen SSDs nicht mehr ausschalten, die paar Schreibzugriffe machen den Kohl nicht fett und wenn man nicht um jedes MB Plattenplatz mit Windows ringen will, dann kauft man eben die SSD eine Nummer größer. Bei 256GB kommt es doch selbst auf die GB des Pagefiles oder Hypernate nicht an, selbst wenn Du 8 oder gar 16GB RAM hast.

HeinzNeu schrieb:
Doch eine weitere Frage beschäftigt mich:
Ist es zutreffend, dass der Marvell-Controller sehr störungsanfällig in Bezug den Betrieb einer SSD ist, und insbesondere OS (Windows 7)-Installationen oft nicht möglich sind?
Völliger Unnsinn. Es gab mit der ersten FW zuweilen Freezes bei aktivem LPM an einigen Intel Boards, das ist aber inzwischen gelöst. Am besten gleich nach erhalt die m4 auf die aktuelle FW009 bringen, sofern sie nicht schon damit ausgeliefert wurde. Der Sandforce 2281 Controller hat dagegen noch einen Bug und macht an einigen Boards Probleme, die m4 ist aber derzeit die problemloseste SSD auf dem Markt. Einige schaffen es nur immer nicht, die an den richtigen Controller / SATA Port zu stecken und die Einstellungen im BIOS richtig vorzunehmen.
mumpel schrieb:
"Langsamer" (als die Nativen bspw.)! Wenn man also die Wahl hat, nativ SATA2 oder Marvell SATA3 zu nutzen, wäre der native SATA2 oft die bessere Wahl.
Meißtens ja, denn wenn der Marvell schlecht angebunden ist, dann schafft er weniger Leistung als z.B. ein guter SATA2 Controller wie die ICH10.

mumpel schrieb:
Nein. Defrag bringt auf einer SSD bspw. gar nichts,
Richtig und es ist auch garnicht möglich die Anordnung der Daten im Flashspeicher von aussen zu manipulieren.
mumpel schrieb:
weil aufgrund des komplett anderen Aufbaus als eine HDD, eine SSD nicht fragmentieren kann.
Das stimmt so nicht, vielmehr ist eine SSD intern immer komplett fragmentiert. Das ist aber gewollt und gut, da eben die Daten über die NAND Dies verteilt am schnellste gelesen werden können und nicht wenn sie alle brav hintereinander stehen, wie man es bei einer HDD durch defragmentieren erreichen will. Da der Zugriff auf alle Daten im Speicher gleich schnell ist, stellt diese Verteilung der Daten eben auch kein Problem da, während es bei einer HDD zu zahllosen langsamen Kopfbewegungen führt.
 
Aber liegen denn die Daten nicht direkt neben-/hintereinander beim sequentiellen Lesen/Schreiben? Ich dachte immer, das sei der Grund, weshalb sequ. schneller als random ist. Kannst Du das bitte noch erklären, Holt?
 
das ist ja auch richtig, aber welche daten befinden sich denn schon sequentiell auf den datenträgern?

vor allem ist das nicht nur pro datei zu sehen, sondern auch der abruf verschiedener dateien nacheinander kann nur selten sequentiell erfolgen.

deswegen ist sequentiell ein oftmals unsinnige größe, die in der praxis selten bis nie erreicht wird.

bei ssds verhält es sich dabei deutlich anders, als bei hdds.
denn die zugriffe sind zu jeder zelle bzw. jedem dateifragment gleich schnell.

mfg
 
Zuletzt bearbeitet:
Das widerspricht aber doch den neuesten Erkenntnissen, die aufzeigen, dass die Sata3 SSD-Generation zwar langsamere 4k-Werte, dafür aber höhere sequentielle Werte erreicht, und trotzdem geringfügig besser bei Realtests ala Programmstarts, etc. abschneiden als die vorherige Sata2-Generation. Daraus müsste doch der Schluss gezogen werden können, dass mehr Dateien sequentiell abgelegt sind, als man zunächst erwarten würde, zumindest nachträglich durch GC oder was auch immer.

Klar ist, dass SSDs gegenüber HDDs durch die gleichbleibende geringe Zugriffszeit punkten. Innerhalb von SSDs ist aber das perfekte Verhältnis zwischen 4k- und sequentieller Leistung anscheinend noch offen. Zunächst hielt man 4k für das Maß aller Dinge, dann zeigte die Sata3-Generation, dass auch die sequentielle Leistung einen erheblichen Faktor für Performance im Alltag darstellt.
 
stw500 schrieb:
Aber liegen denn die Daten nicht direkt neben-/hintereinander beim sequentiellen Lesen/Schreiben? Ich dachte immer, das sei der Grund, weshalb sequ. schneller als random ist. Kannst Du das bitte noch erklären, Holt?
Bei einer HDD müssen die Daten direkt hintereinander auf dem Datenträger liegen um schnell gelesen werden zu können, da sonst die Köpfe positioniert werden müssen und man auch noch warten muß, bis der passende Sektor sich unter dem Kopf durchbewegt. Deshalb bringt das Defragmentieren hier auch so einen großen Vorteil, denn es ordnet die Dateien so an, dass dies eben möglichst immer der Fall ist.

Bei einer SSD hat man i.d.R. 8 Kanäle (Intels Controller hat 10) und würde eine Datei nur mit der Geschwindigkeit eines NANDs Chips lesen/schreiben können, wenn man sie komplett hintereinander in einem Chip ablegen würde. Das wären keine 100MB/s, denn man muß die Adressen und Daten bei NANDs auf dem gleichen Bus übertragen und nach Anforderung der Adresse auch noch warten, bis die Daten gelesen wurden und übertragen werden.

singleread.jpg


Was dabei mit einem einzigen NAND möglich ist, sieht man so ungefähr an den 4k Werten, denn so kleine Daten werden eben i.d.R. in einer einzigen Page auf nur einem NAND gespeichert. NAND Pages sind meißt 4k und bei größeren NANDs üfter auch 8k groß.

Übertragungsraten von 500MB/s und mehr erreicht man deshalb nur bei größeren Dateien die eben über mehrere NANDs verteilt werden, genau wie bei einem RAID 0, was eine SSD intern auch ist. Bei einer großen Datei werden dann eben die ersten 4k von einem Flashdie gelesen, die nächsten von einem anderen usw. so dass man mit 8 Kanälen alleine damit schon mal die 8-fache Transferrate erreicht, sofern bei SSDs die Kapazität so gering ist, dass nicht alle Kanäle belegt sind. Hat man aber mehr Dies als Kanäle, so kann man die Übertragungsraten durch Interleaving steigern, indem während der Wartezeit auf die Daten schon mal die Daten von einem anderen Die auf dem gleichen Kanal angefordert werden.

interleaveread.jpg


Das alles geht natürlich nur, wenn die Daten eines Datei über die NAND Dies verteilt sind. Dies übernimmt der Controller aber selbst, wo er eben neben der Performance auch das Wearleveling, also die gleichmäßige Abnutzung der NANDs Blöcke und die Write Amplification beachten muß. Es sollen also möglichst nicht so viel mehr Daten ins NAND geschrieben werden, als auf die SSD selbst geschrieben werden. Das alles erfordert eben, dass die SSD intern die äusseren Adressen (LBAs) intern selbst auch Flashspeicheradressen mappt und dieses Mapping sich auch ständig ändert, während eine HDD die LBAs immer wieder auf genau die gleichen und aufeinanderfolgenden Zyklinder, Sektor und (sofern mehrere vorhanden sind) Plattern/Kopf übersetzt und diese nur bei defekten Sektoren auf eine ganz andere Position umlenkt (die eines Reserversektors).

Hier noch mal was zu GC und TRIM bei SSDs.
 
dann achte auch mal auf die zugriffszeiten.
auch wenn es wenige millisekunden sind.
eine mit 0,1ms ist doppelt so schnell im zugriff, wie eine mit 0,2ms.
das macht auch noch was aus.
ebenso die kanäle des controllers

mfg

edit:

holt erklärt es mal wieder 1a :)
 
Zuletzt bearbeitet:
die.foenfrisur schrieb:
dann achte auch mal auf die zugriffszeiten.
auch wenn es wenige millisekunden sind.
eine mit 0,1ms ist doppelt so schnell im zugriff, wie eine mit 0,2ms.
das macht auch noch was aus.
Täusche Dich nicht bzgl. der Zugriffszeiten von SSDs. die haben nicht mehr die gleiche Aussagekraft wie bei HDDs. Vergleiche mal von diesen beiden Screenshots (aus dem "Crucial M4 (aka C400) benchmarks" Thread) die Zugriffszeiten und Randomwerte:

m4-sysfertig-sataii-kabel-png.248201


m4_abgesichert-png.247959


Bei den 4k Lesewerten könnte man noch sagen, doppelt Zugriffszeit, halte Transferrate. Aber schon bei den 4k Schreibwerten passier diese Rechnung nicht mehr. Sobald die Queue Depth über 1 geht, stimmt dann wegen der parallelen Befehlsverarbeitung und dem Umsortieren der Befehle nichts mehr. Das liegt eben daran, dass die Zugriffszeit eigentlich die Zeit ist, bis die Daten zur Verfügung stehen. Nur dies lässt sich eben erst auf Betriebssystem bzw. Anwendungseben messen und nicht intern im Laufwerk. Damit misse man immer auch die Zeit zum Übertragen der Daten mit, also letztlich die Zeit von der Anofrderung zur Erfüllung eines Befehls. Nun machen aber SSDs die NCQ untersützen auch ständig so ein Interleave wie oben für die NANDs beschrieben auf Befehlseben am SATA Port und beantworten zwischenzeitlich andere Befehle.

Anders wären bei einer Zugiffszeit von 0,112ms keine 283MB/s bei Übertragung von jeweils 4k möglich, denn bei 0,112ms würde man sequentiell 8928 Übertragungen pro Sekunde schaffen, bei je 4k also 35,7MB/s. Tatsächlich wurden bei 64 gleichzeitigen 4k Leseanforderungen aber fast 8 mal so viele Daten übertragen, also zwischen dem Beginn einer Anforderung noch durchschnittlich fast 7 weitere beendet bevor die angeforderten Daten übertragen wurden. Da der Controller 8 Kanäle hat sind wir wieder bei dem, was ich im letzten Posting geschrieben habe, denn bei 64 gleichzeitigen Datenanforderungen düften immer mindestens eine Anforderung Daten verlangen, die auf jeweils einem Die an allen 8 Kanälen liegen. Gleichzeitig düfte bei den 4k Anfragen kein Interleave auf Kanalebene genutzt werden.
 
@Holt

Vielen Dank für die tollen Erklärungen! :)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben