News SSD-Preise fallen auf 1 Euro pro Gigabyte

10 Jahre sollte eine SSD schon halten. Bei mir wandern auch die Produkte die im Hauptrechner Ihren Dienst getan haben in den Zweitrechner.

Ich halte auch nichts vom Shrinken um jeden Preis, besonders wenn es zu Lasten der Qualität geht. An dieser Entwicklung sind aber auch die Verbraucher schuld die ständig jammern "zu Teuer zu Teuer.." Wenn die Ware mit einen hohen Qualitätsstandart nicht verkauft werden kann wird eben billiger produziert mit allen damit verbundenen Nachteilen. Für die Industrie ist es nur wichtig das die überwiegende Menge der Produkte die Garantiezeit übersteht. Wenn sie danach hopps gehen verkaufen sie dir was Neues.

Ich bin auf jeden Fall froh eine 34nm Version zu besitzen.

100 MB Writes sind mir zu wenig, sich jetzt noch den alten Intelcontroller kaufen. Nun ja, am Geld scheint es dir ja nicht zu mangeln...

manch einer hat es noch immer nicht begriffen das die max. Schreibrate nicht das Entscheidende ist.

Mach z.B einmal einen Virenscan von einen Laufwerk und kopiere oder entpacke gleichzeitig eine große Datei auf den gleichen Laufwerk. Eine HDD wird dir dabei gnadenlos in die Knie gehen während du bei der SSD kaum bemerkst das im Hintergrund ein Virenscan läuft.
 
Bio-Apfel schrieb:
Ich habe jedenfalls schon 3 SSD "durch".

Nichtsdestotrotz "fühlt" sich eine SSD einfach auch sauschnell an. Ich werde daher wohl nach der vierten auch wieder brav eine fünfte kaufen.. :freak:
Vielleicht solltest Du mal die Marke wechseln, es gibt da wirklich große Unterschiede in den Ausfallraten, oder machen die RMAs einfach Spaß?

SmartSirius schrieb:
@ Holt: Das ist doch Käse, was du da schreibst!
Was ist Käse, etwas genauer hätte ich das schon gerne.
SmartSirius schrieb:
Die Lebensdauer einer System-SSD wird nicht anhand der Schreibzyklen festgemacht
Wo habe ich die Lebensdauer einer SSD an Schreibzyklen festgemacht? Es geht um die P/E Zyklen der NANDs und in Post #98 steht auch P/E Zyklen. Deren Verbrauch hängt halt von der Geschrieben Datenmege, der Writeamplification und der Gesamtkapazität ab, wobei die WA nicht fix ist und auch bei der gleichen SSD von Füllungsgrad, der Natur der Schreibzugriffe, TRIM etc. abhängt.

SmartSirius schrieb:
(oder besser gesagt nicht nur) - sondern an ihrer "Random-Write-Durability". Und da können Hersteller sagen was die wollen!
"Random-Write-Durability" findet google nur in diesem Beitrag von Dir vom 9.05. und schon damals hast Du alles verdreht und ich habe schon damals darauf geantwortet.
Es bleibt auch heute dabei, nur mit 4k Random Writes schreibt man seine SSD mit weniger Datenvolumen kaputt als mit seq. Writes, denn die WA ist dabei deutlich höher. Aber bei einer normale Systemplatte kommt eben beides gemischt vor.
SmartSirius schrieb:
Da sagt auch der simple Schreibtest in dem Extreme-Forum GAR NIX aus! Du kannst schreiben, bis der Arzt kommt.
Nein, kannst Du eben nicht. Du siehst dort, dass die SSD über die vom Hersteller versprochenen TBW hinaus noch funktionieren, weil das eben ein Test ist, dessen Schreibzugriffe eine geringere WA erzeugen als vom Hersteller der SSD unterstellt worden war, die eben von der Nutzung als Systemlaufwerk ausgehen.
SmartSirius schrieb:
Aber Windows Nutzen => Nach 10 Jahren ist Schicht im Schacht!
Reicht das denn nicht? Ich werde keine meiner SSDs in 10 Jahren noch als Systemlaufwerk einsetzen wollen, denn bis dahin sind die vermutlich selbst für den Drittrechner viel zu langsam.
SmartSirius schrieb:
Und das gilt für eine simple 80er-G2-34-nm-Postville. Für die 160er sind es knappe 20 Jahre.
20 Jahre, so ein kurzklebiger Wegwerfartikel :evillol:
SmartSirius schrieb:
Und es sieht eben so aus, als wenn die 25nm-Modelle hier kräftig einpacken werden müssen dann. Letztendlich läuft es eben auf die "Tausche SSD einmal im Jahr"-Nummer hinaus.
Wie kommst Du zu dieser Annahme? Eben noch 10 bzw. Jahre Haltbarkeit für 34nm NAND SSDs und nun nur noch ein Jahr für 25nm NAND Modelle? Selbst bei nur 3/5 der P/E Zyklen ergäbe das 6 bzw. 12 Jahre.
SmartSirius schrieb:
die Dinger tausch ich frühestens in 5 Jahren aus
Das sollte nach Deiner Rechnung ja dann auch bei SSD mit 3000 Zyklen 25nm NANDs kein Problem sein. 5 Jahre halte ich auch für eine sinnvolle Nutzungsdauer.
SmartSirius schrieb:
Deswegen kauf ich mir jetzt auch lieber noch ne sichere 34nm-SSD, wo es KEINE PROBLEME mit Firmwareupdates oder den "SSD Tod" gibt.
Bitte sehr, mach das doch. Nur werden die eben langsam selten und viele ausgelaufene Modlele sind schon praktisch ausverkauft und damit preislich zu teuer. Da rechne ich lieber so, dass ich im Zweifel die ersten 3 Jahre mit einem billigeren 25nm Modell überstehe und vom gesparten Geld dann noch mal eine kaufe, mit der ich die restlichen 2 Jahre auch noch überstehe.

SmartSirius schrieb:
Leg ich lieber 10Euro mehr hin und hab größere, und daher auch besser gefertigte Flashbausteine, als unsichere 25nm-Ramschdinger, die bei manchem Hersteller inzwischen als "0815-Ware" gehandelt werden und teilweise sogar nichtmal 2000 Zyklen erreichen sollen.
Erstens kommst Du mit 10€ da nicht weit und zweitens sind die 25nm NANDs nicht pauschal Ramsch. Das mindestens ein SSD Hersteller 25nm NAND früher Produktion verbaut hat, denen nur 1000 P/E Zyklen nachgesagt wurden, ist ja schon im Thread vom Mai thematisiert worden. Inwzischen hat man aber den 25nm Prozcess so verbessert, das die NAND den Erwartungen entsprechen, Intel baut jetzt 25nm NAND für die 5000 P/E Zyklen versprochen werden und Micron verspricht 3000 P/E Zyklen für sein 25nm NANDs und beide Firmen verbauen auch genau diese NANDs in ihren SSDs und auch garantiert in der Qualität.

SmartSirius schrieb:
Fakt ist und bleibt: Niemand hat bis jetzt eine 25nm-SSD 10 Jahre im Einsatz gehabt
Geht ja auch nicht, die ersten 25nm NAND hat OCZ im Dezember 2010 in SSDs verbaut und genau diese hatten eben noch Bausteine denen man nicht soviele P/E Zyklen zutraue, weshalb Intel die 320er Reihe ja auch nicht Ende 2011 gebracht hat, wie es ursprünglich geplant war.

Was Du aber anscheinend nicht begreifen kannst ist, dass man bei praktisch keinem neuen Gerät jahrelang pratisch erproben kann, wie lange es denn hält. Sonst müßten Autohersteller jetzt schon die Modelle fertig entwickelt haben, die sie 2021 auf den Markt bringen wollen. Man macht deshalb Stresstests unter Extrembedingungen und rechnet die Ergebnisse um. Nichts anderes ist der Dauerschreibtest auf xtremesystems.org. Natürlich kann man nicht erwarten die gleiche Datenmenge beim Einsatz als Systemlaufwerk schreiben zu können, die im Test erreicht werden wird, aber man wird das Verhältnis zwischen den 34nm und den 25nm SSDs sehen (besonders zwischen der C300 und m4 sowie zwischen der X-25V und der Intel 320) und kann dieses dann auch als Richtwerte für die Lebensdauer der SSD unter anderen Einsatzbedingungen nehmen. Der Thread heißt deswegen ja auch "SSD Write Endurance 25nm Vs 34nm".
SmartSirius schrieb:
Lustig wirds dann in ein paar Jahren, wenn man mit 10nm-SSDs deren Langlebigkeit garantieren will. Bin mal auf die Ausreden bis dahin gespannt...
Wenn man es nicht schafft die Technologie so zu verbessern, dass 1xnm NAND für den Einsatz in SSDs geeignet ist, dann werden die renomierten Hersteller das auch nicht in SSDs verbauen und die SSD Preise werden eben nicht weiter so stark fallen. Das ist ja bei TLC NANDs schon heute nicht anders. Wer das trotzdem einsetzt, der muß eben wissen wie er es anstellt die SSDs über die Garantiedauer zu bringen, sonst waren die anderen Firmen in ihrer Einschätzung zu vorsichtig oder er wird irgendwann von den Garantiekosten in die Pleite getrieben.
SmartSirius schrieb:
Nachtrag: du hattest noch gefragt, welche "Lebenserhaltungssysteme" eine SSD hat. Das kann ich dir sagen:

ECC-Korrektur (sehr wichtig, wenn mal eine Zelle ausfällt!),
ECC Korrrektur hat jede SSD, das sehe ich nicht als Lebenserhaltungssystem. Bitfehler können auch aus anderen Gründen als dem Ableben einer Flashzelle entstehen und sind für NAND Speicher völlig normal. Das steht sogar im wikipedia Artikel über Flash.
Dann mußt Du schon ehr Wearleveling als Lebenserhaltungssystem ansehen, obwohl ich das als normalen Bestandteil der SSD Technik betrachte, der sich schon daraus ergibt, dass man die LBAs ja sowieso auf Flash Adressen mappen muß und bei der Auswahl eben auch die verbrauchten Zyklen berücksichtigt.

SmartSirius schrieb:
Es gab mal einen netten Artikel, der einem bewiesen hat z.b. klargemacht hat, dass, je kleiner eine SSD gefertigt ist, umso komplizierter und genauer muss das ECC-Correkturverfahren funktionieren.
Meinst Du den hier über Microns ClearNAND bei Anandteh?

SmartSirius schrieb:
Klappt das nicht bzw. scheitert es, ist die SSD kaputt! Du kannst sie dann nur noch lesen in dem Fall.
Wenn die ECC nicht funktioniert hat weil die Daten in den Flashzellen schlicht falsch sind (also nicht ein Bit mal wegen Übersprechens oder EVM gekippt ist), dann nutzt das Auslesen der falschen Daten auch nichts mehr, die sind ja dann korrupt.
SmartSirius schrieb:
Z.b. soll die nächste Generation mit 20nm-Zellen bereits ein ECC-Rating von 10x haben. Das heißt - ca. 10x schwerer zu kontrollieren (und auch 10x höheres Ausfallrisiko) als 25nm-Zellen.
Trotzdem wurden von IMFT schon vor 4 Monaten die ersten 20nm NANDs angekündigt. Wenn die also niemals auf den Markt kommen, dann hast Du ja recht behalten. Wenn doch, so hat man einen Weg gefunden den Platzvorteil den die geringeren Strukutrbreiten bieten nicht wieder vollständig für ECC Bits zu verbrauchen.
SmartSirius schrieb:
Die SSDs sterben wegen den Random-Writes. Nicht wegen den X 100 TB möglichen Sequentiellen Schreibvorgängen!
Hoffentlich lernst Du aus dieser Antwort von mir, dass Du da falsch liegst, sonst war die Mühe umsonst. Klar wiegen Random Writes schwerer als seq. Schreibzugriffe, aber beide kosten P/E Zyklen der NANDs. Schreibt man also 4k, sonst sind das weniger als wenn man 1MB seq schreibt und wenn man 2500x4k random schreibt, dann eben noch mehr.

SmartSirius schrieb:
Das ist ein Unterschied. Und genau hier hakt es mit der ECC-Technik jetzt schon bei 25nm
ECC hat mit Radom oder seq. Schreiben nichts zu tun, aber auch garnichts!! Jeder NAND Controller berechnet ECCs und i.d.R. speichert er diese zusammen mit den Daten in der Page ab:
SandForce RAISE legt entweder noch einen drauf oder macht es eben anders, denn der SF-Controller belegt immer ein ganze Die für die ECC.
SmartSirius schrieb:
merkt man jeden einzelnen Fehler in einer SSD. Zudem vergiss nicht die Lebensdauer des Controllers bis zum 1. Fehler (MTBF). Irgendwas mit 1 Mio. Stunden.
Über den Unsinn mit der MTBF hatte ich doch schon am 9. Mai geschrieben. Liest Du das nicht oder hast Du alles wieder vergessen?
SmartSirius schrieb:
Was die SSDs allgemein angeht. Ich kaufe mir in einem Monat noch eine, danach hab ich dann gute 10 Stück, das sollte dann erstmal für 3 PCs und die nächsten 10-20 Jahre reichen.
Viel Spaß damit in 10 oder 20 Jahren.

SmartSirius schrieb:
ich will mir in 1 Monat noch ne 160er G2 holen und dann ist erstmal Ruhe.
Da würde ich mich aber dann doch beeilen, noch haben einige Händler einzelne SSDSA2MH160G2K5 lagernd, aber in einem Monate dürfte die ausverkauft sein.

SmartSirius schrieb:
weil ich insgesamt weit mehr als 1000 Euro für die 10 Stück hingeblättert habe. Das muss dann wirklich erstmal reichen.
SmartSirius schrieb:
Ich hab diverse Modelle, von SATA 1-2, auch ein paar Jmicrons hab ich noch im Einsatz (natürlich nicht als Systemplatte), und bis zur Postville und allgemein hochwertigen Intels hab ich alles.
SmartSirius schrieb:
Geschrieben wurden in den 2 Jahren ca. 3,5 TB.[/URL]
Wenn Du im Schnitt 100€ für eine SSD bezahlt hast und dafür noch alte JMicrons SATA1 (also der JM602), Postvilles (die X-25V trägt diesen Namen nicht) und hochwertige Intels (welche das auch immer sind) gekauft hast, dann müssen das aber überwiegend günstig erstandene Gebraucht-SSDs gewesen sein, zumal Du die erste ja schon vor mindestens zwei Jahren gekauft hast.

Was Du hier bringts passt vorne und hinten nicht zusammen.
 
Danke Holt, für die getane Arbeit...

Bei Micron 25nm NAND mit 32Gbit Kapaizität pro Die und 4K Pagesize sind es übrigens nur 224 Byte ECC-Daten pro Page (4096 Byte). Das ist dann doch kein massiver Mehraufwand, wobei ich von 34nm Flash keine Zahlen zum Vergleich habe.
 
Zuletzt bearbeitet:
@ Holt: Danke für deine Kommentare, die zwar allesamt längst widerlegt worden sind. Aber immerhin. Du hast es versucht und dein Bestes gegeben ;) Ein Beispiel? Du hast offenbar den Artikel von "Anandtech" nicht verstanden. Mit zunehmender Verkleinerung der Zellen werden/müssen die ECC-Anforderungen exorbitant steigen (und ein Controller kann nur begrenzt ECC berechnen, irgendwann ist Sense! Auch funktioniert ECC mit zunehmender Genauigkeit einfach nicht mehr! Und was passiert wenn ECC ausfällt z.b. bei einem Schreibfehler? Richtig! Die Zelle fällt komplett aus - ich sag ja, du hast den Artikel zu 0% verstanden). Und was glaubst du, passiert, wenn das nicht mehr geht, die Steigerung der ECC-Genauigkeit? Wir (ja, das ist mit Absicht so geschrieben) haben jetzt schon Probleme mit 20nm und mit 15nm und mit noch kleinerer Fertigung wirds erst richtig lustig. Du hast absolut nichts verstanden, denn im Gegensatz zu CPU-Fehlern merkt man heute jeden einzelnen NAND-Fehler sehr deutlich. Wo die CPUs hohe Yields haben und mit ihren Erratas das einfach ausgleichen, gibts bei Nand-Bausteinen nunmal sehr viele Fehler und diese können früher oder später zum Ausfall einer SSD führen. Und übrigens: Ja, stell dir vor. Meine 50nm (!) Jmicrons leben auch noch! Unglaublich gell? Die sind auch für 10000 Zyklen spezifiziert. Ganz im Gegensatz zum 25nm-Sandforce-Müll, wo heute das Controllersterben schon fast alltäglich ist. Oder wo einfach billige "Spectec"-Bausteine eingesetzt werden, die zwar nie für SSDs freigegeben wurden. Aber hey, was solls? Irgendein DUMMER wird das schon kaufen, stimmts? Denn es steht eben jeden Tag ein neuer Dummer auf. So ist das.

@ uNrEL2K:

Was soll das denn jetzt? Soll er doch glauben, was er will. Ich ARBEITE in dieser Branche. Ich wäre praktisch sogar in der Lage, die Nands selbst herzustellen. Einen schönen Tag wünsch ich dir noch. Für mich ist die Diskussion um die Lebensdauer damit beendet.
 
Hallo SmartSirius,

wenn du in dieser Branche arbeitest, erscheinen deine Beiträge in einem ganz anderen Licht, ohne jetzt wertend zu sprechen.

Was gehört zu deinen Tätigkeiten?
 
Bei Micron 25nm NAND mit 32Gbit Kapaizität pro Die und 4K Pagesize sind es übrigens nur 224 Byte ECC-Daten pro Page (4096 Byte).

224Byte die wo landen?, Achja richtig, in irgendeiner anderen Zelle.:D
Der SmartSirius hat schon Recht wenn er behauptet das 25nm Flash sehr problematisch ist und das mit stiegender Kapazität das Problem nicht kleiner wird.
 
ewndb schrieb:
224Byte die wo landen?, Achja richtig, in irgendeiner anderen Zelle.

Man kann hier nicht von einer anderen Zelle sprechen, denn eine Page beispielsweise mit 4K ist eine Speichereinheit, zusammengesetzt aus 16384 Zellen (2Bit pro Zelle). Für den 224Byte großen ECC-Code werden dieser Page nochmal 896 Zellen angehängt.

Der SmartSirius hat schon Recht wenn er behauptet das 25nm Flash sehr problematisch

Nicht, wenn du die SSD bei Qualitätsherstellern wie beispielsweise Micron kaufst. Was soll denn dieses theoretische Gerede? Wer wie SmartSirius 20 Jahr lang eine SSD verwenden möchte hat mit 25nm vielleicht eher Probleme, da dieser offensichtlich generell weniger PE-Zyklen abkann, aber solche Leute gibt es quasi nicht und für die restliche Käuferschaft ist die theoretisch kürzere Ausdauer vollkommen irrelevant, da sie die SSD "nie" an die Grenzen ihrer Ausdauer bringen werden.

Was sind denn Ausfallursachen heutiger SSD? Das es totgeschriebener NAND oder kaputter NAND ist, habe ich noch nirgends gelesen, wobei Spektek-Rammsch o.ä. möglichweise schneller die Grätsche macht aufgrund von anderen Fehlern als der Aufbrauchen der PE-Zyklen. Es deutet eher darauf hin, dass die Controller die größte Fehlerursache für defekte SSDs sind.
 
Zuletzt bearbeitet:
SmartSirius der ja angeblich auch selbst NANDs bauen könnte, kann sich offenbar nicht vorstellen, dass die großen NAND Hersteller ja nicht nur die Strukuren verkleinern sondern eben auch die Technologie verbessern, wie es Intel z.B. mit seinen 3D-Transistoren gezeigt hat. Das die ECC Anforderungen also mit kleineren Strukturen extrem wachsen werden stimmt nur solange, wie man eben die gleiche Technologie betrachtet und dabei vergisst, wie oft es gerade in der Halbleiterfertigung schon gelungen ist Grenzen zu überschreiten die andere vorher für unüberwindlich hielten.
25nm NANDs sind nicht pauschal Schrott, das sollte jeder wissen der im NAND Bereich arbeitet. Die m4 und die Intel 320er im Dauerscheibtest zeigen dies auch. Der ECC Aufwand kann auch nicht so brutal gestiegen sein, denn beide verwenden noch die Controller ihrer Vorgänger, wobei der von Intel ist damals mit 50nm NANDs erstmals auf den Markt kam und ich glaube kaum, dass der damals auf einen extrem viel höhreren ECC Aufwand hin konstruiert wurden. Möglicherweise verwendet Intel auch deshalb seine ComputeNANDs, also solche mit eingebauter ECC.
Wie ich schon geschrieben habe: Warten wir einfach ab, was Hersteller wie Intel, Micron, Samsung oder Toshiba für NANDs in SSDs bringen werden, dann werden wir sehen bis zu welchen Strukturbreiten man sinnvoll NANDs in SSDs verbauen kann. Diesen Herstellern traue ich zu die Verkleinerung der Strukturen nur dann durchzuführen, wenn dies einen Kostvorteil bringt und die Endprodukte trotzdem ausreichend lange zuverlässig zu betreiben sind.
uNrEL2K was die Ausfallursache heutiger SSDs ist, kann man sehr schwer sagen. Es können auch Fehler im NAND sein, die den Controller dann in einen Zustand versetzen, aus dem er nicht her heraus kommt und demzufolge die SSD sich nicht mehr meldet. Nur die SSD Hersteller selber könnten das verraten. Aber Bitfehler in NANDs sind normal und immer schon dagewesen. Die Controller müssen diese nur eben so gut korrigieren könen, dass über viele TB hinweg kein unkorrigierbarer Fehler passiert. Solange der Aufwand dafür die wirtschaftlichen Vorteile kleinerer Strukturbreiten nicht übersteigt, werden die Strukurbreiten der NANDs in SSDs auch verkleinert werden und die SSD Preise weiter deutlich sinken.
 
Die Controller müssen diese nur eben so gut korrigieren könen, dass über viele TB hinweg kein unkorrigierbarer Fehler passiert.
Solange der Aufwand dafür die wirtschaftlichen Vorteile kleinerer Strukturbreiten nicht übersteigt, werden die Strukurbreiten der NANDs in SSDs auch verkleinert werden und die SSD Preise weiter deutlich sinken.

Und genau das ist das Problem bei der Geschichte. Da wird mit geschätzen Produktionswahrscheinlichkeiten (MTBF) gerechnet was wiederum heißt das ein vorhersehbarer Prozentsatz die MTBF nicht erreichen wird können aber trotzdem in den Handel kommt->gerade bei dem vorhanden Preisdruck was widerum die Einführung neuer Technologie (Beispiel von Holt) extrem riskant und teuer macht. Sprich, 25nm ist derzeit unsicher&(oder)unrentabel, genau das ist doch der Punkt um den es hier geht....:freaky:

Das führt aber widerum dazu das einer der guten Gründe eine SSD zu kaufen (Durchsatz, Sicherheit, IOPS) wegfällt.
 
ewndb, vergiss mal die MTBF, die sagt praktisch nichts aus und über die Lebensdauer eines Gerätes schon gleich garnicht. Der jährliche Ausfallrate kann man schon mehr Beachtung schenken, aber auch die ist ja nicht zuverlässig gemssen worden, sondern eben hochgerechnet.

Das SSDs mit 25nm derzeit unsicher &(oder) unrentabel wären halt ich als so pauschale Aussage für falsch. Weder für Hersteller dürften diese unrentabel sein, denn die gesunkenen Preise spiegeln ja noch lange nicht das volle Einsparpotential der geringeren Fertigungsstrukturen wieder, noch für die Kunden. Dann praktisch halten bessere SSDs auch mit 25nm NAND so große geschriebene Datenvolumen aus, wie sie kaum ein User innerhalb der üblichen Nutzungsdauer erreichen wird, die SSDs sind dafür aber günstiger zu haben. Das zeigt doch gerade der Dauerschreibtest: Die Intel 320 hat schon fast 50% mehr P/E Zyklen als die 5000 garantierten und auch die Crucial m4 ist schon 20% über ihren 3000 garantierten P/E Zyklen, beide haben 25nm NANDs und beide leben noch:
attachment.php
 
Vor allem frag ich mich was die Leute ansonsten über 10 Jahre lang einsetzen wollen... HDDs sicher nicht. Ich hab letztens erst n paar ca. 9 Jahre alte IDE-Platten aus dem Regal wieder in Betrieb gesetzt: Lagerschaden, defekte Sektoren, das volle Programm. Die Teile gehen schon vom rumliegen kaputt mit ihren mechanisch beweglichen Teilen und den Magnetplatten.

Wer HDDs für Backups einsetzt sollte da ein Auge drauf haben!
 
Jo, der einzig sichere Speicher ist ein sich erneuerndes Netzwerk von Speichern wie sie das Internet bieten kann. Das ist quasi wie in euerm Körper, wo die Zellen sterben, aber immer wieder neue gebildet werden, die alle Informationen enthalten.

Fürs Endlosspeichern sind weder SSDs noch HDDs (und schon gar nicht optische Medien) geeignet. Abgesehen davon werden Produkte in unserer heutigen Gesellschaft so gebaut, dass sie schnell "konsumiert" werden können. Die Wunschträume von "10 Jahren" werden daher in den meisten Fällen nicht in Erfüllung gehen.
Und das ist nicht weiter schlimm, weil unser (sch...) Geldsystem darauf beruht, dass alles schnell kaputt geht. Also freut euch über neue SSDs in 2-3 Jahren... :)
 
Wenn man von den SSDs mit dem Indilinx Barefoot mal absieht, der hat ja wohl zumindest ein FW Problem (gehabt?), dann hat doch keiner hier in seinem normalen PC Ausfälle erlebt die auf das Aufbrauchen der P/E Zyklen zurückzuführen waren, oder doch?
Also ist es wohl unnötig sich darum zu streiten, ob eine SSD 5, 10 oder 20 Jahren halten könnte, wenn nur die allerwenigsten die ihre SSD so intensiv nutzen diese überhaupt so lange einsetzen werden.
 
Der Preis ist wieder leicht gestiegen. Jetzt kostet die 96GB wieder 103€ !

Aber ich hoffe das sich da noch was tun wird, in den nächsten Wochen.

96GB für 90€ wäre Optimal :)
 
In Deutschland ist es nicht wichtig, was etwas kostet, sondern was man spart ;)
 
Eben, nur wer sparen muß, der braucht oder will keine SSD. Eine SSD ist für die allermeißten schlicht ein Luxus und Luxus muß man sich leisten können und wollen.
 
Zurück
Oben