• ComputerBase erhält eine Provision für Käufe über eBay-Links.

News 35 Jahre NAND-Flash: Vom 4-Mbit-EEPROM bis zur 100-TB-SSD

Nore Ply schrieb:
War nicht die Vertex die reihenweise über Jordan gegangen ist?
Da war doch irgendeine OCZ Platte die sich reihenweise verabschiedet hatte zu der Zeit.
Die sind nicht umsonst pleite gangen.
 
  • Gefällt mir
Reaktionen: rysy und Knogle
Ja, das war ihr Ruf. Genau wie vorher der Ruf der Seagate ST1080N. Ich hatte bei beiden Modellen Glück.
 
  • Gefällt mir
Reaktionen: NMA, rhewa, Col. Jessep und 2 andere
@konkretor

Meinste die DOM (Disk on Module)?
Die wurden doch reihenweise in Industrie PCs verbaut. Für alles was nicht viel Speicher brauchte.
 
Ne die DOM Module kamen viel später

Bitte die Links anschauen
 
  • Gefällt mir
Reaktionen: R O G E R
Und wie gut der funktioniert, zeigt ja Hubble

PS weiß jemand, wieviel Speicherplatz James Webb mit sich rumträgt?
Ergänzung ()

ikarusx3 schrieb:
Der Abschnitt zu UFS ist auch unpassend
Gab ja schon vorher Flash in Handys, man denke an MMC und SD Karten.
Aber UFS ist alt extra für schnelle Datenübertragungen gedacht, schneller als eMMC und co.
Ergänzung ()

ikarusx3 schrieb:
ungeeignet und nur mit experimentellen Treibern dauerhaft auf Leistung zu halten
Ach, das Problem hatte ich mit meiner 64 GB Supertalent nicht
 
Zuletzt bearbeitet:
dualcore_nooby schrieb:
Immer wieder beeindruckend wie flott es bei den SSDs voran geht. [..];)
Jein. Seit rund 10 Jahren wird schon arg gemogelt. Die Kapazität steigt nur deshalb so extrem, weil die Zellen immer mehr Zwischenwerte speichern müssen.
SLC oder das frühe MLC waren okay, finde ich.

Was mich an den immer wiederkehrenden Vergleichen halt etwas nervt, ist wie sehr wir von unserer modernen Technik überzeugt sind.
Vergessen wird dabei oft die Zuverlässigkeit.
Ein Apollo Guidance Computer ist zwar langsam in Sachen Rechenleistung, hat aber selbst kaum Overhead/Latenz.
Er kann trotz seiner geringen Rechenleistung in seiner Anwendung schneller reagieren als ein Smartphone. Und durch die Kernspeicher laufen gewisse Prozesse immer mit der nötigen Priorität. Der Speicherschutz bzw. die Hintergrund-Prozesse sind beim AGC robuster als es bei einem Unix/Linux-System je sein könnte. Auch ein Re-Boot dauert nur einen Bruchteil.

Aber das ist zu hoch für viele Leute von heute. Das wollen die gar nicht wahrhaben. seufz 😞
Die lassen sowas vom Stapiel wie : "Schau mein Kind, das ist ein Zuse/AGC/Eniac/.. Dein Smartphone ist so und so besser. Achja, ich hatte mal einen C64. Der war auch so langsam". 😣

Apropos C64. Das ist genauso wie die Tatsache, dass z.B. ein C64 einen Buchstaben viel schneller von Tastatur auf den Bildschirm bringen kann, als ein PC mit SSD, Windows 10 und Ryzen.
 
  • Gefällt mir
Reaktionen: NMA und Bigfoot29
joshy337 schrieb:
Die Kapazität steigt nur deshalb so extrem, weil die Zellen immer mehr Zwischenwerte speichern müssen.
Inwiefern sollte es mich interessieren warum die Kapazität steigt?

joshy337 schrieb:
Was mich an den Vergleichen halt etwas nervt, ist wie sehr wir von unserer modernen Technik überzeugt sind.
Vergessen wird dabei oft die Zuverlässigkeit.
Ein Apollo Guidace Computer ist zwar langsam in Sachen Rechenleistung, hat aber selbst kaum Overhead/Latenz.
Was hat jetzt bitte Overhead/Latenz mit Zuverlässigkeit zu tun?

joshy337 schrieb:
Er kann trotz seiner geringen Rechenleistung in seiner Anwendung schneller reagieren als ein Smartphone.
Nope. Das Smartphone kann in der Anwendung des AGC so ungefähr eine Million mal schneller reagieren.
Das es das nicht tut liegt einzig daran dass sich noch niemand die Mühe gemacht hat die Anwendung des AGC für "das Smartphone" zu übersetzen.

joshy337 schrieb:
Und durch die Kernspeicher laufen gewisse Prozesse immer mit der nötigen Priorität.
Das ist keine Eigenschaft der Kernspeicher. Es ist eine Eigenschaft der Programmlogik und der Interruptlogik.

joshy337 schrieb:
Der Speicherschutz bzw. die Hintergrund-Prozesse sind beim AGC robuster als es bei einem Unix/Linux-System je sein könnte.
Der AGC besitzt keinerlei Speicherschutz. Er führt einfach keine Programme aus die auf Speicher zugreifen die sie nichts angehen weil diese Programme vor dem Aufspielen mit einem ungeheuer großen Aufwand darauf geprüft wurden genau das nicht zu tun.

Das ging übrigens bis zum SpaceShuttle so. Ich habe mal eine Doku dazu gesehen. Nasa hatte eine eigene Programmiersprache und Simulationsumgebung die nur dazu da waren nachzuweisen das die Software fehlerfrei war.

joshy337 schrieb:
Auch ein Re-Boot dauert nur einen Bruchteil.
Natürlich dauert ein Re-Boot nur einen Bruchteil. Weil ungefähr eine Million Aktionen mehr dabei ablaufen. Würde man das Smartphone darauf beschränken 64 Kbyte aus dem ROM zu laden und 1 Kb RAM zu initialisieren wäre es wieder eine Million mal schneller.

joshy337 schrieb:
Aber das ist zu hoch für viele Leute von heute. Das wollen die gar nicht warhaben.

Wir stehen auf den Schultern von Riesen und merken es nicht mehr. Der AGC war kein Universalcomputer wie ein Handy heute sondern er war ein Spezialgerät, eine Einheit aus Hardware und speziell darauf abgestimmter Software.
 
  • Gefällt mir
Reaktionen: NMA, ComputerJunge und Knogle
joshy337 schrieb:
Jein. Seit rund 10 Jahren wird schon arg gemogelt. Die Kapazität steigt nur deshalb so extrem, weil die Zellen immer mehr Zwischenwerte speichern müssen.
SLC oder das frühe MLC waren okay, finde ich.

Was mich an den immer wiederkehrenden Vergleichen halt etwas nervt, ist wie sehr wir von unserer modernen Technik überzeugt sind.
Vergessen wird dabei oft die Zuverlässigkeit.
Ein Apollo Guidance Computer ist zwar langsam in Sachen Rechenleistung, hat aber selbst kaum Overhead/Latenz.
Ich verstehe dieses SLC, MLC gut, alles andere schlecht nicht.

Mir ist egal was unter der Haube steckt wenn die versprochenen Spezifikationen erreicht werden. Wenn die Industrie mit Lehmtafeln schaffen, bessere Massenspeicher als SSDs zu produzieren, immer her damit. Momentan scheint die Industrie bei TLC den Sweetspot gefunden zu haben. Muss das aber auf ewig so bleiben? Ich denke nein.

Ansonsten ist die Frage doch ganz einfach.

Hätte man das Mondlandeteam gefragt welchen Computer sie gerne gehabt hätten was hätten sie geantwortet? Diese Frage wurde ihnen aber nicht gestellt.

dualcore_nooby schrieb:
Immer wieder beeindruckend wie flott es bei den SSDs voran geht.
Andererseits hat es von einer Vertex 120 GB bis zu einer Samsung 980 Pro schon ganz schön lang gedauert ;)
Ich sehe mich eher in der Frustrierten Fraktion. Meine allererste SSD hatte 80 GB. Die habe ich immer noch irgendwo in Betrieb. Das kann ich von meiner ersten HDD, eine 130 MB Seagate nicht behaupten.

Wenn das mit SSDs genauso rasant gegegangen wäre wie mit HDDs, dann wären wir irgendwo bei zwischen 80.000 TB und 200.000 TB für 100 EUR. :)
 
Ich weiß gar nicht, warum immer auf SSDs gezeigt wurde (und wird)... die ersten Flash-Laufwerke sind deutlich älter. Mein ältestes Flash-"Laufwerk" ist eine 64MB CF-Karte. (Die Dinger sind mit einem mechanischen Adapter P-ATA -kompatibel.) Kann das Jahr jetzt nicht mehr benennen. Aber zusammen mit den ersten USB-Sticks (und den ersten MMC/SD/...-Karten waren das die ersten massentauglichen Flash-Geräte.

Finde es auch Schade, dass hier SLC/MLC und Stacking so durcheinander geworfen werden. Die haben miteinander technisch nix zu tun. Sie kamen nur zeitlich ähnlich auf den Markt. (Auch heute werden ja viele Stacked-Chips teilweise per SLC betrieben, weil das die Schreibleistung deutlich erhöht.)

Regards, Bigfoot29
Ergänzung ()

joshy337 schrieb:
Jein. Seit rund 10 Jahren wird schon arg gemogelt. Die Kapazität steigt nur deshalb so extrem, weil die Zellen immer mehr Zwischenwerte speichern müssen.
SLC oder das frühe MLC waren okay, finde ich.
Was mich viel mehr stört: Seit Jahren könnten 8TB SSDs im 110er-Format vorliegen. Wir könnten so ziemlich sämtliche Speicherprobleme der Notebook-Computerklasse lösen. Doppelseitenbestückung ist spezifiziert. Macht aber kaum jemand. Gleiches gilt für die Unsitte, wegen ein paar Cent den RAM-Speicher von den Flash-Riegeln wegzulassen. Könnte ich mich aufregen... -.-'

joshy337 schrieb:
Was mich an den immer wiederkehrenden Vergleichen halt etwas nervt, ist wie sehr wir von unserer modernen Technik überzeugt sind.
Vergessen wird dabei oft die Zuverlässigkeit.
Bei den alten Flash-Laufwerken (also Pre-SSD, im Computer- und Router-Umfeld meistens ne CF-Karte) wurden deswegen die Logs auf ner RAM-Disk gelagert und nur in Intervallen weggespeichert. Denn da war im SCHNITT nach 1000 Schreibzyklen pro Zelle Schluss. Du hast dir also ziemlich genau überlegt, was du wegschreibst und was du wegwirfst.
joshy337 schrieb:
Ein Apollo Guidance Computer ist zwar langsam in Sachen Rechenleistung, hat aber selbst kaum Overhead/Latenz.
Er kann trotz seiner geringen Rechenleistung in seiner Anwendung schneller reagieren als ein Smartphone. Und durch die Kernspeicher laufen gewisse Prozesse immer mit der nötigen Priorität. Der Speicherschutz bzw. die Hintergrund-Prozesse sind beim AGC robuster als es bei einem Unix/Linux-System je sein könnte. Auch ein Re-Boot dauert nur einen Bruchteil.
Das hatte ich jetzt erst in einem Retro-Chat angemerkt. Da hatte jemand Win98 auf dem Bild und mein Kommentar war - in etwa, hier leicht ausgebaut - "400 MHz, 16 MB RAM, 1GB HDD konnten damals schon 95% von dem, wofür wir heute Gigahertz, mehrere GB RAM und mindestens 64 GB HDDs (um vergleichbar zu sein, eigentlich SSDs) brauchen.
joshy337 schrieb:
Apropos C64. Das ist genauso wie die Tatsache, dass z.B. ein C64 einen Buchstaben viel schneller von Tastatur auf den Bildschirm bringen kann, als ein PC mit SSD, Windows 10 und Ryzen.
Hätten sie mal Intel mit den einzig echten Hochfrequenz-Kernen genommen! :D

Regards, Bigfoot29

PS: Ich weiß, was Du sagen willst. Damals wurde der Buchstabe quasi direkt durchgegeben. Heute muss der durch dutzende Schichten von Hardware (Tastatur, USB zu Mainboard -> Software (vom USB-Treiber rauf ins OS bis hoch zur Anzeige-Schicht für den korrekten Font und dann wieder runter zum Grafiktreiber) -> Hardware (Grafikkarte via Schnittstelle zum Monitor, der dann auch noch mehrere (Dutzend!) Millisekunden braucht, um das Signal darzustellen.)
 
Zuletzt bearbeitet:
.
 
@Bigfoot29

Siehst du wirklich einen Markt für 1.200 EUR SSD?

Technisch wäre sicher noch mehr drin als 8 TB. Bei 2,5" SATA sowieso. Aber selbst bei Apple scheint man unter 500 EUR Häppchen bleiben zu wollen wenn man z.B. 16 GB RAM für 460 EUR sieht. Dabei hätte sie auch 64 GB RAM für 2.000 EUR aufrufen können.

Bei mir tummeln sich bei letzter Zählung 22 SSDs. Ich hätte sie sicher nicht gekauft wenn sie über 300 EUR teuer gewesen wäre egal wie groß...
 
  • Gefällt mir
Reaktionen: Photon und massaker
@Wattwanderer : Ich sehe durchaus einen Markt - wenn auch nicht oberhalb der 1000er-Grenze bei Consumer-Produkten. Wir kaufen heute Telefone für ebenfalls diese Preisregion und werfen sie faktisch nach 2-3 Jahren weg. Aber eine SSD, die über Jahre ausreichen dürfte, ist nichtmal verfügbar. Wie viele M2-SSDs gibt es mit mehr als 2GB? Die Anzahl ist verschwindend gering. Dabei könnte gerade hier QLC glänzen. 4TB aufgeteilt in 3TB QLC und ein TB, dass nur MLC fährt. Dazu nen Algo, der Daten, die älter als 4 Wochen sind, vom MLC in den QLC schiebt. Dann müssten die QLC-Anteile auch nicht so hoch takten, denn sie würden ja ohnehin in 95% der Fälle maximal gelesen. Et voila, wir hätten die perfekte SSD für Notebooks. Sparsam und großes Volumen.

Mal unabhängig von der technischen Seite belebt Konkurrenz das Geschäft. Erst, wenn es mehr 4 und 8 TB SSDs gibt, wird deren Preis (und auch der Preis der kleineren Modelle) fallen. Davor dürfte man bei Samsung und Co am meisten Sorge haben. Denn ich sags mal so: Vom Arbeitsaufwand unterscheidet sich ein 8TB-Modell kaum von einer 256GB-Variante. Ergo sind die Margen für Samsung im unteren Segment JETZT schon gering. Wenn sich jetzt das Gesamtvolumen nach oben öffnet, staucht das den jetzt mittleren/oberen Markt deutlich nach unten zusammen. --> Marge sinkt deutlich. Das sehe ich als den Hauptgrund. Denn technisch spricht schon jetzt nichts dagegen. Die aktuellen SSDs, selbst die 110er, sind heutzutage meist nur noch ein Controller-Chip, vielleicht ein RAM-Modul und dann noch ein einziges Package mit NAND.

Ich selber hab gar nicht SO viele SSDs. Ich hab üblicherweise zu den größeren Modellen gegriffen. So lange wie möglich noch im 2,5"-Format, selbst, wenn M2 schon möglich war. Daher muss ich da gar nicht so jonglieren und hab diese SSDs dann schlicht in den nächsten PC/Laptop/... mitgenommen. (Musste für eine Backup-Kiste jetzt sogar ne klassische HDD ausgraben, weil nix mehr rumgammelte. ^^ - Will sagen: Es ist jetzt nicht so, dass ich wenig Hardware hätte. Nur im Vergleich dazu ist halt das SSD-Aufkommen gering.)

Apple möchte Dir die Apple Cloud verkaufen. Mit dem Notebook alleine verdient Apple ja erstmal kein Geld mehr. Ist ähnlich wie bei den Pixel-Smartphones. Dort ist der Speicher ja auch oft limitiert, weil man die Leute zur Cloud erziehen möchte.

Regards, Bigfoot29
 
rentex schrieb:
Ja, meine erste SSD, die Intel X25-M G2 Postville mit 80GB, besitze ich immer noch. Das war mal ein Upgrade👌
Ich hatte die 80 wie die 160 GB, und die 160 Gb liegt hier noch. Die älteste SSD ist aber eine Transcent 32 GB, die auch noch hier liegt.
Ergänzung ()

Bigfoot29 schrieb:
Ich selber hab gar nicht SO viele SSDs.
Öhm, und da sind nicht mal meine NVMe SSDs dabei:

1644685987486.png


Ganz vorne die genannten ältesten Modelle (die 80er hatte ich mal verschenkt). Von der Transcent liegt auch noch die OVP vor.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MichaG, Col. Jessep und rentex
meine erste ssd war recht spät eine OCZ Petrol - das war so die billigste, die man so bekommen konnte. Aber 250GB für 130€ WOW!!
anscheinend haben es zur Garantiezeit nur die Hälfte davon überlebt -meine läuft immernoch in einem Externen Gehäuse.

einige Zeit hatte ich ach Sandisk Readycache - eine 32gb ssd mit windowssoftware, die automatisch die am meisten benutzten dateien darauf speicherte. lief ganz gut.
 
R O G E R schrieb:
War nicht die Vertex die reihenweise über Jordan gegangen ist?
Da war doch irgendeine OCZ Platte die sich reihenweise verabschiedet hatte zu der Zeit.
Die sind nicht umsonst pleite gangen.
OCZ Vertex 2, der Controller Chip hatte einen Bug. Wenn das System den Stand By Modus genutzt hat, fiel nach einer gewissen Zeit der Controller aus.
 
  • Gefällt mir
Reaktionen: NMA und Bigfoot29
Ganz früher hatte ich die Dinger noch mit UV Licht gelöscht. Die steckten auf einem Board am 64'er zum starten von Software..

eprom
 
Nand Flash ist, schon eine richtig zeitgemäße Sache und Toshiba hat darin, im mindesten, sehr ausgiebige Pionierarbeit geleistet.

Ich fing erst recht spät mit einer SSD an, allerdings von Samsung, ende 2007, bei 128 Gigabyte, für ungefähr 380€.

Ich kann dem allgemeinen Tonus nur zustimmen: Ein Wow Effekt, dieser davor, wie Danach nur selten feststellbar gewesen ist.
 
  • Gefällt mir
Reaktionen: SSD960
Damals (TM) als ich mehr Geld für den PC als Verpflichtungen hatte (Schülerbafög yay), habe ich eine WD 10.000rpm Velociraptor Systemplatte -was so ziemlich die schnellste Enduser Festplatte war zwecks Zugriffszeit und die Transfers waren auch nicht übel- unter Vista gegen eine Intel Postville G2 mit 80GB getauscht. Sündhaft teuer für mein Empfinden.
Die extreme Steigerung der gefühlten Geschwindigkeit war das eine. Aber das Ende der nervigen Festplattengeräusche was ganz anderes.
Den größten fühlbaren Unterschied hat es witzigerweise in etwas gebracht, das nie für eine SSD vorgesehen war. Morrowind. Die Ladebalken zwischen den Zellen sind nur noch kurz aufgeblitzt.

Der Witz ist, dass Windows noch heute auf der Platte liegt. Allerdings hat sich an dem PC auch echt nicht mehr viel getan sein dem außer ein Xeon CPU Upgrade und zwei neue Grafikkarten.
 
Zurück
Oben