Das ist doch immer noch viel zu viel. Wenn 32Gbit auf 126mm² passen, dann bräuchte eine 256GB SSD immer noch 8064mm² also über 80cm².
Wenn man diese Größe nimmt, dann passen auf einen 300mm Wafer bei kompletter Ausnutzun der Fläche (was ja dank Verschnitt nicht geht) gerade mal: 71807,8 Gbit oder 8975 GB. Das sind gerade mal 8,7 TB.
Das ist doch noch immer viel zu teuer in der Fertigung. Und jetzt findet das schon in kranken 34nm statt und trotzdem ist die Speicherdichte noch so gering.
So wie ich das sehe, sind SSDs vielleicht schneller, als traditionelle Platten, aber sie laufen genau so schnell gegen eine technologische Wand, wie es die HDDs in den nächsten Jahre tun werden. Gleichzeitig werden aber die Platter für HDDs immer günstiger bleiben, als die enorme Menge an Siliziumchips, die in einer SSD landen.
Zukunftsweisend sind also beide Technologien nicht. Wie sollten sie auch? Beide sind ja mittlerweile ewig alt. Wir rennen einfach mit der kompletten Feinstelektronik langsam aber sicher gegen physikalische Grenzen. Das macht mir ehrlich gesagt ein bisschen Angst, denn wenn es mit der Geschwindigkeit weiter geht, wie bisher, dann werden wir diese wesentlich schneller erreichen, als wir neue Ersatztechnologien fertiggestellt haben. Alternativen für Chips, Festplatten und co sind ja noch nicht mal in weiter Ferne sichtbar.
@KaiZwoDrei
Gabs da nicht schonmal welche, die Licht einfangen wollten? ^^
http://de.wikipedia.org/wiki/Schildbürger
Solange die Physik sich noch nicht einmal über die Definition von Licht einig ist (Welle oder Teilchen oder nun doch was ganz anderes) wird in dieser Form sicher nichts kommen. Die Definition, die für so ein System wahrscheinlich am tauglichsten wäre, ist wohl die einsteinsche Theorie, dass Licht aus Photonen besteht, welche sich mit Lichtgeschwindigkeit fortbewegen.
Das Problem ist nur: Photonen
-haben keine Ladung
-verlieren ihre Energie beim Auftreffen auf andere Atome (und regen diese dabei an)
-bewegen sich mit Lichtgeschwindigkeit
Wie will man denn soetwas einfangen. Und das dann auch noch in einer Weise Nutzen, dass das informationstechnisch genutzt werden kann. Selbst wenn es möglich wäre, was physikalisch wohl anzweifelbar ist, würde es noch Jahrzente oder länger dauern, bis so eine Technologie auch nur im Labor funktioniert. Die Technologie, die hier jetzt z.B. in deinem Artikel genannt wird, wäre zum Beispiel nie im Alltag brauchbar, das sie Temperaturen nahe dem absoluten Nullpunkt benötigt. Um diese zu erreichen ist eine enormer Energieaufwand, Unmengen an Isolationsmaterial, und eine mindestens genauso großer Energieaufwand zum Erhalt dieser Temperaturen erforderlich.
Das sind alles Dinge, die einer wirtschaftlichen Nutzung wiedersprechen.
Das ist genauso, wie mit der Supraleiterforschung. Es ist ja ganz toll, wenn ein Leiter bei Temperaturen um 0 K praktisch keinen Widerstand mehr hat. Wenn der Energieaufwand zum runterkühlen aber höher ist, als der Leitungsverlust durch Kupfer bei 293K dann ist so eine technologie allenfalls in einigen wenigen Einsatzbereichen z.B. für die Forschung (z.B. der LHC des Cern) von Interesse.