Dr. MaRV schrieb:
Bei SSDs als Speichersystem zur Archivierung von Daten, wie es viele wollen sehe ich ein Problem.
Solange die SSDs im Rechner laufen und benutzt werden, siehe ich da kein Problem. Die Daten bleiben da erhalten und werden wegen der Wearlevelings auch regelmäßig intern umkopiert, selbst wenn sie ewig nicht verändert wurden. Anders sieht es aus, wenn man die SSDs nur einmal beschreiben und dann jahrelang im Schrank lagern will, aber das möchte wohl noch keiner von uns, dafür sind sie einfach auch zu teuer. Dafür sind aber moderne HDDs auch nicht ideal und das ganze Thema Langszeitspeicherung digitaler Daten gehört hier auch nicht rein, das ist sowieso kompliziert genug und SSDs werden da sicher nicht die Lösung sein.
Dr. MaRV schrieb:
Weiter lassen sich die NAND Chips nicht so löschen wie eine Magnetscheibe. Was dazu geführt hatte, dass SSDs bei meinem Arbeitgeber verboten wurden.
Natürlich kann man die NANDs vernünftig löschen, wo ist das Problem? Probleme gibt es nur, wenn der Controller defekt ist, aber das ist bei HDDs nicht anders und in beiden Fällen wird dann sowieso der Datenträger mechanisch zerstört (geschreddert), was sowieso der normale Entsorgungsweg bei Firmen mit sensiblen Daten sein sollte, für alle ausrangierten Datenträger. Das spricht nicht gegen SSDs, da hat(te) wohl jemand bei Deinem AG falsche Vorstellungen.
Dr. MaRV schrieb:
Jetzt wo die Think Pads ab Werk mit SSD ausgeliefert werden, hat man sich damit arrangiert.
Von der CD hat man anfangs auch behauptet die Daten hielten 500 Jahre, am Ende waren es manchmal keine 5 Jahre.
Langzeitdatenspeicherung ist wie gesagt ein anderes Thema und CD kann man nicht mit SSDs vergleichen, die im Rechner laufen, sondern mit solchen die im Schrank liegen, wofür die aber zumindest für Heimanwender, noch viel zu teuer sind.
Dr. MaRV schrieb:
Die konventionellen HDDs haben dieses Problem nicht, hier stellt eher die Mechanik, die mit der Zeit anfällig wird ein Problem dar, wer schon mal Diskshelves abschalten musste die 4 oder 5 Jahre durchliefen weiß war ich meine. Beim Wiedereinschalten fallen nicht selten ein paar Platten aus. Die Daten selbst auf den Scheiben überdauern hingegen sehr lange Zeiträume, die Technologie ist gut erforscht und bereits seit Anbeginn im Einsatz.
Nur wie kommt man an die Daten ohne einen Spezialisten, der dann wieder ein Sicherheitsrisiko darstellt? Eben dafür hat man dann wieder Backups und in Unternehmen meist auf Bändern, einer noch älteren Technologie.
Herdware schrieb:
So wie ich das sehe, werden sich diese beiden Probleme mit der Zeit von selbst erledigen, indem die Kapazität pro Chip immer größer und der Verbrauch (und damit die Abwärme) immer niedriger wird. Das ist die typische Entwicklung bei Halbleitern/ICs.
Typisch war aber eben bisher, dass die Erhöhung Gesamtleistung die der Effizienz bei weitem überwiegt und am Ende die TDP immer weiter gestiegen ist. Das ist bei den CPU doch auch genau so gelaufen, die ersten 8086, 80286, 80386 hatten keine Kühlkörper, die wurden auch kaum warm. Deren Leistung ist aber für heutige Verhältnisse auch nur mickrig. Bei SSDs und dort vor allem bei den Controllern wird man klar den Kompromiss zwischen Leistung und Wärmeentwicklung gehen müssen, wobei das Ergebnis je nach Einsatzzweck und Bauform unterschiedlich sein wird.
Herdware schrieb:
Und tatsächlich scheinen diese Probleme ja auch jetzt nicht so dramatisch zu sein. M.2 kommt auf allen neuen Mainboards serienmäßig und in Notebooks sind solche SSDs in kompaktem Kartenformat schon länger üblich. (In meinem Ultrabook stecken gleich zwar davon.)
M.2 ist der Nachfolger von mSATA und natürlich für kompakte Gehäuse, also vor allem Note- und Ultrabooks gedacht, das ist logisch und da sind auch Kompromisse bzgl. Leistungsaufnahme und Kapazität einzugehen, zumal die SSDs dort i.d.R. ab Werk verbaut werden und schon die Kosten zu große Kapazitäten bei den SSDs verbieten.
Deshalb bezog ich mich auch auf den klassischen Desktop, da hat man die Wahl zwischen M.2, was ja auf immer mehr Boards vorhanden ist, PCIe Slotkarten und eben SATA Express / SFF-8639, wobei das vor allem über die Workstations und Server Einzug halten wird, weil es erst aber mehreren PCIe angebundenen SSDs interessant wird und so bald noch kaum ein Heimanwender mehrere solcher SSDs verbauen dürfte. Von ein paar Enthusiasten abgesehen, die dann aber auch Enthusiasten Boards (S.2011-3) mit mehreren Slots und mehr als 16 PCIe Lanes von der CPU nutzen werden, also auch 2 oder 3 Slotkarten verbauen können.
Herdware schrieb:
Der wirkliche Grund, warum man überhaupt erst auf die Idee gekommen ist, SSDs in Laufwerksgehäuse zu packen und per SATA anzuschließen, ist doch auch weder Temperatur noch zu wenig Platz auf der Platine,
Natürlich, aber das die Temperaturen ein Problem werden, zeigt sich ja jetzt erst mit den immer schneller werdenden SSDs, die ersten waren noch so lahm, da war das kein Thema, die hatte meist nicht einmal einen Temperatursensor.
Herdware schrieb:
sondern einfach nur, dass man damit eine direkte Austauschbarkeit mit konventionellen Festplatten und größtmögliche Kompatibilität (z.B. Bootfähigkeit auch auf allen alten Mainboards) gewährleisten wollte.
Das spielt aber immer weniger eine Rolle.
Auch das stimmt, mit SATA Express, M.2 und NVMe schaffen es die SSDs als eigene HW Klasse in den Rechner einzuziehen und sind nicht mehr nur durch die Performance und fehlende Angabe einer Drehzahl von HDDs zu unterscheiden. Trotzdem bleibt das Kernproblem, wie man genug davon anbinden und unterbringen kann, wenn diese dann erst einmal preislich so gefallen sind, dass man nicht nur eine oder zwei im Rechner haben möchte, sondern sie die internen HDDs wirklich ablösen. Standard sind bei Desktopchipsätzen heute 6 SATA Ports, aber man wird kaum 6 PCIe Slot alleine für SSDs haben noch 6 M.2 Slots, außer man stellt diese senkrecht. Dann bleibt aber immer noch das Problem, dass die M.2 Karten wenig Platz für NANDs bieten und daher sage ich, dass die Lösung eben 2.5" (oder 3.5") und SFF-8639 Interface sein wird. Nicht heute oder morgen, aber übermorgen.
Herdware schrieb:
Wie gesagt, der "natürliche Zustand" einer SSD ist eigentlich eine Erweiterungskarte. Sie wie ein mechanisches Laufwerk in ein Gehäuse zu packen und in einen extra Laufwerksschacht zu montieren war nur eine Notlösung für eine Übergangsphase.
Das wird aber wieder kommen, eben weil man anders schwer sehr viele PCIe angebundene SSDs unterbringen kann. Das SFF-8639 Kabel verlängert die PCIe Lanes zu den Laufwerken die man dann wieder dort unterbringen kann, wo es passt.
Herdware schrieb:
In ein paar Jahren wird es ziemlich sicher kaum noch PC-Gehäuse geben, in denen überhaupt Laufwerksschächte vorhanden sind.
Wenn man nicht von solche Mini-Gehäuse wie NUC redet, dann sehe ich das nicht. Die Schächte braucht man noch eine Weile für HDDs, die Gehäuse und Netzteile haben ja auch heute noch fast alle eine Einbau- und Anschlussmöglichkeit für Floppylaufwerke, obwohl die Boards dies kaum noch haben und kein Mensch die mehr nutzt. Die 3.5" und 2.5" Einbauplätze werden also so bald auch nicht aus den Gehäusen verschwinden.
Herdware schrieb:
Der Trend zeichnet sich jetzt schon ab. (Und schon vorher werden sie in Notebooks komplett aussterben.)
Wirf nicht Notebook und Desktop durcheinander, das sind HW-mäßig wirklich zwei getrennte Welten. Das man im Notebook mit den HDDs die 2.5" Schächte rauswerfen wird, liegt in der Natur der Sache, denn man will ja meist möglichst kompakte Gehäuse erreichen.
Herdware schrieb:
Indem man die Laufwerksschächte und die dazugehörige Verkabelung los wird, fallen viele konstruktuive Beschränkungen beim Aufbau der Gehäuse weg. Es werden viel kompaktere PCs möglich
Die gibt es ja schon, von NUC über die Mini-ITX, aber nicht jeder will so etwas! Es wird auch weiter die Mini- und Maxi-Tower geben und wer eine potente HW unterbringen will und dazu auch eine größere Menge lokalen Storages, der wird weiterhin zu den größeren Gehäusen greifen (müssen).
Herdware schrieb:
Wobei ich es bei den MacPro für eine unglückliche Entscheidung halte, auf klassische interne PCIe-Steckplätze zu verzichten.
Wie Du sieht, erfordern kleine Größe eben auch Abstriche, die manchmal schmerzlich sind. Es gilt eben immer noch, dass man umso weniger ändern und nachrüsten kann, je kompakter das Gehäuse ist. Das war bei Apple ja nie die Philosophie, die wollen nie offene Systeme schaffen, aber bei normalen PCs gibt es noch genug Kunden, die auch individuelle Aufbauten und Konzepte verfolgen. Deren Anteil dürfte sogar steigen, da die klassischen Noops die einfach einen Fertig-PCs gekauft haben, heute meist auf Notebooks, Tablets oder Smartphones migriert sind.
Tekpoint schrieb:
Ok und warum kann man das nicht auf für normal Cosumenten bauen? Was ist dran so schwer?
WeltalsWille hat es auf den Punkt gebracht, es fehlen nur noch die Punkte Kosten und Leistungsaufnahme.
Herdware schrieb:
Irgendwann werden aber auch SSDs, die den heutigen Enterprise-Modellen entsprechen, für ein paar Hunderter an Consumer verkauft werde
Übrigens unterscheiden sich richtige Enterprise SSDs von Consumer SSDs auch noch durch den Schutz der internen Datenpfade vor Bitfehlern. Es gibt aber auch SSD die als Enterprise SSDs vermarktet werden aber so etwas nicht haben.