Warum kein SATA mehr?

@Khorneflakes : Die Lösung mit dem DAS verstehe ich noch weniger. Erstens hab ich doch dann ein Anbindungsproblem, weil ich bei bezahlbaren Lösungen plötzlich auf mehrere HDDs über USB3.2 mit maximal 10GB/s oder meist eher 5GB/s zugreife (sowas wie TB oder externes SAS ist ja viel teurer), und dann hab ich doch trotzdem noch die lauten Dinger relativ nah neben mir.
Löst nur das Problem, dass die HDDs im Gehäuse Platz wegnehmen, den ich vielleicht für eine WaKü haben möchte, und dass es auch nur noch wenige Gehäuse für viele HDD gibt.

Die Entwicklung müsste eigentlich dahin gehen, dass sparsame Controller entwickelt werden, die dann aber große Mengen billigen, langsamen QLC-NAND anbinden können, um große, sparsame, langsame SSD zu ermöglichen, die HDDs zumindest mehr als Massenspeicher ersetzen können als aktuell. Da reicht dann auch U.2 oder SAS als Anbindung.
 
Läuft dann natürlich auf SAS hinaus, klar. Lautstärke ist kein Problem, das kriegt man in den Griff. Das ist nicht lauter als andere Lösungen.

Energieeffizienz ist ein großes Problem, was so langsam erst angegangen wird. Deswegen sagte ich ja, dass €/TB oder W/TB für viele kein Thema ist, während es für andere extrem wichtig ist.

PCIe-SSDs sind im Moment unwirtschaftlich teuer nach beiden Maßstäben. Da muss sich noch viel tun, bevor das eine Alternative zu SATA und SAS HDDs und SSDs wird, aber dann bleibt das Problem der Systeminfrastruktur. PCIe-Lanes wachsen nicht auf Bäumen.
 
Tigerfox schrieb:
Die Entwicklung müsste eigentlich dahin gehen, dass sparsame Controller entwickelt werden, die dann aber große Mengen billigen, langsamen QLC-NAND anbinden können, um große, sparsame, langsame SSD zu ermöglichen, die HDDs zumindest mehr als Massenspeicher ersetzen können als aktuell.
Gerade mit QLC kann man keine mechanische Festplatte ersetzen, denn die Magnetschicht altert quasi garnicht im Vergleich zu den Zellen einer SSD. Bei QLC geht man von maximal 1000 Löschzyklen aus.
 
  • Gefällt mir
Reaktionen: Banned
Genau HDDs kann man so oft neu beschreiben, da sind eigentlich alle SSDs schon lange totgeschrieben. Nur versagt dann irgendwann eben die Mechanik. Mich würde wirklich mal interessieren, wie es da so mit der Lebensdauer im Vergleich zu Enterprise-SSDs aussieht, die zwar auch irgendwann totgeschrieben sind, aber eben keine Mechanik haben, die irgendwann versagt.

Aber ja, mit QLC kann man da nicht gegen anstinken. In Workloads, wo fast ausschließlich gelesen wird, sind SSDs dann hingegen klar im Vorteil, auch mit QLC.
 
bisy schrieb:
Nicht ganz, für SATA SSDs wäre AHCI das Protokoll...
Nein. AHCI ist eine Schnittstellendefinition zum SATA Controller hin, so dass ein Standardtreiber für unterschiedliche SATA Controller funktioniert. Also wie spricht das OS mit dem Controller, nicht wie spricht der Controller mit dem Device. Der Controller selber spricht mit dem Device mit einem erweiterten ATA Command Set. Genau deshalb heißt es ja auch Serial-ATA. Protokolltechnisch gibt es kaum Unterschiede zu dem ATA was über PATA ging.

Tigerfox schrieb:
Dazu bräuchte es aber einen Standard im SATA-Format, um diese mit mindestens PCIe5.0x4 verkabeln zu können...
Nennt sich CopprLink bzw. existierte schon vor der offiziellen Marketingbezeichnung als MCIO. So ein x4 MCIO Connector ist nicht viel größer als ein SATA Connector.

Tigerfox schrieb:
Oculink ist kleiner, kann auch x8 (aber AFAIK auch nur Gen4), ist aber auch nicht stapelbar.
Oculink ist tot oder um es freundlicher zu formulieren, zu Ende entwickelt, so wie SATA. Der Connector ist elektrisch nicht für Gen5 geeignet und wird nicht mehr weiterentwickelt. In die Fußstapfen ist MCIO getreten.

Tigerfox schrieb:
..., mit Luft für die Zukunft, und auch wesentlich mehr PCIe-Lanes im Chipsatz. Das gibt es nicht.
Ja, das ist das eigentliche Problem im Consumer Bereich. Egal wie man sich dreht und wendet mit möglichen Schnittstellen, es gibt einfach keine verfügbaren PCIe Lanes. Zumindest wenn man den Anspruch hat alles voll anzubinden.
 
  • Gefällt mir
Reaktionen: Tigerfox
Chuuei schrieb:
Ja, das ist das eigentliche Problem im Consumer Bereich. Egal wie man sich dreht und wendet mit möglichen Schnittstellen, es gibt einfach keine verfügbaren PCIe Lanes. Zumindest wenn man den Anspruch hat alles voll anzubinden.
Naja, man hat ja bei AM5 schon bis zu 4-8xGen5 an der CPU und am Chipsatz 8-12xGen4 (B650/X870 bzw. X670/X870E), zusätzlich zu 4-8xGen3.
Bei Intel hat man nun sogar 4xGen5 und 4xGen4 an der CPU und bis zu 24xGen4 am Chipsatz.

Auf AMD-Mainboards finden sich meist 3-5, bei Intel 4-6 M.2-Slots, die man auch für verkabelte Lösungen nutzen kann.
Natürlich, wenn man noch Lanes mit PCIe-Slots shared machen will oder etwas anderes wie 10GbE, USB4/TB4 anbinden will, bleiben weniger Lanes übrig.
 
Banned schrieb:
Genau HDDs kann man so oft neu beschreiben, da sind eigentlich alle SSDs schon lange totgeschrieben. Nur versagt dann irgendwann eben die Mechanik. Mich würde wirklich mal interessieren, wie es da so mit der Lebensdauer im Vergleich zu Enterprise-SSDs aussieht, die zwar auch irgendwann totgeschrieben sind, aber eben keine Mechanik haben, die irgendwann versagt.
Eben wegen der Mechanik haben auch HDDs einen spezifizierten Workload pro Jahr. Auch da ist die Menge der geschriebenen und gelesenen Daten nicht unbegrenzt. Die Menge ist nicht unbedingt größer als bei SSDs.

Früher hatte ich bergeweise kaputte HDDs im Büro, die sterben halt früher oder später auch im Idle, was bei vielen Servern der Fall ist. Bei SSDs sind die Ausfallquoten so gering, dass wir sie gar nicht mehr erfassen und einpreisen.

Unter Last, kommt drauf an. Kein Kunde macht sich Gedanken über den Workload von seinem Storage, die legen einfach los. Trotzdem verzeichnen wir da keine relevanten Ausfallzahlen. Ich hatte auch schon Read Intensive SSDs mit 1 DWPD als Caches, aber weil die 3,84 TB groß waren, war das auch nach vielen Jahren kein Problem. Das DWPD-Rating ist eigentlich auch überholt, seit SSDs nicht mehr nur 200, 400 und 800 GB groß sind und nicht mehr nur SLC nutzten.

Wenn man jetzt jeden Tag, fünf Jahre lang, mehrere TB auf ein Laufwerk schreiben muss, dann muss man sich dessen einfach nur bewusst sein und seinen Storage entsprechend wählen, dann hat man keine Ausfälle zu erwarten, die über das übliche Grundrauschen hinausgehen.
 
  • Gefällt mir
Reaktionen: Rickmer
Tigerfox schrieb:
Naja, man hat ja bei AM5 schon bis zu 4-8xGen5 an der CPU und am Chipsatz 8-12xGen4 (B650/X870 bzw. X670/X870E), zusätzlich zu 4-8xGen3.
Bei Intel hat man nun sogar 4xGen5 und 4xGen4 an der CPU und bis zu 24xGen4 am Chipsatz.
Ja, und das ist doch quasi nichts. Man kann 1-2 m.2 PCIe SSDs anschließen an der CPU und das wars wenn man davon ausgeht, das der x16 Slot von der GPU genutzt wird. Selbst beim X870(E) der AM5 Plattform, hängt der komplette Chipsatz mit sämtlicher daran angeschlossener Peripherie und allen weiteren m.2 SSDs an einem einzigen Gen4x4 Link (https://pics.computerbase.de/1/1/4/1/4/2-836287a1018c0e34/43-2160.ff300839.jpg). Klar bekommt man physisch mehr Devices angeschlossen aber man ist an allen Ecken und Kanten bandbreitenbeschränkt.

Zugegeben, für die allermeisten Leute reicht das vollkommen aus, gerade für diejenigen für die ein PC einfach nur ein notwendiges Werkzeug ist, den fertig kaufen und sich nicht weiter mit beschäftigen wollen. Aber sobald man irgendwelche Extrawünsche hat, scheidet Consumerhardware fast automatisch auf. Ganz ungeachtet der elektrischen Anbindung, muss man ja schon froh sein, überhaupt erstmal physische weitere PCIe Steckplätze zu finden für etwaige Controllerkarten und Co.
 
Denke SATA kommen trotzdem noch in Verwendung, denn wenn alle M.2 Steckplätze belegt sind und weitere Laufwerke benötigt werden. Denn dann lassen sie sich noch per SATA weitere SSDs mit einbinden. In meinem Fall habe ich bereits alle meine vier M.2 Slots belegt und habe jetzt bereits eine SATA SSD noch mit dran hängen.

Eine SATA M.2 könnte ich aber mit einem Adapter noch per Kabel anschließen und dann den freien M.2 Slot noch mit einer NVMe SSD neu belegen. Eine HDD habe ich aber per USB-Anschluss von extern mit dran hängen. Solange NVMe M.2 so günstig sind, lohnen sich SATA auch nicht, zumindest wenn noch dazu freie Steckplätze vorhanden sind.
 
LiniXXus schrieb:
Denke SATA kommen trotzdem noch in Verwendung, denn wenn alle M.2 Steckplätze belegt sind und weitere Laufwerke benötigt werden.
Würde sogar eher sagen, dass 2.5 Zoll SATA bis auf die System-SSD die erste Wahl ist.
Bei Datengräbern ist das Handling wichtiger als die theoretische maximale Geschwindigkeit.
Eine 2.5 Zoll SSD ist mit dem Schutz durch das Gehäuse, der Verbreitung von SATA und Hot-Plug meilenweit im Vorteil.

LiniXXus schrieb:
Solange NVMe M.2 so günstig sind, lohnen sich SATA auch nicht
Wo siehst du einen großen preislichen Unterschied zwischen M.2 PCIe und SATA 2.5"?
Die billigen M.2 haben nur QLC. Mit DRAM-Cache und TLC ist M.2 auf einmal genauso teuer.
 
Mit QLC kaufe ich ehe keine SSDs, nur mit TLC.
 
Vindoriel schrieb:
Gerade mit QLC kann man keine mechanische Festplatte ersetzen, denn die Magnetschicht altert quasi garnicht im Vergleich zu den Zellen einer SSD. Bei QLC geht man von maximal 1000 Löschzyklen aus.
Und das ist ein Problem weil?

Wenn du eine QLC als Caching SSD nutzt ist das eine Entscheidung die in etwa so sinnvoll ist wie eine SMR HDD als Ziel für Überwachungskameras zu nutzen. Na klar fällt das auf die Fresse.

Für normale read-heavy Workloads funktioniert QLC prima und hat mehr als genügend Löschzyklen.

Banned schrieb:
Genau HDDs kann man so oft neu beschreiben, da sind eigentlich alle SSDs schon lange totgeschrieben. Nur versagt dann irgendwann eben die Mechanik. Mich würde wirklich mal interessieren, wie es da so mit der Lebensdauer im Vergleich zu Enterprise-SSDs aussieht, die zwar auch irgendwann totgeschrieben sind, aber eben keine Mechanik haben, die irgendwann versagt.

Selbst Enterprise HDDs sind mit 'nur' 550 TB jährlicher Workload für schreiben und lesen spezifiziert. Selbst wenn man von einer 50/50 Verteilung ausgeht sind das dann 225TB pro Jahr an Writes.

Eine moderne Enterprise SSD hat TBW von zweistelligen Petabytes, da ist eine HDD schon lange weggerostet: https://geizhals.de/micron-7450-pro...5-36tb-mtfdkcc15t3tfr-1bc1zabyy-a2757808.html

Und das ist nur eine 'read intensive', mit 'mixed use' kommt man noch viel weiter.
 
Rickmer schrieb:
Selbst Enterprise HDDs sind mit 'nur' 550 TB jährlicher Workload für schreiben und lesen spezifiziert.

Dazu mal ne Quelle. Danke. :)

Außerdem ist dieser Wert doch innerhalb eines bestimmten Zeitraums zu interpretieren. Es ist ja nicht so wie bei einer SSD, dass die HDD nach X TBW quasi totgeschrieben ist. Der Wert an sich ohne Eingrenzung eines Gesamt-Zeitraums hat so alleine erst mal gar keine Aussagekraft.

Und unter einem Workload verstehe ich das Ausmaß der Nutzung, das vom Hersteller getestet wurde und für welches dieser einsteht. Wann eine Speicherzelle hingegen nahezu totgeschrieben ist, kann sicherlich relativ fest eingegrenzt werden, weshalb für SSDs eine TBW spezifiziert wird.
 
Zuletzt bearbeitet:
Banned schrieb:
Dazu mal ne Quelle. Danke. :)
Jedes HDD Datenblatt

z.B. für Toshiba MG10 SERIES:
550 Total TB Transferred per Year Workload Rating
Workload is defined as the amount of data written, read or verified by commands from host system.
https://gzhls.at/blob/ldb/5/6/0/4/6fb412fcf520b4d536f5748101b671754792.pdf

Von Geizhals abgerufen da ich faul bin

Die Hersteller nehmen sich da nichts, die Angaben diesbezüglich sind bei WD, Seagate und Toshiba praktisch identisch.

Banned schrieb:
Außerdem ist dieser Wert doch innerhalb eines bestimmten Zeitraums zu interpretieren. Es ist ja nicht so wie bei einer SSD, dass die HDD nach X TBW quasi totgeschrieben ist. Der Wert an sich ohne Eingrenzung eines Gesamt-Zeitraums hat so alleine erst mal gar keine Aussagekraft.
Die Hersteller beschränken das natürlich auf die Zeitdauer der Herstellergarantie. Bei enterprise HDDs üblicherweise 5 Jahre.

Banned schrieb:
Wann eine Speicherzelle hingegen nahezu totgeschrieben ist, kann sicherlich relativ fest eingegrenzt werden, weshalb für SSDs eine TBW spezifiziert wird und für HDDs m.W. eher nicht.
Tjoa - nur, dass nachweislich SSDs gerne weit über die definierten TBW hinaus funktionieren. Wie bei HDDs ist das mehr eine Sache der Herstellergarantie als der physischen Grenzen.
 
  • Gefällt mir
Reaktionen: TomH22
Also in diesem Link heißt es:

Maximum rate of 300TB/year. Workloads exceeding the annualized rate may degrade the drive MTBF and impact productreliability.

Also wenn der Wert überschritten wird, kann das die MTBF herabsetzen. Es ist aber nicht so wie bei einer SSD, dass nach einem bestimmten Workload insgesamt zwangsläufig etwas (die Speicherzellen) so stark in Mitleidenschaft gezogen ist, dass der Hersteller dafür eine Spezifikation einführen muss.

Rickmer schrieb:
Tjoa - nur, dass nachweislich SSDs gerne weit über die definierten TBW hinaus funktionieren. Wie bei HDDs ist das mehr eine Sache der Herstellergarantie als der physischen Grenzen.

Ja super, mein Nachbar hat auch einen Golf 1 mit 350k km, der läuft auch noch wie ne Eins...

Es gibt doch wirklich viele Tests, die zeigen, dass stark runtergeschriebene Speicherzellen die Daten bei weitem nicht mehr so lange/zuverlässig halten können wie wenn diese noch "frisch" sind.

Dass bei SSDs dann die Fehler rapide ansteigen, kannst du z.B. hier sehen:

Bildschirmfoto vom 2024-10-28 10-19-59.png



Wie der Graph dann weitergeht, kann man sich vorstellen, ne?

Aus diesem Test hat sich dann damals auch der Mythos gebildet, dass SSDs mindestens einmal im Jahr an den Strom müssten, um ihre Daten nicht zu verlieren; dabei wurde dort eben mit SSDs getestet, die schon nahezu totgeschrieben waren:

https://www.anandtech.com/show/9248/the-truth-about-ssd-data-retention
 
Banned schrieb:
Dass bei SSDs dann die Fehler rapide ansteigen, kannst du z.B. hier sehen:
'rapide ansteigen' sagt er nachdem die SSD aus dem Beispiel das 10-fache ihrer TBW geleistet hat bevor der exponentionelle Anstieg wirklich los geht.

Banned schrieb:
Es ist aber nicht so wie bei einer SSD, dass nach einem bestimmten Workload insgesamt zwangsläufig etwas (die Speicherzellen) so stark in Mitleidenschaft gezogen ist, dass der Hersteller dafür eine Spezifikation einführen muss.
Na und?
Es ist ja nicht so, als ob die durchschnitts SSD vom Durchschnitts-User totgeschrieben wird.

Wenn du höhere Anforderungen hast musst du halt den Storage den Anforderungen entsprechend dimensionieren.

Ich wiederhole den QLC zu SMR Vergleich: Beide sind ungeeignet für Aufgaben, die ständiges schreiben erfordern.


In Praxis werden insbesondere größere SSDs nicht annähernd so stark gefordert wie sie könnten. Serve The Home hatte mal alle derer 1347 gebraucht gekauften SSDs ausgewertet:
https://www.servethehome.com/we-bought-1347-used-data-center-ssds-to-look-at-ssd-endurance-solidigm/
 
Banned schrieb:
Also wenn der Wert überschritten wird, kann das die MTBF herabsetzen. Es ist aber nicht so wie bei einer SSD, dass nach einem bestimmten Workload insgesamt zwangsläufig etwas (die Speicherzellen) so stark in Mitleidenschaft gezogen ist, dass der Hersteller dafür eine Spezifikation einführen muss.
Hm? Ja doch, genau so ist das. Natürlich ist das nicht für HDDs und SSDs identisch, weil beide unterschiedlich funktionieren, aber prinzipiell verfolgen beide Angaben denselben Zweck.

Es ist ein Limit und wenn du das überschreitest, dann übernimmt der Hersteller keine Verantwortung mehr dafür, ob das Laufwerk noch so funktioniert wie vorgesehen. Ob das jetzt durch Verschleiß der Zellen oder der Mechanik eintritt ist in der Praxis nicht relevant. SSDs sind sogar im Vorteil, weil der SSD ist es relativ egal wie oft du Daten von ihr liest. Der HDD nicht.

HDDs ausnudeln ist ein Thema, insbesondere bei Leuten, die Desktop-Laufwerke im Dauerbetrieb unter Last laufen lassen. Exakt so ist es bei SSDs ein Thema, bei Leuten, die glauben sie könnten damit davonkommen und günstigere SSDs für Workloads einsetzen, die dafür nicht gedacht sind. Der Unterschied ist, dass letzteres bis zu einem gewissen Grad sogar funktioniert, wenn die SSD in Relation zum Workload groß genug ist. Große Read Intensive SSDs sind immer schreibfester als die Mixed Use und Write Intensive SSDs der vergangenen Generationen.

SSDs kaputtschreiben ist in der Praxis meistens kein Problem. Die wenigsten Workloads sind so heftig, dass du den kritischen Punkt auch nur in Sichtweite bekommst. Klar, es gibt sie, aber dann musst du das halt wissen und dich entsprechend vorbereiten. Und dann ist das trivial.
 
  • Gefällt mir
Reaktionen: massaker und Rickmer
Rickmer schrieb:
'rapide ansteigen' sagt er nachdem die SSD aus dem Beispiel das 10-fache ihrer TBW geleistet hat bevor der exponentionelle Anstieg wirklich los geht.

Mir scheint, du hast ein Problem beim Lesen der Darstellung bzw. des Graphen.

Einerseits ist dort ein Pfeil mit "TBW rating". Und wie du sehen kannst, setzt das exponentielle Wachstum schon vor dem Erreichen dieser Schwelle ein.

Andererseits sind 70GB*1000 = 70TB; also 1000 Rewrites mit dem 70GB Example. Also nichts mit das Zehnfache ihrer TBW.



Khorneflakes schrieb:
Es ist ein Limit und wenn du das überschreitest, dann übernimmt der Hersteller keine Verantwortung mehr dafür, ob das Laufwerk noch so funktioniert wie vorgesehen.

Nur dass HDDs eben nicht tracken, wie viele TB sie lesen oder schreiben (okay, bei Seagate könnte man das aus den Smart-Attributen berechnen) und es keinen festen Wert für die Gesamtschreibleistung gibt.
Ergänzung ()

Khorneflakes schrieb:
Die wenigsten Workloads sind so heftig, dass du den kritischen Punkt auch nur in Sichtweite bekommst. Klar, es gibt sie, aber dann musst du das halt wissen und dich entsprechend vorbereiten. Und dann ist das trivial.

Da stimme ich dir weitgehend zu. Dass das Berechnen eines Workloads trivial ist, sehe ich aber ganz und gar nicht. Mal als Beispiel: Du bist ein Filehoster. Du weißt nicht, wie oft deine Nutzer dort neue Dateien hochladen und die alten Löschen. Da kannst du wirklich nur grob auf Grundlage von Erfahrungswerten abschätzen, wie viele PB da pro Jahr geschrieben werden.
 
Zuletzt bearbeitet:
Ja Moment mal, dieser Graph ist kein praktischer Test, sondern eine Erklärung dafür wie die Spec funktionieren soll. Material submitted by Intel, Intel geht also davon aus, das beim erreichen der TBW von 20 Laufwerken eines einen korrupten Sektor hat. Ob das am Ende wirklich so ist, ist eine andere Frage.

Du hast nach Zahlen gefragt bzgl. HDDs vs. Enterprise-SSDs, weil man HDDs ja so oft neu beschreiben kann, da sind SSDs längst totgeschrieben. Ich kann es nur wiederholen, seit der Umstellung auf SSDs habe ich eigentlich gar keine relevanten Ausfallraten mehr im RZ. Willst du sagen, dass HDDs möglicherweise ein größeres Langzeitpotenzial haben bzgl. Haltbarkeit, weil es irgendwo einen Schnittpunkt zwischen den Ausfallraten gibt und Verschleiß der Zellen ab dann signifikanter ist als mechanischer Verschleiß der HDDs?

Banned schrieb:
Da kannst du wirklich nur grob auf Grundlage von Erfahrungswerten abschätzen, wie viele PB da pro Jahr geschrieben werden.
Nun, klar, du musst dich von der Idee lösen, dass du immer und jederzeit alle Umstände kontrollieren kannst, je nach dem was du genau hostest. Ich sagte ja, die Kunden interessiert die Spezifikation des Storage nicht. Die legen einfach los.
 
Zurück
Oben