Desktop SSDs in Server nutzen

jb_alvarado

Lieutenant
Registriert
Sep. 2015
Beiträge
568
Hallo Allerseits,
ich wollte euch fragen, ob ihr Erfahrungswerte mit dem Einsatz von gewöhnlichen Desktop SSDs in Serverumgebungen habt?

Ich plane zur Zeit einen kleinen VM Cluster, wozu ich das ASUS RS300-E10-PS4 Barebone herausgesucht habe. Darin möchte ich zwei Samsung SSD PM991 256GB M.2 (Raid1) für das System einbauen und zwei Samsung SSD 860 EVO 2TB SATA (Raid1) als Storage für die VM-Images. Geplant wären drei dieser Server, mit GlusterFS und oVirt.

In zwei VMs werden MS Datenbanken drin laufen, die werden daher mehr Schreibzugriff haben, alle anderen VMs werden wohl hauptsächlich lesen.

Das ich bei den SSDs eine geringer Lebensdauer erwarten kann, kann ich verschmerzen. Die Frage ist eher die Zuverlässigkeit und der Dauerbetrieb -> da habe ich keine Ahnung von. Regelmäßige Backups ist klar.

Nutzt von euch jemand diese SSDs im Serverumfeld und hat hier Erfahrungen, die er teilen möchte?
 
24/7 Betrieb ist auch mit Consumer Hardware grundsätzlich problemlos möglich. Genau wie bei Hardware auf der ein "Server Aufkleber" drauf ist, sollte man natürlich die richtigen Komponentenauswahl achten. Bestellst du die Hardware B2B oder als normaler Kunde? -> Wenn letzteres auch darauf achten das du Support bekommst. Bei den PM Samsung SSDs gibt es nämlich keinen Support für "normale" Kunden.

Wenn du natürlich was kaufen möchstest, was fürs Rechenzentrum designt ist, dann könntest du Beispielweise auf die Kingston DC1000B NVMe SSDs und Kingston Data Center DC500R SATA SSDs oder Kingston Data Center DC500M SATA SSDs setzen.
 
Zuletzt bearbeitet:
24/7 ist für fast jede Elektronik gesünder als ständiges Ein- und Ausschalten
 
Produktiv oder im Heim-Bastel-Betrieb?

Ich habe jetzt keine persönlichen Erfahrungen, aber je nachdem was auf die Datenbanken kommt würde es mich nicht wundern wenn es die SSDs ziemlich schnell zerrockert.

Ansonsten ist bei Writes auf Datenbanken (was fast sicher sehr viele kleine Writes sind) mit SLC-Cache dann eine ziemlich hohe write amplification erreicht. Die 1.2PB TBW werden möglicherweise nicht ansatzweise erreicht bevor die SSDs anfangen auszusteigen - und falls dem so ist wird dir auch das Raid 1 nichts mehr bringen weil die dann alle fast gleichzeitig aussteigen dürften.

Ein Beispiel vom Produktdatenblatt der Micron 5210 ION (weil ich wusste wo ich da was finden kann) aber dürfte nicht komplett unähnlich auch für deine Situation zählen:
2020-10-08 14_25_38-Micron 5210 SATA QLC SSD Product Brief - 5210_ion_ssd_product_brief.pdf.png


Beachte, wie heftig der DWPD Wert einbricht bei vielen kleinen Writes - und das ist eine Server-SSD ohne SLC-Caching und dem damit verbunden multiplikativem Effekt von Writes.
Klar, TLC vs QLC, möglicherweise verschieden große Sektoren, etc... aber trotzdem gilt das Prinzip grundsätzlich für alle SSDs gleich.

(Verschieden große Sektoren kann man da auch an 2TB vs 8TB sehen - die 1.92TB hat offensichtlich 4K große Sektoren, die 7.68TB hat 16K große Sektoren. Wer weiß, wie groß die Sektoren auf der 860 Evo sind.)


Ansonsten, was Nizakh sagt:
  • 24/7 Betrieb sollte grade bei SSDs eigentlich auch für Consumer-Hardware kein Problem sein (anders als HDDs, die teilweise nur für 8h/Tag Betriebszeit gespecct sind)
  • Du bekommst halt nur normalen Consumer-Support
  • Das Feature-Set der SSDs ist falsch, SLC-Caching ist für dein Zweck eher ein Nachteil und dafür hat die SSD z.B. keine power loss protection verbaut
 
  • Gefällt mir
Reaktionen: qqALEXpp
Rickmer schrieb:
Das Feature-Set der SSDs ist falsch, SLC-Caching ist für dein Zweck eher ein Nachteil und dafür hat die SSD z.B. keine power loss protection verbaut
Das sind eigentlich so die Hauptdinger

jb_alvarado schrieb:
Samsung SSD PM991 256GB M.2 (Raid1)
wichtiger als die Wahl der SSDs finde ich hier eher ob das NVMe RAID nativ vom UEFI gebaut wird. Und falls es nativ vom UEFI kommt, wie stellt man es im Fall der Fälle wieder her? Sind die SSDs einzeln bootfähig? Kann ein neues Board die RAID Infos auslesen und das RAID bootet auf einem Ersatzboard auf Anhieb?
Rickmer schrieb:
die 1.92TB hat offensichtlich 4K große Sektoren, die 7.68TB hat 16K große Sektoren
wie kommst du darauf anhand des Screenshots?
 
Ich sag mal so: Ich habe zwei Samsung 830Pro 256GB (aber nicht im Raid) und eine MX500 2TB im Dauereinsatz als VM Server. Bisher keinen Stress damit gehabt. Natürlich nur im Heim und Hobbybereich.
 
Ich danke euch für die Antworten! Alles sehr informativ, bei manchen Begriffen muss ich mich noch etwas einlesen. Was ich noch nicht verstehe ist, warum SLC in diesem Fall nicht gut ist. Hier wird geschrieben, dass SLC die längste Lebensdauer hat: http://industrial.adata.com/de/technology/74

Zu den Fragen noch:
  • ich bestelle nicht als privat Person, sondern arbeite für einen gemeinnützigen Verein
  • das ganze soll produktiv laufen
  • die Datenbanken sind für Buchhaltung und Shopdaten
  • wahrscheinlich werden die Raids mittels MDADM erstellt
Da wir ein Verein sind, ist mir wichtig ein möglichst günstiges System zu haben, was aber zuverlässig läuft. Support ist mir da nicht so wichtig und wenn mal einer der drei Server für ein paar Tage ausfällt, wäre das zu verkraften.
 
Das schöne an VMs ist doch, dass du sie einfach sichern kannst. Entweder als Snapshot oder eben kurz runterfahren. Da würde ich mir für dein Umfeld nicht so viele Gedanken machen. Denk lieber drüber nach wie du im Fehlerfall (Platte oder andere HW) schnell wieder ein funktionierendes System herstellen kannst.
 
jb_alvarado schrieb:
Was ich noch nicht verstehe ist, warum SLC in diesem Fall nicht gut ist.

Die Nachteile das SLC-Caching (MLC- TLC- QLC- Zellen werden als SLC- Zellen angesprochen) werden in dem von dir verlinkten Artikel doch auch besprochen. Der gravierendste Nachteil ist jedoch der zusätzliche Kopiervorgang in den TLC der SSD was wiederum auf die Haltbarkeit geht.

Nicht zu versessen nur weil eine TLC-Zelle als SLC-Zelle angesprochen wird, erfährt sie dennoch nicht die Haltbarkeit einer echten SLC-Zelle, da bei einer TLC-Zelle zwischen deutlich mehr Spannungslevel unterscheiden werden muss.

Bezüglich der NVMe SSD wäre die Kingston DC1000B Data Center Series Boot SSD auch ncoh einen Blick wert, da diese preislich sehr attraktiv für eien Server SSD positioniert ist und natürlich auch eine Power-Loss Protection beitet.
 
Zuletzt bearbeitet:
Ok, jetzt verstehe ich das. Aber wenn die Platte jetzt nur knapp 5 Jahr halten würde, und der TBW noch nicht erreicht wäre, könnte man ja immer noch auf die Garantie zurückgreifen. Das hätte ja auch was für sich.

Und wenn die Platte erst nach dem Garantiefall ausgetauscht werden muss, finde ich das immer noch ok.

Blöd ist natürlich was Rickmer meinte, dass die SSDs gleichzeitig ausfallen können. Aber das hat man ja bei gewöhnlichen HDs auch.
 
Der Aufpreis zu den sogenannten Prosumer Modellen, wie den WD Red SSDs, oder den Entry-Level-Server-Grade wie der Kingston Data Center Series, ist jetzt nicht so sonderlich groß.

Aus diesem Grund würde ich vor allem, wenn ein 24/7 Betrieb angedacht ist, gleich von vorne herein Nägel mit Köpfen machen und speziell dafür ausgelegte Hardware kaufen.
 
  • Gefällt mir
Reaktionen: LukS
h00bi schrieb:
wie kommst du darauf anhand des Screenshots?
Siehe die DWPD Werte bei 100% 16K writes, 8K writes und 4K writes über die verschiedenen Größen der SSDs an

Bei 1.92TB sind es konstant 0.2 DWPD von 16K bis runter zu 4K -> jeder 4K Write schreibt einen Sektor
Bei 7.68TB sind es 0.2 DWPD auf 16K, 0.1 auf 8K und 0.05 auf 4K -> der logische Schluss ist, dass ein Sektor 16K groß ist und bei kleineren zu schreibenen Datenmengen hier trotzdem 16K auf das physische Medium geschrieben werden müssen weil der Kontroller eine granularere Auflösung nicht kann
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS
Zurück
Oben