News Toshiba MG11 mit 24 TB: Server-Festplatten mit 1 GB Cache und über 300 MB/s

raychan schrieb:
Musst schon größere Dateien schreiben um die Geschwindigkeit besser beurteilen zu können, Synology nutzt bei dir 16,1GB des Ram als Cache.
Das stimmt schon und hatte auch einen bestimmten Grund, weshalb ich mir 16 GB zu den 2 GB (DS 220+), die bereits fest verbaut sind, noch mit einzubauen.

Habe es jetzt aber genauer austesten wollen und habe ein Verzeichnis mit der Installation von COD mit 220 GB als RAR-Datei gepackt und mal testweise auf meine NAS kopiert. Das mit dem Cache hatte ich mir auch bereits gedacht, aber noch nicht ausgiebig ausgetestet.

Im Schnitt sind es um die 245 MB/s gewesen.
Schwankte aber zwischen 240 - 250 MB/s.

Ist jetzt mit 2,5 GBit/s aber trotzdem besser, als zuvor, mit der 1 GBit/s Netzwerkanbindung und 113 MB/s.
(ca. doppelt so schnell.)
Ashampoo_Snap_Mittwoch, 11. September 2024_10h3m48s.png Ashampoo_Snap_Mittwoch, 11. September 2024_10h4m55s.png Ashampoo_Snap_Mittwoch, 11. September 2024_10h5m39s.png

Schnelle Festplatten bringen daher auch nur was, wenn andere Faktoren nicht zum Limit werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sherman789, raychan, TempeltonPeck und eine weitere Person
Vielleicht nicht der
RavensRunner schrieb:
Wenn ich 7 solche in Raid 6 Verbund verbauen will, welcher hardwareraidcontroller kommt den mit der buildgröße überhaupt zurecht?
Hatte mal ein Dell perc-5i aber das ist schön +10 Jahre her...
Wenn er nicht zu alt ist, dann jeder brauchbare Controller.

Aber RAID6 über so große Spindeln ist nicht unbedingt eine gute Idee.
 
  • Gefällt mir
Reaktionen: feris
GR Supra schrieb:
Eine Entry-Level-Pro-SSD kostet mit Support deutlich über 5k für 30TB. Eine! Und die ist dann bei 1DWPD RI.
Ich muss dazu aber sagen, dass mir spontan kein Anwendungsscenario einfällt, das ernsthaft eine große Anzahl SSDs mit 30TB und 3DWPD (oder besser) erfordert.

Bei STH hatten die mal deren 1347 gebrauchten SSDs analysiert und festgestellt, dass nur die kleinen SSDs ernsthafte DWPD erhalten hatten. Die SSDs mit 1TB und größer waren alle weit unter 1DWPD:
https://www.servethehome.com/we-bought-1347-used-data-center-ssds-to-look-at-ssd-endurance-solidigm/
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai und Cool Master
Rickmer schrieb:
und festgestellt, dass nur die kleinen SSDs ernsthafte DWPD erhalten hatten

Genau deswegen gibt es das TBW Limit von den Herstellern ;) Ansonsten ja, 30 TB Laufwerke sind eher die Ausnahme und nicht die Regel. Sieht man ja auch an den HDDs, dass selbst 4 TB noch im Einsatz sind.
 
Sicherlich fallen Anderen sofort Szenarien ein. Wir machen z. b. Big-Data, KI, SQL, HPC usw... Da gib es Systeme die mit 30TB SSDs wirtschaftlich sind oder wären. Und es gibt viel größere Anwendungsfälle...
 
RavensRunner schrieb:
Wenn ich 7 solche in Raid 6 Verbund verbauen will, welcher hardwareraidcontroller kommt den mit der buildgröße überhaupt zurecht?
Hatte mal ein Dell perc-5i aber das ist schön +10 Jahre her...
Als Privatmensch würde ich gar kein Hardware-RAID mehr bauen. Die Karten kosten ordentlich, saufen ordentlich und wenn sie mal kaputt gehen, muss man soweit ich weiß ein identisches Ersatzgerät finden, um wieder an die Daten ranzukommen (außer man hat ein aktuelles Backup, aber bis das wieder reingespielt ist, vergehen auch Tage).

Deshalb nur noch Software, die CPUs sind ja heutzutage schnell genug. Und du kannst die Platten zwischen Rechnern hin und her umziehen, das RAID wird dann trotzdem erkannt. Als Linuxler hab ich leicht Reden, ich nehme einfach ZFS und bin glücklich. Keine Ahnung, was es in der Windows-Welt gibt (storage spaces?).
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, bad_sign, DaBzzz und 2 andere
GR Supra schrieb:
Wir machen z. b. Big-Data, KI, SQL, HPC usw... Da gib es Systeme die mit 30TB SSDs wirtschaftlich sind oder wären.
Klar, aber das braucht doch alles nicht 1 DWPD geschweige denn 3+ DWPD?
 
Donnerkind schrieb:
Keine Ahnung, was es in der Windows-Welt gibt (storage spaces?).
Keine Ahnung, solche Datenmengen stellt man dann eher im NAS bereit und die laufen i.d.R. mit Linux, egal ob ein NAS von der Stange oder Selbstgebaut. Und natürlich SW-RAID.
 
Rickmer schrieb:
Klar, aber das braucht doch alles nicht 1 DWPD geschweige denn 3+ DWPD?
Auch. Das wird aber beim Design berücksichtigt, sonst ist die SSD schnell kaputt.
Angenommen man schreibt da die Logs drauf und loggt entsprechend, dann sind 30TB am Tag nicht genug. Jetzt könnte man sagen, das macht doch keiner, stimmt vielleicht. Aber der Coder will gerne eine Million Files zu 50KB durchsuchen, das geht auf einer SSD sehr gut und der HPC kann den Workload über 100, 1000 CPUs gut skalieren. Dann arbeitet man auch so.

Wie gesagt, nur ein hinkendens Beispiel, was viele Entscheidungen ermöglicht und auch vorher einfordert.

Unsere Horizon Hosts haben 2x 10DWPD und seit 2024 kommen dort "nur" zwei 3,8TB Modelle zum Einsatz.
Unsere DGXe haben im SAN 12 NVME SCMs und 60 NVME SSDs und zusätzlich NVRAM, weil sie die DWPD nicht bringen, die die Modelle benötigen.
Unsere Powerscales haben SSDs auch als QLC, weils günstig ist und ein NAS ist.
Unsere Powervaults bringen rechnerisch knapp 600 Spindel unter pro Rack und für den Post habe ich gerade mal gezählt, das fetteste Rack hat im Moment, 432 Spindel zu 2,4TB mit 10k.

Es ist also immer eine frage des Anwendungsfalls und wie du rechnest.

Mann könnte die Storages auch zusammenfassen und die Protokolle über bestimmte Köpfe anbinden, dazu muss man aber in allen Bereiche Know How haben. Macht weitere 10+ Stellen und pro Stelle geht nichts unter 100k im Jahr. Da kauft man dann eben spezialisierte Appliances oder geht in die Cloud, wenn man darf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sherman789 und Rickmer
RavensRunner schrieb:
Wenn ich 7 solche in Raid 6 Verbund verbauen will, welcher hardwareraidcontroller kommt den mit der buildgröße überhaupt zurecht?
Hatte mal ein Dell perc-5i aber das ist schön +10 Jahre her...
ganz ehrlich? im Privatbereich würde ich kein Hardware-Raid mehr nehmen sondern Software-Raid. Wie schon gesagt wurde musst du sonst wenn dir der Controller defekt geht genau den selben kaufen und hoffen das dann wieder alles funktioniert. Ich selbst habe schon länger ein Windows Software Raid(Windows Storage Spaces) am laufen mit 13 Platten im quasi RAID6 und das funktioniert super. Du kannst sogar einfach den PC "austauschen" und der Pool wird problemlos am neuen PC erkannt. Man muss sich da aber echt einlesen. Man liest auch ab und zu von fällen wo wohl das Raid sich zerschossen hat aber das ist meistens auf falsche Handhabung zurück zu führen. Storage Spaces gibt es ja nun schon etliche Jahre und die Kinderkrankheiten sind raus. Außerdem wird das ganze ja auch auf unzähligen Windows Servern auf der ganzen Welt eingesetzt. Bei mir habe ich alle Festplatten über USB an dem PC und den Pool so erstellt das selbst bei einem Ausfall von 2 Festplatten der Pool keine Probleme bekommt. Wenn man die Columns richtig einstellt steigert sich zusätzlich die Effektive Nutzbare Kapazität von 66% im RAID5 zum Beispiel auf unglaubliche 80% wie es bei mir der Fall ist. Ich habe also von der Gesamtkapazität der Festplatten gerade einmal 20% verloren und habe trotzdem eine Ausfallsicherheit die den Ausfall von 2 Laufwerken gleichzeitig verkraftet. Und sollte mal ein USB-HUB von einer Festplatte defekt sein wird der einfach ausgetauscht und weiter gehts.
 
GR Supra schrieb:
Ich würde mich aber auch über was Neues bei 2,5" Spindeln freuen.

Die 3,5er aus der News sind in großen 3U oder 5U JBODs gut aufgehoben und die Controller mit dem 1GB Cache was anzufangen wissen.
Für den Cache sind Controller mit Akkus/Kondensatoren vorhanden, ich würde in keinem Storage oder Server den Cache aktiv lassen. Die bejubelten 1 GB sind für mich sehr fraglich, solange keine Technik vorhanden ist, die für einen Datenerhalt bzw. das nötige wegschreiben vor Stillstand sorgt.
Ergänzung ()

HFGFZTFKUG schrieb:
ganz ehrlich? im Privatbereich würde ich kein Hardware-Raid mehr nehmen sondern Software-Raid. Wie schon gesagt wurde musst du sonst wenn dir der Controller defekt geht genau den selben kaufen und hoffen das dann wieder alles funktioniert.
Dem muss ich klar widersprechen. Es ist üblich, dass auch andere Baureihen derselben Hersteller in der Lage sind, die RAIDs zu importieren. Solche Wechsel habe ich z.B. schon bei HP gemacht.
Abgesehen davon ist bei vielen Volumenprodukten wirklich kein Mangel auf eBay und co vorhanden.
Faktisch ist für den Heimbedarf aber auch ein ZFS RAID sicher eine gute Lösung.

7 HDDs in einem RAID6 sind aus Leistungsbetrachtung aber Käse. Es sollten 6 oder 10 sein. Wenn die Leistung sekundär ist, kann man das natürlich tun.
 
Zuletzt bearbeitet:
Nagilum99 schrieb:
Für den Cache sind Controller mit Akkus/Kondensatoren vorhanden, ich würde in keinem Storage oder Server den Cache aktiv lassen. Die bejubelten 1 GB sind für mich sehr fraglich, solange keine Technik vorhanden ist, die für einen Datenerhalt bzw. das nötige wegschreiben vor Stillstand sorgt.
Ergänzung ()

Stromausfall ist noch mal ein anderes Thema.

Meine Aussage bezog sich auf Command Queuing und sonstige Optimierungen professioneller Storages. Die Leben von den Caches.
 
LiniXXus schrieb:
Habe es jetzt aber genauer austesten wollen
Klasse. :)

LiniXXus schrieb:
Ist jetzt mit 2,5 GBit/s aber trotzdem besser, als zuvor, mit der 1 GBit/s Netzwerkanbindung und 113 MB/s.
(ca. doppelt so schnell.)
Ja, 2,5GBs Lan ist schon ne klasse Sache. Kann man wunderbar per Adapter nachrüsten (Bei Synology) und man reizt die HDD Geschwindigkeit gut aus. Habe das selbst sehr lange genutz bis ich zum größeren NAS mit 10GB Lan gewechselt bin. :)
 
  • Gefällt mir
Reaktionen: LiniXXus
GR Supra schrieb:
Stromausfall ist noch mal ein anderes Thema.

Meine Aussage bezog sich auf Command Queuing und sonstige Optimierungen professioneller Storages. Die Leben von den Caches.
Was hilft es dir, wenn nach einem Stromausfall die Daten des RAIDs inkonsistent sind. Oder noch schlimmer: Sein könnten, keiner weiß es genau.
 
@Nagilum99 Was hilft es zwei unterschiedliche Themen zu mischen. Für Stromausfall und dessen Folgen gibt es Konzepte.

In großen Verbünden werden die Caches nicht abgestellt, außer der Controller hat Gründe für direktes Schreiben und Lesen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai
Ich würde mich ebenfalls über die Weiterentwicklung des "2.5 Formats freuen, für reinen Datengrab perfekt und das NAS ist dann auch nicht so groß wie ein Bierkasten. Wäre natürlich cool, wenn größere Flash-Basierte SSD's günstiger werden, dann hätten wir dieses Thema nicht. Ich habe ein 8-Bay QNAP im 2.5 Format, ausgestattet mit 8x4 TB Samsung EVOs, mit dem 10 GbE Netzwerk ist das schon der Kracher und reizt die Lese-/Schreibgeschwindigkeit des Netzwerkes völlig aus... es ist lautlos, keine Vibrationen, Temperaturen sind ein Traum... nur ist es halt teuer wie Sau.

Als reines Datengrab wird halt weiterhin ein zweites NAS mit 3.5 Platten eingesetzt, beide sind via LAG verbunden, es ist aber dann echt ein graus wenn man die Daten synchronisieren möchte. Das fühlt sich an, als ob man mit einem 56k Modem Daten transportieren würde, überhaupt nicht mehr Zeitgemäß....
 
Nagilum99 schrieb:
Was hilft es dir, wenn nach einem Stromausfall die Daten des RAIDs inkonsistent sind. Oder noch schlimmer: Sein könnten, keiner weiß es genau.

UPS + Notfall-Abschaltung nach X Minuten und als zusätzliche Absicherung Batterie direkt am RAID-Controller. Wobei viele Systeme heute auf ein HW-RAID verzichten und alles per SW- oder Filesystem-RAID machen. Da greift dann wieder UPS + Abschaltung. Das ein System einfach ausgeht sollte eigentlich nicht vorkommen.
 
Zurück
Oben