Austausch unter IT-Professionals - Erfahrungen, Tipps, Fachsimpelei

Also wie Dell das macht weiß ich nicht, aber bei unserer Pure Storage ist es eben genauso wie schon vermutet. 2 Controller sind mit den SSD über entsprechende Backplane verbunden und so kann der andere im Bedarfsfall übernehmen. Ob man das bei Dell über einen RAID Controller intern löst oder eben nativ per PCIe spielt da keine so wichtige Rolle ;).

Die U.2 oder U.3 sind ja am Ende die gleichen Konnektoren wie bei SAS, damit kannst du das auch einfach genauso handhaben wie dort.
 
Das heißt ich hab eine Disk, welche über 2 Anschlüsse die analog zu SAS an den Raidcontrollern der jeweiligen Nodes hängen?
Wie heißt dein Server genau? evtl. finde ich darüber dann mehr Infos.
 
Ja U2 und U3 bieten die Möglichkeit für Dualport Disks. Verhält sich dann also analog zu SAS.
 
Bei mir ist es unter anderem eine PureStorage X20, die sind aber an sich schon besonders weil deren SSD keine Controller besitzen ;). Ansonsten ist es wie schon gesagt wie bei SAS.
 
Kannst du was zu Größe und Erfahrung bezüglich Support, Performance und Verwaltungsaufwand sagen?
 
Ich schreib da nachher eine Kleinigkeit zu, mir fällt gerade aber das lustige erste Video vom PureStorage Youtube Kanal ein, das spricht schon Bände (vor allem im Bezug auf Verwaltung/Komplexität) :D.

 
  • Gefällt mir
Reaktionen: Mac_Leod und Skysnake
Haha, das ist wirklich lustig :D

Aber dedublication können die meisten anderen auch. Also egal VAST oder Weka können das auch. Hast du einen Vergleich zu den beiden?

Ps: das mit 10x dedub ist natürlich Bauernfängerei. Dedub geht auch bei Spinning disks und vor allem so viel... bei HPC Daten hat man meist eher einen Faktor ~2
 
Also zur Performance was zu sagen ist etwas schwierig. Das Teil ist per ROCE bzw. NVMe over RDMA angebunden mit 100Gbit an entsprechenden Switch und daran ein ESXi Cluster bzw. Backup.

Bei uns stecken physisch 10x 1,92TB Module, die hinten raus offiziell 11,52TB als Speicher zur Verfügung stellen. Über RAID Level, Kompression und Deduplizierung hat man keine Gewalt. Das macht die Kiste für sich und ist auch nicht konfigurierbar. Aktuell hab ich mit den VMFS Stores ein Verhältnis zum Speicherverbrauch von 1:3,2 mit Realdaten ohne VDIs. Wenn das so bleibt, bekomm ich also knapp 37TB drauf gespeichert.

Wenn man mit VDIs arbeitet steigt natürlich die Verkleinerung ins unermessliche von 1:10 oder mehr ;).

Die X20 hat noch die "alte" R3 Hardware, nächstes Jahr kommt eventuell die aktuelle Version eine Nummer größer rein. Da sollte dann erheblich mehr gehen, denn die alte nutzt noch PCIe Gen3 intern für ihre Anbindung.

Zum Support kann ich gar nicht so viel sagen, den braucht man recht selten bis nie. Das war am Anfang etwas anders weil man Updates selbst nicht einspielen konnte, sondern ein Ticket aufmachen musste und der Support das erledigt hat, war aber immer easy (nur auf englisch verfügbar). Mittlerweile kann man die Updates über die Cloudoberfläche beim Anbieter selbst anstupsen und durchführen.

Vor nicht langer Zeit kam dann noch die Möglichkeit Dateisysteme direkt zu erstellen und hosten, aka SMB oder NFS und das läuft soweit auch prima. Snapshots etc. sind genau wie der Rest der UI komplett Idiotensicher (siehe Video :D). Bei uns beträgt in der Storage speziell die Latenz im mittel bei Knapp 1000 Mitarbeitern wechselnd so im Schnitt 0,2-1ms lesend über alle Volumes und 0,10-0,5ms schreibend (ca. 50 VMs inkls. DB Servern). Auch relativ neu könnte man statt iSCSI oder NVMe oder RDMA auch NVMe over TCP einrichten. Da wird aber ja quasi mit RDMA schon den Ferrari nutzen machts natürlich keinen Sinn. Würde bei einer Neuanschaffung aber ordentlich Geld für spezielle Switches sparen.

Die 100GBit bekommst du allerdings nur mit Benchmarks und Zero Fills vollständig ausgelastet. Im Realbetrieb ist das durch die vielen VMs jetzt noch kaum wirklich messbar. Die nächste wird aber definitiv was die Modulanzahl angeht vollgestopft um den "Flaschenhals" noch etwas kleiner zu machen.

Was noch relativ gut funktioniert auch wenn ich es aktuell nicht nutzen kann, ist das Veeam Plugin. Damit kann man Snapshots neben dem sowieso eingestellten Plan zusätzlich recht flott über Veeam Aufträge auslösen.

Man selbst hat also nur wirklich recht geringen Zugriff was in dem Teil passiert, dafür ist es eben ein No-Brainer Gerät. Ob man die empfehlen kann? Ja durchaus, aber nicht das kleinste Modell nehmen und nicht nur eine halbe Bestückung wäre da die dringende Empfehlung.

Falls du noch etwas spezielles wissen möchtest frag einfach, ich hab jetzt nur mal einen Abriss aus dem Alltag gegeben ;).

Bei Neuanschaffung besteht der Weg somit lediglich nur noch aus:

auspacken -> einbauen -> anschalten -> IPs einrichten -> Volumes erstellen -> Volumes entsprechend Protokoll/Schnittstelle zuweisen -> in den Host Servern/Computern anbinden -> formatieren -> Spaß haben
 
  • Gefällt mir
Reaktionen: Rickmer und konkretor
Gibt mittlerweile echt spannende Storage Konzepte. Ich kenne vom ehemaligen AG noch die dicke netapp mit Metrocluster, jetzt haben wir StorMagic mit 2x DL380 mit NVME (jeweils 5x Samsung 12,x TB) und normalen SSDs (2 Storage Pools) über 40Gbit Netgear und das ist echt brutal schnell und super simpel vom Aufbau her. War anfangs skeptisch, aber hat mich überzeugt.
 
holdes schrieb:
Bei uns stecken physisch 10x 1,92TB Module, die hinten raus offiziell 11,52TB als Speicher zur Verfügung stellen
Ok, das ist für mich uninteressant klein. So kleine Systeme haben auch kaum Probleme. Mich interessieren da eher 2PB+ Systeme mit 1000+ physischen nodes dran.

charmin schrieb:
Gibt mittlerweile echt spannende Storage Konzepte. Ich kenne vom ehemaligen AG noch die dicke netapp mit Metrocluster, jetzt haben wir StorMagic mit 2x DL380 mit NVME (jeweils 5x Samsung 12,x TB) und normalen SSDs (2 Storage Pools) über 40Gbit Netgear und das ist echt brutal schnell und super simpel vom Aufbau her. War anfangs skeptisch, aber hat mich überzeugt.
Kein Wunder. Bei so kleinen Systemen bekommt man mit HDD auch keine Leistung raus. Das ist extrem viel schneller mit Flash.

Wenn man im 5 PB Bereich ist und noch Flash als Hotpool hat, dann sieht das anders aus.

konkretor schrieb:
35 MILLIARDEN US-DOLLAR: EDA-Softwarespezialist Synopsys will Ansys übernehmen - https://www.golem.de/news/35-millia...opsys-will-ansys-uebernehmen-2401-180879.html

Mal sehen wie sich das auswirken wird hoffentlich nicht so blöde wie die Übernahme Broadcom -> VMware
Ok krass. Das ist mal ne Neuigkeit.
 
Ja das dachte ich mir, bei der Größe würde ich das aber auch nixht kaufen, dafür ist Pure viel zu teuer. Ich denke da kommt man aktuell nur halbwegs günstig mit DataCore etc. ran ;).

Direkt eine große zu kaufen wäre mir so oder so zu heiß. Bei denen läuft mehr über Subscription als Hardware.
 
Naja, billig sind die alle nicht. Aber dafür bekommt man mit reinem Flash storage schon auch ne verdammt gute Performance. Da muss man nicht wie bei HDDs viel Kapazität kaufen nur um die gewünschte Performance zu erreichen.

Wenn man 25-100GB/s vom globalen storage sehen will muss man halt schon ne relevante Menge an Hardware hinstellen. Ich meine mir zu erinnern das ein 100ern JBOD bei 10 oder 20 GB/s lag. Da hat man also schnell ein paar hundert 12TB+ disks beisammen.
 
Das stimmt schon aber ich meine ja auch auf All-Flash Basis z.B. mit aktuellen Ruler SSD E1.S/L. Es geht eher um einen Hyper Converged Storage bestehend aus "normalen" Storage Servern. Da bekommst du schon recht ordentlich Bumms raus wenn man genug Taler in SSDs und eben die Software investiert. In der Regel bauen die ja auch nur Container Blockspeicher auf die sie dann als iSCSI Target oder ähnliches anbieten :).

25-100GB/s sind heute eigtl für relativ wenig Geld machbar. Wie viel man da selbst in Linux bauen will sei dann aber dahingestellt zwecks Support. Ob sich mal jemand getraut hat nen Windows Server aus so starken Storage Servern zu bauen und als Target anzubinden? Da würden mich die Werte tatsächlich mal jucken.
 
Also als reiner blockstorage würde ich eine Blick auf DRBD und LINSTOR schauen. Das ist schon brutal schnell.

Ansonsten ist NVMeoF auch eine Überlegung Wert. Ist eventuell etwas mehr Handarbeit aber gerade wenn man es noch in eine Büchse bekommt ne Überlegung Wert statt Linstor.

Ich rede hier aber von globalen Filesystemen. Also das die 1000 Knoten alle das gleiche Filesystem sehen und konsistent parallel drauf zugreifen können. Das ist halt schon die Königsdisziplin beim Storage.

Also abseits von Georedundanz, wobei da Performance dann meist nur noch zweitrangig ist.
 
Ja das macht natürlich Sinn. Bei uns ist der größere Anteil in der Windows Welt, da kannst du natürlich mit Branch Cache usw. noch ordentlich abfedern und hast dann trotzdem noch genug Performance :). NVMe over RDMA ist aber schon ein ordentlicher Gamechanger. Hat bei uns die Latenz eben um die ca. 50% wie beworben reduziert aber braucht eben kompatible NW Hardware.

Ansonsten bleibt halt je nach Protokoll auf File-Ebene das Problem mit Overhead und CPU Kosten. Kommen da noch entsprechende Replikationen on Top umso mehr. Das entschärft sich aber derzeit dank immer größeren RAM und CPU aber ganz gut. Man muss aber am Ball bleiben und aktuelle Dinge ausprobieren, dann macht das auch Spaß :).
 
Zuletzt bearbeitet:
Skysnake schrieb:
Rein interessehalber, welchen Anwendungsfall hast du da? Mir würde da höchstens Forschung im großen Maßstab einfallen. Mein vorheriger Arbeitgeber hatte ~4000 Mitarbeiter und die Systeme wurden zentral in DE betrieben. Selbst dafür waren ein paar 100TB mehr als ausreichend.
 
Tier 1/2/3 Höchstleistungsrechenzentren, also öffentliche Forschung, aber auch andere öffentliche Einrichtungen als auch R&D Bereiche von Firmen.

Also alles rund um HPC Cluster.

Die Storagesysteme mit denen ich zu tun hatte/habe reichen von so ca 200TB bis hin zu 20PB. So ganz grob als Richtwert.
 
  • Gefällt mir
Reaktionen: maxblank und charmin
Zurück
Oben