Austausch unter IT-Professionals - Erfahrungen, Tipps, Fachsimpelei

LasseSamenström schrieb:
Danke für die Aufklärung. Ich sollte wohl anfangen das Kleingedruckte in der Beschreibung zu lesen. Dann weiß ich auch was für eine Backplane verbaut ist . = )
Damit hat sich der Server eh für mich erübrigt, weil's eine SAS Backplane ist. Ich hab hier SATA HDD'S rumliegen. -,-'
Warum? Du kannst in eine SAS Backplane auch SATA Laufwerke schieben, alles in Ordnung und richtig so. Andersherum geht es lediglich nicht, und das ist auch gut so ;).

SAS Controller/Anschlüsse können immer SAS und SATA
SATA Controller/Anschlüsse können nur SATA

LasseSamenström schrieb:
Hab an Raid5 Parity+Hotspare gedacht. Vielleicht das Ganze (später) auch als 50
Das ist natürlich für so einen RAID Controller extreme Rechenlast. Wie viel Performance dabei herumkommt muss man testen aber den vollen Speed aller angeschlossenen HDDs bei Vollauslastung schaffst du mit dem älteren kleinen nicht. Das muss für Backups aber nicht zwingend stören, ich würds einfach testen. Tauschen kann man das Ding später immer noch bzw. notfalls als HBA nutzen und per Software RAID anlegen.
 
holdes schrieb:
Warum? Du kannst in eine SAS Backplane auch SATA Laufwerke schieben, alles in Ordnung und richtig so.

Wieder was gelernt = )

holdes schrieb:
Das ist natürlich für so einen RAID Controller extreme Rechenlast. Wie viel Performance dabei herumkommt muss man testen aber den vollen Speed aller angeschlossenen HDDs bei Vollauslastung schaffst du mit dem älteren kleinen nicht. Das muss für Backups aber nicht zwingend stören, ich würds einfach testen. Tauschen kann man das Ding später immer noch bzw. notfalls als HBA nutzen und per Software RAID anlegen.

Bei unserem jetzigen Serveraufkommen und Größen wahrscheinlich nicht. Aber bevor ich in 5-10 Jahren könnte das anders aussehen. Daher überlege ich gerade einfach auf Software Raid zu gehen.. Vorallem kann ich weitere HDD's einfach nachstecken und dem Softwareraid einfach hinzufügen, oder nicht? Kein Problem unter zfs
 
RAID erweitern kann heutzutage eigentlich so ziemlich jeder Controller, da sollte das mit Software RAID natürlich genauso gehen aber das kann und wird bei vielen HDD natürlich eine ganze Weile dauern. Hängt aber vom RAID Level ab, da gibts ja mittlerweile arg viele verschiedene Methoden.

In 5-10 Jahren? Na wenn das so lange dauert bis man an die Grenzen stößt eigentlich weniger ein Problem. Dann würde ich die ganze Kiste wieder abstoßen und eine neue (gebrauchte) kaufen. Hast ja dann wieder deutlich moderne Hardware und weniger Stromverbrauch.
 
holdes schrieb:
würde ich die ganze Kiste wieder abstoßen und eine neue (gebrauchte) kaufen

Das hört mein Chef nicht gerne :D

Ich bin jetzt sogar noch am überlegen den Raid Controller zu wechseln (Empfehlung?), denn wenn ich auf Software Raid setze, brauch doch keine bbu? Wenn der Strom/USV wegfällt hab ich ganz andere Probleme :D
 
Die BBU hat nichts mit RAID oder nicht RAID in dem Sinne zu tun, sondern eher ob man den Cache des Controllers nutzt oder deaktiviert. Die BBU versorgt den Cache weiterhin mit Strom damit dieser nach einem Ausfall und sofern rechtzeitig wieder Strom da ist, seine Daten aus dem Cache auf die HDDs schreiben kann. Schade wenn der Controller noch eine "klassische" BBU hat, neuere verwenden statt Lithium oder Cadmium Akkus eher Kondensatoren. Gerade bei älteren Controllern wird sich die BBU bzw. dessen Akku wahrscheinlich innerhalb der ersten 3 Jahre melden und gerne getauscht werden.

Wenn du Software RAID nutzt, brauchst du gar keinen RAID Controller sondern nur einen HBA (Host Bus Adapter). Sieht fast gleich aus, kann gar kein RAID Level sondern reicht alle HDD direkt ans Betriebssystem weiter. Sollte daher auch erheblich günstiger sein, aber das muss man sich vorher genau überlegen wie und womit man nun seine HDD aufbauen will. Ich selbst persönlich nutze da schon lieber RAID Controller und beim Backup Server mit RAID6 aber das ist eine reine Kostenfrage bzw. womit man lieber arbeitet.

Also als Chef würde ich wohl damit locker leben können wenn ich nach 5 Jahren Hardware tausche weil sie bis dahin eh abgeschrieben ist ;). Mehr als 5 Jahre machen wir ausschließlich bei Telefonanlagen, alles andere wird zu ineffizient was Performance/Server angeht und auch dessen Verbrauch und fehlenden Support seitens der Hersteller.
 
Zuletzt bearbeitet:
D.h. ein LSI Broadcom SAS 9300-16i PCIe x8 4x SFF-8644 würde praktisch reichen, oder?

So sieht der Server aktuell aus: klick
 
Bei Software-Raid wird eventuell auch etwas mehr RAM hilfreich sein?
Kommt auf die Software drauf an, und wie viel TB an Speicherplatz bereitgestellt werden sollen.
 
Kommt darauf an, zumindest sieht es so aus als ob die Karte 2 Chips aufgelötet hat und damit alle 16 Ports nativ bereitstellt, außerdem hat der HBA 12Gbit/s auf den Ports. Er ist eine ganze Generation moderner als der Raid Controller von der Seite vorher.

https://www.ssdworks.com/datasheets/DCSG-PB-SAS-9300-16-Port-HBA-Family_090815.pdf

Ein kleines bisschen "Fake/Flaschenhals" ist das natürlich so oder so denn der HBA hat ein PCIe 3 Interface mit 8 Lanes. Die maximale physikalische Übertragung wären hier 7,8GB/s ohne Overhead. 12Gbit x 16 Ports wären theoretisch maximal 24GB/s. Ist aber sicher nicht praxisrelevant weil SATA HDD ;).

Falls du Software RAID einsetzen möchtest aber dahingehend ein wenig informieren und austesten, ich denke da kann man zumindest in der Konfiguration noch ein wenig mehr falsch machen als bei einem normalen Controller.


Rickmer schrieb:
Bei Software-Raid wird eventuell auch etwas mehr RAM hilfreich sein?
Kommt auf die Software drauf an, und wie viel TB an Speicherplatz bereitgestellt werden sollen.

Gute Frage, wenn der RAM allerdings als Cache Auslagerung dienen sollte, wäre hier eine entsprechend lange Haltezeit für den Stromausfallzeitraum umso wichtiger. Das können aber sicher die Leute besser beantworten, die mit Software Raids arbeiten :).
 
Wenn ZFS dran denken, dass das nicht sonderlich performant ist bei metadata PPS bzw kleinen writes.

Da spielt dann der HW Controller mit Write Cache seine Stärke aus. Für ne Backup Maschine aber wohl eher kein Problem.

Ansonsten ist mdraid noch ne Möglichkeit, wenn man die ZFS snapshots nicht nutzt.
 
Denke ich auch, ich weiß zwar nicht wie und mit was ihr eure Backups erstellt (sinnvollerweise mit temporären snapshots die entsprechend weggeschrieben werden) aber sicherlich wird es sich zu über 90% um sequentielle Lese- und Schreibvorgänge drehen.

Wie sieht’s denn bei den ZFS Usern aus? Nutzt ihr den internen HDD Cache der Platten mit oder habt ihr den deaktiviert?
 
Skysnake schrieb:
Wenn ZFS dran denken, dass das nicht sonderlich performant ist bei metadata PPS bzw kleinen writes.
Das sollte bei Backups fast ausschließlich sequential sein...

Gut, wenn man z.B. bei Veeam Instant Restore den Cache auf den Backup-Server legt, hat man da einiges als IOPS, aber dafür kann man dann noch 'ne SSD verbauen. Die muss nichtmals redundant sein, weil die eh nur während einem Restore genutzt würde und auch da nur aus Performance-Gründen eine gute Idee ist.
 
Rickmer schrieb:
Das sollte bei Backups fast ausschließlich sequential sein...

Ich wollte es nur erwähnt haben. Ich hatte Backups, bei denen Millionen von files teils erzeugt wurden mittels rsync. Waren halt vorher nicht da.
 
  • Gefällt mir
Reaktionen: Rickmer
Wie geht ihr denn mit Userkonten und E-Mailadressen ehemaliger Mitarbeiter um?
Bei uns wurden diese "aus Angst es könnte ein Auftrag verloren gehen" immer noch sehr lange mitgeschleppt.
Seit o365 und Lizenzkosten pro User wurden die dann als Shared Mailbox weitergeschleppt, besonders bei Konten jahrelanger Vertriebsmitarbeiter.
Ich würde das gerne mal von allen Standpunkten aus (vertrieblich, rechtlich, administrativ) glatt ziehen.
Hinweis: Die Privatnutzung ist nicht erlaubt und die theoretischen Eventualitäten fallen nicht in mein Ressort.

Am liebsten würde ich das Postfach komplett offline nehmen (ist ja sowieso GoBD konform archiviert) und die Mailadresse auf ein unpersönliches Postfach wie info@xyz.de umbiegen.
Das stößt aber intern auf Widerstand weil gerade in den ersten Tagen/Wochen häufig die Korrespondenz eingesehen werden muss.
 
Bei uns machen wir das über Mailstore. Kennt man ja als Archiv und wenn man bestimmten Usern die Rechte auf dieses Archiv gibt, kann man von dort ja entsprechend Mail rausziehen (direkt über Outlook oder wenn es sein muss auch übers WebIf). Das alte Konto inkls. Adressen killen wir aber relativ schnell damit auch jeder Absender weiß, dass es diese nicht mehr gibt. Hängt aber natürlich von der Firmenstruktur ab, ob und wie man das am besten umsetzen kann.
 
Sieht soweit ganz ok aus, ich nehme mal an die bauen die passenden Kabel auch direkt mit ein. Sei dir aber im klaren, wenn du das Teil mit HDDs vollstopfst, wirft es gut Wärme in den Raum (für den Fall der steht bei euch in einer kleinen unklimatisierten Kammer).
 
https://learn.microsoft.com/en-us/w...nable-access-based-enumeration-on-a-namespace
https://community.spiceworks.com/how_to/45158-configure-access-based-enumeration-server2012
Hat das jemand schonmal zum laufen bekommen?
Ich habe auf dem Synology eine Testfreigabe gemacht auf der nur ich Zugriff habe. Dann wollte ich im DFS Namespace einen neuen Ordner anlegen, Ziel die besagte Freigabe. Wenn ich die Erklärung richtig verstehe, sollte bereits im DFS der Link zur Freigabe nur für mich sichtbar sein wenn ich nur mich in den Optionen hinterlege. Sehen tun ihn aber alle. :D

PS
To hide the folder from a group or user, select the group or user, and then select the Deny check box.
Das ist meines Erachtens kein sinnvoller Weg. Sagen wir mal die GF oder HR sollen was sehen und Mitarbeiter nicht. Mit einem Rechtebaum wo zB die GF auch Mitglied in der normalen Mitarbeitergruppe ist, kann ich doch der GF nicht Zugriff geben und bei Mitarbeitern ein Deny setzen. O.o
 
Zuletzt bearbeitet:
Hast du eine Domäne am laufen? Stand-alone DFS oder AD integriert? Greifst du auch per DFS Pfad zu? Falls Domäne, Funktionsebene höher 2008?
 
Zurück
Oben