Welches 10GbE Switch mindestens 8 RJ45 Ports

FabianX2

Lieutenant
Registriert
Apr. 2006
Beiträge
815
Hey zusammen,

wir ertragen die langsamen Übertragungsraten nicht mehr. Es geht um meist recht große Videodatein die von den Workstations auf den TureNas Server geschoben werden. Der hat 2x10GbE + 2x1GbE. Geschrieben wird auf ein RaidZ mit 6*2TB Sata SSD auf einen 12G Raidkontroller im IT Mode. Die meiste Zeit werden nur 1-2 Rechner Paralell schreiben. Gleichzeitig wird aber ggf. von 1-2 Rechner geschnitten also auf Daten die auf den SSDs liegen zugegriffen.

Ein Layer 3 Switch ist nicht nötig. Eigentlich wäre vermutlich nicht mal zwingend ein managment Switch nötig aber besser flexibel sein.

Ich hab jezt simpel bei Geizhals die Prämisse 8x RJ45 10GbE gesetzt. Das Netgear ProSAFE XS500M Desktop 10G Switch gibts für ca. 400€. Spricht da was dagegen? Alternativen?

Danke für die Unterstützung :)
 
Bedeutet große Hitze gleichzeitig hohe Lautstärke? Das wäre ein Problem da das Switch in unserem Arbeitsraum steht.

Ich hab bisher ehrlich geasgt immer nur mit RJ45 gearbeiet. Aber an sich muss ich sowieso für jede Workstation eine 10GbE Netzwerkkarte kaufen. Da wäre ich flexibel. Fand die SFP Module auf den ersten Blick immer recht teuer. Hättest du konkrete Vorschläge wie man das abseits von Rj45 am besten löst? Am Server selbst wären halt nur rj45 Ports da muss ich gleich mal schauen was noch an PCI Steckplätzen frei wäre.
 
Noch nicht aber die kriegen halt je einen 10GbE Nic. Hab das bisher immer mit alten Intel Nics aus China gelöst. X520 und co.

Bottleneck ist halt noch der 12G Controller. Den reizen 6x 2TB SATA/SAS SSDs im RaidZ locker aus. Gibts da was bezahlbares schnelleres das von TrueNas stressfrei erkannt wird? Bisher hatte ich immer nur HDDs im RaidZ da waren die 12g völlig ausreichend. Gleiches Spiel bisher mit gebrauchter LSI China Hardware die auf IT geflasht wurde.

Stromverbrauch spielt keine Rolle - Falls das relevant sein sollte.
 
Wenn die Entfernungen nicht groß sind, kannst du auch mit DAC Kabel arbeiten. Bei längeren Distanzen dann eben SFP+
 
  • Gefällt mir
Reaktionen: madmax2010
Ich habe den XS512 von Netgear mal sehr günstig bekommen:
https://www.netgear.com/de/business/wired/switches/plus/xs512em/
Beim Start dreht der von den Lüftern einmal auf, danach wird der aber leise, unter dem Tisch kaum hörbar.
Der hat auch 2x SFP.
Leise Noctua Ersatzlüfter habe ich hier schon liegen, habe bisher aber noch keine Zeit gefunden die einzubauen.
Mein Arbeitsrechner hat 10G und der Server 2x 10G im Bonding.
 
FabianX2 schrieb:
Bedeutet große Hitze gleichzeitig hohe Lautstärke?
Nein, sind jetzt auch nicht die massiven Wattzahlen, die da auf einen zukommen.
FabianX2 schrieb:
Am Server selbst wären halt nur rj45 Ports da muss ich gleich mal schauen was noch an PCI Steckplätzen frei wäre.
Gibt ja auch SFP -> RJ45, die man in den Switch stecken könnte, dann muss man keine neue Karte kaufen.
FabianX2 schrieb:
Fand die SFP Module auf den ersten Blick immer recht teuer.
Es geht schon noch: https://www.idealo.de/preisvergleich/OffersOfProduct/3188891_-sfp-modul-e10gsfpsr-intel.html
FabianX2 schrieb:
ottleneck ist halt noch der 12G Controller. Den reizen 6x 2TB SATA/SAS SSDs im RaidZ locker aus. Gibts da was bezahlbares schnelleres das von TrueNas stressfrei erkannt wird?
Einfach einen 2. baugleichen dazu stecken und dann jeweils 3 SSD pro Controller?

Finde ansonsten den ausgesuchten Netgear auch gar nicht verkehrt, wenn die Netzwerkstruktur wirklich flach ist. Wieviele Geräte kommen denn dran?
 
  • Gefällt mir
Reaktionen: madmax2010
Cat Toaster schrieb:
Ich frage nur, weil ja letztlich alles eine Verbesserung ist und 2.5G kommt ja OnBoard schon öfter mal vor.
2,5G reichen uns leider nicht. Wir schieben ständig riesige Datenmengen. 8k RAW Videofootage is a bitch. Ich hatte tatsächlich überlegt ob wir irgendwie kostengünstig direkt auf 20G/40G kommen. Aber das wird mir zu teuer und kompliziert. Mit 10GbE hab ich zumindest ein wenig Erfahrung.
VDC schrieb:
Finde ansonsten den ausgesuchten Netgear auch gar nicht verkehrt, wenn die Netzwerkstruktur wirklich flach ist. Wieviele Geräte kommen denn dran?

Der Server und 6 Workstations. Es brauchen aber nicht immer alle volle Bandbreite. Geht ja auch nicht. Was mir eher Angst macht sind simultane Zugriffe auf unterschiedlichste Datein. Oder auch die gleichen Datein im Schnitt. Aber das ist weniger ein Switch als ein Datenträger/Controller/Dateisystem/Protokoll Problem. Besser als jetzt mit 1gbe wird es so oder so.

dman schrieb:

Wie eingangs erwähnt sieht mein Suchfilter auch genau so aus

VDC schrieb:
Gibt ja auch SFP -> RJ45, die man in den Switch stecken könnte, dann muss man keine neue Karte kaufen.

Es geht schon noch: https://www.idealo.de/preisvergleich/OffersOfProduct/3188891_-sfp-modul-e10gsfpsr-intel.html
Kostet dann halt in Summe das gleiche. Würde daher auf das geannte rj45 Netgear setzten wenn sonst nichts dagegen spricht.

VDC schrieb:
Einfach einen 2. baugleichen dazu stecken und dann jeweils 3 SSD pro Controller?
Ich hab in TureNas noch nie einen ZFS Pool über zwei Controller verteilt. Hast du da Erfahrung? Ich fang jetzt einfach mal so an und im Zweifel lässt sich das ja auch noch später umsetzten.

Erst mal danke an alle. Dann setzte ich wenn keine Einwände mehr kommen auf den Netgear. Nics nehme ich schlicht was ich günstig bekomme.
 
FabianX2 schrieb:
Ich hab in TureNas noch nie einen ZFS Pool über zwei Controller verteilt.
Im IT Mode ist das kein Ding, es werden ja nur Platten 1:1 durchgereicht.

Ansonsten auch gerne mal testen, Pool mit 2 alten Platten erstellen (z.b. onboard & Controller) und einfach die Platte von onboard zu Controller umstecken.
 
  • Gefällt mir
Reaktionen: FabianX2
Das schöne an dem SSD Pool ist dass es nicht weiter schlimm ist wenn der Hops geht. Wird also ohne Redundanz gefahren. Da sind immer nur die gerade im Schnitt befindelichen Daten drauf. Sonst ist es quasi ein händischer Cache zur Übertragung. Alle Daten liegen zusätzlich auf einem RaidZ2 200TB Pool, und ein weiteres mal auf einem örtlich getrennten Backup Server und in der Cloud. Dementsprechend kann ich mir auch erlauben mit dem SSD Pool rumzuspielen ohne wirklich was zu riskieren.

Das ein Controller im IT Mode keinen Einfluss hat ist einleuchtend. Danke.

Off Topic: Schon schade das die Netzwerktechnik abseits der großen Jungs so steifmütterlich behandelt wird. Es wäre ein Traum eine PCIe 5 SSD im Netzwerktransfer auslasten zu können. 10G sind eigentlich völlig steinzeitlich langsam.
 
Zuletzt bearbeitet:
FabianX2 schrieb:
Ich hatte tatsächlich überlegt ob wir irgendwie kostengünstig direkt auf 20G/40G kommen. Aber das wird mir zu teuer und kompliziert. Mit 10GbE hab ich zumindest ein wenig Erfahrung.
Eine Möglichkeit wäre es noch, wenn du einen Managed Switch mit doppelt so vielen Ports nimmst und 2-Port-NICs, die konsequent alle Bonding können. Das wird zwar auch etwas teurer, aber ist noch verhältnismäßig einfach, um die paar Clients auf 20GBit/s zu bekommen.
 
FabianX2 schrieb:
Ich hatte tatsächlich überlegt ob wir irgendwie kostengünstig direkt auf 20G/40G kommen. Aber das wird mir zu teuer und kompliziert. Mit 10GbE hab ich zumindest ein wenig Erfahrung.
25G scheint in der Tat sehr teuer zu sein, wohl auch, weil die Switche gleich massig Ports haben.

Wobei 8x 25G + 4x 100G für 1400€ jetzt nicht absurd teuer sind, meiner Meinung nach.
 
Die Idee mit dem Bonding kam mir auch soeben beim Lesen.
Habe Bonding bei meinem Server aktiviert, der schafft es doch tatsächlich mit 20G an mehrere Clients (von M2 SSD) auszuliefern.
Dein Server hat ja schon 2x 10G, da würde ich Bonding wenn möglich aktivieren, dann könnten 2 Clients mit 10G gleichzeitig schreiben oder lesen.
Was ich nur gerade lese ist, das die Daten auf SATA SSDs liegen, da wäre zu prüfen ob die nicht bei weniger als 10G schon bremsen.
 
Die Sata Platten reizen den 12G Controller voll aus. Theoretisch wäre auch mehr drin. 6*550mb/s. Natürlich skaliert das nicht optimal aber ich nehme an das 20G drin sind. Ist ja ein ZFS Pool das kannst du dir vereinfacht wie ein Raid 0 vorstellen. Dazu kommt ein nvme SSD cache und 128GB Arbeitsspeicher die TrueNas voll nutzen darf.

Spannender wird eher wie simultanen lesen und Schreibzugriffe, Random loads etc ablaufen. Das kann ich mir in aktuell 2x1G nicht testen da langweilt sich die restliche Hardware. Wenn jetzt 2 Workstations verschiedenen Projekte schneiden, 2 Workstations verschiedene Projekte hochladen und 2 Workstations unterschiedliche Daten ziehen wird's sicher haarig. Ist aber ein seltener Fall.

Ich hätte aber auch kein Thema auf eine komplette nvme lösung umzusteigen aber so lange das Netzwerk das nicht hergibt sehe ich keine Notwendigkeit. Wir haben Berge an Sara Platten rumfliegen nachdem wir die Workstations umgestellt haben. Bis die alle durchgerockt sind dauert das noch.
 
1HE Lüfter sind immer laut. Auch wenn man gegen leisere Aftermarket Lüfter tauscht, wird es dadurch leiser, aber noch lange nicht leise oder akzeptabel.

Wir haben auch einen CRS310 10G Switch, der im Arbeitsraum stehen muss. Sobald der erste 10G Transceiver gesteckt und 65°C geknackt hatte (was sehr schnell erreicht war), legte der Originallüfter unerträglich los. Wir haben den Gehäusedeckel entfernt und gegen einen Eigenbau-Deckel mit 120mm (oder 140mm?) Lüfter getauscht. Jetzt is Ruhe und die Transceiver liegen bei 62 Grad.

Ansonsten kennt Geizhals neben dem bereits vorgeschlagenen CRS309 nur einen vergleichbaren passiv gekühlten 10G Switch, der genug Anschlüsse bietet.
https://geizhals.de/tp-link-tl-sx30...itch-tl-sx3008f-a2541038.html?hloc=at&hloc=de
Ich bezweifle aber, dass die beiden mit 7 oder 8 10G Kupfer Transceivern noch problemlos funktionieren.
Wenn du sowieso 10G Karten nachrüstest, wäre je nach Anordnung der Arbeitsplätze evtl. die Anbindung per DAC möglich.
Den Uplink für Server würde ich nach Möglichkeit als 2x10G Bond machen.

Ich würde an deiner Stelle erstmal prüfen, ob Verkabelung per DAC im Büro möglich ist. Ein 5m DAC ist immernoch deutlich günstiger als ein 10G RJ45 Transceiver.

Zudem würde ich beide Hersteller mal kontaktieren wie sie den Einsatz mehrerer 10G Kupfer Transceiver sehen.
 
Zuletzt bearbeitet:
Zurück
Oben