25Gb/s oder 40Gb/s über Kupfer Cat7 Netzwerk?

Tobi-S. schrieb:
Der passende Transceiver für Mikrotik wäre dieser hier, richtig? Ist da LR/2km in Ordnung?
Müsste funktionieren.
Mikrotik prüft den Transceiver-Hersteller nicht. Man kann bei FS auch alles in der Cisco-Variante bestellen.

Tobi-S. schrieb:
Das ist ein Multimode-Kabel. Mit dem 100GBASE-CWDM4-Tranceiver brauchst du ein Singlemode-Kabel (OS2): https://www.fs.com/de/products/40204.html?attribute=714&id=1090110

Tobi-S. schrieb:
Wenn die Clients in der Nähe vom Switch stehen wäre ein Breakout-DAC die günstigere Lösung: https://www.fs.com/de/products/50496.html?attribute=10182&id=2023377
 
  • Gefällt mir
Reaktionen: Tobi-S.
Vielen Dank wieder für die aufschlussreichen Antworten.

rezzler schrieb:
Wieso nicht das oben erwähnte Singlemode?

Da hatte ich einen Denk- und Verständnisfehler. Ich hab mich heute nochmal mit den Kabelarten beschäftigt und es wird definitiv OS2 verlegt. Ich gehe davon aus das ich zwei Fasern als für einfachen Duplex betrieb verlegen kann. Versuche aber gleich vier Fasern zu verlegen.

Eine Frage habe ich aber hierzu noch. Bezüglich der Stecker LC, da gibt es UPC und APC Ausführungen, die nicht miteinander kompatibel sind, soweit ich das verstanden habe. Bei dem Transceiver wurde unten in den Fragen LC/UPC als richtiger Steckertyp genannt.
Was ist für die Zukunft klüger? Ich habe gelesen das APC bei höheren Datenraten empfohlen wird, bei 100Gb/s macht es wohl noch keinen Unterschied. Aber wenn das Kabel dann mal liegt...
Das Kaiser Kabel hat LC/APC also nicht kompatibel mit dem Transceiver?

TheCadillacMan schrieb:
Mikrotik prüft den Transceiver-Hersteller nicht. Man kann bei FS auch alles in der Cisco-Variante bestellen.

Danke, das ist gut zu wissen.


TheCadillacMan schrieb:
Wenn die Clients in der Nähe vom Switch stehen wäre ein Breakout-DAC die günstigere Lösung: https://www.fs.com/de/products/50496.html?attribute=10182&id=2023377

Wäre auf alle Fälle eine günstigere Lösung, danke. Das seh ich mir genauer an, wenn die Hauptverbindung in den Keller soweit steht. Da hab ich schon gesehen das noch mehr Probleme auf mich zukommen. Generell würde ich den Clients gern mehr als 25 Gb/s zur Verfügung stellen, aber da geht es schon damit los das 100 Gb/s Netzwerkkarten, soweit ich gesehen hab, immer PCI-Express 3.0 x16 sind. Da wir alle leistungsstarke Grafikkarten fürs Rendering verbaut haben ist kein elektrisch 16-fach angeschlossener Port mehr vorhanden auf den Boards... aber mal sehen was sich da noch alles finden lässt.

Das Kabel würde ich gerne die Woche noch bestellen. Ich bin nächste Woche im Urlaub aber dann würde ich mich daran machen das Kabel zu ziehen. Wenn das klappt würde ich gern die beiden Switches installieren und sehen was das vorhandene Storage an Leistung schafft.
Davon ausgehend würde ich dann die Clients anbinden und den Aus-/ Umbau des Storage planen.
 
Tobi-S. schrieb:
Eine Frage habe ich aber hierzu noch. Bezüglich der Stecker LC, da gibt es UPC und APC Ausführungen, die nicht miteinander kompatibel sind, soweit ich das verstanden habe. Bei dem Transceiver wurde unten in den Fragen LC/UPC als richtiger Steckertyp genannt.
Was ist für die Zukunft klüger?
Das ist völlig egal, da man den Stecker via Patchkabel ändern kann. Das Kaiser-Kabel sollte ja eh in einer Abschlussdose/Patchfeld enden und nicht direkt in die Technik gesteckt werden.

Danach kannst du dann mit einem Patchkabel LC/APC auf LC/(U)PC weitergehen.
 
  • Gefällt mir
Reaktionen: Tobi-S.
Tobi-S. schrieb:
Generell würde ich den Clients gern mehr als 25 Gb/s zur Verfügung stellen, aber da geht es schon damit los das 100 Gb/s Netzwerkkarten, soweit ich gesehen hab, immer PCI-Express 3.0 x16 sind.
Für einen 50 Gbit/s-Link reicht auch PCIe 3.0 x8.
 
  • Gefällt mir
Reaktionen: Tobi-S.
Jetzt ist über ein Jahr vergangen und für mich war es eine Reise.
Vielen Dank hier an dieser Stelle nochmal für die Vorschläge damals. Insbesondere der Tipp von @rezzler für die FTTH Singlemode Kabel war genial!
Ich hab es Herbst letzten Jahres geschafft zwei Kabel (vier Adern) in die Leerrohre mit den bereits eingezogenen Cat7 Kabeln einzuziehen. Ich hab mir dazu verschiedene Einzugvorrichtungen und -hilfen angeschafft. Tatsächlich die beste Lösung kam aber spontan, da alles gekaufte zu steiff und widerspenstig war. Ein Schaltseil (dünnes Drahtseil mit Beschichtung) aus dem Fahrradzubehör mit einem einseitig aufgepressten Nippel. Den Nippel habe ich auf der Vorder- und Rückseite abgerundet, damit nicht so leicht hängen bleibt. Das hat genial funktioniert.

Anschließend war die Glasfaserverbindung hergestellt und ich konnte das NAS über 2x10Gbit Glasfaser und SMB3 Multichannel anbinden. Das Internet lief weiterhin über Kupfer.
Schnell wurde aber klar, das die Laufwerke im NAS eigentlich mehr konnten, die CPU aber bei dem Netzwerkzugriff im NAS in die Knie ging. Wir kamen nur bei großen Dateien und SMB Zugriff auf knapp 20Gbit. Ansonsten war bei 11-12Gbit Schluss.

So lief das Ganze ein paar Monate und ich hab den Workload beobachtet. Doch im Alltag hat sich nicht viel geändert. Nur war jetzt nicht mehr das Netzwerk der Engpass sondern die CPU im NAS. Nach Weihnachten habe ich mich dann dran gemacht und einen Server konfiguriert.

2x Xeon 6138 weil sie die günstigsten waren und mir die PCI-E Lanes von zwei CPUs sehr sympathisch waren für zukünftige Erweiterungen. Ein Board das IPMI hatte und die Fernwartung und Überwachung zu erleichtern. 128gb RAM um keinen Engpass zu generieren und dann ging es ins eingemacht was die Laufwerke anging. Bzgl. Verwaltung und zukünftigem Einsatz des Servers hatte ich schon entschieden auf Windows zu setzen. Da kamen aber bzgl Storage einige Probleme auf mich zu.
Zuerst dachte ich, ich könnte die Onboard Anschlüsse nutzen und über Storage Spaces die Arrays konfigurieren. Das war aber weder besonders schnell noch einfach erweiterbar.

Also hab ich mich für LSI Megaraid Controller entschieden. Zwei Stück, einen für das SSD Array und einen für das HDD Array. Das läuft jetzt schnell und sauber.

Wir erreichen jetzt im Optimalfall für SMB ca. 2.100mb/sec auf dem HDD Array und 2.400mb/sec auf dem SSD Array. Die Zugriffszeiten und die Zeiten für den Abgleich von Datenbanken sind um ca. 80-90% gesunken. Generell ist der Netzwerkzugriff jetzt viel viel schneller als zuvor auf dem NAS.


Ich bin soweit vorerst mal zufrieden. Der Datentransfer hat sich mehr als verdoppelt in der Geschwindigkeit und der Zugriff ist wesentlich schneller.
Eine große Datenbank mit der ich arbeite dauerte vorher zum Abgleich und aktualisieren ca. 6-8min und jetzt nur noch 40sec bis 1:20min.

Zwei Sachen möchte ich kommenden Winter noch angehen:
  • iSCSI Geschwindigkeit ist relativ gering. SMB Leistung liegt bei ca. 500-700mb/sec.
  • Netzwerk Upgrade um die CPU zu entlasten. Beim kopieren der Datenbanken bricht die Kopierleistung teilweise stark ein, weil die beiden CPUs im Server durch die Netzwerkzugriffe ausgelastet sind. Soweit ich gelesen habe würde ein Upgrade auf 25/50/100gbit durch neue Mechanismen die CPU entlasten.
Ich habe dieses Jahr noch ein paar Tests mit 40gbit gemacht. Jedoch habe ich keine Verbindung zustande gebraucht und den Fokus verloren. Ich weiß nicht ob es an den Transeivern, den Karten oder den Einstellungen gelegen hat.
 
  • Gefällt mir
Reaktionen: TheCadillacMan, rezzler, madmax2010 und 3 andere
Tobi-S. schrieb:
Insbesondere der Tipp von @rezzler für die FTTH Singlemode Kabel war genial!
Freut mich, das ich dir helfen konnte. Magst du einen Erfahrungsbericht, evtl. sogar mit Bildern, dazu hier schreiben? Ich hatte bisher nur die Varianten zum Spleißen in den Fingern.
Tobi-S. schrieb:
Tatsächlich die beste Lösung kam aber spontan, da alles gekaufte zu steiff und widerspenstig war.
Ein übliches, dünnes Fädelband ist eigentlich eine gute Lösung. Die Steifheit ist ja beabsichtigt, damit sich das Band nicht irgendwo an die Rohrwand drückt/wickelt.
Tobi-S. schrieb:
Ein Schaltseil (dünnes Drahtseil mit Beschichtung) aus dem Fahrradzubehör mit einem einseitig aufgepressten Nippel. Den Nippel habe ich auf der Vorder- und Rückseite abgerundet, damit nicht so leicht hängen bleibt. Das hat genial funktioniert.
Ich bin verwundert, aber freue mich, das es funktioniert hat :)
Tobi-S. schrieb:
Ich habe dieses Jahr noch ein paar Tests mit 40gbit gemacht. Jedoch habe ich keine Verbindung zustande gebraucht und den Fokus verloren. Ich weiß nicht ob es an den Transeivern, den Karten oder den Einstellungen gelegen hat.
Wäre vielleicht ein Thema hier:
https://www.computerbase.de/forum/forums/netzwerke-storage-security-client-management.246/
 
Zurück
Oben