• ComputerBase erhält eine Provision für Käufe über eBay-Links.

SFP+ NIC mit DAC od. Glasfaser. Hitze Probleme? Ja oder Nein?

Alf2000

Cadet 3rd Year
Registriert
Juni 2017
Beiträge
60
Hallo zusammen

SFP+ mit RJ45 erzeugt sehr schnell viel Hitze durch den höheren Stromverbrauch.
Glasfaser und DAC verbrauchen weniger Strom.

Ich habe gesehen das Server SFP+ NICs (Die man relative günstig, gebraucht kaufen kann) eine gute Kühlung voraussetzen, die haben dann aber auch meist 2x SFP+ Anschlüsse.

Da ich nirgends Erfahrungsberichte gefunden (Ein gutes Zeichen? :confused_alt:), und nur von Hitze Problemen mit RJ45 Transceivern gelesen habe, die Fragen:

Wie sieht das aus mit den Consumer Netzwerkkarten? Werden die unter Last heiss mit DAC oder Glasfaser oder reicht die Standardlüftung von gängigen Gehäusen?

Vorrausetzung:
"Standart" Consumer Case.
Mit oder ohne Mesh Front.
Standard Lüfter Konfiguration. (Vorne und Hinten)

Ich habe ein paar Netzwerkkarten herausgesucht:

ASUS XG-C100F

DeLOCK SFP+

Zyxel XGN100F

Ich (und vielleicht andere ;)) würden sich freuen über ein paar Erfahrungsberichte. :)
 
Die gute Belüftung ist auch für den Chip notwendig, nicht nur für die Transceiver. Die Delock-NIC nutzt z.b. einen älteren Intel-Chip der deutlich mehr Energie braucht als die Marvell-Chips auf den anderen Karten. Auch modernere Chips in aktuelleren Server-NICs brauchen heute etwas weniger Energie, um ein Mindestmaß an Belüftung kommst du aber so oder so nicht drum herum.

Da "Standard"-Consumer-Cases bzgl. ihrer Belüftung stark von Modell zu Modell variieren kann man das nicht pauschal beantworten. Manche Gehäuse sind da besser aufgestellt als andere.
 
Wenn für Dich gebraucht in Ordnung ist, kann ich Dir Preis-/Leistungstechnisch den Mellanox ConnectX-3 PCIe x4 NIC 10 Gigabit 10GBe SFP+ Single Port Server Adapter empfehlen. Ich setzte den in meiner Workstation ("Gaming PC") als auch meiner QNAP NAS als auch Office PC ein. Gibt es bei ebay zu Hauf für 30-35 € das Stück. Allerdings nutze ich die im Zusammenhang mit 5m SFP+ DAC-Kabel und 10m SFP+ AOC-Kabel. Die Variante SFP+ auf RJ45 Adapter ist immer "Frickelei", es sei den der Netzwerkadapterhersteller hat SFP+ auf RJ45 Adapter explizit in seiner HCL vorgesehen. Da die SFP+ Ports häufig nicht für den höheren Strombedarf SFP+ auf RJ45 Adapters ausgelegt sind im Vergleich zu einem reinen 10G RJ45 Adapter. Meiner Erfahrung nach ist der SFP+ auf RJ45 Adapter temperaturtechnisch die schwierig zu kühlende Wärmequelle (da außerhalb des Gehäuse) und in der Regel nicht der Netzwerkchip auf der Netzwerkkarte. Die Aussage bezieht sich auf den für mich normalen Heimgebrauch, wenn Du über 30-45 Min. oder länger den Netzwerkadapter voll auslastest sollte dieser natürlich im Luftstrom sein, damit die Wärme abtransportiert wird und es zu keinem Wärmestau kommt.
 
Was möchtest du denn haben? 10Gbit/s über Kupfer? Weil man bekommt auch für 60€ schon Intel X540er.
 
  • Gefällt mir
Reaktionen: Togard
Togard schrieb:
Wenn für Dich gebraucht in Ordnung ist, kann ich Dir Preis-/Leistungstechnisch den Mellanox ConnectX-3 PCIe x4 NIC 10 Gigabit 10GBe SFP+ Single Port Server Adapter empfehlen. Ich setzte den in meiner Workstation ("Gaming PC") als auch meiner QNAP NAS als auch Office PC ein.
Die sind gut und günstig, beim Einsatz in einer 24/7 laufenden Maschine würde ich mir das aber auch genauer überlegen. Die sollen wohl durchaus dafür verantwortlich sein, dass die entsprechenden Hosts nicht mehr in die Stromsparmodi (C-States) schalten können.
Bei nem PC, welcher nur gelegentlich läuft und wenn meistens nicht im Idle, sind die C-States wahrscheinlich vernachlässigbar. Wenn ein NAS rund um die Uhr dann plötzlich 5 bis 15 Watt mehr verbraucht, wäre das hingegen ärgerlich.

Dann lieber etwas moderneres. In den Bewertungen beim großen Fluss kommt diese Karte recht gut davon. Aus einer der Bewertungen stammt auch der Hinweis mit den C-States bei z.B. Intel X520 und ConnectX3. (Welche ich aber auch an mehreren anderen Stellen schon gelesen habe.)

Ansonsten bin ich bei dir. Im Kern würde ich nach Möglichkeit auch 10GbE über SFP+ Netzwerkkarten DAC/AOC oder eben Singlemode/Multimode Transceiver realisieren. Über Kupfer - daher rührt ja schon die Frage des TE - braucht eben ne Menge Strom, zumindest mit gegenwärtiger Hardware.
 
  • Gefällt mir
Reaktionen: Togard
Man darf nicht glauben, dass 10GBase-T-NICs eine viel bessere Lösung sind als RJ45-SFP-Module. Die X540 hat eine typische Leistungsaufnahme von 13,4W bei 10G. Der größere Kühlkörper kommt nicht von ungefähr. Die NIC erfordert eine entsprechende Belüftung.
 
Khorneflakes schrieb:
Da "Standard"-Consumer-Cases bzgl. ihrer Belüftung stark von Modell zu Modell variieren kann man das nicht pauschal beantworten. Manche Gehäuse sind da besser aufgestellt als andere.
Viele gehäuse haben einen Netzteil schacht wodurch unten keine Lüfter montiert werden können. Dazu kommt, das bei vielen aktuelle Mainboards (nicht bei allen) nur der unterste PCIE Slot mit x4 angebunden oder sogar ein muss ist, wenn eine Grafikkarte mit sehr dickem Kühler verbaut wurde. In kombination führt das zu dem Problem, das zu wenig platz zwischen Netzwerkkarte und Netzteil schacht ist, um einen kühler auf der Netzwerkkarte zu montieren. Daher dass mit dem "Standart" Case.

computerbase107 schrieb:
Wird diese nicht Heiss mit DAC oder Glasfaser?

Togard schrieb:
Die Aussage bezieht sich auf den für mich normalen Heimgebrauch,
Heist das die Mellanox ConnectX-3 PCIe x4 NIC nicht überhitzt wenn man nicht gleich dauerlast anlegt?

Das MatZe schrieb:
Über Kupfer - daher rührt ja schon die Frage des TE - braucht eben ne Menge Strom, zumindest mit gegenwärtiger Hardware.
Genau,der höhere Stromverbrauch sorgt leider für die überhitzung. Daher hab ich mich für DAC oder Glasfaser entschieden. Aber noch keine Hardware gekauft. da ich nicht sicher war ob die benfalls zum überhitzen neigt.
 
Du musst dich von dem Gedanken lösen, dass du die NIC thermisch allein dadurch in den Griff bekommst, dass du DAC oder Glas benutzt. Das ist nicht der Fall, es ist nur ein Teilaspekt. Der Chip selbst setzt auch Energie in Wärme um und überhitzt bei unangemessener Belüftung.
 
  • Gefällt mir
Reaktionen: Das MatZe
Khorneflakes schrieb:
Man darf nicht glauben, dass 10GBase-T-NICs eine viel bessere Lösung sind als RJ45-SFP-Module. Die X540 hat eine typische Leistungsaufnahme von 13,4W bei 10G. Der größere Kühlkörper kommt nicht von ungefähr. Die NIC erfordert eine entsprechende Belüftung.

die Leistungsaufnahme von einem SFP+ to RJ45 Transceiver Modul ("Adapter") liegt bei ca. 3-4 Watt, allerdings im SFP+ Port und nicht auf der Netzwerkchipfläche verteilt, ich finde diese Adapter halt als eine Art Notlösung, entweder geht man direkt auf SFP+ oder RJ45. Ist aber nur meine derzeitige Meinung und ich lasse mich gerne eines besseren belehren.
 
Khorneflakes schrieb:
überhitzt bei unangemessener Belüftung.
Da kommt nun die frage mit dem "Standart" Case ins Spiel und der Standard Lüfter Konfiguration. (Vorne und Hinten)
Sagen wir mal vorne sind 2 oder 3 Lüfter Montiert 120mm oder 140mm die Luft hineinschaufeln. Da sollte ein bischen Luft bei der Netzwerkkarte ankommen. Reicht das dann mit DAC oder Glasfaser aus oder nicht? Da hoffe ich auf die erfahrung von euch :)
 
@Togard Du hast Recht und ich würde das vielleicht sogar noch auf 2-7 Watt erweitern und der Ort der Wärmeentwicklung ist in der Tat auch ein Problem. Wenn du das alles komplett unter einem gemeinsamen Kühler integrierst, dann ist das Problem ja nicht weg, sondern nur verschoben und etwas besser zu managen. 13 Watt für die NIC sind trotzdem signifikant und ohne Belüftung nicht dauerhaft zu machen. 10G über RJ45 ist eine Krücke, egal wie man das implementiert, und ist zu vermeiden, wenn möglich.

@Alf2000 Was für Lüfter es sind ist nicht ganz so wichtig. Du sagst ganz richtig, ein bisschen könnte bei der NIC ankommen. Und das ist auch der wichtige Teil, der Luftstrom und seine Richtung.

Ich habe 10G, 25G und 40G NICs im Einsatz. Moderne Gehäuse, die vollflächig Durchzug machen, also auf der ganzen Höhe Lüfter haben, sind grundsätzlich im Vorteil gegenüber älteren Designs, solange nicht irgendwas den Luftstrom zu den PCIe-Karten blockiert. Die Tiefe des Gehäuses ist auch relevant in Relation zur Stärke der Lüfter, ggf. muss man da die Drehzahl erhöhen. Und wenn das alles nicht in Frage kommt, dann ist es ein Klassiker einen Lüfter vor die PCIe-Karten zu hängen (bei horizontal eingebauten Karten) bzw. ihn oben drauf zu legen (bei vertikal stehenden Karten).

Ein primitiver Test:
Halte im Betrieb mal deine Hand zwischen die PCIe-Karten. Wenn du einen merklichen Luftzug spürst, dann bist du am unteren Limit von dem, was ich dauerhaft empfehlen würde. Wenn der Luftstrom deutlich spürbar ist, dann bist du ganz gut aufgestellt. Professionell betrachtet haben die NICs natürlich Anforderungen an die Luftmenge, die über den Kühler strömen muss. Das müsste man dann aufwendig messen und berechnen, wenn man es formal richtig machen wollen würde. Hab ich für meine Systeme privat auch noch nie gemacht.
 
Zuletzt bearbeitet:
Ich wiederhole gerne die Frage:
Was möchtest du haben, einfach irgendwie 10 Gbit/s? Wie sieht die andere Seite aus, ein Switch mit ein paar mehr SFP+ und genug Backplane kostet ja auch was.

Scheint hier ja um irgendwelche Arbeitsstationen zu gehen, die mehr Netzwerkanbindung bekommen sollen.


Ansonsten spreche bitte nicht von Hitze, sondern von Energie oder (lokale) Temperaturspitzen, das eine bezieht sich ja nur auf Stromaufnahme, das andere kann aber evtl. schlecht lösbareProbleme geben, wie z.b. die SFP+-T-Module, die echt grenzwertig sind. Ansonsten 40-50er Lüfterchen auf/an die Karten kleben (bzw. per 3D-gedruckter Halterung)
 
Khorneflakes schrieb:
dann ist es ein Klassiker einen Lüfter vor die PCIe-Karten zu hängen (bei horizontal eingebauten Karten) bzw. ihn oben drauf zu legen (bei vertikal stehenden Karten).
Dann werd ich es wohl oder übel testen müssen und dann wenns zu heiss wird zur not diese lösung basteln.

Aus diesem satzt werd ich nicht ganz schalu :confused_alt:
VDC schrieb:
Ansonsten spreche bitte nicht von Hitze, sondern von Energie oder (lokale) Temperaturspitzen, das eine bezieht sich ja nur auf Stromaufnahme,
Es ensteht übermässige wärme also "Hitze" bei SFP+ mit RJ45 Transceivern. Bedingt dadurch das sie mehr Strom (Technologie bedingt) brauchen um zu funktionieren. (So hab ich das zumindest gelesen)
VDC schrieb:
Was möchtest du haben, einfach irgendwie 10 Gbit/s?
VDC schrieb:
wie z.b. die SFP+-T-Module, die echt grenzwertig sind.
Ich denke es war klar das ich keine SFP+-T-Module verbauen will wegen der Hitze Problematik.
Alf2000 schrieb:
Genau,der höhere Stromverbrauch sorgt leider für die überhitzung. Daher hab ich mich für DAC oder Glasfaser entschieden. Aber noch keine Hardware gekauft. da ich nicht sicher war ob die benfalls zum überhitzen neigt.
Hätte ich bischen präzieser sein sollen. Mit Hardware sind 10GB Netzwerkkarten gemeint.
Als Switch kommt dann MikroTik Switch CRS305 zum einsatz. der Passiv gekühlt ist und keine Hitze Probleme oder wärme stau hat mit DAC und Glasfaser.

Bei Netzwerkkarten sieht das wiederum anders aus mit der Hitze entwicklung. Daher meine Fragen zu den Netzwerkkarten ;)
 
Hitze ist einfach umgangssprachlicher nonsense, für den einen ist das solche schon, wenn etwas 50 Grad hat und man sich die Finger "verbrennt".

Und die SFP-Ports in Verbindung mit schlechter Wärmeabfuhr wg. kleiner Oberfläche erreichen halt in Verbindung mit den energiehungrigeren T-Modulen Temperaturbereiche, wo der Betrieb halt nicht unbedingt aufrechterhalten werden könnte. Der Port ist halt eher für unter 1W ausgelegt und nicht für das 2-3fache.

Aber "warm" werden alle Karten, die fressen halt alle 10W+ und die brauchen einen gewissen Luftstrom, ich würde hier wie gesagt auf schnöde kleiner Lüfterchen setzen, die man darauf montiert, dann sollte das Thema Temperatur bei Verwendung von Glas oder DAC erledigt sein.

Jetzt zu der Kartenauswahl: Haben die Rechner alle PCIe X8 Slots? Oder bist du auf X4 begrenzt? Weil mit nur X4 sind die Serverkarten idR raus (und haben noch ein paar andere Eigenheiten in Consumerboards uU, aber das ist ein anderes Thema und nur interessant, falls es deine dann ausgesuchte Kombi im Liveeinsatz betrifft).
 
Zuletzt bearbeitet:
VDC schrieb:
Hitze ist einfach umgangssprachlicher nonsense
In dem zusammenhang wie ich schrieb, sollte eigentlich klar sein worum es mit "erzeugt sehr schnell viel Hitze" geht. ;)

"Edit:
VDC du schreibst: ich würde hier wie gesagt auf schnöde kleiner Lüfterchen setzen, die man darauf montiert,"

Hab ich schon geschrieben.
Alf2000 schrieb:
Viele gehäuse haben einen Netzteil schacht wodurch unten keine Lüfter montiert werden können. Dazu kommt, das bei vielen aktuelle Mainboards (nicht bei allen) nur der unterste PCIE Slot mit x4 angebunden....

Wenn ich jetzt auch mal bischen genauer werden darf ;)
VDC schrieb:
Jetzt zu der Kartenauswahl: Haben die Rechner alle PCIe X8 Slots? Oder bist du auf X4 begrenzt?
Ein PCIe X8 Slot oder auch ein x16 Slot ist nicht automatisch, auch elektrisch mit x8 oder x16 angebunden. die meisten (wenn auch nicht alle) zusätzlichen PCIe slots egal ob die nun x8 oder x16 gross sind, sind neben dem Primären x16 Slot für die Grafikkarte (der auch elektrisch mit x16 angebunden ist) unabhängig von der grösse meist mit x4 oder sogar mit nur x1 angebunden, da muss man genau die Handbücher studieren.

Da ich von Consumer Netzwerkkarten und "Standart" Consumer Case schrieb, hoffe ich das klar ist das ich keine Server Mainboards in betracht gezogen habe. Wenn nicht: Mea culpa

Zu der Kartenauswahl: Es ist ein x16 Slot der elektrsich nur mit x4 angebunden ist, Die meisten PCIe 3.0 Karten sind x4. Es sollte eigentlich auch mit PCIe 2.0 x8 Karten gehen, elektrisch x4 sollten knapp ausreichen für 1x SFP+ Port mit 10GB. Bevorzugen würde ich aber PCIe 3.0 x4 Karten.
 
Ne, aber die Serverkarten wollen idR X8 haben und zwar auch angebunden, deshalb sind die nur dann eine Option, wenn du das auch erfüllen kannst.

Deshalb mit x4 und es gibt zwar noch ne günstigere Trendnet, aber ich würde wohl auf die Asuskarte setzen.
 
Khorneflakes schrieb:
Die X540 hat eine typische Leistungsaufnahme von 13,4W bei 10G. Der größere Kühlkörper kommt nicht von ungefähr. Die NIC erfordert eine entsprechende Belüftung.
Die X540 ist schon etwas älter. Aktuelles 10GBase-T kommt mit wesentlich weniger Leistung aus.
Innodisk EGPL-T102 basierend auf AQC-113 wird mit <3,6W spezifiziert. Für die komplette NIC.

 
Zuletzt bearbeitet:
Zurück
Oben