News 2,5-Gbit-LAN von Intel: Netzwerkchip i225-V ist für den Massenmarkt startklar

xexex schrieb:
Beide haben vermutlich ähnlich schlechte PHYs verbaut, bei der Preisklasse ist dort sowieso irgendwelche billige Hardware verarbeitet. Trotzdem würde ich nie 10GBit auf billigen Kabeln eine wirkliche Chance geben.
Keine Sorge, ich hab hier alles mit dem neuesten Kabelstandard verkabeln lassen, ebenso verwende ich hier nur noch Cat6e, da die kaum teuer sind. ;)
 
Tobi86 schrieb:
Heißlaufende und dann performance-mäßig einbrechende Chipsätze oder auch solche, die gar nicht erst 10 GBit/s in der Praxis schaffen. Schlechte / abstürzende Treiber, fehlendes WOL, keine Kompatibilität zu Windows-Server-Betriebssystemen oder auch unzureichende Linux-Unterstützung.
Es gibt neben Intel ja auch noch Highend-Chipsätze von Broadcom und Marvell. Die sind idR gut. Aber der Billig-Kram der sonst so auf "Highend-Gamer"-Mainboards verbaut wird, ist einfach Müll. Dann lieber ein günstigeres Mainboard + eine Intel NIC. Ist zwar teurer, aber Hard- und Software sind einfach Top. Das sollte auch ein AMD-Fan anerkennen.
Oho die Fanboy Keule.
Mir gehts darum, ich habe mit noch keinem Lan Chip irgendwelche Probleme gehabt die letzten 10 Jahre, weder Intel, Broadcom, Realtec. Windows, verschiedene Linux.
Deshalb frage ich, denn ich kann das Geschwätz nicht nachvollziehen.
Es wurde Vlan genannt per Powershell, das ist eine Aussage, die kann ich akzeptieren. Dein gerede von "alles Blöd, nix geht" ist dagegen wieder zu ungenau...
Das beantwortet nicht meine "AMD Fanboy Frage", was auch immer AMD mit Lan Chips zu tun hat?
Btw mein Board hat einen Intel NIC und einen Realtec (Killer). Beide funktionieren tadellos.

Konkretisierung:
Welcher Chip ist überhitzt, welcher Chip hatte unter welchem OS Treiberprobleme (allgemeiner Betrieb oder z.B QoS, Vlan ..), wie viel Jahre ist das her?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hayda Ministral
Na ja, am Anfang bei der Einführung der 1GB-Nics waren die Realtek- und Marvell schon deutlich schlechter als die Intel-Nics. Während die Intels fast 125-135 MB/s lieferten, waren es bei den Realtek und Marvells gerade mal 50-80 MB/s. Aber Du hast schon recht, das ist schon lange her, und heute sind die Realteks und Marvells genauso gut wie die Intels.
 
  • Gefällt mir
Reaktionen: bad_sign
Tigerfox schrieb:
Für mich ist immernoch nicht ersichtlich, wieso ein reiner 2.5GbE-Chip sich für Intel und Realtek mehr lohnt als einer mit 2.5/5GbE oder 2.5/5/10GbE. Die Chips müssen die gleiche Signaltechnik beherrschen, müssen nur die Leitungen mit mehr MHz befeuern können. Die zu erreichende Geschwindigkeit hängt also nur von den Kabeln ab. Oder kann man den Chip günstiger produzieren, wenn er nur 100MHz statt 200MHz über die Leitung jagen soll?
Ich könnte es noch verstehen, wenn sich ein 5GbE-Chip lohnt, weil der nur PCIe2.0x1 haben muss, während für 10GbE entweder PCIe3.0x2 oder PCIe2.0x4, aus Kompatiblitätsgründen dann meist PCIe3.0x4 haben muss, was viel aufändiger ist.
Intel und Realtek werden ihre Gründe haben, sonst würd es sich nicht lohnen.
Bei 5/10Gbe-Chips muss entsprechend die Qualität (mal einfach gesagt) höher sein damit das Ergebnis sauber ist. Und das ist dann wohl auch einer der Gründe warum der neue Chip (höchst vermutlich) über kurz oder lang die 1Gbit ersetzen wird. Bei der Herstellung wird es nicht soviel Ausschuss geben, was die Kosten dann wohl logischerweise gleich hält. Die Hersteller freut es, da sie mit höheren Geschwindigkeiten werben können (sich das Anfangs vermutlich leider auch im Preis ein wenig bemerkbar machen wird) und der Kunde ist glücklich das er mehr Dampf für seine paar Kabel bekommt.
 
xexex schrieb:
Der Versuch auf einem Kabel der für 100Mhz zugelassen wurde, 400Mhz durchzujagen kann in Wirklichkeit nur scheitern.

Hier bist Du m.E. massiv auf dem Holzweg. Das Kabel wird nicht zugelassen sondern spezifiziert. Es wird versichert, dass es bis x Mhz die geforderten Eigenschaften hat. Ein 400 MHz spezifiziertes Kabel würde nicht dadurch für 400 MHz ungeeignet dass es der Hersteller aus welchem Grund auch immer unter anderem Namen als für 100 MHz geeignet verkauft.

Anderes Beispiel: Die guten alten Telefonkabel wurden seinerseits für maximal 1xx KHz spezifiziert. Der Versuch, diese Kabel nun mit Frequenzen von x MHz zu nutzen (*) war und ist offensichtlich erfolgreich, denn das wird heute (per ADSL, VDSL, G.Fast) jeden Tag gemacht. Weltweit. Millionenfach.

(an die üblichen Verdächtigen: jetzt bitte hier keine Diskussion über DSL, das ist hier nicht Thema)
 
Hayda Ministral schrieb:
Anderes Beispiel: Die guten alten Telefonkabel wurden seinerseits für maximal 1xx KHz spezifiziert. Der Versuch, diese Kabel nun mit Frequenzen von x MHz zu nutzen (*) war und ist offensichtlich erfolgreich, denn das wird heute (per ADSL, VDSL, G.Fast) jeden Tag gemacht. Weltweit. Millionenfach.

Ganz schlechter Beispiel!

DSL wurde dafür entwickelt um aus "schlechten" Leitungen das "Unmögliche" herauszuholen. Man geht davon aus, dass es ein Übersprechen gibt und nutzt es sogar um noch höhere Geschwindigkeiten zu erreichen (Vectoring). Man weiß, dass möglicherweise bestimmte Frequenzbereiche gestört sind, misst die Signalqualität vorher aus und kann die Geschwindigkeit relativ frei nach oben und unter skalieren usw.

Solche Verfahren gibt es zuhauf um zum Beispiel Telefonleitungen für Ethernet nutzen zu können (HomePNA).

So funktioniert aber Ethernet nicht und es wird für eine bestimmte Geschwindigkeit eine genau spezifizierte Kabelqualität, Aufbau und Schirmung vorausgesetzt. Gehen Pakete während der Übertragung verloren, werden sie erneut gesendet aber ein Einmessen und eine Skalierung der Geschwindigkeit wie sie bei DSL oder WLAN stattfindet ist hier nicht vorgesehen.

Im besten Fall ist das Kabel kurz genug, damit trotz der Echos, Störungen und Rauschen genug am anderen Ende herauskommt. 10GBASE-T wird aber nicht das Modulationsverfahren anpassen und die Daten mit 7,5Gbit übertragen damit das besser funktioniert, sondern schlichtweg jedes einzelne Päckchen was defekt an der Gegenstelle ankommt, noch einmal senden.

Störungen auf den Leitungen können da von guten Switchen zwar erkannt und gemeldet werden, jedoch kann da bestenfalls bei der Autoaushandlung zwischen Switch und einer Netzwerkkarte die Geschwindigkeit angepasst werden, dann gibt es halt statt 10GBASE-T nur 1GBASE-T. Zuverlässig hat das aber bei Ethernet nie wirklich funktioniert, weil es nie darum ging und die meisten billigen Switche begnügen sich damit zu erkennen, ob denn wirklich 4 Adernpaare verbunden sind oder nicht und schalten dann zwischen 100Mbit und der maximalen Geschwindigkeit.
1570272472842.png


So sollte ein Port bei ordentlicher Verkabelung jedenfalls nie aussehen, während bei DSL oder WLAN es eher so aussieht, wie weiter unter in der Grafik zu sehen ist:
1570272557877.png


1570271829140.png
 
Zuletzt bearbeitet:
PHuV schrieb:
Na ja, am Anfang bei der Einführung der 1GB-Nics waren die Realtek- und Marvell schon deutlich schlechter als die Intel-Nics. Während die Intels fast 125-135 MB/s lieferten, waren es bei den Realtek und Marvells gerade mal 50-80 MB/s. Aber Du hast schon recht, das ist schon lange her, und heute sind die Realteks und Marvells genauso gut wie die Intels.
Denk ich mir doch, dass das Geschichten von vor vielen Jahren sind.
Sicherlich ist keiner Perfekt aber dieses "alles außer Intel NICs ist Mist" getue ist einfach veraltet.
 
Kenshin_01 schrieb:
Bei 5/10Gbe-Chips muss entsprechend die Qualität (mal einfach gesagt) höher sein damit das Ergebnis sauber ist. Und das ist dann wohl auch einer der Gründe warum der neue Chip (höchst vermutlich) über kurz oder lang die 1Gbit ersetzen wird.
Na ja, die Dinger werden ja nicht erst seit gestern hergestellt, daher halte ich das für kein gutes Argument. Die Dinger könnten dank Massenmark sehr wohl qualitativ schon längst billiger sein. 1Gbit hat sich viel rascher und schneller verbreitet, und entsprechend günstiger wurde es recht schnell. Mögen die technischen Anforderungen bei 10 Gbit auch höher sein, daß ist nicht der ausschließliche Grund, daß es solange braucht, bis sich das im Heimmarkt auch verbreitet. SSDs gibt schon seit vielen Jahren, was eine höhere Bandbreite bei Sicherungen über Netzwerk erfordert, und im Buisnessbereich sind heute selbst 10 GBit für die Masse von Daten schon viel zu wenig.
 
Zuletzt bearbeitet:
Ich gehe mal stark davon aus, das Intel bei der Entwicklung des Chips nichtmal ansatzweise den Businessbereich im Gedanken hatte, da dort bereits entsprechende Lösungen von ihnen vorhanden sind. Die SSD bringt für den Heimnutzer die Gemütlichkeit nicht mehr ewig auf diverse Startvorgänge warten zu müssen, der Nutzerkreis die Sicherungen über das Netzwerk fahren ist im gesamten Gesehen dazu recht überschaubar. Wie schon oben mal öfters erwähnt, interessiert sich der 08/15-Nutzer heutzutage mehr über den Durchsatz den sein WLAN bringt. Mag der PC noch per Kabel am Router hängen kommt der Rest alles per WLAN (Smartphone, Tablet, Glotze usw.). Das Limit steckt hier im WAN-Zugang und der durchbricht eher selten die 1GBit.
 
  • Gefällt mir
Reaktionen: brainDotExe
Wer sich unsicher ist, ob er aktuell Geld in die Hand nehmen soll um sein Heimnetz auf einen der o.g. Standards migrieren soll, soll es lassen. In kleinen Netzen mit wenig Clients und in der Access-Ebene allgemein, gibt es sehr wenig zeitkritische Anwendungen, die von mehr Bandbreite als 1GBit profitieren könnten und wer jetzt zu Hause ein VMWare HA Cluster betreibt, weiß auch um den Bandbreitenhunger von VMotion. Da sind dann je nach Server und Stand der Hausautomation durchaus zeitkritische Workloads mit großem Bandbreitenbedarf bei.
Natürlich geht auch mit 10GBASE-T die reine Datenschubserei, sofern beide Seiten über entsprechend schnelle Massenspeicher verfügen, bedeutend schneller, aber den Preis für die Zeitersparnis muss man eben auch zu zahlen bereit sein. Der hat es nämlich nach wie vor in sich.
Das soll jetzt nicht heißen, dass man seine neue Hausverkabelung in CAT5e gestalten sollte. Wenn man sowieso vor einer Neuanschaffung steht und für einen günstigen Aufpreis den höheren Standard bekommt, würde ich mich kaum für das ältere Produkt entscheiden. Ganz grundsätzlich gilt aber auch hier: Man sollte Mehrleistung nicht auf „Vorrat“, sondern genau dann kaufen, wenn man Sie benötigt (oder bei einer Neuanschaffung günstig bekommen kann).

Glasfaser im Access-Layer (des Heimnetzes)
In größeren Netzwerken ist Glasfaser zwischen den Netzwerkgeräten wegen den Entfernungen alternativlos. Da die ganz hohen Bandbreiten ohnehin nur in Glas zu haben sind, wird man im Distribution- und im Core-Layer kaum Kupfer finden.
Im Access-Layer wird aber gerade umgekehrt ein Schuh daraus. Persönlich kenne ich genau ein Netzwerk, dass auch die Access-Ports in Glas ausführt. In dem Gebäude wollte man zum damaligen Zeitpunkt mit nur einem Verteiler pro Stockwerk auskommen, was mit Kupfer nicht möglich war/ist. Glas hat aber im Access-Layer gravierende Nachteile und kann seine Vorteile nicht ausspielen:

  1. Es gibt im Prinzip keine Endgeräte die nativ einen SFP+ NIC haben. Klar, in PCs und Workstations kann man entsprechende Karten stecken, aber das gilt eben nicht für alle Geräteklassen. Man kommt also nicht umhin mit Medienkonvertern jedes Endgerät einzeln an´s Netz zu binden. WLAN als mögliche Alternative skaliert als Shared Medium schlecht und verlagert das Problem auch nur, weil es keine Access-Points mit SFP+ gibt, denn…
  2. …Glasfaser unterstützt kein PoE. Fehlendes PoE ist aber in großen und/oder kritischen Strukturen ein absoluter Show Stopper, weil es die Erschließungskosten ins Unermessliche katapultiert. Es geht dann nicht nur darum, dass jeder Ethernet-Anschluss zusätzlich mit Strom versorgt werden muss, sondern dass diese Stromversorgung in nicht wenigen Umgebungen auch mit einer Notstromversorgung abgesichert werden müsste, weil eben auch die Telefonie über diese Netze abgewickelt wird.


IMHO
Diese Nachteile, die damit verbundenen Mehrkosten und der Mangel an handfesten Vorteilen führen dazu, dass Glasfaser im Access-Bereich auf absehbare Zeit keine nennenswerte Rolle spielen wird. Entsprechende SOHO Hardware mit SFP+Interface wird aufgrund der geringen Durchdringung nicht auf den Markt kommen und so wird man auf ewig mit Medienkonvertern Schnittstellen bereitstellen oder teure Enterprise-Hardware kaufen müssen.
 
  • Gefällt mir
Reaktionen: justFlow
emulbetsup schrieb:
Wer sich unsicher ist, ob er aktuell Geld in die Hand nehmen soll um sein Heimnetz auf einen der o.g. Standards migrieren soll, soll es lassen. In kleinen Netzen mit wenig Clients und in der Access-Ebene allgemein, gibt es sehr wenig zeitkritische Anwendungen, die von mehr Bandbreite als 1GBit profitieren könnten und wer jetzt zu Hause ein VMWare HA Cluster betreibt, weiß auch um den Bandbreitenhunger von VMotion. Da sind dann je nach Server und Stand der Hausautomation durchaus zeitkritische Workloads mit großem Bandbreitenbedarf bei.
Natürlich geht auch mit 10GBASE-T die reine Datenschubserei, sofern beide Seiten über entsprechend schnelle Massenspeicher verfügen, bedeutend schneller, aber den Preis für die Zeitersparnis muss man eben auch zu zahlen bereit sein. Der hat es nämlich nach wie vor in sich.
Das soll jetzt nicht heißen, dass man seine neue Hausverkabelung in CAT5e gestalten sollte. Wenn man sowieso vor einer Neuanschaffung steht und für einen günstigen Aufpreis den höheren Standard bekommt, würde ich mich kaum für das ältere Produkt entscheiden. Ganz grundsätzlich gilt aber auch hier: Man sollte Mehrleistung nicht auf „Vorrat“, sondern genau dann kaufen, wenn man Sie benötigt (oder bei einer Neuanschaffung günstig bekommen kann).

Glasfaser im Access-Layer (des Heimnetzes)
In größeren Netzwerken ist Glasfaser zwischen den Netzwerkgeräten wegen den Entfernungen alternativlos. Da die ganz hohen Bandbreiten ohnehin nur in Glas zu haben sind, wird man im Distribution- und im Core-Layer kaum Kupfer finden.
Im Access-Layer wird aber gerade umgekehrt ein Schuh daraus. Persönlich kenne ich genau ein Netzwerk, dass auch die Access-Ports in Glas ausführt. In dem Gebäude wollte man zum damaligen Zeitpunkt mit nur einem Verteiler pro Stockwerk auskommen, was mit Kupfer nicht möglich war/ist. Glas hat aber im Access-Layer gravierende Nachteile und kann seine Vorteile nicht ausspielen:

  1. Es gibt im Prinzip keine Endgeräte die nativ einen SFP+ NIC haben. Klar, in PCs und Workstations kann man entsprechende Karten stecken, aber das gilt eben nicht für alle Geräteklassen. Man kommt also nicht umhin mit Medienkonvertern jedes Endgerät einzeln an´s Netz zu binden. WLAN als mögliche Alternative skaliert als Shared Medium schlecht und verlagert das Problem auch nur, weil es keine Access-Points mit SFP+ gibt, denn…
  2. …Glasfaser unterstützt kein PoE. Fehlendes PoE ist aber in großen und/oder kritischen Strukturen ein absoluter Show Stopper, weil es die Erschließungskosten ins Unermessliche katapultiert. Es geht dann nicht nur darum, dass jeder Ethernet-Anschluss zusätzlich mit Strom versorgt werden muss, sondern dass diese Stromversorgung in nicht wenigen Umgebungen auch mit einer Notstromversorgung abgesichert werden müsste, weil eben auch die Telefonie über diese Netze abgewickelt wird.


IMHO
Diese Nachteile, die damit verbundenen Mehrkosten und der Mangel an handfesten Vorteilen führen dazu, dass Glasfaser im Access-Bereich auf absehbare Zeit keine nennenswerte Rolle spielen wird. Entsprechende SOHO Hardware mit SFP+Interface wird aufgrund der geringen Durchdringung nicht auf den Markt kommen und so wird man auf ewig mit Medienkonvertern Schnittstellen bereitstellen oder teure Enterprise-Hardware kaufen müssen.
Hab auch so einen Tipp ;) : Wenn man sich unsicher ist mit was man nun sein Haus verkabeln soll - mit Kupfer oder Glas - besser noch warten :pcangry: vielleicht kommt ja in 2..3 Jahren optisches USB - mit 100W oder so was und natürlich irgend ne Form von Netzwerk im Multiplex. Die 100W natürlich nicht über die zwei Glasfasern im Verlegekabel sondern über die 2 Stromstrippen. Back to the roots - USB habe zwei Datenstrippen und zwei Stromstrippen, das war's. Mit passenden Steckern ohne Nupsi, Dosen, robusten Patchkabeln, preiswerten (passiven und deswegen langlebigen) optischen Hubs. Bei mir kommt jedenfalls kein Kupferdatenkabel mehr in die Wände .. (solange es nicht zu sehr nervt ;)).

Und der Punkt wo wir eigentlich alle mindestens 2.5G brauchen werden kommt vermutlich auch bälder als gedacht - WLAN ist bereits jenseits des 1G, bei FTTH wird das auch in absehbarer Zeit passieren. Kabel macht da bestimmt auch mit auch wenn's eigentlich eng wird. Insofern bringt Intel genau das richtige Produkt - genau das was Mensch so in den nächsten Jahren braucht. Aber nichts was den mittelfristigen Erfolg von USB/TB verzögern könnte. Oder das Geld verdienen im >=10G Netzwerkbereich behindern würde.

Außerdem gibt's mit preiswertem 2.5GbE endlich ne passende Lösung für schnellere FTTH NT's (10GPON statt 2.5?) - die ja im Augenblick von den Providern fest installiert werden - mit noch 1GbE als Übergabepunkt oder in der Fritz-Box. Mal sehn wie lange die Provider und die AVMs sich Zeit lassen werden um bei Neuinstallationen umsteigen .. Aber man könnte natürlich auch USB-C nehmen .. oder nen passiven Glasfaserstecker statt an der Wand erhängtem NT ..

So oder so - das Kupferdatenkabel im Haushalt ist schon tot. Hat ihm nur noch keiner gesagt.
 
Zuletzt bearbeitet:
Wie siehts es eigentlich mit dem Stromverbrauch aus? zieht 10GbE auch im idle viel und kann das automatisch immer so Takten was gerade benötigt wird zB wenn eh nur eine lahme HDD gerade arbeitet nur mit 1 GbE statt den 10.
 
Knuddelbearli schrieb:
Wie siehts es eigentlich mit dem Stromverbrauch aus?

Die Sender einer 10GBaseT-Netzwerkkarte geben bis zu 3,3 Milliwatt an Leistung pro Adernpaar ab. Da diese Leistung für kürzere Strecken nicht benötigt wird, kann durch das im Standard beschriebene Power Management die Sendeleistung begrenzt werden, um unerwünschte Abstrahlungen in parallele Adern und Kabel zu minimieren. Die Sendeleistung kann von den Kommunikationspartnern in acht 2-dB-Schritten zwischen 0 und 14 dB gesenkt werden. Die Sender verfügen auch über analoge und digitale Schaltungen, welche die Echo-Cancellation übernehmen. Das eigene, bekannte Sendesignal wird, wenn es zeitverzögert durch ein Echo im Empfangssignal auftaucht, herausgerechnet, um dem Empfänger nur das Signal der Gegenseite zur Verfügung zu stellen.
https://www.it-administrator.de/lexikon/10gbaset.html
 
Naja nur daran kann die Leistung aber ja nicht liegen ein 10 GbE ist ja 8-10W pro Port angegeben,

Bei einem ordentlich konfigurierten NAS ist das ja fast soviel wie das System an sich verbraucht, das hat mich bisher immer abgehalten. Mit ca 70€ je Karte wäre das sonst als direkt Verbindung zwischen PC und NAS mir es sonst schon Wert. Aber nochmal Strom für 50€ je Jahr ( 2 Karten ) ...
 
Die angegebene Sendeleistung pro Adernpaar dürfte hier abgeschrieben sein.

Hier habe ich ein Bild gefunden, das eine "typische" Leistungsaufnahme abhängig von der Strukturgröße des Chips zeigt. Mein Fazit: die Leistungsaufnahme ist nicht mehr so exorbitant wie vor wenigen Jahren noch, sie kann noch sinken, aber Wunder sollte man sich nicht erwarten. Signalverarbeitung im Bereich von Gigabit/Gigahertz kostet Energie. Auch darum warte ich bisher noch ab und setze darauf dass sich SFP+ mit optischem Kabel durchsetzt.
 
  • Gefällt mir
Reaktionen: brainDotExe
Etwas Side Talk: Die recht neuen MikroTik SFP-Switche (insb. ggf. der kleine CRS305-1G-4S+IN) sind aktuell schon ein kleiner Game Changer für 10GbE im Consumer-Bereich.

Wen das Thema interessiert:
Es gibt gute Zusammenfassungen auf YouTube ("Building 10GbE on Budget" u.a.). Und ja (s. Videos), auf eBay gibt es 10GbE Equip recht günstig. Und weiter ja, auch kann man definitiv überlegen, hier Fiber zu nehmen -- da entsprechende Transceiver bspw. wesentlich günstiger zu haben sind (~20€) als Ethernet/RJ45-Module (~50€). (2.5/)10GbE Upgrades für zwei Server + eine Workstation sind so z.B. für <400€ machbar, mit hier bereits erwähnten NICs.
 
  • Gefällt mir
Reaktionen: PHuV und Hayda Ministral
Hier scheinen sich ja einige Netz affine zu sein. Ggf. könnt Ihr ja etwas dazu sagen:

Ich stehe gerade wohl der Wahl zwischen 2 quasi technisch identischen Mainboards. Das (70 euro) teurere hat im Prinzip nur einen zusätzlichen 1 Gbit Intel Port verbaut und das günstige nur den Realtek 2.5 Gbit Port, ohne den Intel.
Da diese Realtek 2.5 Gbit Ports meist in Kombi mit 1 Gbit Intel Ports verbaut sind, frage ich mich, ob die in Sachen Alltagskompatibilität ausgereift sind (Das Beispiel von mir in dem Thread mit dem ESXi Server zähle ich mal nicht zu Alltag).

https://www.computerbase.de/forum/t...mt-ohne-rgb-aus.1897550/page-12#post-23292363
 
Zuletzt bearbeitet: (Rechtschreibfehler/dicke Finger)
justFlow schrieb:
Etwas Side Talk: Die recht neuen MikroTik SFP-Switche (insb. ggf. der kleine CRS305-1G-4S+IN) sind aktuell schon ein kleiner Game Changer für 10GbE im Consumer-Bereich.
Das Blöde ist hier, daß es von Intel anscheinend keine Karte mit Intel 1x 10GBase SFP+, PCIe 3.0 x4 gibt (sondern nur die "Billigteile" von Asus und Synology mit Aquantia AQtion AQC107). Es gibt nur PCIe 3.0 x8.
 
PHuV schrieb:
Das Blöde ist hier, daß es von Intel anscheinend keine Karte mit Intel 1x 10GBase SFP+, PCIe 3.0 x4 gibt (sondern nur die "Billigteile" von Asus und Synology mit Aquantia AQtion AQC107). Es gibt nur PCIe 3.0 x8.

Denkst du hier an ein besonderes Endgerät? In den meisten Anwendungsfällen sollte doch ein PCIe x8 verfügbar sein, oder?
 
Na ja, wenn Du noch andere Karten drin hast, wird es mit einer 8x-Karte eng. Für die Netzwerkkarte mit einem Anschluß reicht ja ein x4 klar aus.
 
Zurück
Oben