News Zukunft des Netzwerks: Netzwerkkarten mit PCIe 4.0 und optische 400-Gbps-Kabel

xblax schrieb:
Und Consumer Mainboards müssen weiterhin mit läppischen 1Gbit auskommen. :(

Wozu braucht man mehr im Endkundenmarkt? Internet in dieser Geschwindkeit ist fast nicht zu bekommen und welche Datenmengen verschiebt man heute schon noch im LAN, selbst wenn man ein NAS hat? Für Firmen, okay, aber als Privatmann ...
Es ist nicht so, dass ich es nicht auch gerne hätte, aber objektiv betrachtet sehe ich keine Notwendigkeit. Switches sind penetrant teuer, das Internet gibt es nicht her, die Festplatten im NAS können gar nicht so schnell schreiben, UHD Videos gehen auch über 100MBit problemlos und eine Erweiterungskarte mit 10Gbit kostet so viel wie mein aktuelles Mainboard. :freak:

Abseits davon @Autor, ich hätte es schön gefunden, wenn die ganzen Abkürzungen mit dieser Verlinkungsfunktion versehen worden wären. Die meisten Abkürzungen habe ich bis heute noch nie gehört. FPGAs, NIC, LFF, SFF, wtf ?
 
Zuletzt bearbeitet:
h00bi schrieb:
Krass ist ja, dass die meisten verbreiteten Server nicht mal so viel Speicherbandbreite haben. Wenn das Netzwerk mal fast so schnell ist wie DDR4-2133 im Quad Channel....

Hat wohl HP auch gemerkt und mit "The Machine" gleich den Parallelrechner mit dem großen Speicher in der Mitte, auf den alle Prozessoren, FPGAs, GPUs, ASICs rundherum völlig wahlfrei auch von der Geschwindigkeit her zugreifen können, angedacht. Das Verbindungsnetzwerk ist dabei wenig überraschend optisch, allerdings für den Speicher bleibt vielleicht nicht unbedingt DRAM sondern eher was Persistentes. Das DRAM wandert ja wohl mit steigender Prozessorzahl auch als HBM oder ähnlich in den Prozessor - sobald's dann mal erwachsen (groß genug) geworden ist.

Also stelle man sich für die Zukunft einen Parallelrechner vor bei dem alle Prozessormodule wahlfrei mit etwa gleicher Geschwindigkeit auf alle DDR Sockel die im System verteilt sind zugreifen können - egal was da jetzt für Speichermodule (DRAM, Optane, Memristor) drinstecken.
 
Zuletzt bearbeitet:
timeh_ schrieb:
25/40G ist durchaus schon standard. Hier redet man auch von den Uplinks zwischen den Switches und nicht Edge Ports Richtung Server oder Client. Es geht mittlerweile schon Richtung 100G. Heute werden einem im Vergleich zu nur 2014/2015 die Switches nur so hinterhergeschmissen. Ist es billig? Aus Sicht des Heimanwenders eher nicht. Aber man sollte mal ueberlegen was andere Dinge so kosten.

Wenn ich mir das Switch Portfolio auf der Arista Webseite anschaue (https://www.arista.com/en/products/platforms) sehe ich genau 2 von knapp 50 Switches die als Uplinks noch 10G haben. Alle anderen 40G und aufwaerts.

Du hast dir aber auch einen Hersteller ausgepickt, bei dem das vielleicht so ist, die Regel ist nicht einmal 10GBE. Schaue dir mal das Switchportfolio von Aruba Networks an (früher HP/Procurve).
http://www.arubanetworks.com/de/products/netzwerkprodukte/switches/

10GBE Uplinks gibt es dort bei ausgewählten Switchen und 10GBE auf Kupferbasis ist praktisch nicht vorhanden. Das sind Switche die den Massenmarkt ausmachen. Das es Hersteller gibt die 10GBE Switche im Programm haben bestreitet niemand, das ist aber eine Randerscheinung, die du in großen Rechenzentren und Internetprovidern vorfinden wirst und kein "Standard".
 
Die wilde Inge schrieb:
Wozu braucht man mehr im Endkundenmarkt? Internet in dieser Geschwindkeit ist fast nicht zu bekommen und welche Datenmengen verschiebt man heute schon noch im LAN, selbst wenn man ein NAS hat? Für Firmen, okay, aber als Privatmann ...
Es ist nicht so, dass ich es nicht auch gerne hätte, aber objektiv betrachtet sehe ich keine Notwendigkeit. Switches sind penetrant teuer, das Internet gibt es nicht her, die Festplatten im NAS können gar nicht so schnell schreiben, UHD Videos gehen auch über 100MBit problemlos und eine Erweiterungskarte mit 10Gbit kostet so viel wie mein aktuelles Mainboard. :freak:

Abseits davon @Autor, ich hätte es schön gefunden, wenn die ganzen Abkürzungen mit dieser Verlinkungsfunktion versehen worden wären. Die meisten Abkürzungen habe ich bis heute noch nie gehört. FPGAs, NIC, LFF, SFF, wtf ?

Mal gut das die Mainboard Hersteller immerhin mit USB3, USB-C, TB2, TB3, SATA, DP, HDMI "kostenlose" Schnittstellen anbieten die viele GBit/s manche sogar viele 10 GBit/s können. Wenn dem nicht so wäre würde wohl auch mancher EinrechnerimHaushaltbenutzer der an SSD Geschwindigkeiten (auch viele GBit/s bzw. inzwischen viele 10 GBit/s) gewöhnt ist manchmal etwas hibbelig werden.

Und wo käme man auch hin wenn man fixe Netzwerke in Notebooks/Desktops einbaut die ähnlich schnell wären wie die interne SSD. Da könnte ja mancher auf die Idee kommen sich das teure SSD upgrade zu sparen und stattdessen ne preiswerte SSD in den NAS zu stöpseln. Oder man könnte auf die Idee kommen statt der 100 verschiedenen schnellen Schnittstellen in Zukunft nur noch eine für alles zu verwenden.

Zumindest ein Notebook Hersteller hat ja inzwischen die Netzwerkports deswegen auch konsequent bei den Notebooks bereits weggelassen. Und TB3 dafür mit theoretischen Netzwerkfähigkeiten (10G) ausgestattet ..
 
Zuletzt bearbeitet:
Man kann auch einen AQC107 mit nur einer PCIe 3.0 Lane anbinden, dann hat man zwar nicht die Möglichkeit die volle Bandbreite zu nutzen, aber die Bandbreite der Anbindung wäre immer noch gut genug um einen besseren Durchsatz als mit 5GBASE-T zu bekommen und man wäre zu 10GBASE-T kompatibel, könnte also mit den Lösungen die kein NBASE-T unterstützen dann immer noch mehr als eine Gigabit Verbindung aushandeln.

Das wird aber kein Hersteller machen. Da bekommt er nachträglich nur einen Shitstorm ab.
2xPCI 3.0 für eine NIC wird kein Mainboardhersteller abzweigen wollen und 4x 2.0 haben eben nicht alle Mainboards als Steckplatz.
Extra 2,5/5G Chips mit geringem Energiebedarf würden schon Sinn machen ... auch um passive und günstige 4x Switches realisieren zu können.

Gute Frage, die Aquantia AQtion AQN-108 5G Karte scheint es nicht auf den Markt geschafft zu haben, den AQC108 findet man bisher nur auf einigen Mainboards. Der ist ja auch nur ein um den 10GBASE-T Modus kastrierter AQC107, also nur billiger weil er günstiger verkauft wird, nicht weil er billiger zu fertigen wäre.

Also 59$ finde ich nicht teuer .. aber es gibt sie halt nicht.
Auf den Mainboards sitzt er weil er da eben mit aktuellen Chipsätzen mit einer Lane anzuschließen geht ... 10G eben nicht.
Das zeigt doch das es gehen würde .. fehlt noch ein günstiger passiv gekülter 4x Switch .. auch das dürfte mit 5G etwas einfacher sein als mit 10G


Aber ich seh schon das wir auf PCIe 4.0 warten müssen bis dann 10G in den Consumerbereich kommt.

Bis dahin wird es noch ewig dauern. Wenn 1G ein Auto wäre, hätte es dann schon ein H-Kennzeichen :freak:
 
senf.dazu schrieb:
Da könnte ja mancher auf die Idee kommen sich das teure SSD upgrade zu sparen und stattdessen ne preiswerte SSD in den NAS zu stöpseln.

Wäre 10GBE weiter verbreitet, würden viele als erstes feststellen wie wenig ihr NAS System für solche Geschwindigkeiten taugt. Günstige Systeme erreichen derzeit gerade mal so 1GB ohne Verschlüsselung und RAID5.

Bei QNAP beginnt der 10GBE "Spaß" bei 400€.
https://geizhals.de/qnap-turbo-station-ts-431x-2g-a1577353.html

Damit erreicht man zumindest die Hälfte, oder mit Verschlüsselung ein Drittel von 10GBE.
https://www.qnap.com/de-de/product/ts-431x2

Volle 10GBE gibt es bei QNAP erst ab knapp 1100€.

TVS-471 + 10GBE

https://www.qnap.com/de-de/product/tvs-471

Da warten die meisten doch lieber etwas länger auf ihre Daten, die in den gängigen NAS Systemen verbaute SOCs sind schlichtweg mit 10GBE überfordert.
 
Zuletzt bearbeitet:
senf.dazu schrieb:
Na solange das "langwierige Uploaden großer Dateien" und die damit Beschäftigten nicht nahezu unbezahlbar sind .. aber zum Glück gibt es ja schnelle SSD Festplatten zum Daten Hin- und Hertransportieren.. Mein Beileid.
???
Die SSD ist in meinem Dienstlaptop verbaut. Aber ich kann weniger als 1/20 der Geschwindigkeit nutzen, wenn ich mit knapp 100 MBit zum Firmenserver uploade...
Ergänzung ()

xexex schrieb:
Für 1000BASE-T reicht CAT5 aus! Einige Firmen lassen halt die bestehende 100Mbit Infrastruktur wie sie ist und setzen auf Thin Clients und Terminalserver. Da ist die Bandbreite mehr als ausreichend.
Wir sind aber über mehrere Standorte verteilt (Luftlinie rund 1 km zwischen den verschiedenen Gebäuden)! Die Kabellänge selber ist DEUTLICH länger. Also reicht Cat 5 nicht mehr aus, weil die Länge der limitierende Faktor ist. Vor einige verlegte Kabel-Routen reicht Cat 5e gerade noch aus, aber dieser Zwischenschritt lohnt nicht, weshalb gleich auf Cat 6 upgedatet werden müsste. Aber derzeit ist bei uns die Migration auf Windows 10 wichtiger, erst danach gibt es es (eventuell) Budget für den Ausbau der Netzwerkstruktur.
Ergänzung ()

senf.dazu schrieb:
2500 Mitarbeiter * 1h Zeitersparnis im Jahr = 75000?€ je Jahr.
Also ein komplett-Backup eines Firmen-Laptops dauert 3 Stunden, eine Wiederherstellung ebenso. In dieser Zeit kann man nix außer dem Backup / Restore machen, weshalb wir sowas immer nach Feierabend tun.

Dann müssen wir noch regelmäßig die Mails archivieren, wenn der Posteingang voll ist (mindestens einmal im Monat) und GByte-große Messdateien hochladen, die täglich anfallen (in der Automotive-Branche nutzt man CANape, CANalyzer und CANoe, wenn euch das was sagt, da gibt es schnell sehr große Dateien, die auf den Server geschoben werden müssen).

Ach ja: Der Stundensatz in der Entwicklung bei uns liegt so um die 130 € (das ist leider nicht ansatzweise unser bezahlter Stundensatz).;)
Ergänzung ()

gaym0r schrieb:
Ich hab das Mal gerade grob überschlagen und mit unseren Werten gerechnet: ein ganzer Netzwerkumbau würde da 800.000€ nur an edge-hardware kosten. (Ohne eventuelle erweiterung des backbones, ohne umsetzungskosten etc.)
75.000€ sparen klingt dann nicht mehr so toll.
Und genau deshalb wird die IT-Infrastruktur auch nicht alle Jahre komplett erneuert.;)
Es wird aber der Zeitpunkt kommen, wenn 100 MBit nicht mehr ausreicht...
 
Zuletzt bearbeitet:
Weyoun schrieb:
Wir sind aber über mehrere Standorte verteilt (Luftlinie rund 1 km zwischen den verschiedenen Gebäuden)! Die Kabellänge selber ist DEUTLICH länger. Also reicht Cat 5 nicht mehr aus, weil die Länge der limitierende Faktor ist.

An der maximal möglichen Kabellänge hat sich seit Jahren wenig getan. Ich glaube kaum, dass jemand bei euch versucht hat per Kabel mehr als 100 Meter zu überwinden.

Wenn jemand tatsächlich so dumm gewesen sein sollte, läuft eure gesamte Infrastruktur auch schon bei 100Mbit außerhalb jeglicher Spezifikation. Das ist dann blöd gelaufen und der verantwortliche gehört gevierteilt, gelycht und irgendwo in den Keller gesperrt.
 
xexex schrieb:
An der maximal möglichen Kabellänge hat sich seit Jahren wenig getan. Ich glaube kaum, dass jemand bei euch versucht hat per Kabel mehr als 100 Meter zu überwinden.
Wenn ich mir die zahlreichen Mäander in unseren abgehängten Decken anschaue, dann liegen da doch gefühlt mehr als 100 m lange Kabel bis zum nächsten Server oder oder Zwischenverteiler. Zwischen den Servern selber (also zwischen den einzelnen Gebäuden) sind dann LWL-verlegt.
Natürlich hat sich was getan. Cat 5e schafft DEUTLICH längere Distanzen bei 100 MBit als Cat5 und mit nochmals besser geschirmten Cat 6 Kabeln kann man > 1.000 m überbrücken, ohne einen Umsetzer dazwischenschalten zu müssen. Bei GBit-Ethernet sieht das natürlich anders aus. Da können die Kabel nicht so lang sein.
 
Weyoun schrieb:
Cat 5e schafft DEUTLICH längere Distanzen bei 100 MBit als Cat5 und mit nochmals besser geschirmten Cat 6 Kabeln kann man > 1.000 m überbrücken, ohne einen Umsetzer dazwischenschalten zu müssen.

Falsch! Per Kupfer sind immer 100 Meter spezifiziert, egal ob du Cat5 oder Cat8 Kabel verlegt hast. Niemand dürfte ohne einen zwischengeschalteten Switch so blöd sein, größere Distanzen per Kupfer zu überbrücken.

Bei größeren Längen macht dir in erster Linie nicht die Abschirmung, sondern die Dämpfung einen Strich durch die Rechnung.
 
Zuletzt bearbeitet:
Spezifikation und „es funktioniert in der Praxis“ sind völlig separate Themen. 100MBit/s geht vieeeeel weiter als 100m (wegen eines anderen Threads neulich recherchiert).
*edit: wobei ich 1000m ohne Probleme auch für unwahrscheinlich halte. Ohne Probleme = ohne spürbaren Packetloss bei min. 100Mbit/s Datenrate effektiv.
 
Zuletzt bearbeitet:
xexex schrieb:
Falsch! Per Kupfer sind immer 100 Meter spezifiziert, egal ob du Cat5 oder Cat8 Kabel verlegt hast. Niemand dürfte ohne einen zwischengeschalteten Switch so blöd sein, größere Distanzen per Kupfer zu überbrücken.
Moment!!!

Die 100 Meter gelten immer für die dem Kabel maximal zugeschriebene Geschwindigkeit. Also bei Cat 5 gilt es für 100 MBit, für Cat 5e bereits für GBit und für Cat6 für 10 GBit. Je hochwertiger das Kabel, desto längere Wege sind möglich oder desto höhere Datenraten sind bei gleicher Kabellänge möglich.

xexex schrieb:
Bei größeren Längen macht dir in erster Linie nicht die Abschirmung, sondern die Dämpfung einen Strich durch die Rechnung.
Moderne Switches haben doch ein Management, in der auch die Dämpfung erkannt und gegenkalibriert werden kann (wie es die Fritz!Box am DSL-Anschluss auch tut)?
 
Zuletzt bearbeitet:
Merle schrieb:
Spezifikation und „es funktioniert in der Praxis“ sind völlig separate Themen.

In der Praxis sollte man eigentlich nie über 90m gehen, weil auch die Länge der Patchkabel und mögliche Qualitätsverluste durch Dosen zu berücksichtigen sind.

Ich gehe aber trotzdem davon aus, dass niemand so blöd sein kann in einem Unternehmen Kabel "Pi mal Daumen" zu ziehen. Längenmessung beherrschen selbst ziemlich billige Messgeräte, dafür braucht man nicht einmal eine teure Zertifizierung der Kabel durchzuführen.

Man kann in einem Unternehmen an vielen Stellen sparen, an der Verkabelung zu sparen ist aber definitiv der falsche Weg.

Weyoun schrieb:
Die 100 Meter gelten immer für die dem Kabel maximal zugeschriebene Geschwindigkeit. Also bei Cat 5 gilt es für 100 MBit, für Cat 5e bereits für GBit und für Cat6 für 10 GBit. Je hochwertiger das Kabel, desto längere Wege sind möglich oder desto höhere Datenraten sind bei gleicher Kabellänge möglich.

Das ist Bullshit was du erzählst. Weil Kabel für höhere Frequenzen zugelassen sind, lässt sie nicht gleich bei größeren Längen funktionieren und definitiv lässt sich damit nicht die zehnfache spezifizierte Länge überbrücken.

Mit höheren Güte bekommst du eine bessere Übersprechabschirmung oder auch eine bessere Kabelqualität, andere Parameter wie die Dämpfung werden damit aber nicht oder nur kaum beeinflusst.
http://www.xmultiple.com/xwebsite-forum24.htm

Mit einer höheren Kabellänge braucht das Signal letztlich auch eine längere Zeit um die Strecke zu überbrücken, ein Wert auf den du ohne eine zwischengeschaltete Zeitmaschine keinen Einfluss hast. Deine Milchmädchenrechnung würde bei einem analogen Audiokabel funktionieren, aber nicht bei Ethernet was genaue Timings benötigt.
https://en.wikipedia.org/wiki/Transmission_time
 
Zuletzt bearbeitet:
Wie funktionieren denn dann die Timings bei Unterseekabeln, wo bloß alle paar 100 km ein optoelektrischer Umsetzer verbaut ist? Oder bei Sky-DSL mit 36.000 km Entfernung in den Orbit?
 
Weyoun schrieb:
Wie funktionieren denn dann die Timings bei Unterseekabeln, wo bloß alle paar 100 km ein optoelektrischer Umsetzer verbaut ist? Oder bei Sky-DSL mit 36.000 km Entfernung in den Orbit?

Du vergleichst zwei unterschiedliche Technologien miteinander. Ein bis 10 km spezifizierter 1000BASE-LX Transceiver kommt auch mit entsprechenden Timings zurecht, ein für 100BASE-TX ausgelegtes PHY wird dir hingegen schnell nur noch Fehler produzieren. Jeder bessere Switch wird dir beim überschreiten der 100 Meter Grenze nette Meldungen produzieren. Bei HP kommen dann entweder "Excessive CRC/ alignment Errors" oder
"Excessive late collisions" und bei Cisco "Late collision Errors".
 
Zuletzt bearbeitet:
Das ist beim Überschreiten der Sendepausen bei Ethernetframes und CD/CA geschuldet. Ich nahm auch an, dass das mit den 100m zusammenhängt, dem ist aber nicht so. (Das war der Grund für die im letzten Post angeführte Recherche.)
 
Habt ihr das mal ausprobiert?
Gut 110 Meter Cat5 (damit meine ich die alte Version) ungeschirmt habe ich mit 1GBit schon hinbekommen.
Nur weils nicht mehr innerhalb der Specs ist, kanns ja trotzdem funktionieren.

Moderne Switches haben doch ein Management, in der auch die Dämpfung erkannt und gegenkalibriert werden kann.
Um ein halbes Watt zu sparen wenn du nur 2 Meter dran hast und nicht um damit über 100 Meter zu überbrücken.
Mag sein, dass du auch 150m schaffst, aber sicherlich nichts auch nur ansatzweise in der Region 1000m.

Wie funktionieren denn dann die Timings bei Unterseekabeln, wo bloß alle paar 100 km ein optoelektrischer Umsetzer verbaut ist?
mal davon ab, dass LWL und RJ45 Äpfel und Birnen sind:
Was heißt hier "bloß"?
Bei Distanzen über 80km benutzt du normalerweise Equipment mit 3R Funktionalität (Retime, Reshape und Retransmit), das sind nicht nur einfache, stupide Signalverstärker.
 
Die wilde Inge schrieb:
Wozu braucht man mehr im Endkundenmarkt?
Wenn Du es nicht brauchst, dann ist doch gut, da sparst Du viel Geld. Ich haben meinen Heimserver (aus Xeon-D Basis, 7x IronWolf 10TB im RAID 5) der auch als NAS dient, nun mit 10GbE angeschlossen und geben es nicht mehr her., denn endlich kann man da die Dateien mit hoher Geschwindigkeit uploaden, wenn auch noch nicht so schnell wie das RAID und das Netzwerk er erlauben würden. Da müsste ich mal tunen, denn der smbd hängt bei 100% CPU Last wohl an der Singlethreadperformance der CPU.
Die wilde Inge schrieb:
Internet in dieser Geschwindkeit ist fast nicht zu bekommen
In Deutschland noch nicht, aber andere sind schon weiter: Salt Fiber: Internet mit 10 Gbit/s kostet Schweizer 43 Euro im Monat
Die wilde Inge schrieb:
welche Datenmengen verschiebt man heute schon noch im LAN, selbst wenn man ein NAS hat?
Keine Ahnung ob Du ein NAS hast und wenn ja, welches und was Du darauf speicherst, aber ich kopiere öfter große Dateien auf meines und komme von der PCIe SSD auf über 650MB/s statt vorher knapp über 110MB/s.
Die wilde Inge schrieb:
Es ist nicht so, dass ich es nicht auch gerne hätte, aber objektiv betrachtet sehe ich keine Notwendigkeit.
Das ganze ist Hobby, da kann man mit den Notwendigkeiten sowieso nicht ankommen, welche Notwendigkeit hat man für eine SSD? Eine HDD ist billiger und kann genauso Daten speichern wie eine viele teurere aber schnellere SSD.
Die wilde Inge schrieb:
Switches sind penetrant teuer
Wozu brauche ich einen Switch, wenn ich nur den PC mit dem NAS (Heimserver) verbinden will? Da reicht doch eine Direktverbindung und der Rest geht über Gigabit.
Die wilde Inge schrieb:
die Festplatten im NAS können gar nicht so schnell schreiben
Das hängt von der Art und Anzahl der Platten wieso dem "NAS" selbst ab. Die billigen Consumer NAS, die womöglich noch lahme ARM CPUs verbaut haben, schaffen dies sicher nicht, aber mit einer ordentlichen CPU geht da einiges und schon eine IronWolf 10TB schafft auf den äußeren Spuren so 250MB/s, auf den innersten dann nur die Hälfte, aber dies ist dann immer noch um das Limit von Gigabit Ethernet auszulasten. Man muss die 10GbE ja auch nicht voll auslasten können, es reicht doch wenn man schon deutlich schneller ist und das Netzwerk eben nicht mehr den Flaschenhals darstellt. USB3 können auch nur SSDs voll auslasten, trotzdem wird wohl keiner seine HDDs noch immer freiwillig an USB2 betreiben wollen, oder?
Die wilde Inge schrieb:
UHD Videos gehen auch über 100MBit problemlos
Vor dem Abspielen müssen die Videos aber auch erstmal auf das NAS kommen.
Die wilde Inge schrieb:
eine Erweiterungskarte mit 10Gbit kostet so viel wie mein aktuelles Mainboard. :freak:
Die Karte kannst Du ja auch in das nächste Board übernehmen.
Die wilde Inge schrieb:
Die meisten Abkürzungen habe ich bis heute noch nie gehört.
Zum Googlen braucht man aber noch kein 10GbE :evillol:

Mad79 schrieb:
Das wird aber kein Hersteller machen. Da bekommt er nachträglich nur einen Shitstorm ab.
Das denke ich auch, denn die Bandbreite die über 10GbE erreicht werden kann, lässt sich ja leicht ermitteln, anderes als damals als USB3 und SATA 6Gb/s neu waren. Da haben die Boardhersteller sich nicht gescheut die Zusatzcontroller mit zwei Ports, die eh nur eine PCIe 2.0 Lanes hatten und damit keine 400MB/s Durchsatz schaffen konnten, teils sogar nur an eine PCIe 1.x Lane anzubinden. Dann hat ein USB3 Port nur knapp 170MB/s geschafft.
Mad79 schrieb:
2xPCI 3.0 für eine NIC wird kein Mainboardhersteller abzweigen wollen und 4x 2.0 haben eben nicht alle Mainboards als Steckplatz.
Bei AMD AM4 Plattform, aber bei Intel hat ein Z370 oder X299 bis zu 24 PCIe 3.0 Lanes, da wären zwei davon für 10GbE verkraftbar.
Mad79 schrieb:
Extra 2,5/5G Chips mit geringem Energiebedarf würden schon Sinn machen
Wozu sollte jemand extra Entwicklungskosten für sowas aufwenden? Es gibt schon die 10GBASE-T Chips und die schaffen die 10GbE und dies bei durchaus weit geringerer Leistungsaufnahme als so mancher offenbar immer noch denkt: 1W pro Port.
Mad79 schrieb:
Auf den Mainboards sitzt er weil er da eben mit aktuellen Chipsätzen mit einer Lane anzuschließen geht ... 10G eben nicht.
Aber man nimmt eben immer noch eine PCIe 3.0 Lane, eben damit die Anbindung nicht beschränkt. Leider haben aber selbst AMDs kommende 400er Chipsätze noch immer nur PCIe 2.0 Lanes, die einzigen PCIe 3.0 Lanes dort sind die 16 für die Graka und die 4 des internen Chipsatzes, die in aller Regel für den M.2 Slot genommen werden.
Mad79 schrieb:
ein günstiger passiv gekülter 4x Switch .. auch das dürfte mit 5G etwas einfacher sein als mit 10G
Warum? Auch da wird man die bestehenden 10GBASE-T Chips verwenden, denn NBASE-T ist die aufwendige Signalkodierung von 10GBASE-T bei geringeren Frequenzen und wurde eben nachgeschoben, gut 10 Jahre nachdem 10GBASE-T erschienen ist. Es ist also nicht wie sonst üblich, ob bei PCIe, USB oder WLAN, wo die schnelleren Standards immer die neusten sind, sondern hier wurde erst später ein langsamerer Standard nachgereicht. Daher gibt es eben auch praktisch kein Potential für Kostensenkungen gegenüber 10GBASE-T und Sinn macht NBASE-T deshalb auch nur als Fallback für 10GBASE-T aber eben nicht als Stand-alone Lösung ohne 10GBASE-T und wird sich so auch nicht durchsetzen.
Mad79 schrieb:
Aber ich seh schon das wir auf PCIe 4.0 warten müssen bis dann 10G in den Consumerbereich kommt.
So wird es wohl leider kommen, Marvell hatte dies ja 2016 so angekündigt:
Mad79 schrieb:
Wenn 1G ein Auto wäre, hätte es dann schon ein H-Kennzeichen :freak:
Allerdings :D
Weyoun schrieb:
Vor einige verlegte Kabel-Routen reicht Cat 5e gerade noch aus, aber dieser Zwischenschritt lohnt nicht, weshalb gleich auf Cat 6 upgedatet werden müsste.
Wer heute noch von Cat5(e) auf updatet wenn dabei nicht die Kosten für die Kabel sondern die für den Aufwand den Löwenanteil ausmachen, dem ist nicht zu helfen. Wenn man sowas angeht, sollte man auch wenigstens gleich Cat7 verlegen.
 
Cat-7 hat aber andere Steckertypen (TERA) als Cat-6 oder niedriger (RJ45). Man müsste also dreigleisig fahren:
1) Optische Verbindung zwischen den Hauptservern der einzelnen Gebäude
2) Cat-7 zwischen Server und Switch oder zwischen den Servern innerhalb eines Gebäudes
3) Cat-5e oder Cat-6 zwischen Switch und dem Büro, in dem die Standard-PC-Technik mit RJ45 angeschlossen werden muss.

Dann doch lieber Cat8 bzw. Cat-8.1 (sollte 2016 standardisiert werden => ist der Standard schon verabschiedet?), weil die weiterhin auf RJ45 setzten. Aber wie gesagt, Cat-8 via RJ45 ist schwierig wegen der hohen Anforderung an die Dämpfung (deshalb setzt das parallele Cat-8.2 auch auf den TERA-Stecker aus Cat-7). Zudem ist Cat-8.x zudem (für den entwickelten Anwendungsfall von 40 GBit/s) nur bis 30 m zugelassen. Aber bei 100 MBit/s oder 1 GBit/s geht natürlich deutlich mehr.
 
Zurück
Oben