Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News800 Gigabit Ethernet: Neuer Netzwerkstandard von „neuem“ Konsortium
Stimmt leider. Adapterkarten fangen bei 95 an, gute von Intel ab 150. Switche ab 350 für 8 Ports, und das Unmanaged.
Ich werd in 2-3 Jahren bei mir ausbauen, bin gespannt ob 10 bis dahin erschwinglicher ist... Im Idealfall auch erschwinglicher von Ubiquiti
Mir gehts ähnlich. Ich habs schon mal testen können. Meine Kabel (Cat 5e) machen 10 GBit mit. Aber ich sehe aktuell einfach den Vorteil noch nicht. Ich bräuchte min. ein 16 Port Switch das gepaart mit den NICs kostet aktuell einfach viel zu viel.
Das ist eine gute Frage, deren Antwort aber keinen Einfluss auf die Frage hat ob 10 GBE derzeit am Desktop das seltene Maximum darstellen wie vom Autor behauptet.
Achtung, jetzt hinkts gleich gewaltig: Nur die wenigsten User werden sich rein privat und ohne beruflichen Bezug einen Threadripper mit 64 Kernen/128 Threads und RAM im dreistelligen GByte-Bereich hinstellen. Und trotzdem würdest Du (vermute ich mal) nicht zustimmen wenn ich behaupte dass 16 Kerne / 32 Threads im Moment im Desktop das seltene Maximum darstellen.
@Hayda Ministral Also Intel hält die von dir verlinkte Karte für ein Server-Produkt: "Vertikales Segment Server". Für 10Gbit gibt es aber reine Consumer-Produkte.
Wir leben in einer Marktwirtschaft, da kann man sich kaufen, was man sich leisten kann. Wenn man nur danach geht, kann man die 800GBit als Maximum für den "privaten Client-Sektor" ansehen. Ist aber m.E. Quatsch.
Ergänzung ()
romeon schrieb:
ich. Einfach so, weil mir 1G bei großen Videodaten tierisch auf die Nüsse ging . Ich hab auch 64GB Ram, einfach so
Mir gehts ähnlich. Ich habs schon mal testen können. Meine Kabel (Cat 5e) machen 10 GBit mit. Aber ich sehe aktuell einfach den Vorteil noch nicht. Ich bräuchte min. ein 16 Port Switch das gepaart mit den NICs kostet aktuell einfach viel zu viel.
Für mich ist die aktive Kühlung der Switches der Knackpunkt.
Im Büro habe ich einen in den Serverraum gestellt wo das Fauchen der Lüfter nur eine weitere Stimme im Chor ist aber privat begnüge ich mich noch mit Punkt zu Punkt Verbindung.
Mit aktiver Kühlung geht wohl auch der entsprechende Stromverbrauch einher und momentan verspüre ich keine Lust mir das privat anzutun.
So teuer finde ich den Einstieg eigentlich nicht. Mittlerweile dürfte 150 EUR pro Port machbar sein.
Hier bin ich wohl auch nicht ganz konsequent. Einerseits akzeptiere ich die Hardwarekosten, aandererseits bekomme ich Bauchschmerzen wegen Stromkosten...
10 GBit reicht mir erstmal Switches mit mindestens zwei 10 GBit ports sind ja relativ gut bezahlbar und andere Geräte profitieren bei mir ohnehin nicht außer PC und zukünftig NAS. Aber für supercomputer und data Center gibt's da feine Sachen. Mir fallen da spontan als bezahlbarste Variante für zu Hause die infinity Band 100 GBit Karten von mellanox ein Wer sowas denn wirklich möchte. Aber das geht nur mit Windows Server oder anderen Server OS soweit mir bekannt.
800 GBit sind was feines die Datenmengen werden immer gewaltiger und wenn überall die Übertragungsraten steigen muss man auch im Netzwerk Schritt halten.
Leute die einfach Bock drauf haben oder schlicht Early Adopter sind. Wie gesagt die Frage spielt aber keine Rolle für die Aussage im Artikel, da 10 GBit aktuell eben nicht das maximale im "privaten Client-Sektor" darstellen.
craxity schrieb:
@Hayda Ministral Also Intel hält die von dir verlinkte Karte für ein Server-Produkt: "Vertikales Segment Server".
Und? Ein Server kann auch ein privater Client-PC sein. Da spricht nichts dagegen. Im Prinzip ist jedes Windows 10 im LAN ein Server, da es Updates verteilen kann. Diese Unterscheidung Client/Server ist in der heutigen Zeit schon lange sehr flüssig.
craxity schrieb:
Wir leben in einer Marktwirtschaft, da kann man sich kaufen, was man sich leisten kann. Wenn man nur danach geht, kann man die 800GBit als Maximum für den "privaten Client-Sektor" ansehen. Ist aber m.E. Quatsch.
Warum sollte es Quatsch sein? Wenn sich ein Millionär das hinstellen will und er es privat nutzt einfach weil er Bock drauf hat stellt das eben das maximale da. Das maximal Mögliche hat nichts mit dem Budget zu tun! Fakt ist die Aussage im Artikel ist schlicht falsch.
Damit habe ich geliebäugelt und wenn er sagen wir mal von aktuell 200 EUR auf 50 EUR fällt käme ich in Versuchung aber zwei Rechner bekommt man auch ohne Switch verbunden und die meisten PCs dürfte neben einer 10 GBE NIC auch eine 1 GBE onboard verbaut haben. Damit ließe sich ein PC mittels Brücke als Hilfsswitch betreiben wenn man nicht gleich zwei getrennte Netze aufspannen will.
Kurzum: nein
Und Plural ist richtig weil fast jeder Provider sein eigenes Zeug hat.
Die Strecken sind zwar im großen und ganzen meist identisch oder geshared (der eine mietet vom anderen) weil die meist an Autobahnen oder Bahnstrecken verlaufen, aber jeder Provider/Carrier hat sein eigenes Equipment.
Und fast keiner wird dir Details zeigen.
@Topic
Interessanter wäre ehrlich gesagt der Hardware-Part, der noch gar nicht definiert ist.
Speziell wie viele Laser benutzt werden.
Leider sind 40/100 GBit da schon recht enttäuschend weil die 4 Laser benutzen (für 40G scheint hab ich zumindest 10km DWDM-Optiken mit einem Laser gefunden, für 100GBit gar nichts).
Im RZ ist das egal, sobald man aber multiplexed ist das natürlich sehr unschön.
Da ist der Kostensprung dann plötzlich enorm weil man statt 50km mit ner 10GBit DWDM-Optik für ein paar Tausend Euro direkt zu überbrücken dann direkt Transportsysteme kaufen muss, die schnell die Preisregion Einfamilienhaus erreichen können.
@Wattwanderer Eigentlich reicht mir ein 10 GBit link zum PC und NAS und die restlichen ports des Switches kommen mit 1 GBit locker aus. Die Backuplast meines Rechners liegt bei knapp 20 TB, daher lohnt es sich auch. Die übrigen Systeme von der Familie und im Haus kommen zusammen nichtmal auf 5 TB,die noch dazu gut verteilt sind. Wenn es soweit ist kann ich dann aber auch nicht auf die Preise warten. Die 200 Euro hab ich auch noch
Aber für 800 GBit.. SSD Cache hin oder her, damit können sich andere Leute beschäftigen. Spannend wäre dann auch der Preis für diese Kabel. Gibt's ja passive und viel längere, aktive, die aber das 10 fache kosten.
Warum sollte es Quatsch sein? Wenn sich ein Millionär das hinstellen will und er es privat nutzt einfach weil er Bock drauf hat stellt das eben das maximale da. Das maximal Mögliche hat nichts mit dem Budget zu tun! Fakt ist die Aussage im Artikel ist schlicht falsch.
Du strickst dir eine absurd extensive Definition von "privater Client-Sektor" zusammen, nur um dem Autor zu "nachzuweisen", dass eine (völlig nebensächliche) Teil-Aussage seines Artikels falsch sei. Ist dir eigentlich klar, wie schräg das rüberkommt?
Umbenennung des Konsortiums wegen technologischem Fortschritt? Erzähl das mal der 3GPP.^^
Ergänzung ()
Ratzer007 schrieb:
Kommt in Deutschland dann in 2-3 Generationen und selbst das ist wahrscheinlich noch positiv gesprochen /s
EDIT:War auch als schlechter Scherz gegenüber den Verantwortlichen für den Breitbandausband gemeint. Schon klar dass das nicht als massentaugliche Technologie benutzt werden kann.
Hab meinen Kommentar diesbezüglich umgeschrieben
Ach! Nur weil ein paar "Verrückte" sich Serversachen für Zuhause anschaffen, soll die Aussage bezüglich den 10Gbit falsch sein? Zeig mir mal bitte ein NAS System mit mehr als 10Gbit (Thunderbolt aussen vor) oder ein Mainboard mit 25 oder gar 40 Gbit. Gibt es nicht! Alles was man in diese Richtung kaufen kann, ist "Enterprise" gelabelt und macht auch bestenfalls dort Sinn.
Die meisten User denken bei LAN halt zwangsläufig an RJ-45 Schnittstellen, und da ist bei 10Gbit ja wirklich Sense. Klar kann man auch als Enduser schnellere Netzwerkhardware kaufen, aber die wird mangels RJ-45 Port mit so gut wie keinem Endgerät kompatibel sein, das normale Heimanwender zuhause stehen haben.
Wobei QSFP durchaus für viele eine (schnellere) Alternative zum klassischen 10-Gbit LAN sein könnte, die meisten Nutzer werden schließlich nur ihre Workstation mit ihrem NAS möglichst schnell verkabeln wollen - und da kann man den (extrem teuren) Switch weglassen und braucht lediglich zwei gebraucht vergleichsweise günstige QSFP-Karten.
Oder man kauft sich schlichtweg ein bezahlbares Thunderbolt 3 NAS und bekommt die gleiche Geschwindigkeit zum Bruchteil der Kosten und ohne TCP/IP Overhead. Als End to End Verbindung gibt es 40Gbit/s auch im Desktopsegment seit gut 5 Jahren.
Ich habe lange zwischen Server und Workstation eine zweite Verbindung verwendet, nämlich 2,5GBit Infiniband. Das ist nicht sehr effizient aber gemessene 1,8Gbit sind schon realistisch. Da die Kabel sehr anfällig und teuer sind und sie bei mir wirklich fast ungeschützt unterm Teppich lagen wars damit vor ein paar Jahren vorbei. Ausserdem hat Infiniband ein paar Eigenarten, so sind keine Broadcasts möglich und da man ein komplexeres Routing hat kann man auf Server und Client keine lokalen Adressen per DHCP beziehen sondern muß alles manuel einrichten. Karten und Kabel waren aus einem alten Serverraum übrig geblieten und somit für mich kostenlos. Switch war sowieso nicht machbar wegen unbrauchbaren Erwerbskonditionen, das war eine reine P2P-Lösung.
Ich habe jetzt eine Weile mit 10Gbit Infiniband experiment was als Dauerleihgabe ein paar Monate lief. Auch da haben mich die recht empfindlichen Fiberglaskabel genervt.
Im Moment schiele ich auf 25GBit Ethernet. Solche Karten kosten mit Extra-PHY gebraucht 150 Euro und neu 300 Euro, dabei sind die Kabel zwar auch nicht günstig aber billiger als Infiniband und dazu kann man sich sowas für überschaubares Geld mit Dosen und individuellen Kabeln auch fest verlegen. Noch dazu braucht 25Gbit über Glas überraschenderweise deutlich weniger Strom als 10GBit über Kupfer. 10GBit Ethernet auf Kupferbasis werde ich wohl glatt überspringen ausser es ist irgendwann serienmässig sowieso überall dabei.
Letztlich ist alles eine Frage des Preises. Ich habe kein Problem damit meine beiden wichtigsten Rechner für 300-500 Euro per Crossover mit 25GBit zu vernetzen. Wenn es parallel dazu mal 5 oder 10Gbit für 30-50 Euro pro Karte und einen brauchbaren Switch für 200-300 Euro gibt dann gönne ich mir das auch. Aber alles ohne Eile.
Ergänzung ()
silentdragon95 schrieb:
Wobei QSFP durchaus für viele eine (schnellere) Alternative zum klassischen 10-Gbit LAN sein könnte, die meisten Nutzer werden schließlich nur ihre Workstation mit ihrem NAS möglichst schnell verkabeln wollen - und da kann man den (extrem teuren) Switch weglassen und braucht lediglich zwei gebraucht vergleichsweise günstige QSFP-Karten.
Njet. QSFP ist nix für Heimanwender da es sich dabei nicht um eine einzelne schnelle sondern mehrere parallele langsame Verbindungen handelt. QSFP 40Gbit ist technisch 4x10GBit, d.h. eine einzelne Verbindung kann maximal 10Gbit nutzen. Unter Linux erscheint eine QSFP-Karte auch prompt als vier und nicht als ein Ethernet-Device. Und üblichweise bedeutet diese Einschränkung daß pro Rechner nur 10Gbit gehen. Damit verbindet man Backbones, nicht einzelne Rechner.
SFP28 bringt echte 25GBit, die kann man auch voll am Arbeitsplatz nutzen. Ich habs selber getestet, NFS- und iSCSI-Verbindungen laufen da mit über 2GB/s welches einen alten Penryn-3Ghz-Kern zu 30% auslastet. SMB/Samba skaliert da schlecht, da kommen eher 1,1 bis 1,3GByte/s zusammen was den Penryn-Kern zu 100% auslastet. Aber gut, Windows hat ja einen NFS-Client und besagter Test fand zwischen einem Linux-NFS-/iSCSI-Server und einer Windows-Workstation statt.