News Rivet Killer E3000: Erster Gamer-Netzwerkchip mit 2,5 Gbit/s

kaka11 schrieb:
@LukS Sehe ich nicht so. Der Grund liegt in der fehlenden Chipsatz-Implementierung. Alle Schnittstellen die nativ im Chipsatz integriert sind erreichen inner kurzer Zeit eine namhafte Marktdurchdringung. Gleichzeitig kosten solche millionfach eingebauten Funktionen nur wenig Geld (Economies of scale).
Es gibt keine, und ich betone keine, technische Gründe, wieso nicht jedes Mittelklasse-Mainboard 10Gbit Ethernet hat. Hierbei handelt es sich um eine geschäftspolitische Entscheidung der Chipsatzhersteller (v.a. Intel und AMD).
Gbit Ethernet gibt es seit Mitte 2000er auf jedem günstigen Mainboard. Nun sind 15 Jahre, eine Ewigkeit in der IT-Branche, vergangen und 10Gbit ist kaum verbreitet. In dieser Zeit sind die Fertigungsverfahren um mehrere Schritte feiner (von ca. 130nm auf 22nm bei Chipsätzen). Die Rechenleistung ist enorm gestiegen bei kleinerem Verbrauch. Ein 10Gbit NIC kommt mit 2W Leistungsaufnahme aus.
Hier bin ich auf der Seite von Botcruscher. Jede einfache SSD stemmt eine höhere Last zur Datenverarbeitung als die 10Gbit/s von Ethernet.

Fragt sich halt wer 10 GbE so richtig braucht.
Es gibt da viele Anwendungen, aber wahrscheinlich nicht so viele im privaten Bereich.
Außer man hat halt ein wirklich aufwendiges Hobby wie High-End Gaming und Video.

Bei Motherboards sind 10 GbE schon im Kommen.
So habe ich bei der Suche nach einem MoBo das ASRock Taichi Ultimate gefunden,
hat 10 GbE (Aquantia) mit an Board. Ist sogar lieferbar (Alternate) glaube ich.

Ich meine auch andere MoBo Hersteller gesehen zu haben, weiß aber nicht mehr welche das waren.
Nach der CES hört man wahrscheinlich wie üblich mehr.
Ergänzung ()

Falc410 schrieb:
Habe seit ein paar Killer NIC in meinem Rechner (war auf dem Mainboard halt drauf) und eigentlich funktioniert es ganz gut. Das Programm priorisiert halt einfach den Traffic von Prozessen und sollte theoretisch selbstständig Spiele erkennen (bzw. hat Profile dafür). D.h. man kann eine Datei herunterladen und gleichzeitig online zocken und der Download stört den Ping nicht. Also ein klassisches QoS.

Ich bin gespannt wenn ich jetzt auf eine normale Intel NIC umsteige was dann passiert. Die kann das wahrscheinlich nicht.

Das Killer-Teil (hab ich ausgebaut, hat mir persönlich nix gebracht)
hat einen Teil des Processings auf den Killer Chip ausgelagert um die CPU des PCs zu entlasten.
Ob das heute noch Sinn macht ...

Das mit dem Traffic-Shaping ist wohl das interessanteste. Aquantia bietet das auch an.
https://www.businesswire.com/news/home/20181119005213/en/

Computerbase könnte ja so was mal testen (wenn man das überhaupt testen bzw. messen kann).
Ergänzung ()

Siran schrieb:
Bin bislang immer mit Intel Netzwerkkarten gut gefahren oder achte drauf, dass die im Mainboard verbauten LAN Chips von Intel sind. So eine Traffic-Priorisierung auf einem Client macht m.E. nur Sinn, wenn man alleine am Internet hängt, aber wo ist man das heute, irgendein Handy, Smart-TV, Tablet etc. hängt da doch auch dran und da braucht man dann wenn eine Lösung auf Router-Ebene.

1 Gigabit ist heute nix besonderes mehr.
Das ist Standard und Massenware, und da ist es wahrscheinlich nicht wichtig von wem der Chip kommt - Hauptsache die Treiber werden gepflegt.

Über 1 GbE wird es sehr schwierig, das hat halt mit der Physik zu tun.
Aber auch da gibt es ja Lösungen, künftig geht es da in schwindel-erregende Höhen.

2.5 Gigabit wird wahrscheinlich der neue Standard - einfach deswegen weil man mit schnellem WLAN mithalten muss. Denke, da wird man später im Jahr mehr sehen.
 
Zuletzt bearbeitet:
Fred_EM schrieb:
1 Gigabit ist heute nix besonderes mehr.
Das ist Standard und Massenware, und da ist es wahrscheinlich nicht wichtig von wem der Chip kommt - Hauptsache die Treiber werden gepflegt.

Wie bereits erwähnt - "Gebranntes Kind" und so - mag ja sein, dass Realtek jetzt zu Intel konkurrenzfähige Gbit Chips (und Treiber) bauen kann. Das war leider nicht immer so und ich habe es erlebt, daher reicht mir ein "jetzt funktioniert es aber, Pfadfinder-Ehrenwort" nicht, um mich wieder zurück zu holen.
 
Ich hab die Zeit mit den Performanceproblemen bei den Realteks auch miterlebt. Kann mich noch erinnern wie unser USB Stick mit den einzige funktionierenden Treibern die Runde gemacht haben den wir jeden gegeben hatten der da Probleme hatte ;-)

Mittlerweile funktionieren die Realteks aber wirklich gut. Auf der anderen Seite fluch ich über den Intel WLan+Bluetooth Adapter von Intel in meinem Notebook der es nicht schafft WLan und Maus stabil miteinander zu betreiben...
 
  • Gefällt mir
Reaktionen: Siran
Wenn das so für Dich funktioniert, dann ist alles gut!
Darauf kommt es an.

Ich bin eher ein gebranntes Kind wenn es um WLAN Chips geht.
Habe hier ein Tablet von Lenovo rumliegen bei dem der WLAN-Treiber (Broadcom) höchst ungepflegt ist und nicht funktioniert. Bei WLAN ist man mit Intel meist ganz gut bedient.

Durch den kaputten/ungepflegten W10 Treiber von Broadcom ist der Lenovo Tablet nicht mehr nutzbar.

-
 
Fred_EM schrieb:
Wenn das so für Dich funktioniert, dann ist alles gut!
Darauf kommt es an.

Ich bin eher ein gebranntes Kind wenn es um WLAN Chips geht.
Habe hier ein Tablet von Lenovo rumliegen bei dem der WLAN-Treiber (Broadcom) höchst ungepflegt ist und nicht funktioniert. Bei WLAN ist man mit Intel meist ganz gut bedient.

Durch den kaputten/ungepflegten W10 Treiber von Broadcom ist der Lenovo Tablet nicht mehr nutzbar.

-

Ich zahle da gerne den Aufpreis für Intel-Chips bzw. hab eh auch separate PCIe GBit Karten hier.

Von Lenovo kann ich auch ein Lied singen, allerdings was deren Android Tablets angeht, zwei Tablets gehabt - nach einem Major-Update war Schluss mit Support, beim Yoga 2 war es sogar so weit, dass man einen Community Fix installieren musste, damit das Display überhaupt scharf wurde, da es einen total unnötigen Schärfefilter drin hatte, der alles mit einem Halo versah und nach 2 Jahren auf einmal - Bootschleife, kaputt. Nie wieder Tablets von denen.
 
Siran schrieb:
Ich zahle da gerne den Aufpreis für Intel-Chips bzw. hab eh auch separate PCIe GBit Karten hier.

Von Lenovo kann ich auch ein Lied singen, allerdings was deren Android Tablets angeht, zwei Tablets gehabt - nach einem Major-Update war Schluss mit Support, beim Yoga 2 war es sogar so weit, dass man einen Community Fix installieren musste, damit das Display überhaupt scharf wurde, da es einen total unnötigen Schärfefilter drin hatte, der alles mit einem Halo versah und nach 2 Jahren auf einmal - Bootschleife, kaputt. Nie wieder Tablets von denen.

Ich glaube, von Lenovo bin ich auch erst mal geheilt.
(Hab' jetzt einen günstigen Surface, da hoffe ich dass da lange Updates kommen.)

Vielleicht starte ich noch mal einen Versuch meinen ThinkPad 8 mit Ubuntu wieder zu beleben.
Könnte theoretisch eine Basis für einen bescheidenen Nextcloud Server werden.

Der ThinkPad 8 hat trotz 64 Bit Atom CPU leider nur ein 32 Bit BIOS,
und dieses scheint auch besonders Windows-freundlich zu sein. Mal sehen.

Ist aber wahrscheinlich eine Zeitverschwendung sich mit dem ThinkPad 8 überhaupt noch auseinander zu setzen.
 
  • Gefällt mir
Reaktionen: Siran
2,5gbit zum zocken? Wohl eher nur um schnell mal ein paaar spiele von a nach b zu schieben
 
Fred_EM schrieb:
Bei WLAN ist man mit Intel meist ganz gut bedient.
Ich hab damit wie gesagt nur Ärger... ok, eher beim Bluetooth Teil, wobei das Teilweise dann auch die WLan Verbindung stört...

War aber auch irgendwie klar... die einzige Komponente von Intel an dem Notebook und was ist? Sie funktioniert nicht ;-)
 
Jesterfox schrieb:
Ich hab damit wie gesagt nur Ärger... ok, eher beim Bluetooth Teil, wobei das Teilweise dann auch die WLan Verbindung stört...

War aber auch irgendwie klar... die einzige Komponente von Intel an dem Notebook und was ist? Sie funktioniert nicht ;-)

Hmmm, bis jetzt hatte ich mit Intel WLAN ganz gute Erfahrungen gemacht.
Gerade ältere Notebooks im Bekannten/Familienkreis ließen sich durch ein Upgrade des WLAN-Modules gut aufpeppen.

Bluetooth und WLAN teilen sich einen Frequenz-Bereich ... da kann es passieren dass die sich gegenseitig stören.
Hängt aber von vielen Faktoren ab.

Probiere mal nur 5 GHz WLAN zu nutzen. Könnte/sollte helfen.

-
 
Das mit 5GHz kann ich mal testen, aber ich hatte auch schon immer wieder Aussetzer mit der Bluetooth-Maus als ich das Notebook am LAN hatte. Bei ner Logitech MX Master erwarte ich jetzt auch nicht unbedingt das es an der Maus liegt (vor allem hatte ich die Probleme auch mit der zweiten MX Master 2S). Hätt die Maus gern ohne den USB Stick im Notebook genutzt, aber wollt bisher nicht klappen (zum Glück hat die Maus auch noch den unifying Empfänger das ich sie zumindest nutzen kann)

Das WLan alleine funktioniert aber tadellos, da hab ich keine Probleme.
 
DerNiemand schrieb:
Oder auf sfp+ setzen :-)
Sehr sinvoll....das ist nur der Einschub für entsprechende Transciever...SPF+ bedeutet nicht automatisch Glas...auch wenn das der häufigste Anwendungsfall ist.

Fred_EM schrieb:
Probiere mal nur 5 GHz WLAN zu nutzen. Könnte/sollte helfen.
Hätte ich jetzt auch geraten. Problematisch ist halt das BT wie aber auch z.B. Babyfones (gerne mal) die gleichen Frequenzen nutzen (zum Glück liegt DECT etwas drunter). Wenn man icht gerade durch 3 Wände muss empfiehlt sich eigentlich immer 5GHz, da Ottonormal seine Fritzbox oder was auch immer aufstellt und diese Dinger quasi immer mit 2,4GHz unterwegs sind (habe hier gut 20 WLAN's damit....mein 5er ist das einzige in weitem Umkreis.
 
Wenn ich von diesen Produkten lese, schäme ich mich fremd. Reines Marketing für eine wenig technikaffine Zielgruppe.

Die Diskussion hier scheint aber etwas durcheinander zu gehen. Das Produkt wird mit zwei grundlegenden Eigenschaften beworben, die technisch unabhängig davon diskutiert werden müssen.

1. QoS ist an für sich nichts Neues.
Klassische Anwendungen sind VoIP oder eben auch Videotelefonie wo Datenströme verbindungslos über UDP abgewickelt werden. Dabei gibt es verschiedene Ansätze. Neben dem RTP, dass RTCP für die Aushandlung von QoS-Parametern nutzt (welche das auch immer auf Layer 5 sein möchten?), gibt es auch im IP-Protokoll ein entsprechendes Feld im Header, mit dem Traffic priorisiert werden kann. Das ist jetzt aber keine Erfindung von Killer. Vermutlich wird deren Treibersoftware entweder Profile für kritische Anwendungen oder eben eine gewisse Heuristik haben, die kritischen Traffic erkennt. Passt das Profil/trifft die Heuristik die richtigen Entscheidungen und beansprucht die Verwaltung des Over-Heads weniger Zeit, als über QoS gewonnen werden kann, wird das auch in extremen Situationen einen gewissen Einfluss haben. Ganz einfach, weil die Latenzen zwischen den einzelnen Knotenpunkten die durchlaufen werden kumulativ sind. Die Crux an der Sache ist aber der geringe Einflussbereich der Killer-Software. Dieser endet nämlich ohne weitere Unterstützung anderer Geräte spätestens beim Übergang in´s nächste Subnetz. Tatsächlich tut sich das Internet (zurecht) in der konsequenten Umsetzung von QoS schwer. Schließlich kann ja auch jeder in den IP-Header schreiben was er möchte…
Dass die Hardware selbst gegenüber den NICs der anderen Hersteller einen nennenswerten Vorteil bieten soll, kann ich mir nicht vorstellen. Schon in der Vergangenheit handelte es sich bei den Killer-Produkten um minimal modifizierte Designs von Mitbewerbern.

„Da uns Rivet Networks nun den E2500 zukommen ließ, wollen wir zunächst einmal untersuchen, was ihn vom direkten Vorgänger unterscheidet und welche zusätzlichen Features geboten werden. Die Grundleistung des Controllers an sich bleibt zunächst einmal gleich; hier kommt weiterhin ein modifizierter Chip auf Basis eines Qualcomm Atheros AR816X zum Einsatz. In einem direkten Gespräch teilte uns Rivet Networks mit, dass sich die Änderungen im Vergleich zum Vorgänger E2400 auf einige evolutionäre Verbesserungen beschränken würden, die aber nicht näher erläutert wurden.“
Quelle

„Der Netzwerkkartenhersteller Rivet hat nach eigenen Angaben den ersten Netzwerkchip mit einer Geschwindigkeit von 2,5 Gbit/s vorgestellt, welcher speziell für die Bedürfnisse von PC-Spielern angepasst worden ist und sich damit direkt an den Consumer-Markt richtet.“
Quelle

Lang die Rede, kurz der Sinn:
Konstruiert man sich einen fiesen Fall, in dem viel Traffic von mehreren Anwendungen erzeugt wird und unter denen auch eine priorisierte Echtzeitanwendung ist, bringt dieses Stückchen Software vielleicht tatsächlich was. Bei wenig Traffic wird sich eher der reine Verwaltungsaufwand negativ auswirken, als dass sich durch die Priorisierung Vorteile ergeben.
Man kauft hier also die Software und das Marketing. Die Hardware selbst ist höchstwahrscheinlich ein Aquantia AQtion AQC107 oder eben ein Tehuti TN4010.

2. Sinn und Unsinn von 2.5/5GBASE-T (IEEE 802.3bz) bzw. 10GBASE-T (IEEE 802.3an) im Heimnetz
Hier verstehe ich ehrlich gesagt die Diskussion nicht. Wer sich unsicher ist, ob er aktuell Geld in die Hand nehmen soll um sein Heimnetz auf einen der o.g. Standards migrieren soll, soll es lassen. In kleinen Netzen mit wenig Clients und in der Access-Ebene allgemein, gibt es sehr wenig zeitkritische Anwendungen, die von mehr Bandbreite als 1GBit profitieren könnten und wer jetzt zu Hause ein VMWare HA Cluster betreibt, weiß auch um den Bandbreitenhunger von VMotion. Da sind dann je nach Server und Stand der Hausautomation durchaus zeitkritische Workloads mit großem Bandbreitenbedarf bei.
Natürlich geht auch mit 10GBASE-T die reine Datenschubserei, sofern beide Seiten über entsprechend schnelle Massenspeicher verfügen, bedeutend schneller, aber den Preis für die Zeitersparnis muss man eben auch zu zahlen bereit sein. Der hat es nämlich nach wie vor in sich.
Das soll jetzt nicht heißen, dass man seine neue Hausverkabelung in CAT5e gestalten sollte. Wenn man sowieso vor einer Neuanschaffung steht und für einen günstigen Aufpreis den höheren Standard bekommt, würde ich mich kaum für das ältere Produkt entscheiden. Ganz grundsätzlich gilt aber auch hier: Man sollte Mehrleistung nicht auf „Vorrat“, sondern genau dann kaufen, wenn man Sie benötigt (oder bei einer Neuanschaffung günstig bekommen kann).

Glasfaser im Access-Layer (des Heimnetzes)
In größeren Netzwerken ist Glasfaser zwischen den Netzwerkgeräten wegen den Entfernungen alternativlos. Da die ganz hohen Bandbreiten ohnehin nur in Glas zu haben sind, wird man im Distribution- und im Core-Layer kaum Kupfer finden.
Im Access-Layer wird aber gerade umgekehrt ein Schuh daraus. Persönlich kenne ich genau ein Netzwerk, dass auch die Access-Ports in Glas ausführt. In dem Gebäude wollte man zum damaligen Zeitpunkt mit nur einem Verteiler pro Stockwerk auskommen, was mit Kupfer nicht möglich war/ist. Glas hat aber im Access-Layer gravierende Nachteile und kann seine Vorteile nicht ausspielen:

  1. Es gibt im Prinzip keine Endgeräte die nativ einen SFP+ NIC haben. Klar, in PCs und Workstations kann man entsprechende Karten stecken, aber das gilt eben nicht für alle Geräteklassen. Man kommt also nicht umhin mit Medienkonvertern jedes Endgerät einzeln an´s Netz zu binden. WLAN als mögliche Alternative skaliert als Shared Medium schlecht und verlagert das Problem auch nur, weil es keine Access-Points mit SFP+ gibt, denn…
  2. …Glasfaser unterstützt kein PoE. Fehlendes PoE ist aber in großen und/oder kritischen Strukturen ein absoluter Show Stopper, weil es die Erschließungskosten ins Unermessliche katapultiert. Es geht dann nicht nur darum, dass jeder Ethernet-Anschluss zusätzlich mit Strom versorgt werden muss, sondern dass diese Stromversorgung in nicht wenigen Umgebungen auch mit einer Notstromversorgung abgesichert werden müsste, weil eben auch die Telefonie über diese Netze abgewickelt wird.


IMHO
Diese Nachteile, die damit verbundenen Mehrkosten und der Mangel an handfesten Vorteilen führen dazu, dass Glasfaser im Access-Bereich auf absehbare Zeit keine nennenswerte Rolle spielen wird. Entsprechende SOHO Hardware mit SFP+Interface wird aufgrund der geringen Durchdringung nicht auf den Markt kommen und so wird man auf ewig mit Medienkonvertern Schnittstellen bereitstellen oder teure Enterprise-Hardware kaufen müssen.
 
Zuletzt bearbeitet:
ob die karte auch mein aiming verbessert? KLar, jetzt weiß ich auch warum ich immer so eine schlechte K/D hatte!!!!
 
Also nachdem alle hier im Forum Killer so scheisse finden und mir geraten haben ein Mainboard mit Intel Chipsatz zu kaufen muss ich sagen: Killer ist deutlich besser. Ich habe jetzt genau das Problem was ich vor 10 Jahren schon hatte: Ich lade im Firefox eine Datei herunter, meine Internetleitung ist maximal ausgelastet und ich kann nebenher keine Webseiten mehr öffnen (bzw. sehr langsam) und auch kein Youtube mehr schauen. Wirklich tolle Beratung hier von einigen "Experten".

Mit Killer NIC konnte ich den PC ganz normal weiter nutzen, downloads hatten automatisch eine niedrige Prio, DNS Requests dafür eine sehr hohe Priorität. Das ist mit Intel nicht mehr möglich. Während der PC jetzt etwas herunterlädt kann man nichts mehr machen was mit Netzwerk zu tun hat.
 
Falc410 schrieb:
Ich lade im Firefox eine Datei herunter, meine Internetleitung ist maximal ausgelastet und ich kann nebenher keine Webseiten mehr öffnen (bzw. sehr langsam) und auch kein Youtube mehr schauen. Wirklich tolle Beratung hier von einigen "Experten".

Dann kauf dir nen gescheiten Router der QoS kann oder nutze das Tool von Haldi wenn du so eine schlechte Internetverbindung hast. Ich hab zwei Intel NICs am Threadripper System und ich kann in 4K streamen, Downloaden, Uploaden und neben her noch ein Spiel spielen. Ich hab aber auch 200 MBit Down und 12 Mbit Up und genug CPU Leistung für alles. Das ist also kein Problem der Netzwerkkarte.
 
  • Gefällt mir
Reaktionen: Blumenwiese
Na 200 Mbit/s down bekommt man auch nicht so leicht voll wie 25 Mbit/s die ich hier habe - gekoppelt mit der kleinsten Fritzbox. Ich kann nur sagen, vorher lief es halt perfekt und jetzt nicht mehr. Habe aber durch das Forum schon den Tipp bekommen den offiziellen Intel Treiber zu verwenden und in der Tat hat sich die Lage schon gebessert (zumindest ist das der erste Eindruck).

Ansonsten schaue ich mir mal Netlimiter an. Bei meinem MSI Board war auch eine Software dabei die wie eine billige Kopie von dem Killer Tool aussieht und halt gar nicht funktioniert hat.

Letzte Alternative ist nach einem Board mit Killer NIC zu suchen - leider kosten die von MSI 200+ und Gigabyte steh ich nicht so drauf.
 
Falc410 schrieb:
Na 200 Mbit/s down bekommt man auch nicht so leicht voll wie 25 Mbit/s die ich hier habe

Und genau da würde QoS zum Einsatz kommen. Ein guter Router hat dafür auch eine GUI und du kannst sagen wo deine Priorität liegen soll. Die Killer macht das halt auf einem Software-Level direkt auf dem Rechner, ein Router mit QoS macht das gleiche, aber über das gesamte Netzwerk.
 
  • Gefällt mir
Reaktionen: Blumenwiese
Also ich arbeite selber im Netzwerkbereich, auch wenn ich etwas mehr Highlevel bin als Router und Switches zu konfigurieren. Aber ich versuche Flows zu analysieren (zwecks Security Monitoring) und es ist im Moment unmöglich verschlüsselten Traffic zu analysieren. Da ich die Daten am Router abgreife, sehe ich also genau das was ein Router mit QoS auch sehen würde. Der kann dann nicht mehr nach Content unterscheiden sondern höchstens noch nach Port und IP Adresslisten - was aber in Zeiten von AWS nur bedingt hilfreich ist. Somit kann man QoS nur für bestimmte Protokolle machen, aber alles was über HTTPS geht wird gleich behandelt. Einzige Möglichkeit wäre ein TLS/SSL Proxy (die Verkäufer von entsprechenden Produkten z.B. bei F5 nennen das immer so schön SSL "aufbrechen" worüber ich mich immer amüsiere). Aber selbst bei mir Privat möchte ich so etwas nicht haben.

Es ist schon klar, dass Killer hier kein richtiges QoS bieten kann. Der "Algorithmus" von denen ist sehr sehr simpel. Max Bandbreite eingeben und diese Zahl wird dann aufgeteilt unter allen Anwendungen je nach Priorität. Gibt genug Leute die ein Bandbreitenupgrade gemacht haben, aber vergessen haben diese Zahl in der Software upzudaten und sich dann gewundert haben warum sie nicht schneller unterwegs sind. Dadurch kann man also auch Bandbreite "verschenken". Und klar, wenn mehrere Clients im Netz aktiv sind, sieht das schon wieder anders aus - spätestens dann, ist es hinfällig. In meinem Use-Case aber, wo nur 1 Rechner aktiv ist, hat es genau gepasst.
 
Zurück
Oben