Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel Silicon Photonics: Heute 100, morgen 400 Gbit/s via Transceiver mit Laser
16 Jahre Entwicklung, jetzt hat es der ewige Prototyp in den Serienstatus geschafft und wird ausgeliefert und genutzt. Die Rede ist von Silicon Photonics, der in der ersten Generation als 100 Gigabit schnelle Laser-Datenverbindung Serversysteme zusammenschaltet. Schnell soll dies jedoch auf 400 Gbit/s erhöht werden.
kann ich mir garnicht vorstellen..Otische Verbindungen wird doch auch gebündelt...wieso ist dann ein Chip billiger als wenn man die Daten direk über Glasfaser schickt...bei Glasfaser muss man doch nur nen "Verstärker zwischenschalten" der das Signal wieder etwas verstärkt................
Irgendwie ist der Aktikel missverständlich formuliert.
Erst ist die Rede von 100 Gbit und 1 Laser, dann ist von LR4 bzw. CWDM die Rede, welche ja jeweils 4 Laser a 25GBit benutzen.
btw, Transceiver mit 100G über einen DWDM Kanal gibts schon zu kaufen, hat mir letztens jemand von PanDacom erzählt bei der Vorstellung eines von deren DWDM-Systemen weil ich gerfragt hatte wie man 100G auf nen Multiplexer verkabelt.
verflucht, vielleicht sollte ich doch nicht anfangen in jeden Raum (inklusive Küche und Bad) Cat7 fest zu verlegen. Wenn man das hier so liest, erscheint Cat7 schon ziemlich obsolet.
400GBit/s - davon kann selbst die schnellste GraKa nur träumen. Aber wieder denkt Intel bei einer neuen Technik nur an langweilige Enterprise-Lösungen. Mit so einer Datenverbindung wäre es möglich im Schaltschrank eines Hauses, der im Keller aufgebaut ist, modulare GraKas mit Hutschienenmontage einzubauen, diese an der zentralen WaKü-Anlage des Hauses per Schnellverbinder anzuschließen, um dann die GraKa-Power an einem beliebigen, vernetzten Punkt im Hause abrufen zu können. Das Gleiche Spiel ginge natürlich auch mit CPUs.
Jetzt werden wieder viele denken ich spinne, aber irgendwann wird es so etwas geben.
Du wirst jetzt vielleicht denken ich spinne, aber ich denke das Umsatzpotential im Servergeschäft ist derzeit noch minimal höher als das von Leuten, die Ihre Grafikkarte in den Schaltschrank bauen wollen.
Im Grunde genommen brauchst du auch kein 400Gbit dafür sondern den ganzen PC im Keller und ne fast latenzfreie und verlustfreie Bildübertragung.
So wie ich das verstanden habe werden die Daten normal über Glasfaser geschickt, man packt sich nur an (beiden?) Enden son Teil davor.
Deshalb ist es ja so günstig.
Wenn bei Längenbestimmungen, Faserqualität und optischem Interface die geforderten Parameter erfüllt werden. Was bei FTTH kaum der Fall sein wird. Da gibt es andere Möglichkeiten zu skalieren.
Hier ist mal wieder geballtes Wissen unterwegs. Warum CB sich überhaupt die Mühe macht so etwas überhaupt zu bringen, versteht doch so gut wie eh keiner hier. Und dann sieht man die gängigen Kommentare ala GPU im Schaltschrank..
Der Vorteil dieser Lösung ist die völlige Integration aller notwendigen Komponenten in einen Chip aus dem normalen Lithographie-Prozess mit Silizium:
This tech can shuttle up to 100Gbps over 2km or more of cable that's just a few millimeters thick, creating a high-speed nervous-system for clusters and data centers. As its name suggests, Silicon Photonics uses patterned silicon to emit and receive precisely aligned data-carrying laser signals. These devices can be fabricated just like normal CMOS chips, meaning they should be relatively cheap and easy to make at high volumes.
Denkt man hier weiter, ist es die Vorstufe von LWL als Leiterbahn. Lässt sich wunderbar in einen SoC integrieren oder in andere Chips packen. DRAM über LWL, kein Problem. Kupfer für Datenübertragung auf dem PCB und Tschüss.
ich dachte auch die ganzen Jahre als das Thema immer mal wieder hoch kam das Intel die Kupferleiterbahnen im Chip selbst durch Licht ersetzen möchte. Jetzt ist das aber nichts weiter als besseres optisches LAN in meinen Augen.
Damit löst man mittelfristig wohl sämtliche Skalierungsprobleme. Innerhalb eine Racks können so in Zukunft über mehrere Tbit/s sämtliche Komponenten wie CPU, DRAM, Storage & Network über eine große Fabric zusammengeschaltet und mehr oder weniger unabhängig voneinander skaliert werden.
Statt sowas wie 42 x 1 HE Server mit je 2x CPU, 24x DIMM & Storage gibt es dann einfach in einem 42 HE Rack 14 Einschübe mit nur CPU, 14 Einschübe mit nur DRAM und 14 HE mit nur Storage. (oder eben eine andere Aufteilung).
Das dürfte die RZ-Infrastruktur komplett umkrempeln.
Das könnte ich mir auch gut vorstellen als Internet Verbindung zwischen Kontinenten. Bei der hohen Übertragungsrate kann man den ganzen Datenverkehr bündeln
100G als gemeiner Home-Internetanschluß? Was dagegenspricht?
Kosten. Schnittstellentechnik. Wahrscheinlich auch Faserparameter. Fehlende Home-Router mit 100Git L3-Throughput. Die simple Tatsache, dass 100G schon eine Größenordnung Überforderung für die fast alle Edge-Bereiche der Accessprovider ist.
In 10,15 Jahren vielleicht.
Aber hier geht es um eine Technologie, die in Datacentern eingesetzt wird. Nur weil z.B. bei FTTH auch LWLs eingesetzt werden heisst das noch lange nicht, dass beides in den gleichen Topf geworfen werden kann. LWL ist nicht gleich LWL und Mono- und Singlemode nicht die einzige Unterscheidung. Man kann also nicht einfach vom einen auf das andere schließen.
Dass man die jetzigen Teile vermutlich nicht einfach an sein FTTH Anschluss bauen kann ist schon klar.
Bin mir trotzdem relativ sicher dass sowas in der Art auch genau dafür in Zukunft ohne wahnsinnige Upgradekosten entwickelt wird.
"weiter nichts"? Damit wird LightPeak endlich möglich. Also das echte LightPeak, nicht das DarkPeak das stattdessen über Kupfer als Thunderbolt vor sich hin schimmelt weil es nicht so viel besser als USB3 ist wie es als proprietäres System sein müsste um wirklich durch zu starten.
Wieso gerade die optische Verbindung über mehrere Kilometer als Riesenvorteil genannt wird erschließt sich mir dagegen nicht. In dem Bereich ist Glasfaser gang und gäbe und die Kosten der elektrischen Gerätschaften sind Peanuts im Vergleich zu den Kosten der Übertragungsstrecke. Bezogen auf alles was das eigene Gebäude verläßt ist das imho eine Lösung ohne Problem.