News Fürs Rechenzentrum der Zukunft: Kioxias Breitband-SSD nutzt eine optische Verbindung

MichaG schrieb:
Es sei „eine Geschwindigkeit von 128 Gbit/s über eine Faser durchaus möglich“ gewesen, heißt es weiter.
An sich verstehe ich grade nicht, was hier so besonders dran ist... mit 400GBASE-LR8 gehen 400gbit über 10km mit nur einem Faser Paar zu übertragen.

Sind die 128 Gbit kostengünstig* und mit nur einer Wellenlänge? Das wäre beachtlicher, wobei 400GBASE-DR4 dem zumindest von der Geschwindigkeit auf Wellenlänge/Faser auch schon nahe ist.

*Was auch immer das heißen mag, aber 400 Gbit Transceiver scheinen einen Einstiegspreis von 250€ das Stück für kurze Distanz zu haben...
 
Der Puritaner schrieb:
Das klingt doch sehr Cool, so lässt sich die SSD auch im Kühlen Keller kühl aufbewahren und muss nicht im Gehäuse eingebaut werden.
Oder im coolen Öl-Bad, falls die SSD die heißeste Komponente des Servers werden sollte. ;)
 
cypeak schrieb:
schon heute meckern manche wenn sie nicht mehr als 3 m.2 ssd#s unterbringen können und weil auf den boards zuwenig platz ist..
Auf den Boards ist nicht wirklich wenig Platz, zumal die M.2-Module nicht unbedingt liegend montiert werden müss(t)en, aber Consumer-Hardware hat zu wenige PCIe-Lanes, um "viele" NVMes anzubinden. Ist bei den wirklich schnellen USB-Varianten das Gleiche Problem, gleichzeitig ist es im Consumer-Bereich albern, sich über "nur" wenige Dutzend GB Gesamtbandbreite aufzuregen, zumal die CPU sowas eh nicht abrufen kann.

Ggf. wären ein paar PCIe-Switches nett (z.B. in Form von PCIe-Steckkarten mit mehreren M.2-Slots), aber offensichtlich fehlt dann dafür doch die Nachfrage.
 
GrumpyCat schrieb:
aber Consumer-Hardware hat zu wenige PCIe-Lanes, um "viele" NVMes anzubinden.
Also bei Intel bekommt man 32 PCIe Lanes exclusive der 16 für die Grafikkarte. Ziehen wir acht ab für Ethernet, SATA etc, bleiben 6 voll angebundene SSDs.
Gar nicht mal so wenig.
 
bensen schrieb:
Also bei Intel bekommt man 32 PCIe Lanes exclusive der 16 für die Grafikkarte. Ziehen wir acht ab für Ethernet, SATA etc, bleiben 6 voll angebundene SSDs.
Tja da weiß ich dann auch nicht, wieso die Intel-Mainboards alle so schlecht ausgestattet sind.

Bei AMD holt man sich Epyc oder Threadripper und hat PCIe bis zum Umfallen (und nicht nur auf dem Papier).
 
@GrumpyCat
Ja gut, für 100€ bekommt man das nicht. Kein Ahnung wo du geschaut hast. Aber für 200€ bekommt man 5 SSDs angebunden ohne die Graka zu beschneiden.
Mit Intel Xeon WS bekommst du auch ne Menge PCIe Lanes. Dürfte nicht der Preisbereich der Meisten sein und nur für ne Hand voll SSDs auch nicht notwendig.
 
Zuletzt bearbeitet:
@MichaG

ich verstehe das nicht.... schon jetzt sind doch Datenträger und Server oft lokal getrennt. Und schon jetzt ist der SAN, also die BOX, bzw boxen, nich5t über kopfer sonder glas angebunden. Wo ist also jetzt der UNterschied zu einem sonst "üblichen" SAN, der ja auch in der Regel übern optisches Kabel läuft?!?!



1723481411807.png

Klar die elektronik schränkt ein... Aber man zieht doch nicht ne glasstripe einzeln von jeder ssd zu einem server? Nicht böse sein, aber ich habe noch (leider) nie ein datenzentrum von innen gesehen... Aber ich dachte vom Mainframe, gehen die Glasstripen zum SAN, was "nichts" anders als eine riesige box mit vielen platten ist, und die dann zusammengeschaltet auch die Bandbreite bringt.... wo ist der denkfehler....

Oder geht es hier eher um eine alternative, zum San, der wiederum komplexität und damit fehleranfälligkeiut erhöht, als um die räumliche trennung und Bandbreite? Klar man kann die dinger vermutlich irgendwann auch in nen Sann packen, wo optisch angeschlossen sind, und man noch etwas mehr bandbreite rauskitzeln kann.... Aber schon jetzt läfut doch auf Server level viel optisch oder?
 
metoer schrieb:
Schade das die Schnittstelle nie verbessert wurde und bei Stereo pcm Schluss ist. Gerade jetzt wo die klobigen HDMI und Displayport-Kabel immer mehr an die Grenzen stoßen würde es doch Sinn machen auf optische Signalübertragung zu setzten.
Ist doch seit langem in Arbeit ..
Immerhin ist das Problem alle gängigen schnellen digitalen Schnittstellen (und auch die weniger schnellen wie Audio) am Computer in USB4/USB-C zu versammeln ja inzwischen fast gelöst *). Wobei USB-C immerhin schon handlicher als die oben genannten wie DP.

Das "fast" bezieht sich darauf das der letzte Upgrade des USB4 Standards "Version 2.0" leider immer noch nicht auf dem Markt angekommen ist.

Sobald das mal passiert ist wird's aber sicher dann auch für USB4 passende (erste teure) optische USB-C Kabel geben (mit Transceivern in den Steckern). (Solche für das Auslaufmodell TB3 only gibt's ja schon länger zu kaufen - für USB4 dürfte es denke ich sich erst ab Version2.0 lohnenswert sein sowas zu entwickeln)

Bei (Profi) Ethernet hat's auch die 100 MBit/s gebraucht bis optische Kabel die Kupferkabel abgelöst haben (Transceiver sind halt teuer). Da wären wir mit USB4 (Version1.0 40G, Version 2.0 80G) nun auch knapp drunter angelangt.

Also dann bis zum nächsten USB Standardupdate auf USB5 .. mit 160G? Steht da eigentlich noch ein anderes Thema auf der Agenda als "optisch" .. ? Audioübertragung von bis zu 100ten Kanälen ist da natürlich eh inbegriffen ..

Nur braucht das auch die Hersteller im Hintergrund (oder den .. Intel) der genügend Zeit und Muße und nicht zu vergessen eigenem wirtschschaftlichen Interesse hat sich um das Problem massenproduzierter optischer Transceiver (Stichwort Si-Photonics) zu kümmern. Neben den anderen kleinen Konzernproblemchen. Wollen wir hoffen das Intel nicht das Interesse verliert weil die Consumer Prozessor Verkäufe vielleicht suboptimal laufen und die ARMifizierung droht .. mindestens einen Teil der Transceiversparte hat Intel ja kürzlich wohl abgestoßen wenn ich mich recht entsinne. Mal gut das auch Computer für Profis schnelle I/O brauchen ..


*) naja Netzwerk/IP/Ethernet hakt noch auch wegen eh zu kurzer USB4 (Kupfer) Strippen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Der Puritaner
bensen schrieb:
@GrumpyCat
Ja gut, für 100€ bekommt man das nicht. Kein Ahnung wo du geschaut hast. Aber für 200€ bekommt man 5 SSDs angebunden ohne die Graka zu beschneiden.
Ah stimmt, ich hatte nach zweitem PCIe x16 geschaut (dann mit Bifurcation-Karte für 4x NVMe), aber das ist wohl nicht mehr in Mode. Sowas wie das MSI Z790 Gaming PRO WIFI hat dreimal M.2 (x4) und zweimal PCIe x4, ja. Wobei man das auch bei AMD bekommt (z.B. ASRock B650 LiveMixer), 100€ günstiger und mit teilweise PCIe 5.0 statt 4.0.

Also doch gar nicht alles so schlecht, wie ich geunkt habe :).

Wobei ich persönlich eigentlich immer nur eine Platte im System habe, weil ich Stückwerk nicht mag und das TBW-mäßig etc. auch wenig Sinn macht.
Ergänzung ()

lynx007 schrieb:
@MichaG

ich verstehe das nicht.... schon jetzt sind doch Datenträger und Server oft lokal getrennt. Und schon jetzt ist der SAN, also die BOX, bzw boxen, nich5t über kopfer sonder glas angebunden. Wo ist also jetzt der UNterschied zu einem sonst "üblichen" SAN, der ja auch in der Regel übern optisches Kabel läuft?!?!
SAN ist nett, aber schon weil da alles nochmal über die SAN-CPU läuft (und zweimal über Netzwerkkarte) ein Bottleneck und für bestimmte Anwendungen nicht geeignet. Ich schüttle ja bei dem ganzen Cloud-Kram häufig den Kopf, wie begeistert die Leute z.B. über Amazons EBS sind. Durchsatzmessungen machen die wohl nicht...

Lokales Äquivalent von NVMe ist da was Latenz und Bandbreite angeht ne ganz andere Nummer.
 
GrumpyCat schrieb:
Wobei man das auch bei AMD bekommt (z.B. ASRock B650 LiveMixer), 100€ günstiger und mit teilweise PCIe 5.0 statt 4.0.
Aber nicht alles gleichzeitig nutzbar. ;) So viele Lanes hat der B650 gar nicht.
Un es kostet nur 50€ weniger. Oder wo gibt's das für 100€?
 
@bensen Hm stimmt wegen Lanes, ich brauche mehr Kaffee. Aber immerhin sharen nur der zweite PCIe-Slot und einer der M2-Slots, also nur ein Port weniger als beim MSI, und Bandbreite dank einmal PCIe 5 gleich (aber darum ging's nicht).

Das MSI ist bei Geizhals z.Zt. mit 250€ und das ASRock mit 150€ gelistet.

Ich frag mich ja, wieso die Chipsätze nicht mehr Lanes bringen, und wieso nicht mehr x16-Slots mit Bifurcation angeboten werden (oder günstige x4-Steckkarten mit integrierten PCIe-Switch). Vermutlich Stromverbrauch und mangelnde Nachfrage...
 
GrumpyCat schrieb:
Das MSI ist bei Geizhals z.Zt. mit 250€ und das ASRock mit 150€ gelistet.
Ah, ich hatte das plus und nicht das Pro angeschaut. Kann auch 5 SSDs.

GrumpyCat schrieb:
Ich frag mich ja, wieso die Chipsätze nicht mehr Lanes bringen, und wieso nicht mehr x16-Slots mit Bifurcation angeboten werden (oder günstige x4-Steckkarten mit integrierten PCIe-Switch). Vermutlich Stromverbrauch und mangelnde Nachfrage...
Kosten, macht den Chipsatz größer. Wobei Intel ja 28 Lanes bietet mit dem Z790. AMD immerhin 20 mit dem x670. Das ist schön nicht so wenig.

Laut Gerüchten soll Arrow Lake wieder mit 8/4/4 Bifurcation kommen (mit Z870 PCH).
 
GrumpyCat schrieb:
Auf den Boards ist nicht wirklich wenig Platz, zumal die M.2-Module nicht unbedingt liegend montiert werden müss(t)en, aber Consumer-Hardware hat zu wenige PCIe-Lanes, um "viele" NVMes anzubinden. Ist bei den wirklich schnellen USB-Varianten das Gleiche Problem,
ja, das ist sicherlich auch ein teil des "problems".
aber je nachdem wen man fragt, sind die erwartungen an schnittstellen im consumer bereich unterschiedlich...
manche hätten wohl am liebsten ein dutzend 40gbps usb4 ports und soviele pcie5.0 m.2 sockel wie es die boardfläche hergibt...
andere kommen mit 1-2 flotten usb ports und 2 m.2 slots aus und vermissen nichts...

dass für die modernen pcie lanes auch die anforderungen hoch sind und dass die preise an jedem ende nach oben treibt, das hört niemand gerne....schon jetzt werden boards als zu teuer "empfunden"

ob optische verkabelung hier einen benefit bringt, das wage ich zu bezweifeln; denn die verkabelung löst nicht dass problem der zuwenigen pcie lanes.
so etwas "hilft" wahrscheinlich vor allem bei kompakten boards und systemen...also m-itx/matx...
 
GrumpyCat schrieb:
Wobei ich persönlich eigentlich immer nur eine Platte im System habe
Das kann ja jeder halten wie er möchte.
Ich habe mittlerweile in jedem PC eine SSD, auf der nur OS als auch Apps installiert sind und dazu 1–2 Datenträger Größtenteils nach wie vor Festplatten, das reicht mir vollkommen mit Geschwindigkeit und Bandbreite. Selbst bei 4K oder 8K Videos, ich stelle dort keinen großen Unterschied vor der Leistung als auch vom Bild her fest, ob die nun auf einer herkömmlichen Festplatte oder einer SSD Liegen.
 
Ok, danke, bei den Grafiken sehe ich nicht durch

Also kann mittlerweile Intel beide grafikkarten mit vollen 16 lanes ansteuern?
 
Zurück
Oben