Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsEntwicklerkonferenz: So steht es um PCIe 7.0 und die optischen Verbindungen
Die für den Schnittstellenstandard PCI Express zuständige PCI-SIG informiert heute über den Stand der Entwicklungen von PCIe 6.0 und PCIe 7.0. Bei beiden geht es voran, doch nicht so schnell wie gedacht. Optische Alternativen zu Kupfer werden konkreter ins Auge gefasst.
Weil die PCI-SIG seit der damals heftigen Funkstille nach 3.0 solide arbeitet und die Grenzen des machbaren stetig auslotet, sind die jetzt auftretenden Verzögerungen deutlich weniger kritisch, als sie es sonst gewesen wären.
Ja die können sich noch gut Zeit lassen 5.0 wird ja nicht einmal richtig genutzt, geschweige denn man kommt an ein Bandbreitenlimit in normalen Anwendungen.
Da können die alles sauber umsetzen, bin schon gespannt wie weit das noch geht bis eine komplett neue Schnittstelle kommt.
Ich würde mir wünschen, ein CopprLink Kabel an einem Laptop für eine vernünftige eGPU Anwendung wäre eine mögliche Zukunft. Bezweifle ich sehr, man kann noch träumen.
USB4 (wer weiß, ob 80G bzw. 120-40G bei den jetzigen Latenzen hilft) ist zwar eine Lösung, aber genauso eine, die man kaum empfehlen.
Ich denke mit optischen Datenverbindungen brauchen sie auch nicht anfangen, solange Sender und Empfänger nicht selbst "nativ" damit umgehen können.
Das "Versprechen" mit niedrigeren Latenzen sehe ich nämlich nicht solange wieder extra Zwischenschritte mit Kodierungen (Translations) und Optischer/Digitalerwandlung dazwischen nötig sind. Immerhin sind dafür an jeder Verbindungstelle solche Lösungen nötig was sich entsprechend Summiert, die zudem auch aufwändig und teuer zu Realisieren sind.
Mit "KI" und deren nötigen Ressurcen und Rechenzeiten dazwischen will ich da gar nicht anfangen.
Und da man aktuell eh schon bei der Bandbreite "vor" den Schnittstellen begrenzt ist, wäre es eher begrüßenswert in zuküftige "Normen" auch die Powerübertragung mit einzubeziehen.
Und ja, zuküftige "Ai/Ki" Spielereien die via PCIe Lösungen Kommunizieren und evl mehr Bandbreite brauchen als man sich aktuell überhaupt vorstellen kann, brauchts dann eh komplett andere Schnittstellen für solche Anforderungen.
Das k.i Gedöns wie es seit einiger Zeit gepusht wird ist wesentlich jünger als die Spieleindustrie.
Dass das k.i Gedöns derartige Massen an Daten Rum schieben muss ist vielmehr ein Zeichen dafür wie ineffizient das ganze noch ist.
Das k.i Gedöns wie es seit einiger Zeit gepusht wird ist wesentlich jünger als die Spieleindustrie.
Dass das k.i Gedöns derartige Massen an Daten Rum schieben muss ist vielmehr ein Zeichen dafür wie ineffizient das ganze noch ist.
Spielt doch keine Rolle...
Das ist eine Wirtschaftlichkeitsbetrachtung - und hier liegt KI respektive DataCenter deutlich in Front, was Umsatz und Gewinne angeht. Vor allem da Gaming als Marktbereich (bezogen auf den PC-Spielemarkt) recht ausentwickelt ist. Da sind keine drastischen Wachstum-Raten zu erwarten, weil die meisten, die eben in Frage kommen für Gaming Hardware, diese ja schon haben.
Anders als bei dem KI Kram, da lecken sich alle die Finger nach aktuell.
Rainbowprincess schrieb:
Dass das k.i Gedöns derartige Massen an Daten Rum schieben muss ist vielmehr ein Zeichen dafür wie ineffizient das ganze noch ist.
Das ist quatsch. Es werden einfach in der gleichen Zeiteinheit viel viel mehr Daten bearbeitet. Was zwangsweise viel viel höhere Bandbreiten notwendig macht.
Die paar wenigen MB bis GB an Daten, die in einem Spiel verwendet werden sind kein Vergleich zu TB, PB, EB weise Daten, welche im DC Bereich gehandhabt werden. Vor allem im HPC Computing.
In Klein funktioniert das auch am heimischen PC. Aber halt aufgrund diverser Beschränkungen eben wirklich nur in Klein.
Ergänzung ()
MasterWinne schrieb:
Das "Versprechen" mit niedrigeren Latenzen sehe ich nämlich nicht solange wieder extra Zwischenschritte mit Kodierungen (Translations) und Optischer/Digitalerwandlung dazwischen nötig sind. Immerhin sind dafür an jeder Verbindungstelle solche Lösungen nötig was sich entsprechend Summiert, die zudem auch aufwändig und teuer zu Realisieren sind.
Das ist aber ne Einseitige Betrachtung - denn auch den Kupferdraht musst du ja vorher mit entsprechenden Signalen befeuern und am anderen Ende wieder abnehmen.
Ich könnte mich irren - geht man mal im Netzwerkbereich schauen, dann sind die Transreciver von Strom auf LWL und zurück in Sachen Energieeffizienz und vor allem in Sachen Länge und Latenz sowie absolutem Verbrauch besser als das über Kupfer zu lösen.
Derartige Kabel braucht es ja wahrscheinlich nicht für die lokal gesteckte PCIe Karte in einem Board. Sondern um bspw. Distanzen zu überbrücken, die man so nur mit hohem Aufwand überbrückt bekommt. Sprich der Kompromiss sind dann die Umwandlungsverluste, der Gewinn aber ist die Distanz und damit im Zweifel bessere/breitere Skalierung.
... Und wieder wünsche ich mir mehr Lanes im mainstream damit die kleinen m2 ssds weiter genutzt werden können. Server cpus schmeißen ja damit um sich aber otto normalo.... Eine gpu in 1x 16 oder aufteilen auf 2x8 und das wird auch schon enge was steckplätze angeht. Gibt dann noch nen 1x4 und Ende im Gelände
... Und wieder wünsche ich mir mehr Lanes im mainstream damit die kleinen m2 ssds weiter genutzt werden können. Server cpus schmeißen ja damit um sich aber otto normalo....
für den ottonormalverbraucher ist das was man im consumerbereich vorfindet absolut ausreiched; das gros der user reizt nichtmal das aus.
wenn man allerdings ansprüche hat nebst einer oder zwei gpu's im system, noch den schnellsten interlink zw. cpu und chipsatz zu haben, dazu 3+ maximal schnell angebundende ssd's und on top noch einen haufen flotter usb ports, dann mus man eben zum semiprofessionelen bereich/hedt greifen.
... Und wieder wünsche ich mir mehr Lanes im mainstream damit die kleinen m2 ssds weiter genutzt werden können. Server cpus schmeißen ja damit um sich aber otto normalo.... Eine gpu in 1x 16 oder aufteilen auf 2x8 und das wird auch schon enge was steckplätze angeht. Gibt dann noch nen 1x4 und Ende im Gelände
Es wird Zeit das die x16 Slots von den "normalen" Motherboards verschwinden und durch 2*8x Slots ersetzt werden. Mit AM5 könnten dann 4 NVME-Platten direkt an der CPU hängen plus eine GPU.
Bedenke auch das die Bandbreite vom RAM begrenzt ist, ein PCIe5*16 Slot braucht halbduplex schon die komplette DDR5-Bandbreite "normaler" Motherboards auf. Und dann steht das Zeug lediglich im RAM und die CPU hat es noch nicht gelesen.
Ich freu mich ja für die Industrie, hoffe aber irgendwie, dass sich die Einführung im Consumerbereich noch eine Weile verzögert. Lieber erstmal PCIe 5.0 richtig ausreizen, inkl. sehr energieeffizienter Lösungen. Erst wenn es anfängt zu kneifen auf PCI 6.0 hochgehen.
Ich weiss, klingt nach Fortschrittbremse, ist aber nicht so zu verstehen. Ich empfinde eben ausgereifte PCIe 5.0-Produkte als fortschrittlicher als mit der heissen Nadel gestrickte PCIe 6.0-Devices. Aussage nur auf Consumer bezogen!
Was verstehst Du unter ausreizen, dass man Produkte bekommt die die Datenraten ausnützen, oder dass die Produkte mit diesen Datenraten einen für die Anwender einen spürbaren Effekt haben.
Bei den Grafikkarten ist es einfach, es gibt keine mit PCIe 5.0. Und auch PCIe 4.0 braucht man erst dann, wenn man das Interface auf 8 Lanes verkleinert.
Bei den SSD muss man schon sehr große Dateien bewegen, um von der höheren Bandbreite zu profitieren. Von der HDD auf die SATA SSD war es ein gewaltiger Sprung. Alles was danach kam waren immer kleinre Schritte.
Yosup schrieb:
Ich weiss, klingt nach Fortschrittbremse, ist aber nicht so zu verstehen.
Schaue dir mal die Infiniband-Karten an, selbst die ConnectX-7 mit ihren 400Gbs ist total am Limit und kommt in Dualportvarianten mit x32 Pcie5, weil sonst die Datenrate nicht gehalten werden kann. Offiziell sind die 800Gbs Karten noch nicht gelistet, aber werden wohl schon bei MS, AWS und Google eingesetzt, das hat man schön auf der Computex-Keynote gesehen. 800Gbs shipping, 1600 Gbs im Labor.
Im Umkehrschluss also wenn Pcie 6/7 kommt, Launcht NV die Produkte einfach. Im HPC-Bereich ist die Bandbreite schon quasi über die nächsten 5 Jahre verplant.