Stannis
Lieutenant
- Registriert
- Juli 2011
- Beiträge
- 594
Mainboards bieten eine große Menge an PCIe Slots an, für Grakas, NVMEs und viele mehr.
CPUs haben eine begrenzte Anzahl an PCIe lanes.
(Die im folgenden genannte Hardware dient nur als Beispiel. Ich interessiere mich dafür, wie sowas allgemein funktioniert)
Beispielhaft sei genannt, dass ein i9 14900k über 20 PCIe5.0 lanes verfügt.
Boards mit dieser CPU, z.B. ein MSI Pro Z790-P, verfügen über:
Ich weiß, dass es PCIe switching gibt, und wenn ich diese Grafik aus der Wikipedia richtig lese, kann man einige Lanes an das Chipset übereignen, und hinter diesem dann viele weitere Geräte "multiplexen".
Mit obiger Liste (x16 GPU und x4 NVMe) wären nun aber alle Lanes belegt – oder kann der PCIe root complex ausnutzen, dass 5.0 doppelt so schnell ist wie 4.0, d.h. er braucht 16 lanes für die GPU (angenommen, sie nutzt 5.0), 2 für die NVMe (werden aufgespalten zu 4 lanes @ PCIe4.0), und 2 @ PCIe5.0 bleiben für den Switch (das Chipset?) übrig, der dann sämtliche andere Geräte über zwei PCIe5.0 lanes füttern muss. Der Switch müsste dann aber erzwingen, dass alle an ihn angeschlossenen Geräte nur eine Maximalbandbreite erreichen, die mit 2 lanes @ 5.0 bedient werden können (ca. 8GB/s)?
Natürlich fällt auf, dass immer von "up to XYZ speed" die Rede ist. Ich weiß auch, dass man die Anzahl der Lanes im BIOS zuweilen konfigurieren kann.
Bei diesem Board aber habe ich im BIOS Handbuch nur Optionen gefunden, wie man die Geschwindigkeit der Slots (PCIeX.0-Standard) setzen kann, siehe Seite 13.
Nun, wie dem auch sei, ich würde mich freuen, wenn jemand diese Fragen beantworte kann (nicht notwendigerweise zu diesem Board):
CPUs haben eine begrenzte Anzahl an PCIe lanes.
(Die im folgenden genannte Hardware dient nur als Beispiel. Ich interessiere mich dafür, wie sowas allgemein funktioniert)
Beispielhaft sei genannt, dass ein i9 14900k über 20 PCIe5.0 lanes verfügt.
Boards mit dieser CPU, z.B. ein MSI Pro Z790-P, verfügen über:
- PCIe5.0 slot (an CPU) x16
- NVMe (an CPU) mit PCIe4.0 x4
- viele, viele weitere "bis zu / up to 3.0 / 4.0" slots am Chipset, darunter NVMe
Ich weiß, dass es PCIe switching gibt, und wenn ich diese Grafik aus der Wikipedia richtig lese, kann man einige Lanes an das Chipset übereignen, und hinter diesem dann viele weitere Geräte "multiplexen".
Mit obiger Liste (x16 GPU und x4 NVMe) wären nun aber alle Lanes belegt – oder kann der PCIe root complex ausnutzen, dass 5.0 doppelt so schnell ist wie 4.0, d.h. er braucht 16 lanes für die GPU (angenommen, sie nutzt 5.0), 2 für die NVMe (werden aufgespalten zu 4 lanes @ PCIe4.0), und 2 @ PCIe5.0 bleiben für den Switch (das Chipset?) übrig, der dann sämtliche andere Geräte über zwei PCIe5.0 lanes füttern muss. Der Switch müsste dann aber erzwingen, dass alle an ihn angeschlossenen Geräte nur eine Maximalbandbreite erreichen, die mit 2 lanes @ 5.0 bedient werden können (ca. 8GB/s)?
Natürlich fällt auf, dass immer von "up to XYZ speed" die Rede ist. Ich weiß auch, dass man die Anzahl der Lanes im BIOS zuweilen konfigurieren kann.
Bei diesem Board aber habe ich im BIOS Handbuch nur Optionen gefunden, wie man die Geschwindigkeit der Slots (PCIeX.0-Standard) setzen kann, siehe Seite 13.
Nun, wie dem auch sei, ich würde mich freuen, wenn jemand diese Fragen beantworte kann (nicht notwendigerweise zu diesem Board):
- Die absolute Höchstgeschwindigkeit, was zeitgleich über PCIe transportiert werden kann, ist begrenzt durch die Anzahl der CPU PCIe lanes, richtig?
- Der Root Complex kann N schnellere Lanes zu >N kleineren lanes aufspalten?
- Ist das Chipset faktisch (unter anderem) ein PCIe switch?
- Wenn es in einem Handbuch heißt, z.B. der Graka-Slot sei "x16 (from CPU)", heißt das, die CPU lanes sind hart an diesen GPU slot verkabelt, oder ist auch das umkonfigurierbar?
- Eine physische Lane von der CPU kann nicht "heruntergetaktet" werden (z.B. von 5.0 auf 4.0) und es würde auch nichts bringen um mehr Geräte nutzen zu können, weil ja immer noch eine physische Lane blockiert wäre?