pcie-Lanes und Bandbreite eines Mini-PCs

Jakes Brother

Ensign
Registriert
Juli 2012
Beiträge
230
Guten Abend in die Runde,

folgendes Problem beschäftigt mich und gleich vorne Weg, ich bin in Linux absoluter Anfänger und wühle mich in der Sache bisher vor allem durch Foren / Hilfen.

Ich habe einen chinesischen Mini-PC, einen NipoGi AM16. An sich primär für Office und den betreibe ich mit einem aktuellen Linux MINT. Gerade experimentiere ich damit, ihm eine dedizierte Grafikkarte über einen M.2 to PCIe Adapter zu verpassen. Ich habe hier noch eine GTX 1050ti rumliegen, die sollte grob gepeilt ungefähr das Doppelte her machen, als die verbaute Radeon Vega 7 Einheit der Ryzen 5 5675U APU ... und da fängt das befremdliche an:

Mein Adapter bietet 4 Pcie 3.0 Lanes. M.2 Slots haben laut meinen Recherchen idR. 2 oder 4 Lanes als Anbindung. diese Chinakiste hat keinerlei Mainboard-Manual oder irgendwelche Angaben, also kann ich nur schauen, was ich irgendwie ausgelesen bekommen. Zudem hat das Ding keinen Chipsatz, arbeitet also nur mit den PCIe-Lanes, die der Prozessor zur Verfügung stellt (sollten 12 Stück PCIe 3.0 sein).

Ein Benchmarkdurchlauf mit glmark2 bringt für die APU einen Score von 8618 ... und für die doppelt so schnelle dGPU einen Score von 7334 ... klarer Hinweis, das irgendwie die Lanes und/oder die Bandbreite reduziert sind, an sich erwartet, die mögliche 8x der 1050ti funktionieren ja auch schlicht nicht über diesen Adapter.

Dann bin ich dem ganzen mit dem Befehl "sudo lspci -vv" zu Leibe gerückt und bekomme folgendes für die 1050ti:

"LnkSta: Speed 2.5GT/s (downgraded), width x4 (downgraded)"

Ok, ich hab 4 Lanes, das ist ja an sich gut ... aber 2.5 GT/s ... das wäre PCIe 1.0 Speed.

Wie kann das sein?
 
Abend!

Ich würde mal sagen: Ja, der Link ist degraded.

Ein Grund könnte typischerweise der Leerlauf sein: https://unix.stackexchange.com/a/686444
Auch meine 3070 geht im Leerlauf zurück auf PCIe 1.1 x16 und springt dann bei Last sofort auf PCIe 3.0 x16 (limititert durchs Mainboard)

Der andere typische Grund wäre ein Adapter, der einfach nicht mehr als PCIe 1.0 schafft.
 
Danke für die fixe Antwort ... habe ich eine Möglichkeit, den Status der Bandbreite unter Last (bspw. glmark2) auszulese?

An sich wird ja erkannt, dass das "Endgerät" 1050 ti mehr kann:

"LnkCap: Port0, Speed 8 GT/s (ok), Width 16x (ok)"

Schrottiger Adapter ist natürlich nicht auszuschließen, abber ... 1.0 schrottig wäre schon hart
 
Jakes Brother schrieb:
beiliegenden SATA-Adapter
Laut Bild hat der nur zwei Leitungen: Einmal +12 V und einmal Masse. Der einzelne Kontakt des Steckers ist auf 1,5 A spezifiziert.
Jakes Brother schrieb:
dass er bei den Benchmarks bis zu 60 Watt darüber zieht.
60 W statt spezifizierten 18 W ist bestenfalls mutig.
 
Laut der Beschreibung müsste der Adapter mit bis zu PCIe 4.0 x4 klar kommen.
Aber schreiben kann man bekanntlich viel wenn der Tag lang ist.

Die CPU (Ryzen 5 5675U) hat 8 mal PCIe 3.0.
Und eine GTX 1050 Ti hat einen PCIe 3.0 x16 Anschluss.

Das heißt, im "besten" Fall läuft die Anbindung mit PCIe 3.0 x4, was natürlich nur viertel ist gegenüber dem was theoretisch ginge.
 
Das der Adapter als "Chinaware" gewisse Unwägbarkeiten hat, klar, muss ich einpreisen. Darunter fällt mMn bspw. dass da vielleicht 4.0 draufsteht ... aber eben nur 3.0 ankommt. Letzlich zeigt Linux ja aber einen Wert für 1.0 an ... das versteh ich halt nciht und würde ih daher gerne "unter Last" auslesen.

Der Delock sieht da besser aus, aber was bringen mir den die spezifizeirten 16x Lanes, wenn mir der M.2 SLot auf dem Bord eh nur 4x zur Verfügung stellt?
 
.... hu, klingt riskant ... wäre ja nur für einen test, kein Duaerzustand, riskier ich damit "nur" einen Absturz oder eher die Hardware?

Zum Sinn des Ganzen ... an sich ist es für mich gerade eine Spielrei, schauen was geht, aber das Netz ist voll von Leuten, die über solche Adapter GPUs an Laptops oder andere Geräte hängen, die keinen PCIe Slot nativ haben und teils gute Performancegewinne zu den iGPUs erzielen. MWn hat auch keiner der genutzen M.2 Slot je mehr als 4 Lanes und die arbeiten auch eher mit GPUs der xx60er Klasse und nicht mit großen Boliden. Soll wohl auch besser laufen als ein Thunderboltdock ... aber wie gesagt, Netzhalbwissen und ich will es eben selber probieren, just because :)
 
Wenn dann friert in der Regel das komplette System ein oder bleibt beim booten / Window Manger hängen. Das ist ein noch harmloser Parameter.
 
Das Problem mit den Adaptern: PCI-E macht nicht wie DSL ein Test, was geht, sondern beide Seiten starten mit Gen 1, reden, handeln die maximale Geschwindigkeit aus, die beide Seiten können, und nutzen dann das. D.h. der Adapter kann vielleicht nur 3.0, das ist PCI-E erstmal egal und macht das mit 4.0, dann kann es sein, dass es gar nicht geht, oder eben "gerade so".

Mach mal AER (advanced error reporting, das geht über die Linux cmdline in grub) an und schau, ob dein Log (dmesg) voll wird beim Benchen, dann weißt bescheid, ob die Link margin ausreichend ist. Sonst musst du die Geschwindigkeit auf weniger limitieren.

Ich hab mal nen PCI-E Verlängerungskabel 1 m lang getestet (https://www.adt.link/product/R44SF.html), über nen PCI-E zu M.2 Adapter auf nen FPGA. Das Receiving eye bei 8 GT sah gut aus. Transmitting konnte ich natürlich nicht sehen, ging auf die Southbridge.
 
  • Gefällt mir
Reaktionen: JumpingCat
@JumpingCat Ja schau einer an, aus:

"LnkSta: Speed 2.5GT/s (downgraded), width x4 (downgraded)"

wurde

"LnkSta: Speed 8GT/s (ok), width x4 (downgraded)"

aber ein nachfolgender BEnchmark blieb gleich "schlecht" wie die vorherigen :/

@Hancock kann dir da von meinem Knowhow her leider nicht folgen, aber gehe deinen Post mit nem Kumpel mit wesentlich mehr Linux-Ahnung nochmal an :daumen:
 
Jakes Brother schrieb:
Wer billig kauft kauft zweimal.
Aber nur mit dem CE-Zeichen, also China Export.
Ergänzung ()

Jakes Brother schrieb:
Das der Adapter als "Chinaware" gewisse Unwägbarkeiten hat, klar, muss ich einpreisen.
Dann ist doch alles klar und braucht nicht weiter diskutiert werden.
Du hast verloren und jetzt trage die Konsequenzen wie ein richtiger Kerl.
 
Zuletzt bearbeitet:
Der vorgeschlagene Delock-Adapter, wäre der für mehr Watt spezifiziert? In den technischen Angaben dazu finde ich auch nichts, außer "12 Volt bei Bedarf" ohne Ampereangabe.

KnolleJupp schrieb:
Die CPU (Ryzen 5 5675U) hat 8 mal PCIe 3.0.
Und eine GTX 1050 Ti hat einen PCIe 3.0 x16 Anschluss.

Das heißt, im "besten" Fall läuft die Anbindung mit PCIe 3.0 x4, was natürlich nur viertel ist gegenüber dem was theoretisch ginge.

Hier komm ich noch nicht wirklich dahinter. Grob gepeilt sollte die 1050ti die doppelte Leistung der Vega 7 iGPU haben. Meine Scores liegen grob überschlagen gleich auf. ... bei einem Viertel der Leistung aufgrund von nur 4 Lanes PCIe 3.0 sollte damit die iGPU ungefähr das doppelte der dGPU bringen. somit wäre mein gebenchter Score der 1050ti eigentlich zu gut? Selbst wenn der Adapter PCIe 4.0 liefern sollte/könnte, wäre das für eine 3.0 Quelle (MB) bzw. Ziel (GPU) auch egal. Wo liegt mein Denkfehler?
 
Jakes Brother schrieb:
Der vorgeschlagene Delock-Adapter, wäre der für mehr Watt spezifiziert?
Laut Foto hat der auch nur eine 12 V Leitung. Also nein.

Im Idealfall verwendet man eine Grafikkarte die "nichts" aus dem PCIe Steckplatz zieht und "alles" direkt aus dem Netzteil. Welche sind das? Die Antwort darauf ist ein echtes Problem.
 
Diese konstruktion würde ich eher für eine Zusatzkarte mit geringen Strombedarf sehen -

ich möchte den Oculink Weg vorschlagen

oder das Set via Aliexpress

https://de.aliexpress.com/item/1005006490528770.html + Netzteil
und das ist auch "schöner"
https://de.aliexpress.com/item/1005007497482627.html
weil man das im Notebook verbuchsen könnte

Offtopic ...und ne TPU findet man dort auch nebenbei - wenn da nicht die Leidige Software währe

https://www.delock.de/produkt/31416/merkmale.html
 
Zuletzt bearbeitet:
Zurück
Oben