Grafikkarten Bench x8 vs x16 Lanes

Crys

Lt. Commander
Registriert
Apr. 2009
Beiträge
1.649
Hallo miteinander,

ich habe mich auf ein Experiment eingelassen und in mein altes System eine PCIe NVMe SSD installiert, direkt im zweiten PCIe (Version 3) x16 Slot.
Wohl im Wissen, dass wenn bei mir beide PCIe x16 belegt sind, beide auf 8x herunterfahren.
Installiert ist u. A. eine GTX 1070 und im anderen PCIe ein PCIe-x4 auf m.2 Adapter, mit einer Evo 970 Pro.
Alles läuft toll: Die Evo bringt volle Leistung ... und die Grafikkarte auch ... was mich verwundert.

Ich habe den Time Spy Test in 3D Mark (Steam Demo) gemacht und FurMark.
Im Unterschied von installiertem PCIe-Adapter (und damit x8 Grafikkarte) zu vollen x16 Lanes sind es nur 0,01-4% Minderleistung in beiden Test, bei je 10 Durchläufen. Es wird auch Softwareseitig erkannt, dass nur x8 Lanes der Grafikkarte zur Verfügung stehen.

Gibt es einen Test, der speziell den Datendurchsatz bei der installierten Grafikkarte testet?

Hättet ihr auch mit so wenig Verlust (bei halber Schnittstelle) gerechnet?
 
Crys schrieb:
Hättet ihr auch mit so wenig Verlust (bei halber Schnittstelle) gerechnet?
Ja, zwischen x8 und x16 gibt's kaum Unterschiede. Das ist seit Jahren bekannt.
Außer du übertreibst es und steckst eine RTX 3090 in einen PCIe 3.0 x8 Slot, da könnte es wieder anders aussehen. Aber bei einer 1070 und 3.0 merkste das nicht.
 
  • Gefällt mir
Reaktionen: benyo84 und Crys
Crys schrieb:
Hättet ihr auch mit so wenig Verlust (bei halber Schnittstelle) gerechnet?

das wurde bereits x mal getestet und auch so bestätigt ;)
 
Crys schrieb:
Gibt es einen Test, der speziell den Datendurchsatz bei der installierten Grafikkarte testet?

Ich würde ja mit meinen Games testen. Interessant wird das ganze ja erst, wenn Du z.b. knapp an VRAM bist und das Game wie verrückt Daten über die Schnittstelle laufen lässt.

Ich meine Du hast 3DMark, das hat auch ein Bandbreiten-Test, wenn Du meinst, Du möchtest das sehen^^

Ich hab auf User-Anfrage mal ein größeres Stück der Bandbreite geklaut^^

 
  • Gefällt mir
Reaktionen: Crys
Crys schrieb:
Gibt es einen Test, der speziell den Datendurchsatz bei der installierten Grafikkarte testet?
Ja, es gibt im 3dmark explizit einen Test für PCIe Performance. Wobei das natürlich keine Rückschlüsse auf die Real World Performance zulässt und auch je nach Spiel stark variieren kann.
 
  • Gefällt mir
Reaktionen: Crys
Crys schrieb:
Ich habe den Time Spy Test in 3D Mark (Steam Demo) gemacht und FurMark.
Im Unterschied von installiertem PCIe-Adapter (und damit x8 Grafikkarte) zu vollen x16 Lanes sind es nur 0,01-4% Minderleistung in beiden Test, bei je 10 Durchläufen
Die sind auch beide weniger Bandbreiten limitiert. Also wie vorgeschlagen lieber ein echtes Spiel.
 
  • Gefällt mir
Reaktionen: Crys
Naja.. die nvme nutzt eh max pcie3 x4., also völlig egal, ob der Slot nur max x8 anbietet.
Und die 1070 reizt die Bandbreite nicht weit genug aus, als daß Du da bei pcie3x8 was merken würdest. Kannste ja mal in Deinem Sandy Bridge System probieren mit pcie2 x8..
 
  • Gefällt mir
Reaktionen: Crys
Crys schrieb:
ich habe mich auf ein Experiment eingelassen

Gibt diverse Tests dazu, bei einer 1070 sollte das ziemlich egal sein.
Wird sicherlich das vorzeige Game geben wo man einen Unterschied bemerkt aber im großen und Ganzen dürfte das bei vermutlich 0-3% maximal liegen.

Bei meiner 2080Ti weiß ich dass es da Tests gibt, wird es sicherlich auch für die 1080(Ti) etc. geben.
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/3.html
 
  • Gefällt mir
Reaktionen: Crys
Kann ja auch jeder für sich selbst testen der möchte, indem er im Bios seinen PCIe-Slot von Gen4 auf Gen3 auf Gen2 schaltet. Das halbiert jedesmal die Bandbreite.
Brauch man gar nicht groß rumeiern, ist eine Sache von wenigen Sekunden das für sich selbst zu testen.
 
  • Gefällt mir
Reaktionen: Crys, PHuV und Tatortreiniger
Wie gesagt, hängt von Deinen Games ab und welche Settings Du anlegst, gibt bestimmt welche die reagieren empfindlicher als andere. Mir ist allerdings dabei auch noch nie was aufgefallen.
 
  • Gefällt mir
Reaktionen: Drewkev
Vielen lieben Dank euch allen! Mit so vielen Kommentaren habe ich nicht gerechnet.

cvzone schrieb:
Ja, es gibt im 3dmark explizit einen Test für PCIe Performance.
Das habe ich gesucht. Leider nicht in der Demo vorhanden.

Stormfirebird schrieb:
Die sind auch beide weniger Bandbreiten limitiert. Also wie vorgeschlagen lieber ein echtes Spiel.
Das ist wahr. Meine Test spiele waren GTA5 und Anno7 auf (fast) alles max. Konnte Subjektiv keinen Unterschied merken, aber eben nur subjektiv ...

Tatortreiniger schrieb:
Kannste ja mal in Deinem Sandy Bridge System probieren mit pcie2 x8..
Das ist mein aktuelles System, damit getestet und das hat die besagten PCIe 3gen ;)

Drewkev schrieb:
Bei welcher Stelle?
Alle paar Sekunden im linken Bild (x16 4gen), es wird für einen Sekunden-Bruchteil immer wieder kurz grün.


Aber dann passt ja alles in allem und ich das System in dieser Konfiguration mit guten Gewissen weiternutzen 🤓
 
Ich habe hier ein Benchmark einer 3080 mit PCIE 4.0 mit 16 Lanes und PCIe 1.0 mit 16 Lanes (was von der geschwindigkeit in etwa PCIE 3.0 4x entspricht)
Ging um eine 3080 wo das PCB leider beschädigt wurde weil eine schraube von der Backplate nicht abgeschraubt wurde beim versuch diese runter zu hebeln - und damit gabs ein par Risse im PCB...
Die Traces konnte ich extern wiederherstellen, aber da die originalen in den inneren Layern lang gingen, konnte ich diese nicht auftrennen, dadurch gibts offene enden was nicht gut ist (Leitungsübersprechen, Interferenzen) und damit läuft die schöne 3080 nur noch mit PCIe 1.0 Generation, da die BusFrequenz bereits bei 2.0 zu hoch ist das sie nicht mehr stabil lief...naja besser als wegwerfen
IMG_20210811_220913.jpg
Kurzerhand den Schutzlack der VIAs (Durchkontaktierungen) freigekratzt und die passenden gesucht von den entsprechenden Lanes am Slot und mit verdrilltem Lackdraht die neue Verbindung geschaffen)
IMG_20210812_204301.jpg IMG_20210812_204241.jpg WIN_20210812_22_11_12_Pro.jpg
IMG_20210814_131309.jpg

hier den Benchmark mit der reparierten mit PCIe 1.0 generation mit 16 Lanes
3080 mit PCIe 1.1.JPG


und als vergleich meine damalige 3080 mit voller PCIe 4.0 16x Bandbreite
meine 3080 mit PCIe4.0.JPG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fgordon, cvzone und Crys
Crys schrieb:
Das [Sandy Bridge] ist mein aktuelles System, damit getestet und das hat die besagten PCIe 3gen ;)
Sandy Bridge kann kein gen3. Wenn Du auf dem Board 'ne Ivy Bridge hättest, dann geht gen3. Ist CPU-abhängig.
 
Crys schrieb:
Dann lügt MSI [1] und GPU-Z/CPU-Z
Das stimmt schon. Sandy Bridge kann auch laut Intel ARK nur 2.0

Die 3.0 beziehen sich entweder auf eine verbaute Ivy Bridge CPU und/oder auf die anderen Lanes vom Chipsatz.

Da der erste x16 normalerweise immer direkt an der CPU hängt, dürfte hier max. PCIe 2.0 drin sein.
 
  • Gefällt mir
Reaktionen: Crys
Zurück
Oben