Frage zur Busgeschwindigkeit PCIe 3.0 vs 4.0

neuhier08

Lt. Commander
Registriert
Sep. 2008
Beiträge
1.672
Hallo liebes CB-Team,
ich habe zwei kurze Fragen:

1. Nenne uns bitte deine aktuelle Hardware:
(Bitte tatsächlich hier auflisten und nicht auf Signatur verweisen, da diese von einigen nicht gesehen wird und Hardware sich ändert)
  • Prozessor (CPU): i7-5930k
  • Arbeitsspeicher (RAM): 32 GB DDR4 3000
  • Mainboard: x99 Deluxe
  • Netzteil: Seasonic Prime Platinum 750W
  • Gehäuse: -
  • Grafikkarte: RX5700XT Nitro
  • HDD / SSD: P5 Plus

2. Beschreibe dein Problem. Je genauer und besser du dein Problem beschreibst, desto besser kann dir geholfen werden (zusätzliche Bilder könnten z. B. hilfreich sein):
Der folgende CPU-Z Screenshot zeigt beim Bus Interface "PCIe x16 4.0 @x8 3.0".

PCIe 3.0 ist ok, weil das Board nur 3.0 kann. Was ich nicht verstehe, ist der Speed von x8? Ich hätte hier x16 erwartet.

Welchen Effekt hat PCIe 3.0 x16 vs PCIe 3.0 x8 in der Praxis fürs Zocken?
 

Anhänge

  • Image 1071.png
    Image 1071.png
    43,3 KB · Aufrufe: 292
  • Image 1070.png
    Image 1070.png
    320,6 KB · Aufrufe: 299
Klick mal auf das ? neben Deinem roten Kasten.

Und sonst. Ob x8 oder x16. Das spielt keine nennenswerte Rolle.
 
  • Gefällt mir
Reaktionen: neuhier08
Zur Einordnung ist vielleicht dieser Abschnitt vom Computerbase-Test der Radeon 6500 XT mit Hintergründen interessant: Link Da geht es um PCIe 3 x4, du hast immernoch x8 (also doppelt so viel Bandbreite) anliegen und doppelt so viel VRAM. In der Praxis und mit den Settings, die du mit der Karte vermutlich nutzt, dürften eventuelle Performance-Verluste für dich vernachlässigbar sein.

Das heißt natürlich nicht, dass du nicht nach der Ursache fragen/suchen darfst, mehr ist fast immer nett. :)
 
  • Gefällt mir
Reaktionen: neuhier08
Hast du das mal unter Last geprüft? Die 16 Lanes werden nur genutzt, wenn die GPU diese auch braucht.
 
  • Gefällt mir
Reaktionen: neuhier08 und Nitschi66
wrglsgrft schrieb:
Die 16 Lanes werden nur genutzt, wenn die GPU diese auch braucht
Nicht OP, aber heute habe ich etwas gelernt. Dankeschön!

Edit: Siehe Antwort #6, weiter unten. Trotzdem allseits schönen Samstag :)
 
Zuletzt bearbeitet:
wrglsgrft schrieb:
Die 16 Lanes werden nur genutzt, wenn die GPU diese auch braucht.
Nein die Lanes bleiben, wenn dann geht die PCIe Version auf 1.1 runter. Beispiel:
Unbenannt.png

@neuhier08
In welchem Slot steckt die Grafikkarte?
 
  • Gefällt mir
Reaktionen: neuhier08, PHuV, cvzone und eine weitere Person
Entweder steckt die Karte nicht richtig, sie ist in einem x16 Slot welcher elektrisch nur x8 kann oder im zweiten x16 Slot steckt etwas und klaut die Lanes vom ersten x16 Slots. (UEFI auf x8/x8 gestellt)

PCIe 3.0 liegt wegen des Boards/CPU an, das ist ja soweit klar.

Die Lanes reduzieren sich nie beim Stromsparen, weil die physisch sind. Nur die Protokollversion (dann z.B. statt 4.0 im idle 1.1)
Ergänzung ()

neuhier08 schrieb:
Welchen Effekt hat PCIe 3.0 x16 vs PCIe 3.0 x8 in der Praxis fürs Zocken?
Keinen großen, aber es können ein paar FPS sein. Wenn man das absichtlich so macht, kann man damit leben. Aber wenn das bei Dir eher ungewollt ist, dann würde ich schon klären wollen warum.
 
  • Gefällt mir
Reaktionen: neuhier08
@cvzone das 2. Bild anschauen... Das ist kein Consumer Board und die CPU 40 PCIe Lanes.

@maxi_rodriges und was zeigt gpu-Z an nach klicken vom Fragezeichen?
 
Dann frag Mal den gpu-Z Autor warum das falsch ist...

Aber halt es wird ja nur gesagt x16 wäre möglich...die Grafikkarte fordert aber nur x8 an.
 
xxMuahdibxx schrieb:
das 2. Bild anschauen... Das ist kein Consumer Board und die CPU 40 PCIe Lanes.
Ändert ja trotzdem nichts an der Aussage, muss ja eines dieser drei Probleme sein. Steckt nicht richtig, Slot kann es nicht oder falsch eingestellt.

40 Lanes sind zwar viel, aber nicht genug für alle vorh. Slots. ;)
 
maxi_rodriges schrieb:
Hat OP nicht eine RX5700XT Nitro?
Oder ich bin gerade blind und sehe den Kontext deines Beitrags nicht, das ist auch immer möglich...
 
Das einzige was logisch dabei ist... Steckt nicht richtig..

Ansonsten fehlen Infos ob die anderen x16 Slots genutzt werden.

@Looniversity du siehst den Kontext nicht.

Die 3050 hat nur x8 real also welche Info zum Bus Interface ist richtig... Da ja CPU-Z sagt x16.

Also zeigt es die Möglichkeit der Grafikkarte gar nicht korrekt an.
 
  • Gefällt mir
Reaktionen: neuhier08
Looniversity schrieb:
Hat OP nicht eine RX5700XT Nitro?
Oder ich bin gerade blind und sehe den Kontext deines Beitrags nicht, das ist auch immer möglich...
Ich habe es nur bei mir nachgeschaut, hat mit TE nichts zu tun.
 
  • Gefällt mir
Reaktionen: Looniversity
Wie wäre es mit Verschwörungstheorien Nvidia hat das mit Absicht gemacht.

Um drölfzig unterschiedliche GPUs zu verkaufen.
 
xxMuahdibxx schrieb:
Das einzige was logisch dabei ist... Steckt nicht richtig..
Wenn ich das richtig lese, dann unterstützen die Slots x16_2, _4, _5 immer nur x8 elektrisch. Sonst wären bei einer Single VGA Konfiguration ja alle Slots geeignet, sind aber nur x16_1 und _3.

Zur der 3050: die wird ganz normal x16 können und Nvidia hat die Lanes sicher auf Hardwareebene einfach auf dem Weg runter zum Slots gekappt, damit die absichtlich "langsamer" ist. Daher meldet die Karte x16, weil sie es vermutlich eigentlich könnte.
 
  • Gefällt mir
Reaktionen: neuhier08
Zurück
Oben