AMD R9 280X & Geforce GTX 780 welche PCI E Gen. ?

Stevo_55

Cadet 2nd Year
Registriert
Jan. 2023
Beiträge
27
Hallo ihr lieben!
Ich hoffe ich bin bei der Themaerstellung hier richtig gelandet, da ich fast identische Fragen habe aber zu unterschiedlichen Karten.

Im Anhang seht ihr die CPU-Z Ausschnitte, dennoch frage ich jetzt Explizit:

1. MB: Gigabyte Z77-DS3H / Intel i7 3770 / 8gb ddr3 / AMD Radeon R9 280X von Gigabyte:
-> Wieso wird unten bei CPU-Z nur PCI-E 3.0 x8 angezeigt, obwohl max. supported x16 steht? Liegt das an der Karte selber? Bevor ich den Treiber für die heruntergeladen habe stand dort bei CPU-Z "HD 7970". Ich weiß, wenn ich mich nicht irren sollte, dass die R9 Karten anscheinend gebrandete HD Karten sein sollen? Hat Hardwaredealz in manchen Videos erwähnt. Muss ich mir jetzt sorgen machen, dass die Karte einen weghaben könnte? Hab auch gelesen, dass 3.0 x8 so schnell sein soll wie 2.0 x16 und weil die Karte ja schon fast 10 Jahre auf dem Buckel hat sie einfach nicht mehr unterstützt? Oben steht ja auch anscheinend, dass das Board 3.0 x16 machen könnte oder?

2. MB: ASRock Z68 Extreme7 Gen3 / Intel i7 3770S / 8gb ddr3 / Nvidia Geforce GTX 780 (kein ti) von EVGA:
-> Hier steht unten PCI-E 2.0 x16, obwohl oben steht PCI-E 3.0, welches anscheinend das Board auch unterstützen soll. Ich frage mich jetzt, weshalb hier nicht auch 3.0 x8 steht, sondern volle 2.0 x16. Die Karte ist ja aus dem selben Jahr wie die R9 280X, wenn ich es richtig nachgelesen habe.

Ich weiß das sind jetzt spezielle Fragen, aber da ich die PCs gerne verkaufen möchte, muss ich mir erstmal sicher sein, dass der Käufer auch normal Spiele spielen kann, ohne FPS Einbußen erleiden zu müssen.
Und ja es sind auf beiden Systemen die neuesten Treiber der jeweiligen Hersteller installiert. Bios Versionen auch, wobei das Gigabyte Board nur noch BETA Versionen erhalten kann, die ich ungern aufspielen möchte.
 

Anhänge

  • amd.jpg
    amd.jpg
    182,6 KB · Aufrufe: 194
  • gtx.jpg
    gtx.jpg
    156,6 KB · Aufrufe: 197
Stevo_55 schrieb:
R9 Karten anscheinend gebrandete HD Karten sein sollen?
Die R9 280X ist ne HD7970
Die R9 290er Series hat neue Chips (Hawaii).
Beim "ASRock Z68 Extreme7 Gen3" könnte es am Chipsatz liegen,
dass kein PCIe GEN3 geht.
Alle genannten Karten sind PCIe GEN3 (x16).
 
  • Gefällt mir
Reaktionen: Stevo_55 und AB´solut SiD
Okay habe gerade Z77 und Z68 ein wenig gegoogelt und gelesen, dass beide wohl nur PCI-E 2.0 können. Bedeutet, dass jetzt, dass der neuere Z77 deshalb 3.0 x8 anzeigt und der ältere Z68 2.0x16? Und ist der Unterschied jetzt enorm oder nicht?

Edit: Hab noch weitere Beiträge gefunden, was die Z und H Chipsätze bedeuten etc. Also kann es einfach daran liegen, dass ich nicht alle Features freischalten kann, da das Mainboard und die CPU nicht so ganz harmonieren?
 
Zuletzt bearbeitet:
Z77 unterstützt von Haus aus Ivy Bridge CPUs (i5/i7 3xxx) und können
somit PCIe GEN3. PCIe GEN3 gibt es seit Ivy Bridge CPUs bei Intel.
Z.B. die Vorgänger: Sandy Bridge CPU (i5/i7 2xxx) können nur PCIe 2.0.
Also mit dem "Gigabyte Z77-DS3H / Intel i7 3770 /" in deinem Fall,
solltest du PCIe 3.0 haben und natürlich auch auch x16.
Ergänzung ()

Auf dem Z68 Extreme7 Gen3 sollte mit Ivy Bridge CPU auch PCIe 3.0 gehen,
evtl. mal BIOS Update machen.
Du hast ja zwei Ivy Bridge CPUs (i7 3770 u. i7 3770S)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stevo_55
Okay jetzt verstehe ich! Was könnte dann der Grund dafür sein, dass dann nur 3.0 x8 angezeigt werden? Muss ich es im Bios aktivieren? Oder einen Intel Chiptreiber installieren? Oder das Bios neu aufspielen? Oder ist die Karte einfach an dem Ende ihrer Lebenszeit angelangt?
 
Einer der PCIe-x16-Ports (PCIE2) bietet Unterstützung für PCI-Express-3.0, wofür aber eine (noch nicht verfügbare) Ivy-Bridge-CPU benötigt wird.
"ASRock Z68 Extreme7 Gen3 "
Ergänzung ()

Stevo_55 schrieb:
Was könnte dann der Grund dafür sein, dass dann nur 3.0 x8 angezeigt werden?
Mal sehen später woran das liegen mag, kommen evtl.. auch noch Beiträge.
Ergänzung ()

Hier mal ein Beispiel, Z77 mit Ivy Bridge CPU (im Idle, 2.5 GT/s):
0.PNG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Stevo_55
Ich muss zugeben, dass vorher auf dem ASRock Z68 Board ein i5 2500k montiert war, aber hab nur gelesen, dass das Board auch die 3. Generation von intel supportet. Somit war dann der Blitzgedanke "der i7 3770 performt ja mit Serienleistung sicherlich besser als der i5 2500k (ohne OC)". Bitte nicht urteilen ich muss noch vieles dazu lernen und dazu zählen solche Momente wie jetzt dazu :D

Aber wenn es noch keinen passenden IVY Bridge CPU gibt, dann wird nach fast 10 Jahren auch keiner mehr erscheinen oder?

Das Gigabyte Board hatte schon von Anfang an den i7 3770 und anfangs anscheinend eine GTX 670 (Windoforce) montiert. Ob der Vorbesitzer auch mit 3.0 x8 gespielt hat? Das kann ich leider nicht sagen. Nehmen wir an mit einer anderen Karte hätte ich auf dem Board 3.0x16 dann kann ich davon ausgehen, dass es an der R9 280X liegt oder?
 
Stevo_55 schrieb:
Aber wenn es noch keinen passenden IVY Bridge CPU gibt, dann wird nach fast 10 Jahren auch keiner mehr erscheinen oder?
Der verlinkte Artikel ist vom 09.12.2011.
Ergänzung ()

Stevo_55 schrieb:
aber hab nur gelesen, dass das Board auch die 3. Generation von intel supportet.
Mit entsprechendem BIOS Update.
Von "Haus aus" erst die Intel 7er Series Mainboards (z.B. Z77).
 
  • Gefällt mir
Reaktionen: Stevo_55
Das lässt mir jetzt irgendwie keine Ruhe... Ich weiß, dass ich mal auf einem Asus Board einstellen konnte welche PCI E Generation verbaut ist und ich meine auch, dass ich aussuchen konnte welche Geschwindigkeit... halt irgendwie so etwas. Habe es nur mal grob überflogen.
Aber wenn ich mir deinen Bildausschnitt ansehe würde ich behaupten bei mir sollte es dann genauso sein.
 
Im BIOS gibt es Optionen um die PCIe GEN einzustellen, steht in der Regel auf Auto.
Schau mal im Bios, die Bezeichnung sollte bei ASRock:
"PCIe Link Speed" sein.
 
  • Gefällt mir
Reaktionen: Stevo_55
Ja das Gigabyte Board hatte die PGE Option auf "Auto". Sollte ich das umstellen auf "Gen 3"?

Bei dem Asrock schaue ich jetzt mal nach.


Edit: Ok keine Ahnung ich weiß nicht wonach ich suchen soll oder wo ich diese Option finde.. :(
Aber dennoch stellt sich mir die Frage, ob jetzt 3.0 x8 genauso schnell ist wie 2.0x16? Wenn ja, dann wäre das ja eig nicht schlimm, da die Rechner sowieso nur E-Sport Titel abspielen sollen.
 
Zuletzt bearbeitet:
Ja 3.0 x8 ist genau so schnell wie 2.0 x16.
 
  • Gefällt mir
Reaktionen: Stevo_55
Ja habe jetzt mal die Karte ausgesteckt und nochmal mit mehr Druck eingesetzt, dachte das wäre eventuell noch ein Kontaktproblem? Aber blieb unverändert :(
 
Wird noch weitere Hardware verwendet die in einem PCIe Slot steckt?
 
Nein, nur die Grafikkarte, sonst sind alle pcie Anschlüsse frei. Muss ich vllt die onboard Karte deaktivieren oder ? Sorry für die Fragen, aber das beißt sich voll fest 😂
 
Testest du das während die Grafikkarte belastet wird (bspw. im Spiel) oder im Leerlauf? Es soll nämlich üblich sein, dass Grafikkarten im Idle von bspw. PCIe 4.0 auf eine niedrigere Version gehen und/oder Lanes abschalten, weil dies effizienter ist (siehe z.B. hier). Ich zitiere dazu auch mal aus dem Test der Arc Karte bei Golem:

"Hier funktionieren offenbar Stromsparmodi nicht. Diese reduzieren eigentlich zu jeder Zeit Takt und Spannungen, so dass niemals unnötig viel Strom fließt. Auch ist es üblich, Teilbereiche von Chips zu deaktivieren und PCIe-Lanes abzuschalten, wenn die volle Bandbreite nicht benötigt wird."
 
Zuletzt bearbeitet:
Lade mal GPU-Z runter und mache den PCI-Express Render Test (Fragezeichen hinter Bus Interface)
Dann sollte sich bei der Radeon der PCIe 3.0 x8 in x16 ändern. War afaik ein Sparmechanismus.
 
  • Gefällt mir
Reaktionen: Cat Toaster und Zwirbelkatz
Perdakles schrieb:
dass Grafikkarten im Idle von bspw. PCIe 4.0 auf eine niedrigere Version gehen und/oder Lanes abschalten,

PCIe Version runter ja ... Lanes weg nein ...

1675410562747.png
 
So da bin ich wieder nach der Informatik Klausur :D

Also kann ich noch den GPU-Z Test machen und wenn sich die Lanes dann nicht auf x16 verändern könnte die Grafikkarte also einen Defekt aufweisen? Ich könnte auch natürlich eben eine andere Karte einbauen und dann schauen, ob die sofort auf 3.0x16 erkannt wird.

Gestern hatte ich einen PC da fiel mir auf, dass da nur x2 stand … naja die Karte lag wohl mal irgendwo im Regen oder im feuchten Keller bei der Ansammlung an Grünspan.
 
Zurück
Oben