Test PCIe-Schnittstellen im Test: x16, x8, x4, x1 – wie viel ist nötig?

@Kreisverkehr
Es ist Quatsch, denn wenn sich eine Dual-GPU-Karte auch nur wieder in einen einzigen PCIe x16 reinteilen muss, hat man die gleiche Grütze wieder...

@Eisenfaust:
Die GTX590 trägt einen NV200 auf dem PCB und ist selbst im runtergetakteten Zustand zweier dann vergleichbarer Einzelkarten in einigen Szenarien langsamer ;)
 
Also teilweise sind es schon 5-10%, die man bei SLI verschenkt. Woanders wird über jedes Prozent bei neuen Treibern gesabbert - beim Umstieg auf Ivy wirds bei mir ein neues Board. Ich hab nix zu verschenken :)
 
Gut zu wissen, das man auch mit 16/4 Lanes keinen allzu großen Verlust hätte, falls CF irgendwann mal für mich relevant sein sollte.
 
Interessant waeren noch einige GPGPU Anwendungen wie nen Bitcoin Miner, Folding@home o.Ae. gewesen, da die afaik wesentlich mehr von der PCIE Performance Abhaengig sind.
 
guckydus schrieb:
@Eisenfaust

Hi,
es gibt doch nicht nur Grafikkarten, die erst mit einen x16 Port Höchstleistung bringen.

Ja, aber die findet man auf unseren Spielzeugbrettern eher weniger. Unsere Serverhardware hat allenhalben PCIe 2.0 8x SAS 2.0 RAID Controller. Nur die TESLA Karten haben dann volle 16x Lanes in Beschlag. Die Situation bleibt dann natürlich die gleiche.

Thion schrieb:
Interessant waeren noch einige GPGPU Anwendungen wie nen Bitcoin Miner, Folding@home o.Ae. gewesen, da die afaik wesentlich mehr von der PCIE Performance Abhaengig sind.

Ja, Danke für den Einwand, da stehe ich wenigstens nicht alleine.
 
RubyRhod schrieb:
Ich hoffe, dass mit solchen Artikeln auch die letzten "Lane-Trolle" inne halten und einsehen, dass 8 Lanes völlig ausreichen - egal, welche PCIe-Version man nutzten muss.

Ausreichend ja, Optimal NEIN !
Volle Lanes sind fast immer schneller und laut CB-Artikel hier immer vorzuziehen.
Bitte den Test lesen und nicht selber hinein interpretieren wollen. ;)

Ich Danke CB für diesen aktuellen Lanes-Test und hoffe somit, dass alle Antilane-Trolle endlich mal sehen, das es immer besser ist mehr Speed zu haben, wenn er verfügbar ist.

Natürlich ist dieser Test noch nicht ganz aussagekräftig, denn nutzt doch jedes Board 16x Lanes für eine Singel-Karte. Erst bei Crossfirenutzung oder anderen PCIe2.0-16x Gedöhns werden aus den 16 Lanes 2x8 Lanes.

Interessant wird es erst mit PCIe3.0 wo auch Verbesserungen vorgenommen wurden.
Aber das wird CB sicherlich nach reichen. :cool_alt:
 
Zuletzt bearbeitet:
@ Dr. Schiwago

Na, bei einer Dualkarte wird doch die Kommunikation zwischen die beiden Karten nicht gesplittet à la 2x 8x, sondern jeder Karte abwechselnd 16x Lanes zugeteilt werden? Zusätzlich die Kommunikation nicht übern den Slot, sondern den Brückenchip.

Falls hier ein Wurm drin sein sollte bzgl. Lanes bei Dual-Karten, ne gute, ausführliche Erklärung wär schön.
 
c0mp4ct schrieb:
Musste gerade echt lachen, erst gestern noch habe ich nach exakt solch einem Test gesucht (Bremst PCIe-x8 zwei Radeon HD 6990). Bin leider nicht wirklich fündig geworden und heute sehe ich den Test hier. Sehr cool :>

Es wurden aber keine 2xHD6990 hier getestet. ;) Nicht einmal die schnellste Singelkarte GTX580 hat hier den Weg in den Test gefunden.
Ergänzung ()

HighTech-Freak schrieb:
Ha! :lol: Sogar PCIe x4 reicht idR... Nix für ungut, aber 5% merkt man nicht. Dann sind statt 20fps 19fps, bzw. statt 60fps nur 57fps. Irrelevant.

Nachladeruckler, Szenenwechsel , Texturenauslagerungen sind in dem Test leider nicht groß zu erkennen.
Können aber einen Spielfluss negativ beeinflussen. ;)
 
@Eisenfaust:
Um Deine Ausführungen zu vereinfachen, reichen im Grunde die theoretischen Zahlen für Berechnungen/Transfers der CPU und der GPU sowie anderer per PCIe angebundener Komponenten aus.
Wenngleich die theoretischen Werte, unabhängig von der Anbindung der beiden oder mehreren Prozessoren, auch unter optimalsten Bedingungen sicherlich nicht hundertprozentig erreicht werden. Die Art der Daten/Berechnung spielt sicher auch eine Rolle.
Aber genau diese enorme Diskrepanz zwischen Theorie und der Praxis zeigt doch, daß die Anbindung vielleicht nicht mehr reicht. Im Hinblick auf die zufünftige Entwicklung der Leistungsfähigkeit der CPUs und GPUs ist eine Vergrößerung der Bandbreite eh notwendig.
Ich erinnere mich nur daran, wie die Aussicht war, als PCIe-2.0 eingeführt wurde und an die Leistungsfähigkeit heutiger Grafikkarten und SSDs sowie RAID-Konstellationen noch nicht zu denken war.
PCIe-3.0 ist ja nicht nur für Grafikkarten interessant, sondern bildet dann auch z.B. die Anbindungsgrundlage für Intel-CPUs an die dazugehörigen PCHs.
Die aktuellen Bandbreiten bei Sockel-1156/1155-CPUs zu dem entsprechendem PCH ist doch bereits bei Produkteinführung schlichtweg nicht mehr zeitgemäß gewesen, da SSDs und RAID-Setups die vom DMI zur Verfügung gestellte Bandbreite locker ausreizen können und damit ausgebremst werden (z.B. Videoschnitt, Bildbearbeitung, Verschlüsselung, RAID). Z.B. mit der Quicksync-Funktion der Sandy-Bridge-CPUs hat sich das Dilemma noch verschärft.
Insofern wird nicht für jeden die Vergrößerung der Bandbreite von genereller Bedeutung sein, aber im produktiven Umfeld zu positiven Ergebnissen führen können.
 
Hmm Crossfire und SLI wird zwar meist über eine Extra verbindung geregelt. Aber wie sieht das bei nem Mainboard mit Lucid hydra und gtx580+hd6979 im Verbund aus? Da geht ja alles über den PCI-E slot.

Btw. Ich begrüsse den 3. Standard! solange Intel weiterhin controler im CPU verbaut können MB hersteller nicht einfach so einen Zusatzchip verlöten der was bringt. Mit 3.0 lässt sich dan ein Quadfire mit 4x Lanes betreiben die nicht gross ausbremsen!
 
CaTFaN! schrieb:
Schön das der Mythos auch auf Compterbase mit aktuellen Grafikkarten endgültig beseitigt wurde ;)
Demnach sind 8x vollkommen ausreichend! Mit einer so nüchternen Bilanz hätte ich nicht gerechnet...

Die GTX580 fehlt im Test und auch die HD6990 sowie die GTX590 ! Und auch die Enthusisten-Großbildschirm-Fetischisten haben nur ein müdes Lächeln übrig. :p

Sobald der Grafikkarte der VRAM ausgeht ist der Spaß zuende und 16x dominiert.
Sieht man doch an den Testergebnissen im Artikel. Die HD6850 und GTX460 haben starke Einbrüche bei anspruchsvolleren 3D-Anwendungen.
 
Für mich persönlich ist der Test uninteressant.

Viel interessanter wäre mal bei den heutigen Karten ein Vergleich zwischen PCIe 1.1/PCIe 2.0 gewesen, da selbst heute immer noch einige Bretter mit PCIe 1.1 ausgeliefert werden, bzw. noch viele mit dieser Schnittstelle im Umlauf sind, und die Betreffenden sich fragen, ob es sich lohnt auf PCIe 2.0 umzusteigen.
 
@megaptera:

PCIe-1.1 hat die gleiche Bandbreite wie PCIe in der Revision 1.0. Insofern erübrigt sich ein Vergleich zwischen 1.1 und 2.0.
 
Interessanter Test!
Hab aber einen Fehler entdeckt: Die Tabelle auf Seite 2 hat überall den doppelten Wert!

Ein PCI-e 1.0 x1 hat nicht 500MB/s sondern 250MB/s, 2.0 hat 500MB/s und 3.0 dann 1GB/s.
siehe: http://de.wikipedia.org/wiki/PCI_Express

Viele Grüße

Severin
 
@Peppow:
Das ist kein Fehler.
PCIe-1.x hat eine Bandbreite von 250 MB/s pro Richtung pro Kanal. Da die Daten bidirektional übertragen werden verdoppelt sich der Wert.
Bei PCIe-2.0 ist der Grundwert 500 MB/s pro Richtung pro Kanal.
 
Hah - ich sag doch schon immer, dass 4x ausreicht...
Mein altes System hier läuft schon Jahre mit PCIE 4x - da das Board nich mehr hergibt :P

grüße
jo
 
MFelgate schrieb:
@megaptera:

PCIe-1.1 hat die gleiche Bandbreite wie PCIe in der Revision 1.0. Insofern erübrigt sich ein Vergleich zwischen 1.1 und 2.0.

Und? Darum geht es mir nicht. Lies nochmal meinen Beitrag genau durch.

Ich sehe keine schönen bunten Balken, bei denen in der Legende oder bei den Beschriftungen PCIe 1.0/1.1 steht.

Es geht um PCIe 2.0 vs. PCIe 1.1.
Ergänzung ()

slingshot schrieb:
kleine Anmerkung zu Seite 2 ganz oben:

der Untergang der AGP-Schnittstelle soll bestimmt besiegelt worden sein, nicht besiedelt

Nee, besudelt :D
 
Danke CB für diesen Artikel !
 
ein thunderbolt grafikadapter mit pcie 4x würde sich von der leistung her auch für aktuelle grakas durchaus lohnen!

hmm klingt gut :)
 
Zurück
Oben