News Spezifikation 1.0: Die Nachfrage nach PCIe 4.0 ist „beispiellos“

MegaManPlay schrieb:
was du evt. meinen könntest ist das fertige Bilder einfach weiter geleitet werden zb. die gpu berechnet 60 bilder und schickt die weiter... das wäre ja im bestenfall ein paar MB daten zu verarbeiten... so steigt MINIMAL die Latenz des inputes aber nicht weiter tragisch

Ja, die Grafikkarte berechnet das Bild, gibt es aber nicht direkt an den Bildschirm aus sondern lädt es in den Arbeitsspeicher. Der Bildschirm bzw. die Grafikausgänge sind dann an die iGPU angeschlossen, welche dann letztlich das Bild ausgibt. Hier wird es genauer beschrieben: https://www.notebookcheck.com/Nvidia-Optimus-im-Test.25430.0.html
 
@Dezor
Ja, die Grafikkarte berechnet das Bild, gibt es aber nicht direkt an den Bildschirm aus sondern lädt es in den Arbeitsspeicher
Und damit willst du mir jetzt was sagen? das ich recht hatte bezüglich 2.0 und 3.0? und du nur spass am zitieren hattest?:D
 
silentdragon95 schrieb:
Mir persönlich reicht jedenfalls die Leistung von SATA-SSDs völlig aus und ich kann mir nicht vorstellen, dass der Großteil der Consumer das anders sieht.
Der unbedingt höhere Transferraten braucht, der kann sich mit Kniffen wie RAID0 helfen (habe ich auch, skaliert wirklich fast 100%).

Es soll doch tatsächlich Consumer mit unterschiedlichem Nutzungsverhalten und somit auch unterschiedlichen Ansprüchen an die Harware geben...
Meine 4 PCIe-SSDs im RAID 0 skalieren übrigens auch fast 100%.

Dezor schrieb:
Die Chipsatzanbindung ist ungefähr so schnell wie 4 Lanes nach PCIe 3.0 Standard. Der Chipsatz stellt zwar 24 Lanes zur Verfügung, aber die insgesamt mögliche Datenrate ist durch die Anbindung zwischen Chipsatz und CPU limitiert.

CB-Redakteure sind immer voll des Lobes, daß Intel-Chipsätze zusätzlich 24 Lanes zur Verfügung stellen. Da denkt man sich halt was dazu... :freaky:

textract schrieb:
Für Endkunden ist sowas aktuell völlig uninteressant.
Die Notwendigkeit für PCI-E 4.0 besteht im Enterprise-Umfeld.

Nein! Siehe oben: Die Anbindung des Chipsatzes!
 
Zuletzt bearbeitet von einem Moderator:
@MegaManPlay: Du hast geschrieben:

MegaManPlay schrieb:
Auf keinen Fall... Das ist technisch nicht möglich. Ob laptop oder Computer die Technik dahinter ist immer die selbe

Und das stimmt so nicht. Optimus funktioniert in der Praxis (zumindest meistens) sehr gut. Es ist also offensichtlich technisch möglich. Und mir ist kein PC mit Desktop-Komponenten bekannt, bei dem die dGPU das Bild berechnet und die iGPU das Bild ausgibt, auch wenn das theoretisch mit DirectX 12 möglich sein sollte. In dem Punkt unterscheidet sich die Technik zwischen Notebook und Desktop.
 
smalM schrieb:
Es soll doch tatsächlich Consumer mit unterschiedlichem Nutzungsverhalten und somit auch unterschiedlichen Ansprüchen an die Harware geben...
Meine 4 PCIe-SSDs im RAID 0 skalieren übrigens auch fast 100%.

Ich weiß jetzt natürlich nicht was du mit deinem Rechner machst, aber bist du sicher, dass das dann nicht schon in den professionellen Bereich geht?

Natürlich gibt es Anwendungen, die fast alles rechtfertigen. Aber der durchschnittliche Nutzer, der hauptsächlich nur Spiele zockt und höchstens ab und zu mal ein Urlaubsvideo editiert wird keinen nennenswerten Vorteil von NVME SSDs haben, geschweige denn 4 davon.

Ich meine, ich hätte die natürlich auch gerne, bei unbegrenztem Budget, aber in der Praxis ist das eben immer begrenzt und da haben dann andere Komponenten deutlich höhere Priorität weil höheren Nutzen.
 
@dezor

richtig hier ging es um die datenbandbreite der zu verarbeitenden daten. die kannst du nicht über die bandbreite durch drücken.
klar das reine bilder die schon verarbeitet wurden funktionieren

sind ja 2 paar schuhe
 
@Dezor und @DjangOC: Zum Thema Welche Anbindung braucht man für eine Grafikkarte, da gebe ich Euch Recht, dass selbst mit PCIe 2.0 x8 man eine Grafikkarte in der Performance kaum ausbremst. Interessant wird es bei Multi-GPU, wenn die Karten viele Daten austauschen bzw. synchronisieren müssen. Da hat sich gezeigt, dass bei hohen Auflösungen (4k) die Performance gerne mal um über 25% einbrechen kann, nur weil nicht PCIe 3.0 x16 für beide Grafikkarten verwendet wird.
 
Vor allem könnte man mit PCIe5.0 Grafikkarten auch mit 4 Lanes anbinden anstatt mit 16. Sowas lässt sich dann zum Beispiel auch besser als externe Lösung einsetzen oder in HTPC, ITX Mainboards usw.
 
Ich würde ja fast drauf tippen das im Desktop-Bereich PCIe4.0 übersprungen wird, wenn zeitnah der PCIe5.0 Standard verabschiedet wird.
 
@xexex
Vor allem könnte man mit PCIe5.0 Grafikkarten auch mit 4 Lanes anbinden anstatt mit 16. Sowas lässt sich dann zum Beispiel auch besser als externe Lösung einsetzen oder in HTPC, ITX Mainboards usw.

schon jetzt realisierbar und auch machbar....
 
Der Nachbar schrieb:
PCIe ist überaltert und unbrauchbar für zukünftige Anforderungen asynchroner Datenübertragungen und den Bandbreiten selbst für KI Verarbeitungen und Echtzeitsysteme.
...
Die SoC Entwicklung ist letzlich schon heute auf dem Weg dedizierte Karten weiter zu reduzieren, was man bei ARM SoC Entwicklungen sieht, damit der Nutzer seine 8mm Glassschaden kaufen kann. Wenn man in der Lage ist auf einen Chipträger CPU+GPU+RAM+I/O über sehr kurze Anbindungen und damit geringe Latenzen direkt anzubinden, braucht es kein langsames PCIe.
Ja sowas aber auch!!1 Schon mal durch den Kopf gehen lassen, wofür das P in PCIe steht? Du könntest PCIe ebenso ankreiden, dass es kein geschnittenes Brot nach Hause liefert.
 
@Faust2011:

Hier https://www.pugetsystems.com/labs/articles/Titan-X-Performance-PCI-E-3-0-x8-vs-x16-851/ ist SLI mit x8/x8 zwar in einem Test 30 % langsamer, aber sonst ist es meistens gleich schnell oder nur einen Tick langsamer. Allerdings sind hier auch nur wenige Benchmarks durchgeführt worden. Teilweise ist dort x8 auch ein Stück schneller als x16, was ich nicht wirklich nachvollziehen kann.

Die Nvidia-Karten kommunizieren untereinander direkt über die SLI-Brücken, die bei Pascal soweit ich weiß mehr Bandbreite als früher haben. Bei AMD kommunizieren die aktuellen Karten meines Wissens nach über PCIe, dort dürfte der Unterschied deutlicher sein.
 
Aldaric87 schrieb:
Ich würde ja fast drauf tippen das im Desktop-Bereich PCIe4.0 übersprungen wird, wenn zeitnah der PCIe5.0 Standard verabschiedet wird.

Du meinst die Hersteller überspringen die Möglichkeit, die Kunden doppelt zur Kasse bitten zu können? Nie im Leben!

Vor allem kann man jetzt schon locker davon ausgehen, dass PCIe5.0 noch 1-2 mal verschoben wird. Angekündigt wurde PCIe4.0 2011.
On November 29, 2011, PCI-SIG preliminarily announced PCI Express 4.0
https://en.wikipedia.org/wiki/PCI_Express#PCI_Express_4.0
Davon ausgehend, sehen wird PCIe5.0 vermutlich eher 2022 wenn nicht später.
In June 2017, PCI-SIG preliminarily announced the PCI Express 5.0 specification.
 
Faust2011 schrieb:
@Dezor und @DjangOC: Zum Thema Welche Anbindung braucht man für eine Grafikkarte, da gebe ich Euch Recht, dass selbst mit PCIe 2.0 x8 man eine Grafikkarte in der Performance kaum ausbremst. Interessant wird es bei Multi-GPU, wenn die Karten viele Daten austauschen bzw. synchronisieren müssen. Da hat sich gezeigt, dass bei hohen Auflösungen (4k) die Performance gerne mal um über 25% einbrechen kann, nur weil nicht PCIe 3.0 x16 für beide Grafikkarten verwendet wird.

Also ich hab ja selber ne GTX 590, die hab ich auf x4 runter gekürzt, da ich auf dem einen Mobo (Serverhardware) nur noch nen x4 Slot frei hatte, und sonst nur 2 590er hätte installieren können, anstelle von 3. Die läuft prima.
Aber ich denke mal, dass dies eben hier bei GPGPU Tasks gar nicht zwangsläufig zu diesem Problem kommen kann, da ja komplett andere Aufgabe.
 
Es kommt halt immer auf die Anwendung an. Mining (zumindest von Ethereum) hat auch keine Anforderungen an die Bandbreite. Die Mining-Boards haben ja auch zahlreiche x1-Anschlüsse für bis zu 16 Grafikkarten.
 
Sind die 32 GHz für PCIe 5.0 in der Übersicht eine reale Taktfrequenz? Ist ja schon krass.

Btw. sind die Consumer-PCs doch sowieso inzwischen mehr ein technologisches "Abfallprodukt". Eine noch existierende Technik zwischen Smartphone und Server ... :D
 
Sogar für mehr als 100, wenn man die extremen Spezialbaords nimmt.
Andererseits lohnt das gar nicht mehr ;)
 
Wenn AMD und Intel mit denken, kommen die nächsten CPU´s gleich mit Pcie 5.0, weil bis es ordentliche 4.0 Geräte gibt wird es noch dauern.
 
Auch wenn die höhere Bandbreite nicht genutzt wird sind doch die niedrigeren Latenzen bestimmt auch von Bedeutung bei der Schwuppdizität, obwohl natürlich keine Angabe zum Vergleich mit PCIe3.0 gemacht wurde.
 
Zurück
Oben