News Entwicklerkonferenz: So steht es um PCIe 7.0 und die optischen Verbindungen

ETI1120 schrieb:
Was verstehst Du unter ausreizen, dass man Produkte bekommt die die Datenraten ausnützen, oder dass die Produkte mit diesen Datenraten einen für die Anwender einen spürbaren Effekt haben.
Na, letzteres. Dass sich irgend eine SSD basteln lässt, die tatsächlich um die 30 GB/sec liefern kann bezweifel ich nicht. Die allermeisten Privatkunden hätten davon aber nix, sehr wohl aber etwas davon, wenn die PCIe 5.0-Geräte allesamt ausgereifter wären.
ETI1120 schrieb:
Wenn es um etwas neues geht das einen veralteten Standard ablösen soll, überwiegen plötzlich die Stimmen, die Sagen was soll das mit dem neuen Scheiß.
Hat vielleicht was mit Auf- und Abwärtskompatibilität zu tun...
 
Toll wäre der Nikolaus PC mit einer Blackwell 200 für Civ7
😁
 
Der praktische Nutzen von PCIe 5.0 ist, dass GPU Hersteller bei Mainstreamkarten noch etwas geiziger mit den PCIe Lanes sein können:
PCIe 3.0 brauchte noch 16x
PCIe 4.0 brauchte nur mehr 8x
PCIe 5.0 braucht nur mehr 4x

High End Karten brauchen eher weniger Bandbreite statt mehr, denn mit genug VRAM gibt es ja keinen Grund so viele Daten herumzuschaufeln.

Was SSDs angeht:
Aktuell kommt man als durchschnittlicher Consumer selbst mit einer 600MB/s SATA SSD noch wunderbar durch. Ich würde sogar behaupten, dass es der Großteil gar nicht merken würde wenn er nur mehr 300MB/s bekommt.

Was den AI Bereich angeht:
Also ich kann mir nicht vorstellen, dass bei den größeren Farmen noch irgendjemand auf PCIe setzt. Da wird doch ausschließlich die SXM Variante eingesetzt bzw. die GPUs untereinander dann mit NVLink verknüpft.
 
andr_gin schrieb:
High End Karten brauchen eher weniger Bandbreite statt mehr, denn mit genug VRAM gibt es ja keinen Grund so viele Daten herumzuschaufeln.
Und deswegen bekommen gerade die kleinen Karten eine schmaleres Interface und die großen Karten bleiben bei 16x?
 
Ja wegen der Kosten. Gerade bei den Gurken aus dem Mobilbereich wie der RX6400 kommt bei VRAM Mangel dann noch die Belastung des ganzen System durch das Auslagern. Das frisst dann Energie und Prozessorleistung. Deswegen ist die Frage nach der Speichermenge und Belegung so komplex. Ab wann ist Gebrauch wirklich Verbrauch.
 
Als Gamer interessiert mich nur eins: wie viel FPS mehr :cool_alt:
(ja ich weiss...)
 
Frage ist ob wir die Performance irgendwann am Desktop sinnvoll nutzen können. Auf jeden Fall ein Schritt nach vorne.
 
Schicke Bandbreiten, aber mit LWL im Pro-/Consumer Bereich wo doch der Rest auf'm Mainboard noch mit Kupfer/Silber/Gold rennt. Das Monster vom Hardware-Frankenstein möchte ich mal sehen.
Wie oben schon bemerkt wurde sehe ich das ebenfalls als problematisch im eben benannten Bereich solange da noch Wandler zum Einsatz kommen müssen.|
Aber hey ... ich bin kein Layout-Ingenieur ... wer weiß was die da ausbrüten.
Spannend ist's allemal.
 
könnte man dann einen pcie 7 x16 slot mit Bifurkation für 8 GPUs splitten und jeweils die selbe Renderleistung bekommen wie bei pice 4 x16? 🤔
Denke hier an GPU Rendering und natürlich nicht an gaming. Damit könnte man dann crazy Render Maschinen bauen ohne irgendwelche verrückten CPUs kaufen zu müssen :D
 
Ja könnte man, wenn so ein Modus unterstützt werden würde.
Aktuell sind wir ja bei 1x, 4x, 8x oder 16x
 
Deinorius schrieb:
Ich würde mir wünschen, ein CopprLink Kabel an einem Laptop für eine vernünftige eGPU Anwendung wäre eine mögliche Zukunft.
Kauf dir doch einen richtigen Computer. Die Notebook-CPU ist sowieso zu lahm für eine diskrete GPU.
 
andr_gin schrieb:
Der praktische Nutzen von PCIe 5.0 ist, dass GPU Hersteller bei Mainstreamkarten noch etwas geiziger mit den PCIe Lanes sein können:
Natürlich sollte diese Version auch ausreichend vertreten sein. Nvidia kann mit der RTX 5080/5090 PCIe 5.0 nutzen, aber auch nur, weil die weiterhin 16x Slots bedienen würden und die zusätzliche Bandbreite irrelevant ist.
Aber eine Midrange Karte, die nicht ausreichend lanes zum Anschluss hat, wird Probleme bekommen, da PCIe 5.0 selbst bei aktuellen Plattformen (und zwar begründet) noch nicht durchgehend Standard ist.

Debian User schrieb:
Kauf dir doch einen richtigen Computer.
Habe ich, auch wenn die Plattform zu alt ist, aber das ist nicht der Punkt. Für mich wäre es das Optimum, wenn ich nur ein Gerät sowohl für alltägliche Arbeiten als auch Gaming verwenden kann, Steam Deck ausgenommen. Ich bin auch mobil unterwegs und habe meinen Deskop-PC kaum verwendet. Mein bisheriges Gaming die letzte Zeit war hauptsächlich auf dem Steam Deck oder auch gelegentlich auf der PS4 Pro. Das zahlt sich nicht aus, auch einen Desktop-PC stehen zu haben, der kaum genutzt wird. Es ist wenigstens nicht so schlimm wie mit Autos (gerade hinsichtlich der Kosten), wenn die über 80-90 % der Zeit nur herumstehen.

Das einzige Argument, das deutlich gegen eGPU (abseits der gegenwärtigen Leistung) spricht, sind Kosten. Es ist etwas schwer, das zu vergleichen, aber ich betrachte das jetzt aus einer möglichst optimalen Perspektive. Ich würde nie mehr als 300 € für ein eGPU-Gehäuse ausgeben, also rechne ich nur damit. Der Aufpreis beim Notebook schwieriger zu ermitteln, denn ich würde so oder so ein vernünftiges Modell nehmen, vielleicht 200 €?
Was sind die Mehrkosten für den Desktop-PC: 230 € (R7 7700 tray), 120 € RAM, 120 € Board, 30 € Kühler und schon bin ich bei 500 €. NT und Gehäuse nicht mitgerechnet, da ich diese prinzipiell schon habe, aber ein neueres NT kann man dennoch rechnen, 100 € z.B., und dann natürlich noch eine 1 TB SSD, die ich für den PC auch brauche, hier rechne ich mit 70-90 €.
Mit realen Preisen gerechnet sieht es für eGPU noch schlechter aus, aber die heutige Situation interessiert mich nicht, da ich unter diesen Bedingungen kein eGPU Setup nutzen würde. Mir geht es um eine mögliche Situation und einfach nur ein Gerät nutzen zu können, das mir eine weitere Möglichkeit bietet, ist mir persönlich lieber als, zwei haben zu müssen, von dem eines hauptsächlich nur herumsteht.

Debian User schrieb:
Die Notebook-CPU ist sowieso zu lahm für eine diskrete GPU.
Absolut falsch! Was redest du da für Müll? 🤣 🤣 🤣
Was für eine diskrete GPU? Ich würde nicht mal in Alpträumen auch nur annähernd 1000 € für eine Grafikkarte ausgeben. Wieso gehst du davon aus, dass ich zu dieser Klientel zähle? Und selbst bei diesen ist das unter einigen Bedingungen auch dann eine falsche Aussage.
Was bedeutet zu lahm? Gehörst du zu jener Kategorie, die alles unter 165 Hz nicht erträgt?
Sind jetzt alle Notebook-CPUs gleich schnell? Sowohl von AMD als auch Intel? Interessante Aussage.
Du denkst anscheinend nicht differenziert genug.
 
Drewkev schrieb:
Achso, klar, natürlich.

Drewkev schrieb:
@AAS
Der Vergleich hinkt so dermaßen weil es sich gar nicht vergleichen lässt, schon gar nicht so.

Lassen wir das lieber ;)

Du glaubst ja gar nicht wie sehr ich Menschen hasse die so diskutieren.
Deine Diskussionsgegner kommen mit Meinungen und Thesen her, die sie mit Argumenten untermauern und du entgegnest sarkastische Häme und bissige, herablassende Floskeln.
Geh doch einfach mal sachlich und inhaltlich auf das ein, was dir entgegen gebracht wird!
 
Zuletzt bearbeitet: (typo)
  • Gefällt mir
Reaktionen: thom_cat und Deinorius
Debian User schrieb:
Kauf dir doch einen richtigen Computer. Die Notebook-CPU ist sowieso zu lahm für eine diskrete GPU.
Ne stimmt so nicht. Die Laptop CPU‘s können gut mit Desktops mithalten.
Ich hab ein Tablet (Asus Z13) mit einem Core™ i9-13900H welcher mit Flüssigmetall gekühlt wird, glaub 65Watt.
In den Benchmark Test macht er den ein oder anderen Desktop CPU gut Konkurrenz!
Hab einen 7800X3D Desktop und der hat schlechtere Werte in den Benchmark Tests!

Aber was immer ist: GPU ist bei Laptops das Problem. Wird aber der Sprung immer kleiner… vor allem auf die Energieeffizienz bezogen.
 
TomausBayern schrieb:
Ich hab ein Tablet (Asus Z13) mit einem Core™ i9-13900H welcher mit Flüssigmetall gekühlt wird, glaub 65Watt.
In den Benchmark Test macht er den ein oder anderen Desktop CPU gut Konkurrenz!
Hab einen 7800X3D Desktop und der hat schlechtere Werte in den Benchmark Tests!
Die E-Cores sind ja auch nur für Benchmarks gut und sonst zu nichts zu gebrauchen.
 
AAS schrieb:
Ich erachte Gaming eher als Ineffizient da = 0 Nutzen. ;)

Dünnes eis, sehr dünnes eis. Der nutzen mag in erster linie nicht ersichtlich sein, aber ich kann dir hoch und heilig versprechen dass ich ohne gaming kein Elektriker geworden wäre. Und viele andere leute im technischen bereich wurden auch durch gaming inspiriert. Vor allem PC gamer müssen sich zwangsläufig immer mit technischen Problemen auseinandersetzen oder sich ein neues Hobby suchen.

Und ohne gaming hätte nvidia auch nie so eine entwicklung hinlegen können, weil wir haben denen schon 20 jahre lang geld gegeben bevor es LLm´s gab.

Ich verbitte mir also die Unterstellung dass gaming nutzlos ist, es ist in sehr vielen fällen eine Anregung auch noch etwas anderes zu tun.
 
Zurück
Oben