News Version 0.9 veröffentlicht: PCI Express 5.0 nähert sich der Finalisierung

So wie ich die Antworten hier verstehe, freuen sich alle darauf, mit PCIe 6 dann Quad-SLI/Crossfire über die PCIe x1-Slots laufen zu lassen. :D Wäre aber schon gut, wenn man da dann SSDs z.B. draufsetzen könnte. Bisher hab ich die Slots noch nie benutzt.
 
Bleifuss schrieb:
Wenn dadurch die Standardaufteilung der PCIe-Lanes für Grafikkarte von derzeit 16 auf nur 8 oder 4 Lanes reduziert werden kann, stehen mehr PCIe-Lanes für andere Komponenten zur Verfügung, wie Massenspeicher, Netzwerkkomponenten (10G, 40G), ... Damit müssen die kommenden CPUs und Chipsätze nicht zwingend mehr PCIe-Lanes haben als heutzutage, um trotzdem noch schneller mit mehreren anderen Komponenten zu arbeiten. Dadurch ist dann auch die Herstellung entsprechender neuer CPUs und Chipsätze durch den Einsatz von PCIe 4.0 und 5.0 wieder günstiger.

Naja, dass es günstiger wird, bezweifle ich zwar stark, aber bei dem Rest stimme ich dir zu.

Wird ja dann anfangs als "Innovation" verkauft und dann zahlse wahrscheinlich drauf.

Ich mein, selbst für ein paar LEDs nehmen viele Hersteller unverschämte Aufpreise.
 
KarlKarolinger schrieb:
So wie ich die Antworten hier verstehe, freuen sich alle darauf, mit PCIe 6 dann Quad-SLI/Crossfire über die PCIe x1-Slots laufen zu lassen.
Du würdest dich wundern wie viel 4 Karten untereinander kommunizieren müssen um zusammen arbeiten zu können. Eher anders rum, dann wird der Bus erst mal schnell genug sein um nicht so ein großer Flaschenhals zu sein.
 
Holt schrieb:
Bis die SSDs die volle Bandbreite von PCIe 4.0 x4 so weit ausnutzen können wie es die schnellsten nun schon mit PCIe 3.0 x4 schaffen, dürfte bei den Consumer SSD noch etwas dauern.

Ein Problem ist die Leistungsaufnahme, bei Consumer PCIe SSDs hat sich ja M.2 als Formfaktor durchgesetzt und da erlaubt der Slot der SSD nur etwas mehr als 8W Dauerleistung, von der Kühlung mal ganz abgesehen, die ist bei vielen Rechnern heute schon nicht unproblematisch weil die SSDs oft keinen kühlenden Luftzug abbkommen.

Gerade für 0815 Consumer, sollte das vollkommen unproblematisch sein. Da wird die Maximalleistung so einer SSD ja nur hin und wieder mal für ein paar Sekunden abgerufen, dafür braucht's nicht mal einen kleinen Luftzug.
Meine Samsung 950 Pro hat keinen passiven Kühlkörper und auch im Gehäuse gibt's keinerlei Lüfter. Ich benötige des Öfteren die hohen IOPS, aber halt auch immer nur für ein paar Sekunden. Bisher hat sie sich nicht beschwert und mir ist auch sonst nichts aufgefallen.

Aber die Leistungsaufnahme ist natürlich ein Punkt. Da muss man wohl warten bis die Strukturbreite für NAND und Controller noch weiter gesunken ist.
 
  • Gefällt mir
Reaktionen: latexdoll
Irgendwann werde ich sicherlich einen seriellen Port auf einer PCI Express 5 Steckkarte nachrüsten, in einen Desktop, der nur noch USB-C Anschlüsse hat.

Genau mein Humor.
 
Ich kann es nur als positiv betrachten das der Ryzen 3XXX PCIe 4.0 Unterstützung bringt , seit 2017 wollte das mir kaum jemand glauben ...
Grade im Mainstream Bereich mit seinem eingeschränkten Zugriff auf PCIe Lanes macht sich PCIe 4.0 besonders positiv bemerkbar . Sei es 2 oder 3 NVME , 10 Gbit LAN oder meinetwegen auch ein TB3 Controller , nutzt man Geräte die einen hohen Datenduchsatz haben war man bisher auf die HEDT angewiesen , ich weiß nicht wie ein X570 Board aussehen wird , ob es mit 4 PCIe 4.0 Lanes an die CPU angebunden ist , jedoch erhält man auf alle Fälle mehr Bandbreite , nicht allein nur für die GraKa .
Im Gegensatz zu vielen Intel Fans die den DMI 3.0 und 24 Chipsatz Lanes als ausreichend betrachten , tue ich das nicht , denn im Grunde sind alle Geräte die an den Chipsatz Lanes hängen nur mit 4 Lanes an die CPU angebunden , ich betrachte das als Nadelöhr , grade mal weit genug um eine schnelle NVME voll anzubinden .
 
  • Gefällt mir
Reaktionen: latexdoll
Ryzen 3XXX wird PCIe 4.0 Unterstützung wahrscheinlich auch auf den 4 PCIe Lanes für den Chipsatz bieten, ob der 570er Chipsatz aber schon PCIe 4.0 Unterstützt bezweifle ich aber - schön wäre es.
 
Reset90 schrieb:
wie wichtig ist sowas für aktuelle oder kommende grafikkarten? braucht eine grafikkarte überhaupt soviel bandbreite (beim spielen), falls es in den mainstreambereich kommen sollte

Für aktuelle: können nicht ansatzweise ausgereizt werden m bzw wird schlicht noch nicht benötigt

Für kommende: Wer soll dir das beantworten können, der Grafikkarten Gott? :-)

Fortschritt im Sektor ist allerdings immer zu begrüßen, haben ist immer besser als brauchen, gelle?
Ergänzung ()

zombie schrieb:
Schon bei AGP zu PCIe 1.0 stellten sich viele die Frage wer das braucht...

Manchmal glaube ich, dass manche Menschen auch heute gerne noch Forscher auf den Scheiterhaufen sehen würden.

Was der Bauer nicht kennt, frisst er nicht
 
Zuletzt bearbeitet:
benneque schrieb:
Da wird die Maximalleistung so einer SSD ja nur hin und wieder mal für ein paar Sekunden abgerufen
Das ist aber nur bzgl. der Wärme relevant.
benneque schrieb:
Aber die Leistungsaufnahme ist natürlich ein Punkt. Da muss man wohl warten bis die Strukturbreite für NAND und Controller noch weiter gesunken ist.
Die Strukturbreiten der NANDs dürften kaum kleiner werden, die wurden ja mit 3D NANDs erstmal wieder größer und anderes als bei GPUs oder CPUs bewirken bei NANDs die kleineren Strukturen eben keine geringere, sondern im Gegenteil sogar eine höhere Leistungsaufnahme, weil dann die Zellen auch kleiner werden und man die Elektronen beim Schreiben viel genauer dosieren muss, die hohe Spannung mit der sie durch die Isolierschicht schießt also länger anliegt.

Bei den Controller für NVMe SSDs greifen die meisten Hersteller auf 28nm Prozesse zurück (auch Phison beim PS5012-E12), dies kann man bei denen auch nachlesen. Die könnte natürlich auf 14nm oder gar 7nm gehen, nur die Kosten steigen exponentiell höher je kleiner die Strukturen sind:
Dies liegt eben am Aufwand:
Samsung schreibt nicht in welchem Prozess sie ihre SSD Controller bauen, aber die sind erstens Marktführer, haben also die höchste Stückzahlen, dazu verwenden sie darin ARM Kerne wie sie auch in den SoCs für Smartphone stecken die Samsung ja auch fertigt und neben Intel sind die der einzige SSD Controller Hersteller der die Fabs für und Erfahrung mit der Fertigung solcher Chips hat.
Robo32 schrieb:
Ryzen 3XXX wird PCIe 4.0 Unterstützung wahrscheinlich auch auf den 4 PCIe Lanes für den Chipsatz bieten
Die Frage ist, ob der interne Chipsatz von dem ja die 4 Lanes kommen die gewöhnlich an den M.2 Slot auf den Boards gehen, dann auch PCIe 4.0 bekommt. Dies würde ich mal vermuten, damit kann dann wenigstens eine PCIe SSD mit voller Bandbreite angeschlossen werden ohne Lanes für die Graka zu opfern. Die Entwicklung der externen Chipsatz wurde ja an ASMedia auslagert, mal schauen wie schnell die mit PCIe 4.0 oder wenigstens PCIe 3.0 hinterher kommen, bei den bisherigen Chipsätzen war das ja eher Hausmannskost war da geboten wurde.
 
mkdr schrieb:
Doch. Abwärme. Soll auf den SSDs dann ein aktiver Lüfter drauf sein oder wat?
WaKü oder einfach mal ein Ort auf dem Board der nicht eh schon bei 60° ohne Luftstrom köchelt. Die Leistungsaufnahme ist ja nicht das Problem.
 
MK one schrieb:
Im Gegensatz zu vielen Intel Fans die den DMI 3.0 und 24 Chipsatz Lanes als ausreichend betrachten , tue ich das nicht , denn im Grunde sind alle Geräte die an den Chipsatz Lanes hängen nur mit 4 Lanes an die CPU angebunden , ich betrachte das als Nadelöhr , grade mal weit genug um eine schnelle NVME voll anzubinden .

Allerdings ist das eine Einschränkung von DMI3.0 und ich freue mich schon auf DMI5.0 wenn es denn mal kommen sollte. Selbst wenn du dann am Chipsatz noch immer "nur" PCIe 3.0 Lanes haben solltest, wäre dann der bisherige Flaschenhals weg.

Persönlich finde ich es gut viele aktuelle Lanes am Chipsatz zu haben, statt die nur über die CPU anzubieten. Der Vorteil dabei ist ein kleinerer Sockel und die Möglichkeit über den Chipsatz bestimmen zu können wie viele zusätzliche Lanes einem zur Verfügung stehen.

Ein mini-ITX Mainboard benötigt nun mal weniger Lanes als eine E-ATX Platine. Ich hoffe dass AMD den Schritt zumindest teilweise mitmacht und einige brauchbare Lanes mit den neuen Chipsätzen mitbringen wird. Mehr Lanes am Sockel, werden ja wegen der Kompatibilität zum bestehenden Sockeln nicht möglich sein.

Ich fände es aber auch gut, wenn man sich mittelfristig von PCIe 16x verabschiedet und irgendwann in der Zukunft die maximale Anzahl der Lanes pro Slot auf 8x beschränkt.
 
xexex schrieb:
freue mich schon auf DMI5.0 wenn es denn mal kommen sollte. Selbst wenn du dann am Chipsatz noch immer "nur" PCIe 3.0 Lanes haben solltest, wäre dann der bisherige Flaschenhals weg.
Bisher war es immer (mit Ausnahme der Einsteigerchipsätze H110/310) so, dass bei den Intel Chipsätze Up- und Downstream die gleiche Geschwindigkeit pro Lane haben. Also mit Sandy Bridge die PCIe 2.0 Lanes gekommen sind kam zugleich auch DMI2 (also technisch PCIe 2.0 x4) und mit den 100ern für Skylake dann DMI3 und die PCIe 3.0 Lanes. Wenn dann DMI4 kommt, dürften die Lanes des Chipsatzes also wohl auch PCIe 4.0 Lanes werden.

Ein Flaschenhals ist DMI3 doch in der Praxis nur für schnelle PCIe SSD im RAID 0, denn PCIe ist vollduplex, kann also Daten in beide Richtungen gleichzeitig übertragen und damit kann man über DMI3 nicht nur real so 3,5GB/s übertragen, sondern pro Richtung 3,5GB/s und damit insgesamt so 7GB/s. Wenn man von einer schnellen PCIe SSD Daten auf eine andere kopiert, bremst DMI3 also nicht.
xexex schrieb:
Persönlich finde ich es gut viele aktuelle Lanes am Chipsatz zu haben, statt die nur über die CPU anzubieten. Der Vorteil dabei ist ein kleinerer Sockel und die Möglichkeit über den Chipsatz bestimmen zu können wie viele zusätzliche Lanes einem zur Verfügung stehen.
Sehe ich auch so, es ist immer gut mehr Lanes zu haben, auch wenn die Bandbreite der Anbindung nicht reicht damit alle gleichzeitig mit voller Bandbreite übertragen können, denn dies braucht man in der Praxis eigentlich nie. Hat man die Lanes aber nicht, kann man da auch nichts anschließen. Das ist wie damals bei USB2, da konnte schon eine USB Platte die ganze Bandbreite ausschöpfen, trotzdem haben die Leute massenweise USB Hub gekauft, denn so kann man an einem Port auch mehrere USB Platten betreiben (bei 2.5" dann mit einem aktiven Hub, also einem mit eigenen Netzteil) und merkt den Flaschenhals des Upstreams auch erst, wenn man mal von zwei gleichzeitig größere Dateien Lesen will. Dies ist aber immer noch viel besser als jedesmal die Platten umstecken zu müssen, oder?
xexex schrieb:
hoffe dass AMD den Schritt zumindest teilweise mitmacht und einige brauchbare Lanes mit den neuen Chipsätzen mitbringen wird.
Das hoffe ich auch, das Niveau mit maximal 8 PCIe 2.0 Lanes war bei Intel bis zu den 90er Chipsätzen aktuell, mit den 100ern ging es dann auf bis zu 20 PCIe 3.0 Lanes und damit deutlich nach oben. Nun haben die AM4 CPUs ja auch noch einen internen Chipsatz mit 4 PCIe 3.0 Lanes, aber es wäre trotzdem mal an der Zeit das AMD da kräftig nachlegt.

Aber da bin ich auch guter Hoffnung, denn als ich das letzte mal durch das Programm von ASmedia gestöbert bin, boten einzig und alleine die USB 3.1 Gen2 Host Controller überhaupt PCIe 3.0 Lanes. Jetzt habe ich mal geschaut und siehe da, ASMedia hat sogar PCIE Gen 3 Packet Switch wie den ASM2824 im Programm, also richtige PCIe Lanes Switches wie die PLX Chips. Der ASM2824 hat PCIe 3.1 Uplink bis x8 und16 PCIe 3.1 Downlinks mit bis zu 12 Ports (also für 12 Geräte). Die aktuellen AM4 Chipsätze haben ja zwei PCIe 3.0 Switch, der eine verteilt die 4 PCIe 3.0 Lanes an den USB Host Controller, den Host Controller und an einen zweiten Switch der eben diese 8 PCIe 2.0 Lanes hat, wenn man diesen zweiten Switch durch den ASM2824 ersetzen würde, wäre das ein richtig geiler Chipsatz der 16 Lanes bieten würde, ohne dafür SATA oder USB Ports zu opfern. Damit wäre AM4 dann eine richtig runde Plattform die auch mehr als eine PCIe SSD mit vollen 4 PCIe 3.0 Lanes anbinden kann, ohne Lanes für die Graka opfern zu müssen. Wenn dazu nun noch eine offizielle ECC RAM Unterstützung kommen würde, kann Intel die Xeon-E behalten, die man im Handel so wenig wie die Skylake-W bekommen kann und AMD hätte endlich ein aktuelles Angebot für kleine Server und Workstations.
xexex schrieb:
Mehr Lanes am Sockel, werden ja wegen der Kompatibilität zum bestehenden Sockeln nicht möglich sein.
Eben und da hat AMD echt Mist gebaut, denn die Zeppelin Dies haben ja auch noch 8 PCIe 3.0 Lanes die bei AM4 nicht genutzt werden, bei den TR aber schon. Nachdem die Chipsätze so wenig und so lahme Lanes haben, hätte man diese wenigstens nutzen können, zumal die in x4/x4 teilbar sind.

AM4 ist eben schon damals für Bristol Ridge rausgekommen und die haben nur 8 PCIe 3.0 Lanes plus 2 im internen Chipsatz, da hat man wohl einfach unterschätzt wie schnell der Bedarf an schnellen PCIe Lanes durch die Verbreitung von NVMe SSDs und schnelleren Ethernet Controllern steigt.
xexex schrieb:
Ich fände es aber auch gut, wenn man sich mittelfristig von PCIe 16x verabschiedet und irgendwann in der Zukunft die maximale Anzahl der Lanes pro Slot auf 8x beschränkt.
Wieso? Die meisten haben nur eine Graka und warum sollte die dann nicht die ganzen 16 Lanes bekommen können? Die besseren Boards bieten doch sowieso die Möglichkeit die Hälfte der Lanes auf eine zweiten Slots umzuschalten und dann 8 Lanes in jedem der beiden zu haben.
 
Holt schrieb:
Die aktuellen AM4 Chipsätze haben ja zwei PCIe 3.0 Switch, der eine verteilt die 4 PCIe 3.0 Lanes an den USB Host Controller, den Host Controller und an einen zweiten Switch der eben diese 8 PCIe 2.0 Lanes hat, wenn man diesen zweiten Switch durch den ASM2824 ersetzen würde,

Die Frage wird sein was dieser Chip letztlich kostet. Der Chipsatz von Intel ist bestimmt auch kein Schnäppchen, aber im Vergleich zu einem PLX Chip eben doch fast geschenkt. Wenn durch den Preis von dem ASMedia Chip, Mainboards mit ein anständiger Anzahl Lanes ab 200-300€ Kosten, frisst das schnell jegliche Vorteile der gesamten Plattform auf.

Holt schrieb:
Wieso? Die meisten haben nur eine Graka und warum sollte die dann nicht die ganzen 16 Lanes bekommen können? Die besseren Boards bieten doch sowieso die Möglichkeit die Hälfte der Lanes auf eine zweiten Slots umzuschalten und dann 8 Lanes in jedem der beiden zu haben.

Platz und Kosten! Viele Boards liefern heute 2 oder gar mehrere 16x Slots mit und das kostet in der Herstellung Geld, benötigt zusätzliche Layer und erschwert das Routing.

Schon die Halbierung der maximal möglichen Slotbreite würde kleinere und kostengünstigere Mainboards ermöglichen. Wir dürfen nicht vergessen, dass man bei PCs praktisch alle parallelen Schnittstellen vor Jahren abgesägt hat (IDE, SCSI, Drucker, etc) und den Vorteil von serieller Datenverarbeitung angepriesen hat. Bei PCIe dümpelt man aber mit 16! Lanes herum die vor allem auf den besser bestückten Boards Geld, Platz und Aufwand kosten.

Der Stand jetzt ist doch so, dass man den Unterschied zwischen 8xPCIe und 16xPCIe bei einer Grafikkarte bestenfalls messen kann. PCIe 5.0 wird die Bandbreite vervierfachen, dann würden für eine Grafikkarte auch nur noch 2xPCIe 5.0 Lanes reichen. Also wofür dann 16? Solange die Grafikkarten auf dedizierten Speicher zugreifen, werden die Anforderungen nur minimal steigen und Lösungen mit dedizierten Grafikkarten, die Systemspeicher als VRAM nutzen hat man versucht und wieder längst aufgegeben.
 
Zuletzt bearbeitet:
xexex schrieb:
Der Chipsatz von Intel ist bestimmt auch kein Schnäppchen
Die Preise kann man normalerweise in den Preislisten von Intel nachsehen und die größten Chipsätze für den Mainstream S.115x liegen traditionell bei knapp unter 50$, der Z370 z.B. 47$, der H310 kostet mit 26$ deutlich weniger, aber nicht so viel als dass diese alleine den Preisunterschied der Boards ergeben würde. Was die meisten Leute nicht begreifen ist, dass die unterschiedlichen Chipsätze vor allem für die Boardhersteller wichtig sind um die unterschiedlichen Produktlinien unterscheidbar zu machen. Ein Board mit B oder H Chipsatz kann eben keine Übertaktung der CPU, daher braucht es auch keine üppigen Spannungswandler, die für den Betrieb innerhalb der Spezifikationen total übertrieben wären. Die 16 PCIe Lanes lassen sich nicht aufteilen, also muss der Boardhersteller dies auch gar nicht beim Layout einplanen und so können die Boards schon billiger sein, ohne die Kunden zu verschrecken.

Von einem Board mit Z Chipsatz erwarten die Kunden hingegen eine gute Übertaktungsleistung, also muss bei den Spannungswandlern und deren Kühlung Was passiert wenn es anderes ist, sie am Besten am Beispiel des ASRock Z97 Anniversary, welches extra günstig und dazu ausgelegt und gedacht war um den Pentium G3258 Anniversary Edition zu übertakten, aber eben nicht um die normalen 4 Kerner K Modelle großartig übertakten zu können. Das haben viele nicht verstanden und gemeckert was für ein Krüppel das Board ist, oder schau Dir an was über so manches AM3+ Board mit 970er Chipsatz geschrieben wurde, bei dem sie Spawas nicht ordentlich mit Kühlkörpern versehen wurden.
xexex schrieb:
Platz und Kosten! Viele Boards liefern heute 2 oder gar mehrere 16x Slots mit und das kostet in der Herstellung Geld, benötigt zusätzliche Layer und erschwert das Routing.
Nein, nicht wirklich denn die Lanes gehen ja schon der CPU auf einen Umschalter (also ein Multiplexer / Demultiplexer wie der ASM1480 rein, der schaltet eben nicht ständig dynamisch um wie ein Switch (auch wenn die sich im Englischen auch switch nennen), sondern wird vom BIOS beim Booten einmal eingestellt. Die sind auch viel billiger und brauchen nur wenig Strom, die treiben weder die Komplexität noch die Kosten übermäßig hoch.
xexex schrieb:
Schon die Halbierung der maximal möglichen Slotbreite würde kleinere und kostengünstigere Mainboards ermöglichen.
Die Formfaktoren der Boards sind festgelegt und die Boards deren Größe auch ATX überschreitet, sind sowieso entweder für Server oder Enthusiasten und damit stehen dort die Kosten nicht im Vordergrund. Bei Serverboards ist x8 ja weit verbreitet, weil die meisten I/O Karte sowieso nicht mehr Lanes haben.
xexex schrieb:
Bei PCIe dümpelt man aber mit 16! Lanes herum
PCIe ist eine serielle Übertragung und wenn es mehrere Lanes sind, dann sowas die Teaming bei Netzwerken, dies macht es aber nichts zu einer parallelen Übertragung.
xexex schrieb:
Der Stand jetzt ist doch so, dass man den Unterschied zwischen 8xPCIe und 16xPCIe bei einer Grafikkarte bestenfalls messen kann.
Bei Spielen, bei GPU Computing ist dies aber oft anderes und dann werden die GPUs ja auch immer schneller, künftige Generationen profitieren also auch stärker von mehr Bandbreite. PCIe ist übrigens bis x32 spezifiziert.
 
Zuletzt bearbeitet von einem Moderator: (Kaputten URL-BBCode entfernt)
Holt schrieb:
Nein, nicht wirklich denn die Lanes gehen ja schon der CPU auf einen Umschalter (also ein Multiplexer / Demultiplexer wie der ASM1480 rein, der schaltet eben nicht ständig dynamisch um wie ein Switch (auch wenn die sich im Englischen auch switch nennen), sondern wird vom BIOS beim Booten einmal eingestellt. Die sind auch viel billiger und brauchen nur wenig Strom, die treiben weder die Komplexität noch die Kosten übermäßig hoch..

Die Komplexität und Verteuerung ergibt sich ebenfalls aus den Zusatzchips und wie bereits angemerkt aus zusätzlich benötigten Layern. Es gibt auch gute Gründe wieso gut ausgestattete uATX Boards unverhältnismäßig teuer sind. ATX ist eigentlich ein Faktor, den heutzutage kaum jemand benötigt!

Schau dir mal ein Bild von meinem Mainboard an!
1547774578317.png


Es mag vielleicht auf den ersten Blick noch aufgeräumt aussehen in Wirklichkeit ist es jedoch so vollgepackt, dann man Anschlüsse nur noch suboptimal platzieren kann. Auf einem solchen Board noch weitere NVMe Schnittstellen unterzubringen würde schon vom Platz schlichtweg nicht funktionieren.

Sata wird aber aussterben und der Platz muss irgendwo herkommen. Bei mini-ITX Boards sieht die Sache noch schlimmer aus. Da versucht man ja bereits die DIMM Slots anders zu gestalten oder liefert die Boards mit SO-DIMM
Unterstützung, dabei ist der größte Platzverschwender der 16x PCIe Anschluss.

Holt schrieb:
PCIe ist eine serielle Übertragung und wenn es mehrere Lanes sind, dann sowas die Teaming bei Netzwerken, dies macht es aber nichts zu einer parallelen Übertragung.

Das ist mir bekannt, aber bei Teaming greift man wegen der Probleme damit dann doch eher einfach zu einer höheren Bandbreite. Dies wäre nun ebenfalls möglich.

Holt schrieb:
Bei Spielen, bei GPU Computing ist dies aber oft anderes und dann werden die GPUs ja auch immer schneller, künftige Generationen profitieren also auch stärker von mehr Bandbreite. PCIe ist übrigens bis x32 spezifiziert

Das ist aber in diesem Bereich irrelevant! Für GPU Computing verwendet man meist auch entsprechende Grafikkarten und Mainboards. Das muss man nicht zwingend in den Mainstream Bereich übertragen.[/QUOTE
 
xexex schrieb:
ATX ist eigentlich ein Faktor, den heutzutage kaum jemand benötigt!
Das sehe ich anderes, gerade weil:
xexex schrieb:
in Wirklichkeit ist es jedoch so vollgepackt, dann man Anschlüsse nur noch suboptimal platzieren kann.
Eben, die kleineren Boards nimmt man nur, wenn man so ein kleines Gehäuse will, dass ATX nicht rein passt. Da ist µATX dann aber irgendwie weder Fisch noch Fleisch, denn so viel kompakter als mit ATX fallen die Gehäuse dann doch nicht aus und immer noch viel größer als Mini-ITX. Aber das muss jeder selbst wissen, meine Meinung ist das Leistung und eine ordentliche Ausstattung eben Platz brauchen, die Optik ist bei mit auch sekundär, ich schau auf meine Monitore, nicht auf den Rechner der sowieso neben dem Schreibtisch steht.
xexex schrieb:
Sata wird aber aussterben
Nicht so bald, denn für HDDs wird SATA noch sehr lange ausreichend sein und so bald wie mancher sich dies erträumt, werden HDDs nicht aussterben. Bei SSDs wird PCIe SATA ans Schnittstelle ablösen, dies ist ja schon voll im Gang, aber solange M.2 der beherrschende Formfaktor für Consumer PCIe SSDs bleibt, bedeutet dies ja gerade mehr und nicht weniger Platzbedarf auf dem Board. So manche Lösung wo man die M.2 Slots verbaut, ist thermisch auch mehr als unglücklich gewählt.
xexex schrieb:
aber bei Teaming greift man wegen der Probleme damit dann doch eher einfach zu einer höheren Bandbreite.
Nur ist es bei PCIe eben von Anfang an vorgesehen gewesen das ein Link über mehrere Lanes gehen kann und daher gibt es doch die Nachteile eben nicht die es beim Teaming bei Ethernetverbindungen gibt. Dies war ja auch nur als ein Beispiel gemeint um zu zeigen das es auch woanders Lösungen gibt bei denen mehrere serielle Übertragungswege zusammengefasst werden, ohne das dies damit zu einer parallelen Schnittstelle wird.
 
Holt schrieb:
Dies war ja auch nur als ein Beispiel gemeint um zu zeigen das es auch woanders Lösungen gibt bei denen mehrere serielle Übertragungswege zusammengefasst werden, ohne das dies damit zu einer parallelen Schnittstelle wird.

Der Punkt ist, dass 16 Leitungen aus einer seriellen Schnittstelle schon fast eine parallele machen und auch wenn du es anders siehst, der Bandbreitenbedarf der sich aus 16x PCIe 5.0 Verbindungen ergibt nirgendwo im Consumer Markt benötigt wird.

Ich sehe die Sache mit dem Formfaktor im Gegensatz zu dir eben ganz anders. Wenn du dir mal Business PCs ansiehst, so ist dort ATX schon seit langer Zeit am aussterben. Die ATX Platinen ermöglichen zwar trotz riesiger Slots eine halbwegs kostengünstige Bauweise, der Platz liegt jedoch auch hier größtenteils brach.

Dazu kommt natürlich das schon PCIe 4.0 eine höhere Leistungsqualität und kürzere Leitungen benötigt und PCIe 5.0 dies nach dem derzeitigen Stand die noch weiter in die Höhe treiben wird. Die Lösung hier wäre ein langsamer Abschied von den ATX Platinen hin zu kleineren Formaten und die Abschaffung der 16er Slots würde die wenigsten betreffen.
 
xexex schrieb:
auch wenn du es anders siehst
Das habe ich doch gar nicht gesagt, aber bis PCIe 5.0 im Consumerbereich erscheint, kann sich dies ja auch noch ändern.
xexex schrieb:
Wenn du dir mal Business PCs ansiehst, so ist dort ATX schon seit langer Zeit am aussterben.
Das in den Business PCs die PCIe Slots größtenteils brach liegen, wundert nun wirklich nicht, aber man sollte dies nicht auf die Retailprodukte der Selbstbauer übertagen. Da gibt es natürlich auch Leute denen es reicht eine CPU, das RAM, eine Graka und eine Platte einzubauen, aber es gibt auch die anderen, die eben alles mögliche Einbauen und nachrüsten möchten. Es gibt sicher für beide Formfaktoren weiterhin einen Markt.
 
Holt schrieb:
Es gibt sicher für beide Formfaktoren weiterhin einen Markt.

Keine Frage, aber selbst bei den Selbstbauern könnte man den gesparten Platz mit "sinvollem" Geblinke und "schönen" Plastekunstwerken füllen. :evillol:
 
Zurück
Oben