Was letztlich auch "dumm" wäre, da man dann nur x1 Leistung für einzelne SSDs hätte. Fakt ist jedoch, solche Karten sind teuer und der Kunde erwartet natürlich Höchstleistungen und 100 Anschlüsse für Lau.0x8100 schrieb:dann nicht möglich, mir wäre kein consumerboard bzw. -cpu bekannt, wo 16mal x1 bifurcation möglich ist.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Asus Hyper M.2 Gen5: Auch die SSD-Adapter wechseln auf PCIe 5.0
- Ersteller MichaG
- Erstellt am
- Zur News: Asus Hyper M.2 Gen5: Auch die SSD-Adapter wechseln auf PCIe 5.0
PCIe5 stellt höhere elektrische Anforderungen an die "Verdrahtung". Wenn diese nicht schon beim Design der Leiterkarte berücksichtigt werden, wird es grenzwertig. Und sobald im Signalweg auch aktive Bauelemente wie z.B Retimer liegen sind die Chancen gering.holdes schrieb:Hat mal jemand probiert ob die alte Karte nicht auch schon mit PCIe 5 laufen würde?
Also eine Karte mit "PCIE-Switch". Solche Bausteine sind aber teuer und energiefressend.Winder schrieb:Man bräuchte solch eine Karte mit Chipsatz, der die Lanes aufteilt
Schon eine PCIe3 Lane wäre aber immer noch ca. 25% schneller als ein SATA-Port. Der im größten Teil der Anwendungsfälle von der Geschwindigkeit ausreicht.xexex schrieb:Was letztlich auch "dumm" wäre, da man dann nur x1 Leistung für einzelne SSDs hätte.
Anzahl der M2-Slots: Wer wirklich viel schnellen SSD-Speicherplatz braucht kann M2 ( und PCIe) auch an U.2/U.3 adaptieren. Und hat damit viel mehr Speicherplatz pro Slot zur Verfügung. Und PCIe-Lanes , die in einem PCIe-Slot "verbraten" werden sind etwas flexibler nutzbar wie solche in einem M.2.
Kasjo
Captain
- Registriert
- Aug. 2010
- Beiträge
- 3.988
Die Lanes der heutigen CPUs und Boards würden ja in der Regel schon reichen wenn man vorhandene Lanes auch sinnvoll nutzen könnte. Aber wie schon mkossmann schrieb müssten die erweiterungskarten hier schlauer sein.
Ich hab im home server auch den Vorgänger dieser karte am laufen. Sind zwar nur 2 970er evos drinnen weil geht ja ned anders. Könnte die auch aufs board schnallen, nur sind die Temperaturen in der !passiv geschalteten karte um Welten besser als unter den Mobo Abdeckungen.
Ich hab im home server auch den Vorgänger dieser karte am laufen. Sind zwar nur 2 970er evos drinnen weil geht ja ned anders. Könnte die auch aufs board schnallen, nur sind die Temperaturen in der !passiv geschalteten karte um Welten besser als unter den Mobo Abdeckungen.
- Registriert
- Feb. 2009
- Beiträge
- 832
Kannst du bestimmt haben, nur nicht mit NVMe über PCIe sondern ggfs. SATA. Oder du schaust im HEDT Bereich. Der 13900KS hat nur 20 PCIe Lanes. Da würden 5 4x NVMe SSDs drauf gehen... wenn du auf die GPU verzichtest oder sie über den Chipsatz mit geteilter Bandbreite anschließt.whocares0101 schrieb:Warum immer nur für 4 SSDs? Ich will 8/16 SSDs auf so einer Karte.
Ryzen sieht nicht viel besser aus.
Du könntest viele SSDs haben, nur eben nicht mit voller Geschwindigkeit. Oder du gehst in den HEDT Bereich und holst dir 4 dieser Karten. PCIe x16 hat eben nur Platz für 4 x4 SSDs.
Leider ist es nicht so einfach, Boards mit Bifurcation auszumachen, außer bei Asus, weil sie entsprechend solch eine Adapterkarte bieten. Hätte jetzt auch gerne die Möglichkeit, in meinem Nebensystem solch eine Karte einzubauen, PCIe 5.0 hab ich aber nicht nötig, geht ja aber auch langsamer. (mit nen 5600G geht eh nur PCIe 3.0). Aber mein Board, ein Gigabyte B450-I Aorus Pro WiFi, unterstützt soweit ich es herausgefunden habe kein Bifurication.
Eigendlich wäre es ja kein ganz so großes Problem, ein Lane-Switch zu verbauen um dann 4 oder gar mehr M.2 anzusprechen, ohne dass Bifurication und x16 notwendig wäre. Klar, man erreicht nicht die volle Geschwindigkeit, aber wie oft kommt es vor, dass man auf 4 M.2 gleichzeitig schreibt? Und von wo kommen gerade diese Daten, um dort zu schreiben? Daher wäre es schon gut machbar, dass man 4 M.2 an nur 4 Lanes anbindet und dann per Switch die Leistung aufgeteilt werden kann, aber trotzdem volle Bandbreite auf eine einzelne zur Verfügung steht. In meinem Fall benötige ich auch nicht annähernd die Geschwindigkeiten, aber mit so einer Karte wäre es aufgeräumt und einfach.
Bleibt mir aktuell eigentlich nur ein SATA-Controller und die SATA-SSDs lose im Gehäuse unterzubringen. Hab ein Dan A4 und die "Grafik-Seite" ist bisher ungenutzt, jedoch hab ich auch keine befestigung für SATA frei, müsste man schon rumbasteln.
Eigendlich wäre es ja kein ganz so großes Problem, ein Lane-Switch zu verbauen um dann 4 oder gar mehr M.2 anzusprechen, ohne dass Bifurication und x16 notwendig wäre. Klar, man erreicht nicht die volle Geschwindigkeit, aber wie oft kommt es vor, dass man auf 4 M.2 gleichzeitig schreibt? Und von wo kommen gerade diese Daten, um dort zu schreiben? Daher wäre es schon gut machbar, dass man 4 M.2 an nur 4 Lanes anbindet und dann per Switch die Leistung aufgeteilt werden kann, aber trotzdem volle Bandbreite auf eine einzelne zur Verfügung steht. In meinem Fall benötige ich auch nicht annähernd die Geschwindigkeiten, aber mit so einer Karte wäre es aufgeräumt und einfach.
Bleibt mir aktuell eigentlich nur ein SATA-Controller und die SATA-SSDs lose im Gehäuse unterzubringen. Hab ein Dan A4 und die "Grafik-Seite" ist bisher ungenutzt, jedoch hab ich auch keine befestigung für SATA frei, müsste man schon rumbasteln.
whocares0101
Cadet 2nd Year
- Registriert
- Feb. 2015
- Beiträge
- 24
Genau darum will ich die Dinger nicht.mkossmann schrieb:Also eine Karte mit "PCIE-Switch". Solche Bausteine sind aber teuer und energiefressend.
Ja, mir würde PCIe3 reichen mit 8x2 oder 16x1 SSDs im raid ist die geschwindigkeit pro SSD auch egal.mkossmann schrieb:Schon eine PCIe3 Lane wäre aber immer noch ca. 25% schneller als ein SATA-Port. Der im größten Teil der Anwendungsfälle von der Geschwindigkeit ausreicht.
Aber so könnte man günstige SSDs einfach zusammenfassen wenn mehr speicher benötigt wird.
Warum müssen SSDs auch immer mit 4x angebunden werden, mir würde auch 2x oder sogar 1x reichen.Penman schrieb:Der 13900KS hat nur 20 PCIe Lanes. Da würden 5 4x NVMe SSDs drauf gehen... wenn du auf die GPU verzichtest oder sie über den Chipsatz mit geteilter Bandbreite anschließt.
Consumer baords mit weniger als zwei voll beschalteten 16x slots sind auch ein Witz, es müsten mindestens 40 lanes oder mehr sein.
Server boards sollten bifurcation können, für NAS/home server kann man daher gebrauchte epyc mit 128 lanes nehmen.Ozmog schrieb:Leider ist es nicht so einfach, Boards mit Bifurcation auszumachen
Und "bezahlbare" 16x4 TB in einem PCIe slot wären schon nicht schlecht
Dann kannst du wie hier bereits angemerkt die Karte von Sabrent nutzenOzmog schrieb:in meinem Nebensystem solch eine Karte einzubauen, PCIe 5.0 hab ich aber nicht nötig, geht ja aber auch langsamer. (mit nen 5600G geht eh nur PCIe 3.0).
https://sabrent.com/collections/memory-accessories/products/ec-p3x4
Ergänzung ()
Wer das Geld für 16x4TB M.2 SSDs hat, der sollte auch das Geld für eine Raidkarte haben, an der er diese betreiben kann. Der "Rest" kauft sich einfach einen ausreichend großen U.2/U.3 Datenträger mit einem M.2 Adapterkabel.whocares0101 schrieb:Und "bezahlbare" 16x4 TB in einem PCIe slot wären schon nicht schlecht
Zuletzt bearbeitet:
mkossmann schrieb:PCIe5 stellt höhere elektrische Anforderungen an die "Verdrahtung". Wenn diese nicht schon beim Design der Leiterkarte berücksichtigt werden, wird es grenzwertig. Und sobald im Signalweg auch aktive Bauelemente wie z.B Retimer liegen sind die Chancen gering.
Schon klar, die Lanes sind auf solchen Karten aber bereits auf dem möglichst kurzem Wege ausgeführt, sieht man auf dem Foto auch. Ich kann mir nicht vorstellen, dass sich daran tatsächlich viel geändert hat .
Naitrael
Lt. Junior Grade
- Registriert
- Mai 2009
- Beiträge
- 385
Die Frage ist immer, wie viele Leute das brauchen.Ozmog schrieb:--Bitte die Zitierregeln beachten--
- Nur Kunden auf Desktop-Plattformen
- Davon nur die, denen ~5 M.2-NVMe Drives brauchen/wollen (MBs mit 2-3 M.2 onboard sind normal, abseits der GPU sind noch mal so 2 PCIe Slots übrig für je eine M.2
- Davon nur die, die kein Bifurcation haben
Das sind meines Erachtens
a) nicht viele und die haben
b) den falschen Untersatz gewählt
Aber ja, der Aufpreis für die kompakteste, schnellste und flexibelste Lösung in einem Paket ist hoch, war er immer und wird er immer sein.
Vllt gebraucht einfach ne gebrauchte X299 oder X399 Plattform dafür erwerben? Da gehen bis zu 28x PCIe 3.0x4 NVMe.
Zuletzt bearbeitet von einem Moderator:
Wenn die SSDs in einem RAID5/6/10 betrieben werden ?Ozmog schrieb:Klar, man erreicht nicht die volle Geschwindigkeit, aber wie oft kommt es vor, dass man auf 4 M.2 gleichzeitig schreibt?
- Registriert
- Feb. 2009
- Beiträge
- 832
Gute Frage. Im Prinzip spricht ja nichts dagegen, über den Chipsatz wieder mehr Lanes bereitzustellen, die sich dann die 4x Lanes zur CPU Teilen. Dahinter dann noch ein Chipsatz und noch einer... Oder vielleicht 2 Chipsätze an der CPU? Keine Ahnung, ob das geht. Aber vielleicht tut eine PCIe-Bifurcation x16 to x4x4x4x4 Expansion Card ja schon den Job. Wobei die sichtbaren Leiterbahnen nichts Gutes versprechen.whocares0101 schrieb:Warum müssen SSDs auch immer mit 4x angebunden werden, mir würde auch 2x oder sogar 1x reichen.
Consumer baords mit weniger als zwei voll beschalteten 16x slots sind auch ein Witz, es müsten mindestens 40 lanes oder mehr sein.
Oder eine andere Adapterkarte mit der man einen ganzen Turm bauen kann.
whocares0101
Cadet 2nd Year
- Registriert
- Feb. 2015
- Beiträge
- 24
Die Raidkarten mit PCIe switch brauchen halt auch mehr Strom und machen so ein Setup noch teurer.xexex schrieb:Wer das Geld für 16x4TB M.2 SSDs hat, der sollte auch das Geld für eine Raidkarte haben, an der er diese betreiben kann
Billing sind 16 SSDs nicht aber U.2/3 mit >30TB kosten ~90€/TB, wohingegen 2TB M.2 SSDs ~40€/TB kosten, also weniger als die hälfte.xexex schrieb:Der "Rest" kauft sich einfach einen ausreichend großen U.2/U.3 Datenträger mit einem M.2 Adapterkabel.
Und 4TB SSDs gibts auch für um die 50€/TB.
https://geizhals.de/?cat=hdssd&xf=252_1920~4832_3
https://geizhals.de/?cat=hdssd&xf=252_30720
Mit PCIe5 zum Chipsatz und dann würde ja auch PCIe4 locker reichen, je mehr je besser.Penman schrieb:Im Prinzip spricht ja nichts dagegen, über den Chipsatz wieder mehr Lanes bereitzustellen, die sich dann die 4x Lanes zur CPU Teilen
Boards werden immer teurer aber die Hersteller geizen bei den PCIe lanes.
Jeder Slot ist halt nur x4 und eine Karte mit bifurcation würde hier nicht mehr funktionieren.Penman schrieb:Aber vielleicht tut eine PCIe-Bifurcation x16 to x4x4x4x4 Expansion Card ja schon den Job. Wobei die sichtbaren Leiterbahnen nichts Gutes versprechen.
Für günstige SAS Controller wäre die Idee nicht schlecht, braucht aber noch ein riser-cable und Platz im Gehäuse.
Nur leider würde das nicht funktionieren.Penman schrieb:mit der man einen ganzen Turm bauen kann
cypeak schrieb:es gibt eine unterteilung in consumer und hedt/workstation/server plattformen und für die allermeisten consumer ist das was intel und amd in deren desktopsparten anbieten absolut ausreichend; da sollte man die kirche im dorf lassen.
wenn man höhere ansprüche hat, dann sollte man auch zum entsprechenden marktsegment greifen.
Würde ich ja gern... aber allem Anschein nach ist AMD nicht mehr am HEDT-Segment (64x PCIe, 4 Speicherkanäle) interessiert und will nur noch die Workstation-Schiene (Threadripper Pro) vermarkten.
Und ja, mehr als 20-28 Lanes hätte ich gern - aber 128 sind dann doch ein wenig sehr viel...
Wer sich für 16 M.2 Datenträger entscheidet, macht es nicht aus Jux und Tollerei, genauso wie jemand der 16 Festplatten nutzt. Es ist dann ein Hobby oder semiprofessionelle Nutzung und da kommt es dann auf ein paar Watt nicht an. Für den "Rest" ist sowas völlig irrelevant, die kommen auch mit 1-3 SSDs aus.whocares0101 schrieb:Die Raidkarten mit PCIe switch brauchen halt auch mehr Strom und machen so ein Setup noch teurer.
Ich bin allerdings bei dir, mit steigenden PCIe Geschwindigkeiten, sollte man die 4x Anbindung und den gesamten M.2 Anschluss mal komplett überdenken. Sachen wie SATA Express sind aber nun mal gescheitert und U.2/U.3 bei Consumerhardware nicht angekommen.
Zuletzt bearbeitet:
cypeak
Captain
- Registriert
- Dez. 2013
- Beiträge
- 3.840
wie bereits geschrieben: ist eine frage der erwartungen.Araska schrieb:Und ja, mehr als 20-28 Lanes hätte ich gern
ich gehe davon aus dass die lanes bzw. die verfügbare bandbreite mit der zeit steigen wird; vielleicht nicht sofort..aber mit der zeit zwangsläufig.
whocares0101
Cadet 2nd Year
- Registriert
- Feb. 2015
- Beiträge
- 24
Der Großteil meiner Daten ist auf HDDs aber für einige Dinge braucht man eben SDDs oder es ist zu langsam, ich suche immer nach möglichst günstigen Lösungen.xexex schrieb:Wer sich für 16 M.2 Datenträger entscheidet, macht es nicht aus Jux und Tollerei, genauso wie jemand der 16 Festplatten nutzt.
Wenn zwei M.2 gestapelt würden könnte man x4 mit einer SSD haben und bei 2 SSDs 2x2 per bifurcation, so könnte man die M.2 Kapazität verdoppeln, Kühlung/heat sink wäre halt ein Problem bei high-end SSDs.xexex schrieb:Ich bin allerdings bei dir, mit steigenden PCIe Geschwindigkeiten, sollte man die 4x Anbindung und den gesamten M.2 Anschluss mal komplett überdenken
mkossmann schrieb:Also eine Karte mit "PCIE-Switch". Solche Bausteine sind aber teuer und energiefressend.
Noch mehr Lanes in der CPU lohnt sich aber für AMD und Intel auch nicht. Die meisten Endanwender haben halt nur minimale Anforderungen.
Für bessere Mainboards muss man dann zwangsläufig auf extra Chips setzen, die die Lanes weiter aufteilen.
Die Fakten sehen anders aus, Samsung M2 (z.B.) Onboard als auch mit der Hypercard funktionieren Bestens.G3cko schrieb:Dazu kommt, dass die Karte bei Intel ohnehin uninteressant ist, da Intel PCIe-Bifurcation nur mit Intel-SSDs untersützt. Glaube das hat sich bisher nicht geändert.
Sowohl mit VROC als auch x4x4x4x4
Ähnliche Themen
- Antworten
- 7
- Aufrufe
- 2.152
- Antworten
- 9
- Aufrufe
- 2.486
- Antworten
- 5
- Aufrufe
- 1.069
- Antworten
- 6
- Aufrufe
- 2.898
- Antworten
- 10
- Aufrufe
- 1.749