Notiz ASRock Rack RB4M2_G4: Riser teilt PCIe 4.0 x16 in viermal PCIe 4.0 x4 auf

Schönes Produkt und definitiv mit nutzen. Ich wäre dafür dass die Board m.2 Plätze wegfallen und man durch solche Karten sich konnektivität schaffen kann wenn man sie denn will.

Tote Lanes in m.2 Slots kann ich garnicht Leiden.

Eine Stufe über dem Produkt gibt's dann noch den Liquid Honey Badger :D
 
PS828 schrieb:
Ich wäre dafür dass die Board m.2 Plätze wegfallen und man durch solche Karten sich konnektivität schaffen kann wenn man sie denn will.
Mag sein, aber es helfen dir 5 PCIe X16 Slots nichts, wenn man sie elektrisch nicht anbinden kann. Schließlich können Mainboards die Lanes nicht flexibel verteilen.
 
@r4yn3 richtig aber dafür kann man halt verschiedene Board-Layouts aufsetzen. Dann hätten die 1337 verschiedenen Versionen Pro Hersteller auch mal einen Sinn^^

Von voller Anbindung Habe ich auch nicht gesprochen dafür gibt's HEDT und entsprechende AICs.

Die Mainstreamsockel haben auch genug lanes hier für Variationen zu sorgen. Gibt ja genug AICs mit x4 und auch x8 Anbindung je nach Größe dieser.
 
Das ist aber alles erst neuerdings so, bei meinem alten 5820k standen trotz HEDT Einordnung nur 28 Lanes zur Verfügung.
 
@holdes das Problem hatte ich auch. Aber wie sehr man über den Tisch gezogen wurde merkt man auch immer erst hinterher :D

Jetzt hat sich ja alles zum guten gewendet
 
@PS828

Mir war das vorher klar und ich habe lange vorher darüber nachgedacht wie ich am besten damit haushalte. Problem war eher der unverschämte Aufpreis gegenüber der 2 Kerne mehr, welche dann 40 Lanes bedeutet hätten ;).
 
  • Gefällt mir
Reaktionen: PS828
@holdes darauf Bezog es sich auch eher ^^
 
  • Gefällt mir
Reaktionen: holdes
Exakt erkannt. PCIe 4.0 SSDs sind im kommen und mit einem solchen Riser könnte man (rein theoretisch) sogar auf günstigen Ryzen-Boards etwas sinnvolles anfangen, wenn man die (schwache) Graka über den 500er-Chipsatz anbindet.

Es gibt bestimmt eine Niesche, deren einzige Anforderung ist: "8 TB Speicher, der mit >10.000 MB/s angebunden ist" Diese Niesche wird damit plötzlich preiswert (falls man knapp 1000 Euro für den SSD-Speicher so bezeichnen kann ^^)
 
Die Nische die 1000€ für SSDs ausgibt aber dann an den 50-100€ am Adapter spart? Klar.

Wie schon von anderen bemerkt, der Adapter hat wirklich kein Novum gegenüber bestehenden Lösungen.
 
  • Gefällt mir
Reaktionen: PS828
noxcivi schrieb:
Diese Niesche wird damit plötzlich preiswert (falls man knapp 1000 Euro für den SSD-Speicher so bezeichnen kann ^^)
Die Dinger gibt es seit Ende April. Damals war eher die Frage ob man aus P/L-Sicht nicht 4 ins Raid schaltet.
 
holdes schrieb:
bei meinem alten 5820k standen trotz HEDT Einordnung nur 28 Lanes zur Verfügung.
der 5820K war damals mit ~350€ für nen (Intel-)hexacore günstig, für den 4930K wurden bei release noch ~500€ verlangt. da hat man den 5820K halt bei den PCIe-lanes kastriert um noch ne daseinsberechtigung für den ~525€ teuren 5930K mit 40 lanes zu haben. nur um die zu haben musste man nicht zum 1000€ teuren 5960X greifen.
 
  • Gefällt mir
Reaktionen: holdes
Ein bisschen mehr musste ich damals schon zahlen, ich hab da um die 400€ im Hinterkopf aber nichts desto trotz hätte man auch die 2 Kerne mehr entsprechend preislich weniger weit auseinanderhalten können bei gleicher Lane-Anzahl. Das Chaos mit den Lanes ging dann aus den Boardhandbüchern hervor. Diese Zeit ist zum Glück nun endgültig Geschichte und mit dem TR hab ich nun mehr als genug. Der 8 Kerner war definitiv komplett uninteressant weil zu nahe an den Xeons welche dann deutlich mehr geboten haben.

Im Idealfall sollten bei einer CPU Kaufentscheidung die Lanes gar keine Rolle spielen sondern eher Takt, IPC und Kernzahl für die Gesamtperformance. Das ist sowieso nur ein wenig Gejammer auf hohem Niveau :). Für die damalige Zeit war ich dankbar für die Performance und auch heute steht die CPU nicht schlecht da, weshalb die bei meinem alten Herren ihr Leben weiterführt. Lediglich der Stromverbrauch ist für heutige Verhältnisse in Anbetracht der Kerne ein wenig brutal.

Zum Thema hier sollte man vielleicht noch sagen dass man abgesehen vom offenen Aufbau für die passende Server Kühlung auch die Bauhöhe und die Schraubbefestigungen entscheidend sind, da würde mir so eine Retail Karte nichts nützen.
 
  • Gefällt mir
Reaktionen: PS828
OT

@holdes:
der 5820K war ab anfang 2015 teurer geworden und auch lange geblieben. ich hatte für meinen am 30.9.14 341,20€ bezahlt.

bei mir ist er immer noch im einsatz und mir reichen die PCIe-lanes auch locker, aber ich bin wohl auch nicht der typische HEDT-käufer. hatte den damals nur wegen haben wollen gekauft.

verbrauch geht mMn, ~17W im leerlauf und bei CB R20/23 ~95W gewinnen jetzt keinen preis, aber aktuelle hexacores sind auch nicht soo viel sparsamer. die liefern natürlich deutlich mehr leistung und sind dementsprechend deutlich effizienter. mit prime kann man wohl 130W durchprügeln.

Intel hätte in der vergangenheit so manche CPU etwas günstiger anbieten können ohne draufzuzahlen:freak::D
 
  • Gefällt mir
Reaktionen: holdes
r4yn3 schrieb:
Mag sein, aber es helfen dir 5 PCIe X16 Slots nichts, wenn man sie elektrisch nicht anbinden kann. Schließlich können Mainboards die Lanes nicht flexibel verteilen.
Die meisten Konsumenten brauchen nicht mehr mehrere PCIe Steckplätze neben der Grafikkarte, weil die andere Peripherie wie Soundkarte oder Festplatten/M.2 auf dem Board integriert werden - oder per USB3/TB3/TB4/USB4 extern angeschlossen sein können.
SATA-ähnliche NVMe (U.2 , SFF-8643) Anschlüsse gibt es bereits - worüber PCIe auch laufen kann.

Die Anbindung von PCIe ist wegen der Komplexität auch teurer und macht evtl. Herstellern Probleme - PLX (bzw. nun Broadcom) verlangt für ihre PCIe Switches €€€. (lt. AVNET zB >100€ pro Gen3 Switch-Chip); AMD wollte keine PCIe Gen4 auf X370 (src)
Soviel Aufpreis für Motherboards ist nicht realistisch

Trotzdem sind mMn die X16 Slots trotzdem Sinnvoll, weil diese Bauform auch kleinere Karten aufnehmen kann - afaik ist die Zahl der Lanes unabhängig vom Formfaktor - in Miningracks laufen die X16 Karten auch nur in X1 Slots.
 
  • Gefällt mir
Reaktionen: PS828 und holdes
Dafür gibt es bei meinen Servern auf jedem Board auch PCIe 1x Slots die hinten offen sind, so kann man auch längere Karten nutzen wenn man nicht die volle Bandbreite braucht. Bei den Boards in den Preisklassen ab 550€ kann man aber schon PCIe Switches oder im besten Falle komplette Anbindung erwarten ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828
deo schrieb:
aber einen zweiten PCIe x16 Steckplatz hat man meistens noch frei.
Aber leider sind die wenigsten zweiten und dritten PCIe x16 Steckplätze auch voll bestückt.
Wenn im ersten eine GraKa sitzt, wird der zweite meist eh nur mit x8 genutzt.
 
Wishbringer schrieb:
Aber leider sind die wenigsten zweiten und dritten PCIe x16 Steckplätze auch voll bestückt.
Wenn im ersten eine GraKa sitzt, wird der zweite meist eh nur mit x8 genutzt.
War das nicht so, wenn der zweite PCIe x8 genutzt wird, das dann der erste auch nur noch x8 hat?
 
Rickmer schrieb:
Welchen Teil von 'Server-Sparte' hast du überlesen?
Jede Wette, dass dein Board kein Bifurcation kann


Mir wäre jetzt keine Liste mit bifurcation fähigen Boards bekannt, aber ich glaube da kannst du eher im HEDT-Bereich suchen, da wird sich was finden
AMDs X570 und X470 kann generell Bifurcation

Ob Der Hersteller das offenlegt im BIOS ist dem Hersteller überlassen (meist als PCIeRAID oder 4x4 Mode beschrieben im UEFI...

Zumindest habe ich bei X570 und X470 Boards (kann über ASUS und AsRock Rack Platinen sprechen wo das überall geht) gesehen das die Bifurcation bieten...

Das Bifurcation dank begrenzten Lanes wenn nur auf dem vollständig elektrisch angebundenen PCIe Slot sinnvoll ist auf non HEDT steht allerdings auf einer anderen Seite

Und ja ich sehe den Anwendungsfall für AsRock Rack Platinen die 2x 10Gbase-T und IPMI haben wie die X470D4U2-2T oder die X570 (X570D4U-2L2T) Variante des Boards...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rickmer
Zurück
Oben