News Apex Storage X21: Adapterkarte vereint 21 M.2-SSDs zu 168 TB und 100 GB/s

@r4v398
Ich glaube, @jauns91 sucht eher so etwas.

EDIT:
Mist, vom Handy aus lassen sich die Filter-Einstellungen irgendwie nicht verlinken. Host-Schnittstelle "PCIe" und Ziel-Schnittstelle "M.2" - das sucht er.

EDIT2:
So, manuell den Link reingefummelt, nun gehts ^^
 
  • Gefällt mir
Reaktionen: r4v398
Ich halte das grundsätzlich für eine gute Sache.
Auch für Normalverbraucher.
Die Geräte werden immer kleiner und trotzdem braucht man nach wie vor relativ große Gehäuse um den ganzen Kram zu kühlen.
Warum dann nicht mehrere SSDs bündeln?
 
Zuletzt bearbeitet:
Rickmer schrieb:
Hier muss man fairerweise sagen, dass sowohl AMD als auch Intel da nicht komplett dran vorbei entwicklen.

AMD:
AM5 hat 28 PCIe Lanes gegenüber AM4 mit 24 PCIe Lanes, die zusätzlichen 4 Lanes sind frei verwendbar, z.B. für einen weiteren an CPU angebundenen m.2 Slot.
Ärgerlich ist hier, dass das Chipset nur mit PCIe 4.0 x4 angebunden ist. Da hätte AMD auf PCIe 5.0 x4 setzen müssen um Bottlenecks zu vermeiden. Eventuell wäre das aber auch zu hitzig und energiehungrig gewesen.

Intel:
Die CPU bietet zwar weiterhin nur 20 PCIe Lanes, aber das versteckt, dass das Chipset mit 'DMI 4.0 x8', also vergleichbar zu PCIe 4.0 x8 angebunden ist. Wenn man die zählen würde, sind das auch 28 Lanes...
Das Z790 Chipset kann daraus nochmal 20 PCIe 4.0 und 8 PCIe 3.0 Lanes machen, das dürfte für die meisten Home-User erstmal genügend PCIe sein...


Boards mit 4 m.2 Slots sind teuer, aber verfügbar. Auf Intel Seite gibt es sogar ein paar Boards mit 5 m.2 Slots. Wir sind schon weit weg von den Zeiten mit Boards, die einen, vielleicht mal zwei m.2 Slots hatten...



Würde da der PCIe Switch das nicht völlig ausbremsen?

Ergänzung:
Im DataCenter Umfeld (Epyc, Xenon) sieht das anders aus. Da hat AMD klar die Nase vorne.
AMD = 128 Lanes
Intel = 48 Lanes

Der Threadripper hat auch 128 Lanes ;)
Aber da brauchst halt wieder ein Kraftwerk als Netzteil.
 
2800$ kostet das gute Stück wohl.
 

Anhänge

  • Screenshot 2023-03-15 093042.png
    Screenshot 2023-03-15 093042.png
    14,9 KB · Aufrufe: 199
  • Gefällt mir
Reaktionen: Charminbaer, MichaG und Rickmer
Nette Performance Waffe. Aber die Privatperson hätte ja schon bei der Beschaffung der M.2s ein finanzielles Problem. Halt für Firmen...
 
AndroidNougat7 schrieb:
gehen da nd die Laufwerksbuchstaben (Windows) bzw. die Einhängepunkte (Unix/Linux) aus bei 21 zusätzlichen Laufwerken?
Keine Ahnung was Windows macht, aber bei den Linux Blockdevices gehts nach sdz weiter mit sdaa - sdaz, sdba -sdbz etc. Ist dort kein Problem.

kiffmet schrieb:
Beispiel: ASM2824; bietet 24 PCIe 3.0 Lanes, wahlweise mit 4x oder 8x Interface zum Host. Adapterkarten, die diesen nutzen, um mehr SSDs ohne Bifurcation an einem Slot anzuschließen, kosten 300-500€. Asmedia selbst bewirbt den Chip übrigens als "low-cost", gefertigt wird er wahrscheinlich in 28nm.
Sind sie ja auch. Bekommst auch schon welche für unter 200$ aus China. Demgegenüber stehen Karten mit PCIe Switches von Microchip oder Broadcom und da bekommst du kaum was unter 1000$. Daher sind die Karten mit dem ASMedia Switch schon günstig im Vergleich. Heißt natürlich noch lange nicht, dass das Preisregionen sind, wo jeder normale Consumer mal schnell zuschlägt :)
 
AndroidNougat7 schrieb:
gehen da nd die Laufwerksbuchstaben (Windows) bzw. die Einhängepunkte (Unix/Linux) aus bei 21 zusätzlichen Laufwerken?
Dir gehen die Buchstaben aus, aber Windows ist schon lang nicht mehr an die Buchstaben gefesselt. Mit NTFS Junction Points kannst du dir ein Verzeichnis mit all deinen SSDs machen und jeden Namen vergeben, den du willst.
1678874502635.png
 
  • Gefällt mir
Reaktionen: Rickmer und The-Master
Wenn man die Maximalbestückung mit 168 TB wählt (8 TB pro Riegel), dann muss man wie viele Teslas dafür verkaufen? ;)
 
…endlich genug Platz für meine Urlaubsbilder und Foodselfies.
 
  • Gefällt mir
Reaktionen: r4v398
Weyoun schrieb:
Wenn man die Maximalbestückung mit 168 TB wählt (8 TB pro Riegel), dann muss man wie viele Teslas dafür verkaufen? ;)
Das kostet wohl $2800 (siehe Post #66), also so 3200€ mit Steuern.
Plus 21x Corsair Force Series MP600 Pro NH 8TB, M.2 mit 1110€

Gesamtkosten also ~25600€, bei 21 SSDs kannste eventuell auch einen Mengenrabatt bekommen der dich auf 25000€ bringt.
 
  • Gefällt mir
Reaktionen: Weyoun
Rehtsch schrieb:
16 oder 32 GB RAM in Zeiten von Windows XP und Gothic 3 ?
Was entgeht mir hier ?
Joe Dalton schrieb:
Die Frage von @Rehtsch lautet, wie Du unter Windows XP auf eine nutzbare RAM-Größe von 16-32 GB kommen willst.
Ich dachte auch erst, das Windows XP wird virtuell in eine Ramdisk installiert, aber …
Highspeed Opi schrieb:
Weil eine RAM-Disk eine Festplatte, bestehend aus Arbeitsspeichern ist.
das hier ließ mich „Achsooo“ sagen, weil eine physische Ramdisk gemeint war. Die Existenz solcher Geräte war mir auch unbekannt, aber erscheint logisch, wenn man bedekt, wie langsam Festplatten zu XP-Zeiten noch waren (mein Business-Laptop Samsung P30 von 2004 hatte noch ne IDE-Platte, die schaffte glaube ich 20 MB/s).

Joe Dalton schrieb:
Die Abstimmung bei den Mitlesenden würde mich interessieren: Wer kennt Deine Variante einer RAM-Disk und wer versteht darunter meine Variante?
Ich ging auch von der Ramdisk aus, wie man sie vom Amiga und Linux kennt: ein Block device, das aus System-RAM aufgebaut wird.
 
  • Gefällt mir
Reaktionen: ThePlayer und DieRenteEnte
Gibt es den Lösungen mit denen man 128 bzw. 256GB RAM am PCIe als "DISK" nutzen kann ?

Gewisse Arbeitsprozesse könnte man damit agieler gestalten.

In meinem alten Rechner habe ich z.B. TEMP Ordner auf einer separaten HDD verlinkt.Also alle vom system und soweit möglich auch Programme.

Downloads hatten eine eigene HDD um z.b. dann das entpacken daraufhin zum zielort zu beschleunigen.

Für Bilder Eigner Speicher.
Videos eigener Speicher usw...

Der Chipsatz wurde ja nie ausgereizt aber zumindest wurden dadurch read/write Konflikte beseitigt.


Bei einem RAM only Speicher als Download Ordner für .exe und .zip schont man auch die SSD.
 
Vorweg, ich halte M.2 für den letzten Drecksstandard der bis auf den niedrigen Preis nichts in Desktops zu suchen hat. Eigentlich sollten SSDs in Desktops mit U.2/U.3 laufen, bessere Wartung, Kühlung, einfacherer Einbau. Einfach besser.

Aber es gibt noch eine Option. Ich habe vor ein paar Jahren einen Xeon-Rechner mit 20 CPU-Kernen, 60GByte RAM und zwei (!!!) PCIE2.0x8 SSDs für €1 bekommen. Ja, da saß das Flash direkt auf der PCI-Karte. War übrigens sogar MLC. Kein M.2, kein nix. Die PCIE-Steckkarten waren ziemlich groß und wirklich vorne und hinten restlos bestückt. Diese ururalten SSDS waren SAUSCHNELL, gerade bei wahlfreien Zugriffen, und prima gekühlt und liefen in einem "Busmaster-DMA-RAID", d.h. untereinander waren sie ein RAID1 das aber rein über den Bus kommunizierte und keine Unterstützung vom OS brauchte, nach aussen erschien das als ein Device. Ziemlich wilde Scheiße. Weil man schon für Windows 8 Probleme mit Treibern hatte habe ich den Rechner zu einem Renderknecht unter Linux degradiert und abgegeben was auch daran lag dass das Ding zwar 20 Kerne hatte aber bei 1800Mhz war das einfach ein Witz, solange er nicht renderte fühlte er sich wie ein Pentium4 aus dem Jahr 2003 an. Lediglich der Stromverbrauch war überraschend niedrig für so eine alte Märe.

Bifurcation ist preiswert aber immer eine Notlösung weil die Transfers nicht lastverteilt werden und erfordert Unterstützung im Chipset, Firmware und Betriebssystem - das ist zwar heute oft der Fall aber z.B. men Xeon-Rechner mit mehreren PCIEx8-Slots kann auf diesen Slots keine Bifurcation.

Bsp, wenn SSD1 im random-Access gerade nur 100MByte/s liefert haben die anderen SSDs deswegen nicht mehr Bandbreite zur Verfügung. Mit einem Switch sieht das anders aus, wenn da 16 SSDS an einem PCIEx16-Slot hängen und 15 davon gerade nur 100MByte/s brauchen kann die sechzehnte die gesamte restliche Bandbreite nutzen - zumindestens wenn sie selbst schnell genug ist.

PCIE-Switches. speziell die richtig schnellen und breiten, sind TEUER. Sündhaft teuer. Das liegt an den niedrigen Stückzahlen, selbst bei Servern sind die eher selten im Einsatz.

Was mich interessieren würde, auf Aliexpress habe ich eine Bifurcation-Card gesehen die ihre PCIE3.0x8-Anschlüsse auf vier PCIE3.0x2-Anschlüsse verteilt und das für unter €100. D.h. man könnte das schön verwenden um vier preiswerte, mittelschnelle PCIE-SSDs, z.B. 4x8TByte QLC, und eine OBerklasse-GPU parallel zu betreiben. Zwar hätten dann GPU und SSD-RAID leichte Nachteile aber die wären imho akzeptabel.

Nur... ob sowas gut läuft? Keine Ahnung. Können Boards x2-Bifurcation?
Ergänzung ()

mannduro schrieb:
Gibt es den Lösungen mit denen man 128 bzw. 256GB RAM am PCIe als "DISK" nutzen kann ?

Sowas nennt man DRAM-based Storage Solutions, nicht RAM-Disk. Haben üblicherweise noch Flash und einen Akku drin damit im Ausfallsfall alles aufs Flash geschrieben werden kann.

Vorweg: Das geht ist aber Quatsch. Sowas wird ja vom PCIE-Bus und vom Busprotokoll runtergebremst. Du hast dann zwar RAM drin und das ist auch schneller als Flash aber nicht so schnell wie echtes RAM. Linear dürfte es "etwas", d.h. 2-3mal, schneller sein und Random Access vieleicht Faktor 10.

Echtes RAM hingegen liegt GRÖSSENORDNUNGEN über solchen Lösungen. Ich habe unter Linux in einem Rechner mit 256GByte RAM eine 128GByte RAM-Disk gesehen die satte 200GByte/s wuppte. RANDOM. Aber in der Praxis bringt das nichts. Ich habe da Steam drauf installiert und dann ein paar Sachen davon gestartet, kaum Unterschied zur SATA-SSD. Selbst parallelisierte Bildverarbeitung profitiert davon exakt garnicht (hier lediglich Crop+Resize mittels Imagemagick und xargs auf der Commandline, bei 24 CPU-Treads mit 48 parallelen Läufen gefüttert).

Achja, solche Storage-Solutions sind EXORBITANT teuer. Leer gerne mal fünfstellig. Da zahlste schon fürs RAM locker fünfmal so viel wie für normales DDR5-RAM. Dafür gibt es da Fully-Buffered Module mit 512GByte pro Modul und Du kannst 32 Stück verbauen. Kostet so viel wie eine Luxusjacht oder eine Wohnung in München aber gibt es.
 
Zuletzt bearbeitet:
@Highspeed Opi
Ich glaube, du versuchst die Tatsache, dass du etwas in der Zeit verrutscht bist mit deinem Ansatz zu erklären.

Gothic 3 kam 2006, kurz vor Vista-Release.
Ein Gigabyte i-Ram auf PCI/Sata-Basis (Max 4GB) oder ACard Lösungen (max 8GB) hatte so gut wie niemand.
Von dem gezeigten Hyperdrive 4 Rev 2 von 2007 ganz zu schweigen, denn das Ding unterstützte zwar 32GB, aber nur in Form von 8 quasi unbezahlbaren 4GB ECC REG Modulen (für schlappe 10000-12000 Euro zzgl. 1500 Euro für das Hyperdrive selbst) - und diese Lösungen hatten einen dicken zusätzlichen Haken - sie waren über Sata150 bzw. Pata angebunden
Daher hatten wohl kaum mehr als 0% aller Gamer etwas derartiges im Rechner.
Die halbwegs erschwinglichen, oben erwähnten Varianten von Gigabyte oder ACard, unterstützen halt max. 4GB bzw. 8GB

Mit 32GB Ram in den eigentlichen Ramslots hatte ich auch eine 20GB statische Ramdisk - 3 Jahre später unter Windows Vista/7 als die Rampreise purzelten. Tempfile, Browsercache, etc und ein Game drauf, das war nice - und das haben einige so gemacht. Aber das war einfach etwas später mit Software und dem Ram auf dem Board selbst. Und das Ergebnis sah dann so aus (bei mir):

Ramdisk.jpg


Und hier hat sich das dann auch richtig gelohnt wie man sieht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Otsy, Conqi und Joe Dalton
Rickmer schrieb:
Die brechen wenigstens nicht nach ein paar TB Writes komplett weg :evillol:
meine rede :D

aber dennoch interesantes nieschenprodukt, wenngleich ich bei server auf besagte durchdachte lösungen zurückgreifen würde^^
 
Zu Windows XP Zeiten, das war noch bevor es SSDs gab, hatte ich die Festplatten im Raid0 und mir einen Rechner 8 GB RAM gegönnt. XP 32-bit konnte zwar nur 4 GB nutzen, aber die anderen 4 konnten für eine RAM-Disk genutzt werden. Diese RAM-Disk hatte ich dann für die Auslagerungsdatei des Systems genutzt. Das Ergebnis war ein extrem flottes System für seine Zeit, zum arbeiten und zocken.
 
Zurück
Oben