Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsApex Storage X21: Adapterkarte vereint 21 M.2-SSDs zu 168 TB und 100 GB/s
Gibt's das Konzept auch für Privat und bezahlbar? Ne Karte mit 4 SSDs die als ein Datenträger erkannt werden wäre perfekt. 4*2 TB SSD rein und man hat brutal schnelle 8TB SSD.
EDIT:
Mist, vom Handy aus lassen sich die Filter-Einstellungen irgendwie nicht verlinken. Host-Schnittstelle "PCIe" und Ziel-Schnittstelle "M.2" - das sucht er.
EDIT2:
So, manuell den Link reingefummelt, nun gehts ^^
Ich halte das grundsätzlich für eine gute Sache.
Auch für Normalverbraucher.
Die Geräte werden immer kleiner und trotzdem braucht man nach wie vor relativ große Gehäuse um den ganzen Kram zu kühlen.
Warum dann nicht mehrere SSDs bündeln?
Hier muss man fairerweise sagen, dass sowohl AMD als auch Intel da nicht komplett dran vorbei entwicklen.
AMD:
AM5 hat 28 PCIe Lanes gegenüber AM4 mit 24 PCIe Lanes, die zusätzlichen 4 Lanes sind frei verwendbar, z.B. für einen weiteren an CPU angebundenen m.2 Slot.
Ärgerlich ist hier, dass das Chipset nur mit PCIe 4.0 x4 angebunden ist. Da hätte AMD auf PCIe 5.0 x4 setzen müssen um Bottlenecks zu vermeiden. Eventuell wäre das aber auch zu hitzig und energiehungrig gewesen.
Intel:
Die CPU bietet zwar weiterhin nur 20 PCIe Lanes, aber das versteckt, dass das Chipset mit 'DMI 4.0 x8', also vergleichbar zu PCIe 4.0 x8 angebunden ist. Wenn man die zählen würde, sind das auch 28 Lanes...
Das Z790 Chipset kann daraus nochmal 20 PCIe 4.0 und 8 PCIe 3.0 Lanes machen, das dürfte für die meisten Home-User erstmal genügend PCIe sein...
Boards mit 4 m.2 Slots sind teuer, aber verfügbar. Auf Intel Seite gibt es sogar ein paar Boards mit 5 m.2 Slots. Wir sind schon weit weg von den Zeiten mit Boards, die einen, vielleicht mal zwei m.2 Slots hatten...
Würde da der PCIe Switch das nicht völlig ausbremsen?
Keine Ahnung was Windows macht, aber bei den Linux Blockdevices gehts nach sdz weiter mit sdaa - sdaz, sdba -sdbz etc. Ist dort kein Problem.
kiffmet schrieb:
Beispiel: ASM2824; bietet 24 PCIe 3.0 Lanes, wahlweise mit 4x oder 8x Interface zum Host. Adapterkarten, die diesen nutzen, um mehr SSDs ohne Bifurcation an einem Slot anzuschließen, kosten 300-500€. Asmedia selbst bewirbt den Chip übrigens als "low-cost", gefertigt wird er wahrscheinlich in 28nm.
Sind sie ja auch. Bekommst auch schon welche für unter 200$ aus China. Demgegenüber stehen Karten mit PCIe Switches von Microchip oder Broadcom und da bekommst du kaum was unter 1000$. Daher sind die Karten mit dem ASMedia Switch schon günstig im Vergleich. Heißt natürlich noch lange nicht, dass das Preisregionen sind, wo jeder normale Consumer mal schnell zuschlägt
Dir gehen die Buchstaben aus, aber Windows ist schon lang nicht mehr an die Buchstaben gefesselt. Mit NTFS Junction Points kannst du dir ein Verzeichnis mit all deinen SSDs machen und jeden Namen vergeben, den du willst.
das hier ließ mich „Achsooo“ sagen, weil eine physische Ramdisk gemeint war. Die Existenz solcher Geräte war mir auch unbekannt, aber erscheint logisch, wenn man bedekt, wie langsam Festplatten zu XP-Zeiten noch waren (mein Business-Laptop Samsung P30 von 2004 hatte noch ne IDE-Platte, die schaffte glaube ich 20 MB/s).
Joe Dalton schrieb:
Die Abstimmung bei den Mitlesenden würde mich interessieren: Wer kennt Deine Variante einer RAM-Disk und wer versteht darunter meine Variante?
Vorweg, ich halte M.2 für den letzten Drecksstandard der bis auf den niedrigen Preis nichts in Desktops zu suchen hat. Eigentlich sollten SSDs in Desktops mit U.2/U.3 laufen, bessere Wartung, Kühlung, einfacherer Einbau. Einfach besser.
Aber es gibt noch eine Option. Ich habe vor ein paar Jahren einen Xeon-Rechner mit 20 CPU-Kernen, 60GByte RAM und zwei (!!!) PCIE2.0x8 SSDs für €1 bekommen. Ja, da saß das Flash direkt auf der PCI-Karte. War übrigens sogar MLC. Kein M.2, kein nix. Die PCIE-Steckkarten waren ziemlich groß und wirklich vorne und hinten restlos bestückt. Diese ururalten SSDS waren SAUSCHNELL, gerade bei wahlfreien Zugriffen, und prima gekühlt und liefen in einem "Busmaster-DMA-RAID", d.h. untereinander waren sie ein RAID1 das aber rein über den Bus kommunizierte und keine Unterstützung vom OS brauchte, nach aussen erschien das als ein Device. Ziemlich wilde Scheiße. Weil man schon für Windows 8 Probleme mit Treibern hatte habe ich den Rechner zu einem Renderknecht unter Linux degradiert und abgegeben was auch daran lag dass das Ding zwar 20 Kerne hatte aber bei 1800Mhz war das einfach ein Witz, solange er nicht renderte fühlte er sich wie ein Pentium4 aus dem Jahr 2003 an. Lediglich der Stromverbrauch war überraschend niedrig für so eine alte Märe.
Bifurcation ist preiswert aber immer eine Notlösung weil die Transfers nicht lastverteilt werden und erfordert Unterstützung im Chipset, Firmware und Betriebssystem - das ist zwar heute oft der Fall aber z.B. men Xeon-Rechner mit mehreren PCIEx8-Slots kann auf diesen Slots keine Bifurcation.
Bsp, wenn SSD1 im random-Access gerade nur 100MByte/s liefert haben die anderen SSDs deswegen nicht mehr Bandbreite zur Verfügung. Mit einem Switch sieht das anders aus, wenn da 16 SSDS an einem PCIEx16-Slot hängen und 15 davon gerade nur 100MByte/s brauchen kann die sechzehnte die gesamte restliche Bandbreite nutzen - zumindestens wenn sie selbst schnell genug ist.
PCIE-Switches. speziell die richtig schnellen und breiten, sind TEUER. Sündhaft teuer. Das liegt an den niedrigen Stückzahlen, selbst bei Servern sind die eher selten im Einsatz.
Was mich interessieren würde, auf Aliexpress habe ich eine Bifurcation-Card gesehen die ihre PCIE3.0x8-Anschlüsse auf vier PCIE3.0x2-Anschlüsse verteilt und das für unter €100. D.h. man könnte das schön verwenden um vier preiswerte, mittelschnelle PCIE-SSDs, z.B. 4x8TByte QLC, und eine OBerklasse-GPU parallel zu betreiben. Zwar hätten dann GPU und SSD-RAID leichte Nachteile aber die wären imho akzeptabel.
Nur... ob sowas gut läuft? Keine Ahnung. Können Boards x2-Bifurcation?
Ergänzung ()
mannduro schrieb:
Gibt es den Lösungen mit denen man 128 bzw. 256GB RAM am PCIe als "DISK" nutzen kann ?
Sowas nennt man DRAM-based Storage Solutions, nicht RAM-Disk. Haben üblicherweise noch Flash und einen Akku drin damit im Ausfallsfall alles aufs Flash geschrieben werden kann.
Vorweg: Das geht ist aber Quatsch. Sowas wird ja vom PCIE-Bus und vom Busprotokoll runtergebremst. Du hast dann zwar RAM drin und das ist auch schneller als Flash aber nicht so schnell wie echtes RAM. Linear dürfte es "etwas", d.h. 2-3mal, schneller sein und Random Access vieleicht Faktor 10.
Echtes RAM hingegen liegt GRÖSSENORDNUNGEN über solchen Lösungen. Ich habe unter Linux in einem Rechner mit 256GByte RAM eine 128GByte RAM-Disk gesehen die satte 200GByte/s wuppte. RANDOM. Aber in der Praxis bringt das nichts. Ich habe da Steam drauf installiert und dann ein paar Sachen davon gestartet, kaum Unterschied zur SATA-SSD. Selbst parallelisierte Bildverarbeitung profitiert davon exakt garnicht (hier lediglich Crop+Resize mittels Imagemagick und xargs auf der Commandline, bei 24 CPU-Treads mit 48 parallelen Läufen gefüttert).
Achja, solche Storage-Solutions sind EXORBITANT teuer. Leer gerne mal fünfstellig. Da zahlste schon fürs RAM locker fünfmal so viel wie für normales DDR5-RAM. Dafür gibt es da Fully-Buffered Module mit 512GByte pro Modul und Du kannst 32 Stück verbauen. Kostet so viel wie eine Luxusjacht oder eine Wohnung in München aber gibt es.
@Highspeed Opi
Ich glaube, du versuchst die Tatsache, dass du etwas in der Zeit verrutscht bist mit deinem Ansatz zu erklären.
Gothic 3 kam 2006, kurz vor Vista-Release.
Ein Gigabyte i-Ram auf PCI/Sata-Basis (Max 4GB) oder ACard Lösungen (max 8GB) hatte so gut wie niemand.
Von dem gezeigten Hyperdrive 4 Rev 2 von 2007 ganz zu schweigen, denn das Ding unterstützte zwar 32GB, aber nur in Form von 8 quasi unbezahlbaren 4GB ECC REG Modulen (für schlappe 10000-12000 Euro zzgl. 1500 Euro für das Hyperdrive selbst) - und diese Lösungen hatten einen dicken zusätzlichen Haken - sie waren über Sata150 bzw. Pata angebunden
Daher hatten wohl kaum mehr als 0% aller Gamer etwas derartiges im Rechner.
Die halbwegs erschwinglichen, oben erwähnten Varianten von Gigabyte oder ACard, unterstützen halt max. 4GB bzw. 8GB
Mit 32GB Ram in den eigentlichen Ramslots hatte ich auch eine 20GB statische Ramdisk - 3 Jahre später unter Windows Vista/7 als die Rampreise purzelten. Tempfile, Browsercache, etc und ein Game drauf, das war nice - und das haben einige so gemacht. Aber das war einfach etwas später mit Software und dem Ram auf dem Board selbst. Und das Ergebnis sah dann so aus (bei mir):
Und hier hat sich das dann auch richtig gelohnt wie man sieht.
Zu Windows XP Zeiten, das war noch bevor es SSDs gab, hatte ich die Festplatten im Raid0 und mir einen Rechner 8 GB RAM gegönnt. XP 32-bit konnte zwar nur 4 GB nutzen, aber die anderen 4 konnten für eine RAM-Disk genutzt werden. Diese RAM-Disk hatte ich dann für die Auslagerungsdatei des Systems genutzt. Das Ergebnis war ein extrem flottes System für seine Zeit, zum arbeiten und zocken.