Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsApex Storage X21: Adapterkarte vereint 21 M.2-SSDs zu 168 TB und 100 GB/s
Wer plottet das überhaupt noch?
Ist ja auf unter 30 Euro runter. Glaube nicht daß es irgendwann auch nur annähernd mehr als 100 Euro an Kurswert wieder sehen wird.
Das hab ich mich beim Lesen auch gefragt. Windows XP für Privatanwender gab es ja nur als 32-Bit Version, konnte also gar nicht mehr als 4 GB (wo auch der Grafikspeicher mit reinzählt) ansprechen. Mehr Speicher ging später nur mit einer 64-Bit Variante von Windows XP Professional.
Nur manche Software stellte sich sehr kleinkindhaft an:
"Diese Sofware benötigt Service Pack 2!" - XP64 gab es nur mit SP1.
"Ihr System benötigt die Serverversion dieses Tools! - XP64 basierte auf dem Kernel von Windows Server 2001.
Artikel-Update: Die Website StorageReview hat die Apex Storage X21 zum Testen erhalten und mit 21 SSDs vom Typ Samsung 980 Pro mit je 1 TB bestückt. In der Spitze konnten gut 28 GB/s sowie 14,6 Millionen IOPS (23 Millionen mit leeren SSDs) erreicht werden. Das gesamte Gespann hat einen Wert von 4.500 US-Dollar (2.800 USD für die X21). Getestet wurde auf einer potenten Desktop-Plattform mit X670E-Mainboard und Ryzen 7950X (16 Kerne) sowie 64 GB DDR5.
StorageReview schrieb:
We could pull 28.3GB/s off the card in an 8K random read operation or push 28.7GB/s to it in an 8K random write workload. For small-block write in our 4K Fio test, this card topped out at 6.8M IOPS read and 5.3M IOPS write. Moving to a smaller blocksize, we started to hit the limits of the Samsung 980 Pro SSDs, which could push 23M IOPS in a 512-byte random read operation factory fresh but dropped down to 14.6M IOPS once the drives were filled. To hit these figures out of a single slot is incredible.
@crogge Wenn das wirklich hält was es verspricht und nicht unter tatsächlicher Last direkt einbricht, sollten auch 1000 W11 VMs machbar sein... bei 8TB Modellen würde das sogar von der Kapazität passen, wenn man keine hohen Ansprüche hat.
Nur alle 1000 VMs gleichzeitig Windows Updates wird nicht funktionieren
4500 Euro für 21 TB SSD-Kapazität (vermutlich weniger bei RAID / Redundanz) und ein Datendurchsatz von 28 GB pro Sekunde?
Wowie!
Gibts denn schon Benchmarks von der Sabrent-Bestückung mit 21x 8 TB Rocket Plus SSDs?
Übrigens: besagte Rocket Plus in der 8 TB-Variante nehmen maximal 11 Watt pro Stück auf. Bei 21 verbauten SSDs unter Volllast wären das also 231 Watt - ja bravo!
Die Frage ist nur: wie soll das ohne zusätzliche Stromversorgung funktionieren? Der PCIe-Slot macht bei 75 Watt dicht ... oder er raucht ab, was in der letzten Zeit ja des öfteren bei AMD(ASUS!)-Boards der Fall zu sein scheint.
Ja, ich weiß, der war jetzt fies ^^
EDIT:
Stromanschluss übersehen, je PCB ist wohl ein 6 Pin-PCIe-Stecker vorhanden - na, dann passt's ja
Klärt mich auf, wo ist der Vorteil, 21 Gen4-SSD mit 1TB einzusetzen statt vier mit 8TB (die es sogar von der eingesetzten Sabrent Rocket gibt)? Da die Karte nur Gen4x16 schafft, ist sie bereits mit vier Gen4-SSD voll ausgelastet.
Ich sehe nur, dass 21x1TB (~110€/Stück) günstiger ist als 4x8TB (~1.100€/Stück), auch knapp günstiger als 3x8TB. Aber schon 11x2TB oder 6x4TB ist günstiger bzw. ähnlich teuer.
Von der Geschwindigkeit her wäre auf einigen AM5-Boards auch 6xGen5 mit 10-14.000MB/s pro SSD möglich, sobald die entsprechenden SSD verfügbar sind (Boards mit einem Gen5x16 oder 2xGen5x8 und zwei M.2 Gen5x4 können mit einer Gen5x16-auf-4xM.2-Gen5x4-Adapterkarte wie der Asrock Blazing Quad ein SSD-RAID bilden), bei Sapphire Rapids noch wesentlich mehr (theoretisch bis zu 28 SSD bei 112 Gen5-Lanes).
weil im mixed load 4 ssds wesentlich weniger durschsatz schaffen als 21. die benchmarks von crystaldiskmark und co. machen immer nur lesen oder nur schreiben. das ist aber in der realität nicht so. kleines beispiel siehe hier. von 800k/150k iops r/w bleiben bei dieser 4TB ssd im mixed load nur 275k übrig.
Ohne Witz, ich habe mir zuvor extra noch die Bilder im Artikel angesehen. Und sehe da: exakt die drei Bilder (die mit der Samsung-Bestückung) zeigen den Anschluss nicht. Die sind vom Winkel her so doof fotografiert, dass man weder die Buchse, noch die Lötpunkte auf der Rückseite sieht.
Nette Idee als Karte, aber ich denke, es ist praktischer in einem eigenen Gehäuse. Sagen wir mal von den Dimensionen her ähnlich einem NAS-Gehäuse für vier klassische Festplatten. Oben gelöchert mit feinem Netz darunter und von unten ein großer Lüfter, leise aber mit ordentlichem Luftstrom.
Anschluss über verschiedene Möglichkeiten denkbar.
Und kein Kapazitätslimit.
Welche denn? Allermeisten Möglichkeitem (SFF-xxxx/Oculink/...usw...) übertragen heutzutage lediglich 4x PCIe-Lanes und keine 16 davon. Bei Oculink gibt's glaub eine Exta-Version für 8x Lanes, das war's aber auch. Höchstens wäre ein 15cm Kabel denkbar, damit die von Dir vorgestellte "Box" auf dem Tower-Boden liegend untergebracht werden kann.
Nette Idee als Karte, aber ich denke, es ist praktischer in einem eigenen Gehäuse. Sagen wir mal von den Dimensionen her ähnlich einem NAS-Gehäuse für vier klassische Festplatten. Oben gelöchert mit feinem Netz darunter und von unten ein großer Lüfter, leise aber mit ordentlichem Luftstrom.
Gibts durchaus, aber eins sind die Lösungen nicht - leise.
Das liegt einfach daran, dass Flash basierte Systeme für eine höhere Maximalverlustleistung ausgelegt werden müssen. Ne Toshiba MG08ACA 16TB HDD ist mit 7,6 Watt Maximalleistungsaufnahme ausgewiesen - ne Micron 9400 PRO 15,3 TB mit 25 Watt. Mehr als das dreifache und dementsprechend müssen auch die Kühlleistungen ausgelegt werden, da man die Gehäuse ja trotzdem dementsprächend kompakt bauen möchte.
Auch die hier im Artikel genannte Karte erfordert 400lfm Luftstrom - das ist extrem viel. Das bekommt man in Desktops und Workstations nicht hin sondern ist eindeutig Serverland mit schnellen und dementsprechend lauten Lüftern.
massaker schrieb:
Welche denn? Allermeisten Möglichkeitem (SFF-xxxx/Oculink/...usw...) übertragen heutzutage lediglich 4x PCIe-Lanes und keine 16 davon.
Das ist eine bewusste Wahl. Der Host hat dann irgend nen HBA mit z.B. mehreren x4 Anschlüssen und das Enclosure hat dann auch für jedes Device einen extra Port. Neben der voll verfügbaren Bandbreite erhöht das auch die Verfügbarkeit, da bei einem defekten Kabel halt nur ein Device nicht erreichbar ist und nicht mehrere. Aus der Richtung kommen ja auch die Entwicklungen was so extern angeschlossene Datenträger angeht, daher denke ich nicht, das es in absehbarer Zukunft Bestrebungen geben wird, externe Konnektoren mit noch mehr Lanes zu spezifizieren, da das mechanisch auch richtig schwierig wird da externe Konnektoren immer noch ganz andere Anforderungen haben als interne.