Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsHighPoint SSD7101: NVMe-RAID-SSD mit 13,5 GB/s über PCIe 3.0 x16
PCIe-SSDs wie die Samsung 960 Evo und 960 Pro sind einzeln schon sehr schnell, aber im RAID-Verbund noch viel schneller. Dieses Konzept nutzt der Hersteller HighPoint für PCIe-SSDs mit extrem hohen sequenziellen Transferraten: Das Modell SSD7101B bringt es auf bis zu 13.500 MB/s beim Lesen und 8.000 MB/s beim Schreiben.
Nein karuso, er meint den Vorschlag von HighPoint wonach man, wenn man noch mehr Performance braucht, einfach ein Raid 0 über zwei dieser SSD-Arrays spannen soll. Eine liefert 12 GB/s und zwei dann 25 GB/s, was aber mehr als 2x12 ist. Die Antwort lautet Messmethodik, Queue Depth, Marketing, you name it.
Insgesamt ist das ein eher merkwürdiges Produkt. Wenn das kein Serverhersteller aufgreift und sich bei HighPoint als OEM eine Version davon einkauft, dann ist man ja besser gestellt, wenn man sich das Array selbst baut. Dabei bleibt die ursprüngliche Garantie von Samsung erhalten und ich würde wetten, dass es auch günstiger ist.
Da ist doch Optimierung der Leitungslänge und Netzwerkkarten mit niedrigeren Cut-Through-Zeiten der heiße Scheiß. Mit anderen Worten, da geht es eher um Latenz und nicht so sehr um Bandbreite.
Nice, genau nach sowas hab ich gesucht, das halbgare M.2 Zeug überzeugt mich nicht. PCIe Slots hab ich wie Sand am Meer und die Kühlung ist bestimmt auch besser als das Brutzel Konzept der M.2s. Ja es wird teuer, aber was solls, 2019 wandert so ein Monster in meinen Rechner. Aber mit 12.000MB/s ist man wohl mit Overhead am Limit von PCIe 3.0? Das hat ja 15754 MB/s theoretisch.
a) Müsste das Netzwerk dann schon aus 3x 40 GbE oder 1x 100 Gbit/s Ethernet bestehen, um die Bandbreite vom SSD-Controller überhaupt theoretisch ausschöpfen zu können.
b) müsste der Server eine ausreichend CPU-Leistung bieten, um eine derart hohe Anzahl an SMB-Paketen generieren können, die im Vergleich zu Block-basierten Protokollen (FC / iSCSI) doch eher als ineffizient zu werten sind
So richtig Sinn ergibt sich das für mich nicht. Um im Serverumfeld, wo tatsächlich 10 GByte/s oder mehr pro Serverknoten an File-Storage erforderlich ist, kauft kaum ein Highpoint-Controller mit 4x Consumer Samsung 960 Pro. Die lachen einen ja aus.
Davon abgesehen: Das Ding ist laut Webseite nur für Windows 10 64-Bit (und Linux Kernel 3.3) freigegeben. Zumindest unter Windows also ein reines Client-Produkt, denn Scale-Out-File-Server mit Windows 10 OS hab ich persönlich eher wenig draußen im Feld gesehen. ;-)
Sieht eher nach einem Produkt für temporäre Daten (Rendering, Grafik, Simulationen) auf Entwicklerebene aus.
Ja aber es sind doch dann trotzdem nur 512 GB? Wieso ist das also nicht die 512 GB Version? Ist doch ein Raid 0? Geschicktes Marketing oder einfach nur verwirrend wiedergegeben hier?
Das halte ich für ein Gerücht, denn die Karte wird zwar einen PCIe Lane Switch (PLX Chip) haben um die 4 Geräte in dem einen Slot unterstützen zu können, aber kaum einen RAID Controller. Daher dürfte es wie bei den HP Z Turbo Drive. Quad Pro nur ein SW RAID sein:
Sollte es bei der HighPoint wirklich anderes sein, dann wäre es neben dem Hack den Intel bei den 100er und 200 Choipsätzen gemacht hat, die einzige weitere Möglichkeit eines RAIDs auf PCIe SSDs welches kein SW RAID ist!
Ergänzung ()
HisN schrieb:
Selbstbau
...
Ist dann halt nur ein Software-Raid wenn man es braucht.
a) Müsste das Netzwerk dann schon aus 3x 40 GbE oder 1x 100 Gbit/s Ethernet bestehen, um die Bandbreite vom SSD-Controller überhaupt theoretisch ausschöpfen zu können.
Dass aktuelles LAN ein bis zwei Grössenordnungen zu lahm selbst für Heimanwender ist sehe ich auch so.
Und ich stimme zu dass diese SSD etwas "gaga" ist weil das reine Desktop-Technik ist aber kein Desktop davon nennenswert profitiert.
Aber gerade Buzzwordtriefende Anwendungen wie "Hyperkonvergent" können mit zusätzlicher lokaler Bandbreite eine Menge anfangen da man ja gerade eben NICHT alles übers Netz erledigt sondern der "Master" im Netz schlichtweg nur als erste Befüllungshilfe für den lokalen Cache dient. Das haben wir unter Linux zwar schon vor 15 Jahren gemacht aber Microsoft hat ein schickeres Buzzword gefunden und macht derzeit eben auf "neu, wäscht weisser als weiss". Unter Linux wars anno tobak so dass wir einfach die iSCSI-Sektoren einmal lahm übers Netz geholt haben und sie dann lokal schnell zwischenspeicherten. Damit war selbst ein stark ausgelastetes 1GBit-Netz gefühlt kaum langsamer als die lokale SSD. Konnte man sogar sauber von Booten...
Als Minderwertigkeitskompensationshardware mit Lern- und Demonstrationseffekt kann man aber nicht drüber meckern.
Ja das ist HW nach dem Motto: Wir zeigen mal was wir können, auch wenn wir dafür in Wahrheit nichts können müssen, weil ja die Technik sowieso von anderen Anbietern kommt. Aber die News mit dem neuen Rekord macht sich halt gut