Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel SSD DC P3608: Zwei Controller ermöglichen 5 GB/s über PCIe 3.0 x8
Schon Ende Juli waren die Spezifikationen einer neuen High-End-SSD von Intel für Server aufgetaucht. Mit der Vorstellung der Intel DC P3608 SSD werden die Daten nun offiziell bestätigt. Bis zu 5.000 MB/s über PCIe 3.0 x8 und 850.000 IOPS lesen sich eindrucksvoll. Für diese Leistung ist allerdings ein RAID-0-Betrieb nötig.
Okay, für Server sind 5GB/s super. Gerade bei Bigdata kann man so einiges schneller machen. Für den Heimanwender wohl eher uninteressant auf Grund anderer Limits am System und einfach weil man selten nur länger als wenige Sekunden die 5GB/s überhaupt nutzen würde. W10 verbrauch frisch gestartet so 3-4GB RAM. D.h. nach dem hochfahren wäre kaum ein Job mehr da der die SSD wirklich nutzt. Und da muss man sagen, tut es auch eine günstigere SSD mit weniger Bandbreite.
Wenn sich Heimanwender einen Xeon kaufen, können sie auch eine 5000€ SSD kaufen.
Es ist nur eine Frage, was man bezahlen will. Das ist dann aber nicht der typische Heimanwender.
Wie sieht es denn bei diesen Teilen mit den Zugriffszeiten aus?
5 GB/s sind ja schon ordentlich, 4 davon in RAID 0 und man könnte eigentlich rauf RAM verzichten (wenn denn die Zugriffszeiten stimmen).
Normalos haben weder die Rechner noch die Anwendungen um die maximale Leistung der Speicherlösung überhaupt ansatzweise zu nutzen. Weder beim Booten noch irgendwo sonst.
Wie sieht es denn bei diesen Teilen mit den Zugriffszeiten aus?
5 GB/s sind ja schon ordentlich, 4 davon in RAID 0 und man könnte eigentlich rauf RAM verzichten (wenn denn die Zugriffszeiten stimmen).
Viel zu langsam. NAND und DRAM trennt bei der Zugriffszeit der Faktor 500-1000 (ns vs. µs). Außerdem ist die Haltbarkeit einer NAND-Zelle (ca. 10^3 P/E-Zyklen) nicht ausreichend. Als RAM-Ersatz wäre das Ding nach spätestens ein paar Wochen tot.
Kann das nicht jeder machen, indem er sich zwei 750er SSDs einbaut (viele Z170-Boards haben ja 2x M.2 mit PCIe3.0 x4 oder ein X99 mit 2 entsprechenden Slots) und diese mit der RST(e)-Software zum RAID macht?
Ist schon interessant, nachdem lange PCIe-SSDs entwickelt wurden, indem man zwei oder vier SATA-NAND-Controller per SATA-RAID- Controller zusammengeschlossen hat (mit vielen Nachteilen) braucht man jetzt nur eine einfachen PCIe-Switch, wie es seit Jahren bei Dual-Grakas gemacht und auf Mainboards verbaut wird.
Aber mein letzter Stand war eigtl., das RAID0 bei SSDs für Heimanwender sinnlos ist, weil man die extremen Transferraten nicht merkt, aber Zugriffszeiten, Verschleiß und Ausfallgefahr steigen.
Viel zu langsam. NAND und DRAM trennt bei der Zugriffszeit der Faktor 500-1000 (ns vs. µs). Außerdem ist die Haltbarkeit einer NAND-Zelle (ca. 10^3 P/E-Zyklen) nicht ausreichend. Als RAM-Ersatz wäre das Ding nach spätestens ein paar Wochen tot.
Die Gründe dafür zu kennen wäre schon interessant... Ist die schiere Leistung tatsächlich ursächlich (kann ich kaum glauben), ist der NVMe Treiber schlecht, liegts am RAID etc....
Im Serverumfeld wäre es wohl nicht so schlimm, wenn die SSD in nem eigenen Storage-Server läuft, der per Infiniband oder ähnlichem an die Berechnungs-Server angeschlossen ist.
Die Benchmarks brauchen ebenso wie die I/O Zugriffe Laufzeit der CPU. Jedoch verursachen Benches für I/O Tests recht wenig CPU-Last je I/O Vorgang. Beispielsweise der Bench zu Datenbankanwendfungen, da werden typischerweise keine Berechnungen, keine verschachtelten Abfragen, keine Checks etc. durchgeführt beim Benchen. Entsprechend würde reale Anwendungen deutlich mehr Rechenzeit benötigen für das Selbe Aufkommen an I/O.
Insofern stimmt die Aussage schon 12C/24T Intel Xeon ist schon mit synthetischer I/O Last recht nah an der Grenze der Leistungsfähigkeit.
Wenn sich Heimanwender einen Xeon kaufen, können sie auch eine 5000€ SSD kaufen.
Es ist nur eine Frage, was man bezahlen will. Das ist dann aber nicht der typische Heimanwender.
2 Workstations(96gb ram, 384gb ram) mit je 2 Quad Xeons + 2 Microserver mit je 1 Xeon, werkeln hier schon in meinem HeimLab. Allerdings hab ich für alles zusammen gerademal knapp 2000EUR bezahlt. Die 8port LSI Controller sind voll bestückt mit "normalen" Festplatten. Die Gbit Leitung ist ausgelastet und solange das Netz nicht auf 10Gbit umgestellt wird und die Platten preiswert zu haben sind, wird da noch nichtmal eine Umstellung SSD erfolgen auf den Raids. Für die OS reichen auch preiswerte BX'en mit 256GB. =)
Das sieht Du falsch, denn die SSD kann nie die CPU lahm legen, die CPU erstellt die Arbeitsanforderungen der SSD und nicht umgekehrt. Wenn aber schon ein Benchmark wie IOMeter, also ein Programm bei dem das Verhältnis von CPU-Last zu Disk-I/O Last extrem auf I/O Last liegt, dann die CPUs schon extrem auslastet, so würden reale Programme die SSD meist gar nicht mehr an ihr Limit bringen können. Das bedeutet, dass eine solche SSD dann eben bei vielen Aufgaben gar nicht der Flaschenhals sein wird.
Und brauchst man für eine schnelle SSD auch eine starke CPU, sonst bremst eben meist eher die CPU als die SSD.