News Intel SSD DC P3608: Zwei Controller ermöglichen 5 GB/s über PCIe 3.0 x8

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.354
Sind die Preise vertauscht oder weshalb ist das 4 TB-Modell weniger als halb so teuer wie die beiden anderen?
 
Da ist wohl in der Tabelle was vertauscht. Denn ich dachte das mehr Speicherplatz mehr Kostet
 
Okay, für Server sind 5GB/s super. Gerade bei Bigdata kann man so einiges schneller machen. Für den Heimanwender wohl eher uninteressant auf Grund anderer Limits am System und einfach weil man selten nur länger als wenige Sekunden die 5GB/s überhaupt nutzen würde. W10 verbrauch frisch gestartet so 3-4GB RAM. D.h. nach dem hochfahren wäre kaum ein Job mehr da der die SSD wirklich nutzt. Und da muss man sagen, tut es auch eine günstigere SSD mit weniger Bandbreite.
 
Wenn sich Heimanwender einen Xeon kaufen, können sie auch eine 5000€ SSD kaufen.
Es ist nur eine Frage, was man bezahlen will. Das ist dann aber nicht der typische Heimanwender.
 
Wie sieht es denn bei diesen Teilen mit den Zugriffszeiten aus?
5 GB/s sind ja schon ordentlich, 4 davon in RAID 0 und man könnte eigentlich rauf RAM verzichten (wenn denn die Zugriffszeiten stimmen).
 
@Candy_Cloud

Normalos haben weder die Rechner noch die Anwendungen um die maximale Leistung der Speicherlösung überhaupt ansatzweise zu nutzen. Weder beim Booten noch irgendwo sonst.
 
S.Kara schrieb:
Wie sieht es denn bei diesen Teilen mit den Zugriffszeiten aus?
5 GB/s sind ja schon ordentlich, 4 davon in RAID 0 und man könnte eigentlich rauf RAM verzichten (wenn denn die Zugriffszeiten stimmen).
Viel zu langsam. NAND und DRAM trennt bei der Zugriffszeit der Faktor 500-1000 (ns vs. µs). Außerdem ist die Haltbarkeit einer NAND-Zelle (ca. 10^3 P/E-Zyklen) nicht ausreichend. Als RAM-Ersatz wäre das Ding nach spätestens ein paar Wochen tot.
 
Kann das nicht jeder machen, indem er sich zwei 750er SSDs einbaut (viele Z170-Boards haben ja 2x M.2 mit PCIe3.0 x4 oder ein X99 mit 2 entsprechenden Slots) und diese mit der RST(e)-Software zum RAID macht?

Ist schon interessant, nachdem lange PCIe-SSDs entwickelt wurden, indem man zwei oder vier SATA-NAND-Controller per SATA-RAID- Controller zusammengeschlossen hat (mit vielen Nachteilen) braucht man jetzt nur eine einfachen PCIe-Switch, wie es seit Jahren bei Dual-Grakas gemacht und auf Mainboards verbaut wird.

Aber mein letzter Stand war eigtl., das RAID0 bei SSDs für Heimanwender sinnlos ist, weil man die extremen Transferraten nicht merkt, aber Zugriffszeiten, Verschleiß und Ausfallgefahr steigen.
 
Zuletzt bearbeitet:
Simon schrieb:
Viel zu langsam. NAND und DRAM trennt bei der Zugriffszeit der Faktor 500-1000 (ns vs. µs). Außerdem ist die Haltbarkeit einer NAND-Zelle (ca. 10^3 P/E-Zyklen) nicht ausreichend. Als RAM-Ersatz wäre das Ding nach spätestens ein paar Wochen tot.
Schade, aber vielleicht eines Tages mit PCRAM oder einer anderen Technologie. :)
 
Total unpraktisch, da es selbst einen 12 Kerner unter Last fast lahm legt....

Intel-DC-P3608-IOPS-and-CPU-usage.png

Quelle: http://www.thessdreview.com/our-reviews/intel-ssd-dc-p3608-review-1-6tb-over-5gbs-and-850k-iops/8/
 
Zuletzt bearbeitet:
Weby schrieb:
Total unpraktisch, da es selbst einen 12 Kerner unter Last fast legt...
Die Gründe dafür zu kennen wäre schon interessant... Ist die schiere Leistung tatsächlich ursächlich (kann ich kaum glauben), ist der NVMe Treiber schlecht, liegts am RAID etc....

Im Serverumfeld wäre es wohl nicht so schlimm, wenn die SSD in nem eigenen Storage-Server läuft, der per Infiniband oder ähnlichem an die Berechnungs-Server angeschlossen ist.
 
Die Benchmarks brauchen ebenso wie die I/O Zugriffe Laufzeit der CPU. Jedoch verursachen Benches für I/O Tests recht wenig CPU-Last je I/O Vorgang. Beispielsweise der Bench zu Datenbankanwendfungen, da werden typischerweise keine Berechnungen, keine verschachtelten Abfragen, keine Checks etc. durchgeführt beim Benchen. Entsprechend würde reale Anwendungen deutlich mehr Rechenzeit benötigen für das Selbe Aufkommen an I/O.

Insofern stimmt die Aussage schon 12C/24T Intel Xeon ist schon mit synthetischer I/O Last recht nah an der Grenze der Leistungsfähigkeit.
 
Zuletzt bearbeitet:
Hallo,
die Tendenz geht ja auch im Home Bereich mehr und mehr dazu über
Laufwerke und andere Funktionalitäten direkt am PCI-E Bus zu betreiben.

Man stößt dabei aber sehr schnell an das 28/40 Lanes Limit der aktuellen
Intel CPUs. Hier muss Intel künftig deutlich mehr bieten...

Greetz
​hroessler
 
deo schrieb:
Wenn sich Heimanwender einen Xeon kaufen, können sie auch eine 5000€ SSD kaufen.
Es ist nur eine Frage, was man bezahlen will. Das ist dann aber nicht der typische Heimanwender.

2 Workstations(96gb ram, 384gb ram) mit je 2 Quad Xeons + 2 Microserver mit je 1 Xeon, werkeln hier schon in meinem HeimLab. Allerdings hab ich für alles zusammen gerademal knapp 2000EUR bezahlt. Die 8port LSI Controller sind voll bestückt mit "normalen" Festplatten. Die Gbit Leitung ist ausgelastet und solange das Netz nicht auf 10Gbit umgestellt wird und die Platten preiswert zu haben sind, wird da noch nichtmal eine Umstellung SSD erfolgen auf den Raids. Für die OS reichen auch preiswerte BX'en mit 256GB. =)
 
Die hohen Raten werden unter anderem dadurch erreicht, dass Intel einen großen DRAM Cache verbaut hat. Der nutzt in erster Linie dem Marketing.
 
Weby schrieb:
Total unpraktisch, da es selbst einen 12 Kerner unter Last fast lahm legt....
Das sieht Du falsch, denn die SSD kann nie die CPU lahm legen, die CPU erstellt die Arbeitsanforderungen der SSD und nicht umgekehrt. Wenn aber schon ein Benchmark wie IOMeter, also ein Programm bei dem das Verhältnis von CPU-Last zu Disk-I/O Last extrem auf I/O Last liegt, dann die CPUs schon extrem auslastet, so würden reale Programme die SSD meist gar nicht mehr an ihr Limit bringen können. Das bedeutet, dass eine solche SSD dann eben bei vielen Aufgaben gar nicht der Flaschenhals sein wird.

Und brauchst man für eine schnelle SSD auch eine starke CPU, sonst bremst eben meist eher die CPU als die SSD.
 
Zurück
Oben