Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel SSD 750: 800-GB-Modell als Lückenfüller im Handel gesichtet
Gibt es zwischen PCIe Anbindung und SATA einen wirklich nennenswerten Geschwindigkeitvorteil oder warum gibt es überhaupt die Möglichkeit SSDs in PCI Steckplätze zu kloppen?
... I have to admit that I walk away a little disappointed. A 10-20% performance improvement isn't marginal, but after all the hype about NVMe I was expecting a little more. I have a strong feeling that NVMe is capable of much more, but the technology needs time to mature...
Immerhin 10-20% bessere Leistung aber Enttäuschung weil nicht mehr. Sollte mehr drin sein aber braucht noch Zeit zum reifen.
Ich persönlich habe letzten Monat für eine SATA entschieden weil PCIE doppelt so teuer war.
Es ist genau wie Trambahner es schreibt:
Wobei ich statt SM951 nehmen sagen würde, auch die Nachfolge- bzw. Retail Ausgabe warten und es sollte mich nicht wundern, wenn diese auch zeitnah mit Skylake erscheint, denn dann kaufen sich viele Enthusiasten passend Boards für solche SSDs und wieso sollte sich Samsung den Markt entgehen lassen?
Artikel-Update: Intel greift einer Ankündigung selbst vor: Ein Dokument (PDF) zur SSD 750 Series enthält inzwischen auch Angaben zum 800-GB-Modell. Dieses wird demnach ebenfalls sowohl als oben beschriebene Add-in Card sowie als Variante im 15 mm hohen 2,5-Zoll-Gehäuse mit U.2-Anschluss (ehemals SFF-8639) erscheinen. Mittlerweile wird diese Variante auch im Preisvergleich gelistet.
Eine kleine Überraschung ist, dass die Leistungswerte sogar unterhalb des 400-GB-Modells liegen. Sequenziell sollen Daten mit bis zu 2.100 MB/s lesend und 800 MB/s schreibend übertragen werden. Auch die IOPS bei wahlfreien Zugriffen fallen niedriger aus. Vom Spitzenmodell ist das 800-GB-Modell damit weiter entfernt als angenommen.
Zur Leistungsaufnahme gibt es nun differenzierte Angaben zu jedem Modell. Die Produkttabellen auf ComputerBase wurden entsprechend angepasst.
[Produktdaten: Zum Betrachten bitte den Artikel aufrufen.]
Ich hab auf meiner 750er (400GB-Variante) als ich sie erhielt mal Oracle-Datenbank-Benchmarks ("Orion") in einem Mix aus kleinen (8Kb) und großen (1MB) IOs laufen lassen. Skaliert zwischen 1-5 parallelen Schreib-/Lesezugriffen, also einer Datenbank mit nur relativ wenig Parallelzugriff.
Heraus kam bei diesem Szenario im Schnitt etwa die Leistung eines SSD-Raid0 aus 4 Highend Sata-SSDs; und das bei sehr niedriger CPU-Last.
Veteilen von Datenbank Logs, Metadaten und Nutzdaten auf verschiedene Arrays? Pff, fast wurscht bzgl. Performance, einfach drauf damit aufs Volume.
Denke, die große Schwester DC P3700 dürfte fast jeden Datenbankadmins Liebling sein dürfte.
Hm, wieso Intel das 800er Modell leistungsmäßig unterhalt der kleinen 400GB Variante einteilt erschließt sich mir eben nicht. Nennt man sowas "sHit happen" oder "dont give a fuck"?
Die Qualität bei Intel ist "wesentlich" besser egal ob Bug-Behebungen, Firmwareupdates, Materialqualität oder Langzeitsupport - das kostet halt eben auch...
Intels hat tolle SSDs im Programm, auch wenn ich die mit dem SF-2281 nicht dazu zähle, aber Du hast den 8MB Bug der 320er vergessen, den auch alle Vorgänger hatten und alle immer noch haben, auch wenn er extrem selten auftrifft. So eine Bug der einen alle Daten kosten kann, gab es bei Samsung nie, nur den der 840 Evo der aber nur die Performance und nicht die Datensicherheit betrifft.
Die Sache bei Algolia ist ja eindeutig als Linux Bug im kernel beim Zusammenspiel von mdraid und TRIM identifiziert worden, von dem konnten die Intel vermutlich deswegen nicht betroffen sein, weil die DC S3000er sich in den Identify Device Data nur als SATA 2.6 aber nicht als SATA 3.0 oder gar 3.1 konform ausgeben, auch unterstützen sie kein Queued TRIM, wie man deren Identify Device Data ebenfalls entnehmen kann, die SSDs von Micron und Micron machen das aber. Selbst Intel neustes 535, die sich als SATA 3.2 zu erkennen gibt, unterstützt kein Queued TRIM. Daher können Intels SSDs von ggf. vorhandenen entsprechenden Bugs in Linux auch gar nicht betroffen sein, die sind eben bei den Features extrem zurückhaltend. Ob die das zu besseren SSDs macht, muss jeder für sich entscheiden, aber es ist ein wenig als würde man den Dacia gegenüber der S-Klasse als das bessere Auto hinstellen, weil da keine Gefahr besteht über den Internetzugang gehackt zu werden, weil der Dacia den gar nicht hat.
guillome schrieb:
Die Samsung ist ne reine Steckkarte die - sofern nicht durch einen guten Luftflow gekühlt - auch noch sehr heiß werden kann.
Das gilt für die Intel 750 aber ebenso, die verlangt auch einen bestimmten Airflow, dass ist bei passiv gekühlter HW normal, passiv bedeutet nicht, dass man ganz auf Lüfter verzichten kann, es bedeutet nur, dass auf einen eigenen Lüfter verzichtet wurde. Bei Enterprise HW steht meist auch dabei, was für ein Luftstrom nötig ist.
Bei der 750 steht in den Specs aber nur:
Operating temperature implies ambient air temperature with certain airflow conditions
Bezüglich der Stripe Size wäre ich mir nicht so sicher. Tweaktown hat relativ viel mit Sata Raid0 bis zu 6 Laufwerken getestet (mit der DMI 2.0 Limitierung ab 4 Laufwerken). Dort ist man bei späteren Tests dazu übergegangen ab 4 Laufwerken nur noch 32k Stripes (anstatt 64k) zu verwenden.
64k ist auch extrem wenig, aber einige RAID Controller können auch nicht. Dazu kommt immer noch die Frage, ob der Controller dann die I/O an die einzelnen Platten wieder zusammenfasst oder wenigstens parallel schickt. Das Chipsatz RAID von Intel müsste eines von beiden machen, was genau weiß ich aber nicht. Tut der RAID Controller (bzw. SW/Treiber) das nicht, wird so ein RAID u.U. bei sequeniellen Zugriffen sogar langsamer als eine einzelne SSD, wenn der Stripsize zu klein ist.
FUSION5 schrieb:
Wahrscheinlich kommt man bei PCIe Raids definitiv in einen Bereich, wo man auf bestimmte Szenarien optimieren muss. Größere Stripes für maximale sequentielle Übertragungsraten, kleinere Stripes für kleine random Zugriffe.
Das galt doch schon immer, auch bei HDDs muss man sich bei der Auslegung des RAID zwischen merhr IOPS oder besserer seq. Performance entscheiden.
FUSION5 schrieb:
Und ja, mich interessieren auch primär die Daten über die Skalierungsfähigkeit von PCIe Storage. Größter Nutzen wäre für viele wohl die Möglichkeit größere Volumes zu bauen
Und wenn Du nun nicht nur 5 sondern 50 oder 500 User hast, dann wäre das RAID 0 der 4 Highend SSDs wohl klar geschlagen worden. Die Enterprise Gene der 750er dürften dafür noch deutlich genug durchscheinen.
Trambahner schrieb:
Denke, die große Schwester DC P3700 dürfte fast jeden Datenbankadmins Liebling sein dürfte.
Vielleicht ist es nur auf dem Papier so, Intel wird die Angaben schon nicht zu optimistisch machen, damit nicht gar zu viele die 750er statt der Enterpriseversionen kaufen und außerdem wird doch kaum einer den Unterschied merken. Für die Freaks die die maximale Leistung wollen, bleibt damit die 1.2TB außerdem die SSD der Wahl, die 800GB wird der also diese Kunden nicht abspenstig machen.
Es kann aber auch einfach an der Bestücktung liegen, je nachdem wie viele Dies eben auf welche Kanäle verteilt sind.
Die Frage warum die 800GB sogar noch langsamer als die 400GB ist, hat durchaus ihre Berechtigung. Es könnte auch an den NANDs selbst liegen, vielleicht kommen bei der 400GB solche mit 64Gbit Diesize und bei der 800GB welche mit 128Gbit Diesize zum Einsatz, aber selbst dann sollte man keine schlechtere Performance sondern eben die gleiche Performance erwarten können.
Wegen der extrem langen Bootzeit (durch die Initialisierung) habe ich vom Kauf dieses Laufwerks Abstand genommen. Bei geringen Queue-Tiefen sind die 4K-Werte der Samsung SM951 sogar besser, und diese Werte sind für "normale" Nutzer am wichtigsten.
Ist halt die Frage, wie oft man bootet. Wenn einem die superdupergeile Bootzeit von $MS-Produkt das wichtigste an einer SSD ist, dann ist man hier wohl falsch. Aber das ist meist eh ne andere Käufergruppe mit anderem Budget.
Laut whatpulse hab ich am Laptop ne Durchschnitts-Uptime von 12d, Spitze 70d, meist durch Kurzbesuche in der Windowswelt begründet. Momentan sinds 9d10h - meine Güte, selbst wenn das Dingens 10 Minuten bräuchte, ist das sowohl einmalig als auch auf den Tag gerechnet vertretbar. Nachts Suspend 2 RAM, fertig ist der Lack. Würd sich bei nem Desktop-Umstieg auch nicht groß ändern
Zur SSD: Performance nett, sicherlich Leistung satt für lokales Arbeiten. Aber irgendwann kommt immer der Punkt, wo die Daten das System verlassen müssen (und sei es fürs Backup) oder neue reinkommen. Und dann? Mit Gigabit und 100-undn-paar MB/s rumtröpfeln? Das find ich ja jetzt schon schwer erträglich bei Transfers von obigem System mit ner 6Gb/s-SSD am 3Gb/s-Host von/zu nem 8-Platten-RAID, die für sich je ein Vielfaches sequentiell durchbollern können.
Von 10GbE als Standard oder zumindest gängiger High-End-Ausstattung (abseits des Servermarkts) sind wir aber immer noch weit entfernt, ich hab grad mal Geizhals bemüht und finde ein 2011er-Board und ne handvoll lieferbare 2011er-Xeonboards. Die dort meist eingesetzten X540-Intel kosten als separate Karte schlappe 300€, sind also bei den Boardpreisen schwerlich konkurrenzfähig, wenn man nicht schon auf ner ganz speziellen Konfiguration sitzt. Ich hab son bisschen den Eindruck, als wolle man noch kein flächendeckendes 10GbE, und die Leute, die sowas dennoch "schon" brauchen (Gigabit gibts ja erst...10-15 Jahre?) noch ein bisschen melken. Und hey, strenggenommen ist aber 10GbE für solch eine SSD immer noch ein Bottleneck, schreibend vielleicht weniger, aber lesend definitiv. Irgendwas ist da doch faul, wenn man für 100€ ne Highend-SSD bekommt (die kleinste SM951 beispielsweise), die dann aber mit Netzwerkhardware für mehrere 100€ (wehe es muss nochn Switch rein!) nur stotternd und mit angezogener Handbremse betreiben kann. Sicherlich ist das ein Luxusproblem, aber bei den Investitionen für solche Luxus-Hardware will man die Kiste auch ausfahren und nicht ins nächste Bottleneck rauschen, das seinerseits noch nicht mal richtig am Markt angekommen ist...
Was gibts denn für Optionen darüber hinaus? Thunderbolt-Netzwerke, die weiter reichen als ein paar Meter, d.h. man nur rund um den Serverraum damit arbeiten kann? 20Gb/s (wieviel bleibt davon übrig?) könnten knapp reichen, aber für 10 Meter Kabel ist man zusätzlich zu den bezahlbaren Karten dann auch gleich 300€ los, für 20m entsprechend auch nur das Doppelte. Melk-melk. Oder sich den Wahnwitz mit 40GbE geben? Da muss man dann mit PCIe-Karten arbeiten, die XL710 sehen dafür auch bezahlbar aus, nur fraglich wie das dann mit den benötigten QSFP+ ist...und an Switches ist da erstmal nicht zu denken. Außer man hat ne Niere übrig oder irgendeinen Goldesel im Stall.
DaBzzz, Du sprichst mir aus der Seele, die beiden Ethernet Ports sind nach dem PS/2 die mit Abstand langsamsten Schnittstellen am Backpanel meines Z97 Extreme 6 und wenn mein HP N54L nicht mehr reicht, könnte so ein Supermicro X10SDV-TLN4F in meinen nächsten Heimserver kommen. Das hat schon 10Gbit Ethernet, mit RJ45 reicht es mir auch vollkommen aus, ich muss ja nur wenige Meter überbrücken und es ist nur 120€ teuer als das Supermicro X10SDV-F retail ohne die beiden 10Gbit Ethernet Ports.
Ein Boards mit dem Xeon D-1520 würde es auch tun und wäre deutlich günstiger, der SoC alleine ist ja sogar billiger als eine 10Gbit Karte, aber die Dinger gibt es ja immer noch nirgends zu kaufen. Dabei wurden die Xeon D Anfang März vorgestellt und ist das die ideal Plattform für gehobene SOHO Server, sparsam, bis zu 24 PCI 3.0 Lanes (da passt die Intel 750 auch optimal rein (huff, jetzt habe ich noch die Kurbe zum Thema gekriegt ) und mit reichlich Power, aber die von ASRock angekündigten Boards sind noch gar nicht erschienen. Dazu eine unerreichte Effizenz:
Du hast mit dem Melken wohl nicht unrecht, so ein D-1520 Board wäre um die 600 bis 700€ machbar, die CPU ist ja fast 400USD günstiger als der D-1540, wäre also preislich dort wo heute noch ein 10Gbit Switch liegt, bei 2 Ports baucht man nur zwei Karten und kann über zwei Kabel zwei Rechner an- und auch darüber verbinden.
Ich hab die Intel SSD 750 400 GB drin und wer meint damit habe man lange Bootzeiten muss ich entäuschen.
Ich schätze die Bootzeit verlängert sich um ca. 2 Sekunden. Habe jetzt den PC mit Win 10 mit UEFI und CSM deaktiviert am laufen und Engergieparmodus S4+S5 aktiviert. Dadurch startet er schnell genug für mich. Sicher schneller als mein vorheriger Win8 PC ohne Uefi.
warum die 800 gb langsamer ist als die 400 ist mir echt ein dron im auge. samsungs "alternativen" mit pci-e schon erhältlich eigentlich in dem Leistungssegment der 750 er Intel?
Ich hab die Intel SSD 750 400 GB drin und wer meint damit habe man lange Bootzeiten muss ich entäuschen.
Ich schätze die Bootzeit verlängert sich um ca. 2 Sekunden. Habe jetzt den PC mit Win 10 mit UEFI und CSM deaktiviert am laufen und Engergieparmodus S4+S5 aktiviert. Dadurch startet er schnell genug für mich. Sicher schneller als mein vorheriger Win8 PC ohne Uefi.
Bitte verwechsle nicht POST-Zeit mit der Boot-Zeit.
POST = Zeit die der PC braucht vom einschalten bis zum Anfang des Bootvorganges. Auch BIOS-Initialisierung genannt.
BOOT = Zeit die das BS braucht um geladen zu werden.
Also wie lange (in s) dauert der POST nun bei Dir?
Also ich hatte mal einen Prototyp eines Adaptec SAS RAID Controller, der im Gegensatz zum Serienmodell, durch DIMM Steckplätze die Möglichkeit bot den Cache-DRAM nach belieben zu ersetzen. Leider brauchte der Rechner dann wirklich ca. 3min für den POST. Daher verschwand das sündhaft teure Teil in die Schublade wo es heute noch verstaubt. Ich habe gerade mal einen Tag damit rumprobiert, um dann völlig entnervt aufzugeben. War so ziemlich die größte Hardware-Enttäuschung meines Lebens und wahrscheinlich so eine gewisse Allergie/Psychose gegen lange POST-Zeiten hervorgerufen.