Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Lohnt sich sicher. Mir ist aber unverständlich, wieso viele Firmen nicht aufs Geld achten und für mit dem Privatanwenderbereich fast identische Hardware den doppelten oder dreifachen Preis zahlen.
Weil Consumer- und Enterprisemarkt völlig verschiedene Bereiche sind. Auch diese Samsung SSD wirst du vermutlich in dieser Form in kaum einer Firma finden. Heute wird fast ausschließlich zentraler Speicher genutzt, das heißt große Speichersysteme, die viele (dutzende, hunderte) Server zeitgleich bedienen. Diese SSD ist nur als lokaler Speicher zu gebrauchen, weshalb man sie vermutlich eher selten antreffen wird. Zielgruppe könnten kleine Betriebe mit nur einem oder zwei Servern sein, also reinen physischen Maschinen. Noch arbeiten solche Speichersysteme mit normalen SAS oder ältere mit FC Platten. Da diese aber nur mit max. 600 GB erhältlich sind und jeder nach mehr Speicher schreit um den Platz in seinem RZ besser nutzen können, geht man zukünftig eher dahin über vermehrt große SATA Platten mit viel Cache (einige SSDs) zu kombinieren.
Reine SSD Systeme wird es auch in den nächsten Paar Jahren nicht oder nur sehr sehr selten geben, dazu sind sie einfach zu teuer. Über 50% deiner im Speichersystem befindlichen Platten kannst du in den meisten Fällen gar nicht zum Speichern deiner Daten nutzen. SSDs wären also absolute Verschwendung. Also in gewisser weise achten die Firmen schon auf ihr Geld.
Weiterhin ist doch so, das selten jemand selbst an seinen Systemen schraubt. Du hast einen HP Server mit NetApp Storage? Geht etwas kaputt kommt der HP Technicker und bringt es in Ordnung, fällt dir eine Platte aus, meldet das der Storage und dich ruft in wenigen Minuten jemand an und informiert sich über die Sachlage und erörtert mit dir wie es weitergeht. Dann steht in wenigen Stunden ein Beauftragter von NetApp vor deinem RZ und tauscht dir die kaputte Platte aus, auch das ist einer der Gründe warum die Preise so hoch sind. Service und Garantie sind einfach verdammt teuer.
Das ist ja PCIe. Aber mit eben nur 2 Lanes, also max. 2GB/s. (Mit zukünftigen PCIe Standards wird sich dass dann wohl weiter erhöhen).
Steckkarten haben in meinen Augen eigentlich nur Nachteile. Der Platz auf dem Mainboard ist begrenzt, vor allem wenn man diese verkleinert (µATX, Mini-ITX). Im Gehäuse ist man viel flexibler, irgendwo kann man 2,5" Laufwerke immer unterbringen.
SATA-Express wird leider nur noch ne Weile dauern. Hoffentlich wirds schon 2014 was.
Bei NetApp kostet eine 600GB SAS mit 15k von Hitachi oder Seagate im Rahmen (ohne gibt es sie nicht) etwas über 1000 Euro. Ich rechne mit Preisen jenseits der 3000 Euro. Ganz schön viel Geld für einen Cache. Als reiner Datenspeicher haben sich SSDs noch nicht durchgesetzt (in Speichersystemem), das braucht noch etwas mehr Zeit.
Es gibt Statistiken, welche in größeren Unternehmungen, die Platten unterschiedlicher Kategorien einsetzen, die Ausfallraten untersuchen. Vor einiger Zeit war hierzu in einer c't auch ein entsprechender kurzer Artikel. Demnach fallen Konsummarktgeräte signifikant öfter aus als die professionellen.
Wir haben aufgrund von Mittelkürzungen ebenfalls teilweise unsere größeren Speichersysteme auf Konsumenten-SATA Laufwerke umgestellt. Zum einen ist der Leistungseinbruch gegenüber SAS signifikant, zum anderen sind auch schlagartig die Ausfallraten in die Höhe gegangen. Für unsere kleine Speicher-Lösung von rund 50 TB ist die Balance zwischen Arbeitsaufwand, um ein ausgefallenes Laufwerk zu tauschen und zu reinitialisieren (macht einerseits der Controller oder im ZFS Verbund der kontrollierende BSD UNIX Server am JBOD) und den Kosten, die durch den Neukauf außerhalb der Garantiezeit für defekte Laufwerke entsteht. Je älter Systeme werden (nach rund 12 - 18 Monaten ist es meistens soweit), desto höher ist auch die Ausfallswahrscheinlichkeit. Wenn wir Missionsdaten speichern, die im Rahmen eines Forschungsprojektes aktiv vorgehalten werden - das können mal von 3 bis zu 5 Jahre sein - können wir nicht mal eben ein neues system gleicher Größe oder größer wie das alte kaufen und die Daten umkopieren, falls das alte malat wurde. Aus diesen Gründen braucht man Laufwerke, die lange halten und Leistung bringen können.
Dazu kommt noch, daß viele zertifizierte RAID-Subsysteme mit inhomogenen Platten/Firmwares Probleme haben - der Plattenhersteller bzw. der Systemintegrator sichert uns dann zu, daß er über drei Jahre lang einen bestimmten Plattentypus vorrätig hält (so bei Dell). Wer weiß, was in drei Jahren alles passiert und entwickelt wird, kann sich vorstellen, was es für den Systemanbieter und Hersteller bedeutet, Lager zu unterhalten, die den potentiellen Bedarf an solchen prof. Laufwerken decken.
In noch größeren - und weitaus kospieliegeren Speichersyetemen - wie bei Banken, Behörden oder zentralen Forschungseinrichtungen, wo Millionen in Speichersysteme, die Backups und die Backups der Backups (und so weiter) verschwinden, spielen dann die Personal- und Vorhaltekosten eine größere Rolle auf Dauer, als die Teuerung durch das "Profilaufwerk".
Tekpoint schrieb:
Mal eine Frage wegen den Schnittstellen. Wenn kommen den endlich mal neue Sata Schnittstellen aka. Sata 12GB/s ...... Dual Sata 6GB/s oder PCIe Sata 10/16GB/s auf die Mainstream Mainboards? Sollten doch schon in Sommer kommen.
Zu den News zu Kommen. Samsung hat schöne Arbeit hier geleistet Nur sind solche Robusten SSDs nicht perfekt für Desktopsystem bestens geeignet?
Ich beobachte seit geraumer Zeit die Entwicklung von SAS 3.0 Chips. LSI Logic hat im Frühjahr verkündet, daß man bereits sehr weit mit einer 12 Gb/s Lösung gekommen sei. Es ist jetzt nur noch eine Frage der Zeit, bis die entsprechenden Controller auf dem Markt sind.
Der aktuelle SAS 2.0 Standard reicht bereits nicht mehr aus, um teure prof. SSDs im RAID Verbund bedienen zu können. Einzelne Laufwerke erreichen bereits mehr als 600 MB/s. Da sowohl SAS als auch SATA sog. "Peer" Verbindungen sind, muß der Controller pro Port diese 600 MB/s (oder 6 Gb/s) bereitstellen können - das Backend aber muß ein Vielfaches dieser Port-Bandbreite bereitstellen. So sollte ein 8-fach Controller dann auch 8 mal 6 Gb/s, also 48 Gb/s oder, grob gerechnet, 5 GBytes/s über den Anschluß schaufeln können - ansonsten kommt es unter Last zu Verstopfungen.
Persönlich habe ich die Erfahrung gemacht, daß Dank der wesentlich besseren SAS Controller (die haben einfach die bessere Logik, mehr Puffer, ausgefeiltere Techniken) unsere UNIX Systeme (egal ob Linux oder BSD) mit SATA Platten an SAS Controllern "runder" laufen. Ich liebäugele deshalb mit dem Kauf eines SAS Controllers für eine Workstation, an die dann auch SSDs angebunden werden können. Es wäre toll, wenn schon jetzt die 12 Gb/s Ablösung in den Regalen liegen würde ...
Ergänzung ()
bensen schrieb:
Das ist ja PCIe. Aber mit eben nur 2 Lanes, also max. 2GB/s. (Mit zukünftigen PCIe Standards wird sich dass dann wohl weiter erhöhen).
Steckkarten haben in meinen Augen eigentlich nur Nachteile. Der Platz auf dem Mainboard ist begrenzt, vor allem wenn man diese verkleinert (µATX, Mini-ITX). Im Gehäuse ist man viel flexibler, irgendwo kann man 2,5" Laufwerke immer unterbringen.
SATA-Express wird leider nur noch ne Weile dauern. Hoffentlich wirds schon 2014 was.
Ich glaube nicht, daß PCIe auf Dauer und im größeren Stil das Platteninterface ersetzen werden kann. Allenthalben sind das Insellösungen und Lösungen für Heimcomputer.
Du hast es bereits erwähnt - der Platzbedarf und vor allem die Ausbaubarkeit und Flexibilität ist eingeschränkt.
Man überlege sich mal folgenden Innovationszyklus: PCIe SSDs werden sich durchsetzen. Plötzlich muß man sich Gedanken darüber machen, wie man mehr als eine SSD auf eine PCIe Interfacekarte setzen kann. Vielleicht baut man dann Steckkarten, die mehrere Halterungen zum NAchrüsten haben (SSDs werden ja immer kleiner). Dann ist man aber bereits wieder da, wo wir heute auch sind: Ein Controller (SAS/SATA), der viele Einheiten bündelt und mit dem Restsystem via PCIe angebunden ist! Ich setze bereits seit Jahren auch im Privatbereich Backplanes für meine SATA Platten ein - im Grunde das, was eine Expanderlösung auf dem PCIe-SSD System darstellt.
Das Kabelproblem wird sich wohl über kurz oder lang mit Glasfaser lösen. Man kann sich kaum vorstellen, wie elegant und platzsparend die FCAL Verbindungen an unseren Glasfaser SAS Controllern sind. Da gibt es FCAL Hubs, Switches und so weiter. Die Technik ist da, nur selten und entsprechend teuer.
Das ist aber auch der Engstrinigkeit der Konsumenten geschuldet. Wer ist denn bereit, 5 Euro für ein Highend-SATA Kabel auszugeben? Kaum jemand, entsprechend schlecht ist auch die Signalqualität. Ein FCAL Käbelchen ist nicht unter 25 Euro zu haben und der optische Anschluß ist auch immer peinlichst auf Staub zu prüfen. Ich glaube spätestens mit 12 Gb/s SAS oder SATA Express wird man auch mit dem Glasstrang liebäugeln und dann sind weitaus höhere Bandbreiten machbar.
Vielleicht läßt sich der Fall Telekom und Kupfer auch auf die Computerindustrie übertragen: Weil die Kupfer-Lobby jahrzehnte machtvoll in den Post-Gremien einwirken konnte (einer der ehemaligen Postminister hatte familiäre Verbandelungen mit Kupferwalzwerken über seine Frau) wurde eben statt Glasfaser Kupfer verbuddelt. Und damit das ganze nicht zu offensichtlich als Übervorteilung erkannt wird, wurde es dann auch schöngelogen! Heute ist das Procedere Dank Privatisierung nicht mehr moralisch anstößig - aber weitaus schlimmer!
Ein Ähnliches Debakel sehe ich auch in der Computerindustrie. Glasfaser würde einiges billiger, wesentlich schneller und vor allem störunanfälliger machen - nebst den Sicherheitsaspekten.
Man muss da Formfaktor und Protokoll unterschieden. Das spricht gegen PCIe als Steckkarte, aber nicht gegen PCIe generell. SATA-Express hat das ganze ja ganz gut gelöst und für den Übergang auch mit Abwärtskompatibilität zu SATA.
Die PCIe-SSDs im Consumerbereich hab ich eh nie verstanden. Nur nen anderer Formafaktor, sonst keine Vorteile.
Und die 2GB/s sind ja auch schon ne Menge Holz. Allerdings dauert es noch nen Weilchen bis das auf den Markt kommt. Bin gespannt ob schon mit Broadwell.
Mit Kupfer wirds langsam wirklich eng. Ich denk mal mit 10 Gbit-Ethernet und SAS 12 Gbit/s ist man so an der Grenze dessen angelangt was praktikabel ist. Mehr geht sicherlich, aber irgendwann muss man sich mal davon trennen.
Wenn es mal eine Neutwicklung von ATX gibt, könnte man sich so einiges ausdenken.
Es gibt ja schon PCIe SSD, die man kann quasi kaskadieren kann.
Die mSatas sind schon deutlich kompakter.
Das mit einem schnelleren Standart.
Quasi ähnlich als ein Ramsockel.
Können ja auch kleinere SODimms sein .
Oder einfach das "loch" für die CPU Backplate auf der Rückseite vergrößern und
an der Rückseite, 6 oder von mir aus auch 10 von "mSata 2.0" Steckplätzen und
fertig ist die Laube, würde es einfach zum Wechsel machen und würde nicht unnötig
auf der anderen Seite im Weg stehen.
Das könnte man mit nem neuen Formafaktor verbinden und auch die RAMs und
andere Dinge auf die Unterseite bringen.
Ich finde das in sache SSD keiner an Samsung vorbei geht.
Hab mir neulich recht kostengünstig eine Samsung SSD Series 830 mit 256GB gekauft (143€), und ich bin von der Leistung hin und weg!