News OCZ Z-Drive R3 RM88: OCZs 10.000-US-Dollar-SSD

Ich könnte mir vorstellen, OCZ ist es gar nicht so wichtig möglichst viele von den Teilen zu verkaufen.
Ich verstehe das eher als Machbarkeitsstudie und Werbeträger für die kleineren (Vertex 2) Modelle.

Trotzdem ist es natürlich eine ganz schöne Leistung und lässt auf die Zukunft hoffen, wenn solche Teile irgendwann für jedermann bezahlbar sind.
Das tolle zur Zeit ist ja, dass die Festplattenleistung schneller steigt als die Software größer wird. Somit hat man auch geschwindigkeitstechnisch wirklich was davon!
 
1.) Selbst wenn du 5 10Gigabit Karten zu einer logischen zusammenfassen willst, wird das Betriebssystem bzw. der Netzwerktreiber das nicht so einfach mitmachen, da das alles nur auf einem Kern läuft. Du bekommst nicht einmal annähernd die 10Gigabit hin. Ein Zugriff auf das Dateisystem bzw. eine Netzwerkkarte ist immer ein IO Zugriff und das benötigt einen Context Switch zwischen zwei Prozessen. Da gehen eben nicht mehr als ca. 100K Zugriffe pro Sekunde und wenn der Treiber die Daten nur in den RAM schreibt, wird es auch nicht schneller.

2.) Also dass genügend Speicherzellen vorhanden sind, dass die SSD auch einiges an Schreibzugriffen verträgt und ensprechend viele Ersatzblöcke vorhanden sind. Eine 2,4TB 10K Mal zu beschreiben sollte eigentlich genug sein.
 
Na, dann sieht man doch, in welche richtung es in den nächsten jahren gehen könnte.
Die ersten Festplatten haben damals auch um die 10.000 DM gekostet :)
 
Ich fang schon mal an zu sparen :D

Echt beeindruckend das Teil !
Da gibts ganz sicher auch so einiges an Servern, die so hohen Datendurchsatz benötigen.
Datenbanken fallen mir da als Beispiel ein.

Kann man so ein Ding auch in einen IBM Mainframe (z10 z.B.) einbauen?
DA wäre sicher auch die entsprechende Rechenleistung um die Karte "ins Schwitzen" zu bringen.

Allerdings befürchte ich das die Daten auf dem Teil nicht sonderlich "sicher" sind,
wenn man sich mal die aktuelle Generation der SSDs ansieht.. :freak:
 
kein Serverhersteller wird sowas einbauen... Zuverlässigkeit steht an höchster Stelle und die ist mit diesem Teil mal gar nicht gegeben. Da ist nichts redundant, nichts standardisiert und Garantien für Kompatibilität kann OCZ schon gar nicht gegeben. Das ist eher was für High-End Workstations oder Testsysteme, wobei selbst da eigentlich nur auf zertifizierte, geprüfte Hardware gesetzt wird. Naja vielleicht nicht bei Forschungseinrichtungen :D

Von daher stufe ich die Dinger als Werbegag ein oder als Gadget für Privatpersonen, bei denen viel Geld sehr locker sitzt.
 
wahnsinns teil xD absolut verrückt aber echt fett.. irgendwann in 10-20 jahren werden solche transferraten dann auch für uns normal sein :D
 
Dr. MaRV schrieb:
Übel, ich frag mich wo man solche utopischen Tranferraten benötigt? Evtl. als Server Cache?
Solche Karten werden gerne als Read-Cache für größere Storage-Systeme verwendet. NetApp bietet seit einiger Zeit solche Zusatzkarten (256 bis 2048 GB) für ihre Unified Storage Systeme an.

Alternativ wäre auch eine Verwendung für Datenbanken oder bei größeren Microsoft Sharepoint Farmen als BLOB-Cache denkbar.

Defender666 schrieb:
Dann ist aber der Flaschenhals das Netzwerk mit maximal 10gbit/s

Ausserdem ist sie für normale Server ungeeignet wegen der vollen Bauhöhe.
Ich hab noch keine Standard-ThinClient-Umgebung (LTS mal außen vor) gesehen, wo 10 Gbit-Ethernet auch nur ansatzweise ausgereizt wird. Im Normalfall kann man selbst auf einer 1-Gigabit-Schnittstelle bequem deutlich über 100 Clients abdecken.

Die Bauhöhe ist auch eher nebensächlich, fast alle 1HE haben mind. einen, 2 HE-Server sogar meistens mind. zwei PCIe x8-Steckplätze mit voller Bauhöhe. Für Blade-Server sind diese Karten nicht gemacht. :rolleyes:

Smartin schrieb:
ich denke, die Teile disqualifizieren sich schon deshalb für Server, wegen der Zugriffszahlen. Kann mir kaum Firmen vorstellen, der gern einmal im Jahr 10.000 € blechen, um die geschrottete SSD zu ersetzen. In meinen Ausgen ist das alles noch nicht ausgereift. Aber ist nur meine bescheidene Meinung.
Firmen, die einen derartigen Workload abfrühstücken müssen, der solche Flash-Karten erfordert, lachen über 10.000 Dollar im Jahr. ;-)
Solche Summen tauchen da nicht mal mehr im Jahresreport auf, maximal unter "Sonstiges". ^^

andr_gin schrieb:
1.) Selbst wenn du 5 10Gigabit Karten zu einer logischen zusammenfassen willst, wird das Betriebssystem bzw. der Netzwerktreiber das nicht so einfach mitmachen, da das alles nur auf einem Kern läuft. Du bekommst nicht einmal annähernd die 10Gigabit hin. Ein Zugriff auf das Dateisystem bzw. eine Netzwerkkarte ist immer ein IO Zugriff und das benötigt einen Context Switch zwischen zwei Prozessen. Da gehen eben nicht mehr als ca. 100K Zugriffe pro Sekunde und wenn der Treiber die Daten nur in den RAM schreibt, wird es auch nicht schneller.
Ab Server 2008 eigentlich kein großes Problem mehr. Im VMware-Bereich gibts dank VMDq auch noch gleich mehrere Queues pro Link. Unter optimalen Bedingungen gehen da schonmal gut und gerne 8 - 9 Gbit/s auf einer 10 GbE-Schnittstelle durch. Vor gut einem Jahr hab ich selbst in einer kleinen Quick&Dirty Installation zwischen zwei VMs (Server 2008 R2) auf zwei verschiedenen ESX-Hosts die Daten mit rund 4 Gbit/s hin und hergeschubst - da waren dann die Festplatten (auf jeder Seite 6x 300 GB SAS 10k im RAID5) definitiv eher am Anschlag. :evillol:
 
Ich möchte da jetzt keine Streitfrage entfachen über den Sinn oder Unsinn dieser Möglichkeit, aber ist es denn möglich, sich diese SSD in einen "normalen" High-End-Rechner zu bauen?

Das die in erster Linie für Server gedacht sind, ist mir klar, ich würde es nur aus Interesse gern wissen und nicht, weil ich 10k€ über habe und mir eine solche Karte in mein System stecken möchte ^^.
 
Einfach nur WOW, wenn man nur zuviel Geld hätte...:D

Los Leute, 7000€!
 
Erinnert mich an meine 286-Hauptplatine, die ich vor zwanzig Jahren verschrottet habe.

Da waren auch so viele Chips von einem nicht mehr existenten Hersteller drauf.

Mal sehen, wie es mit dieser Platine in zwanzig Jahren aussieht.
 
mastermc51 schrieb:
Kann man so ein Ding auch in einen IBM Mainframe (z10 z.B.) einbauen?
Ich glaube kaum, daß ein Unternehmen, daß sich eine z10 leisten kann, auf den Schrott der Frickelbude OCZ setzt, denn bei Mainframes geht es um Zuverlässigkeit und die kann der Müll von OCZ nicht bieten.

Da wird dann eher ne RamSan stehen oder drin stecken. ;)
 
Allerdings befürchte ich das die Daten auf dem Teil nicht sonderlich "sicher" sind,
wenn man sich mal die aktuelle Generation der SSDs ansieht..

Solang nur gelesen wird passiert ja nichts mit den Bausteinen. Von daher kann man gut Hintergrund Daten für Datenbanken lagern die viel genutzt sind, sich aber nicht ändern. Damit sollte man auch die Bandbreite ausschöpfen können.
 
andr_gin schrieb:
1.) Für einen klassischen Server ist das Teil komplett ungeeignet. Wenn das Ding eingeht (ein großer Teil der Festplattenfehler sind welche in der Elektronik)
Verwechselst du das nicht mit der Mechanik? Da eine SSD keine rotierenden Bauteile hat, ist die Ausfallwahrscheinlichkeit geringer. Bei der einen auf der zweiten Seite verlinkten Karte beträgt die "MTBF: 2 Mio. Stunden". Daher ~240 Jahre bis die Hälfte der produzierten Platten ausgefallen wären.

Daher ist die Aussage auch Quatsch, dass man das Teil jedes Jahr neu kaufen müsste weil es dann kaputt wäre.


dann ist alles weg und ich kann langwierig das letzte Backup suchen, einspielen und hoffen, dass alle Daten dazwischen nicht wirklich wichtig waren. Wenn, dann braucht man schon ein zweites Teil davon und ein RAID1 kann man auch nur über Windows machen
Ein echtes Raid und kein Softwareraid wird vor der Partitionierung der Platte gleich nach dem BIOS-Start angelegt. Und das funktioniert mit allen aktuellen Betriebssystemen.Es gibt auch noch Bandlaufwerke für Sicherheitskopien, es ist ja nicht zwingend eine zweite Karte nötig.

2.) Die 10Gigabit sind sehr wohl ein Limit für ALLE Clients, da der Server wahrscheinlich kaum für alle Clients eine 10Gigabit Schnittstelle, einmal abgesehen davon, dass der Rest des Systems auch bewerkstelligen muss, mit 10GBit Daten durch die Gegend zu schicken. Ich denke in der Realität werden da nicht mehr als 2-3Gbit durch gehen ;-)
Auf den 10 Gigabit Karten sitzen Controllerchips, die das managen und somit das System entlasten. 2 x 10 Gibts Karten und man hätte 2,5 Gigabyte /s - Overhead => 2 Gigabyte in jede Richtung...also genug Speed damit wiederum die SSD limitiert. ( Bei einem Raid solcher Platten müsste man halt noch mehr von den 10 Gbits Karten verbauen... )

4.) Im Prinzip reduziert sich das Anwendungsgebiet auf Anwendungen, die fast nur Schreibzugriffe haben, nicht allzu große Daten, wo die Daten jedoch nicht wichtig sind. Bei Lesezugriffen liegt entweder alles im Cache oder die Kapazität ist sowieso zu klein.
Stopft lieber den Server mit 96GB RAM voll, bevor ihr euch so etwas anschafft.
Die Frage wäre, was ist wenn man beides macht? Also den Server mit Prozessoren & Ram + SSD vollbaut. Wo ist dann der limitierende Faktor? Wird das die IO Performance des Systems sein oder wo wird das System dann gebremst werden?

Wahrscheinlich wird am Ende der Prozessor limitieren egal wie stark das System ist, oder?

@PaDattDaRein?
Du brauchst einen PCI Ex. Slot und da den quasi jedes moderne Mainboard hat, ist die Karte natürlich auch bei dir lauffähig.
 
Zuletzt bearbeitet:
Suxxess schrieb:
Ein echtes Raid und kein Softwareraid wird vor der Partitionierung der Platte gleich nach dem BIOS-Start angelegt. Und das funktioniert mit allen aktuellen Betriebssystemen.Es gibt auch noch Bandlaufwerke für Sicherheitskopien, es ist ja nicht zwingend eine zweite Karte nötig.
Uah, wie es mich da wieder gruselt. Was haben nur alle gegen Software-RAID?

Es gibt afaik kein einzigen "Hardware"-RAID-Controller, der bei ernsthaften Konfigurationen mit Solid-State-Speichern nicht zum Flaschenhals wird. Spätestens bei vier SSDs ist jedes Software-RAID den meisten "Hardware"-RAID-Lösungen überlegen.

Ganz davon abgesehen gibt es derzeit keinen mir bekannten ZC-RAID-Controller, der ein RAID-Array aus zwei oder mehr "PCI Express-SSDs" herstellen kann. Demzufolge ist ein nachträgliches Software RAID1 aus zwei solcher PCIe-SSDs zur Wahrung "Live"-Datensicherheit imho absolut legitim.

Wer mal einen kleinen Blick über den Tellerrand der Windows-Welt wagen will, sollte sich mal ein paar einschlägige Artikel zu ZFS durchlesen. Da gibt es alle mögliche Variationen mit RAID-Arrays und schnelleren Multi-Tier-Zwischenspeichern (RAM --> Flash --> Disks) und das - oh Wunder - in SOFTWARE!
 
Da ich die Typischen Kommentare vermisse, streue ich sie mal Vertretungsweise ein:

alter wie schnell Spiel xy da sein muss, krass
Da Windows drauf, muß ein Traum sein

So, ernsthaft:

OCZ geht es nur um Werbung und sollte doch einer die SSD kaufen, ist es ein toller Nebeneffekt, im Grunde geht es aber nur darum zu zeigen, was machbar ist.

Und eine Firma wird wohl kaum so wahnsinnig sein, eine Komplette Datenbank drauf laufen zu lassen, da das Risiko des Totalen Datenverlustes höher ist als bei einer Konventionellen HDD.
 
Die SSD wird sich erst noch beweisen müssen, so wie meisten PCI SSD-Karten wird die Geschwindigkeit höchstwahrscheinlich wieder sehr miserabel umso voller sie wird, damit hat aktuell noch fast jede PCI-SSD zu kämpfen, selbt die FusionIOs.
Einzig die Virident tachIOn PCI-SSD-Karten haben es scheinbar gut im Griff, zumal deren Konzept sowieso den aktuellen SSD-Karten überlegen ist, denn mit deren Lösung lassen sich auch Flash-Chips mit defekten Sektoren einfach austauschen.
 
welche Firma macht denn keine Backups? von totalem Datenverlust kann doch hier gar keine Rede sein..
 
Zurück
Oben