News OCZ Vertex 2 Pro mit SandForce-Controller

Naja, es lässt sich wohl drüber streiten ob mangelnde Vorraussicht oder eine gewisse Absicht Schuld sind. Fakt ist, dass die Flash Produktion in 2008 sogar zurückgefahren wurde. Dann kam der absolut vorauszusehende SSD Boom und auch Nachfrage in anderen Bereichen und schon hatte man eine Riesen Nachfrage für NAND und zu geringe Kapazitäten.

Aber es kann mir kein Wirtschaftsfutzi erzählen, dass man diese massive Nachfrage nicht hätte erahnen können. Aber alle fahren immer die gleiche Schiene. Wenn man zuviel produziert, drosselt man die Produktion, anstatt sie zumindest so zu belassen, weil man ja weiß, dass in einigen Monaten die Nachfrage wieder massiv steigt.

Der Markt ist viel zu kurzfristig ausgelegt. NAND ist nur ein Beispiel dafür.
 
@ Eggcake

Sind halt unterschiedliche NAND Bausteine bzw. unterschiedliche Fertigunsferfahren. Bei den Intels trifft eben genannte Kausalkette wahscheinlich nicht zu, da die schon immer einen Nachfrageüberhang hatte und somit (möglicherweise) noch günstiger werden könnte, wenn man ausreichend Stückzahlen produzieren kann.

Edit:

@ Moep89

Man hätte nur nicht den Fehler machen dürfen den Preis zu senken und die Produktion runterzufahren. Eins von beiden hätte wohl genügt. Wobei die Preissenkung am sinnvollsten gewesen wäre. Im Übrigen hätte der Boom auch später einsetzen können, wenn im jetzigen Endgerätezyklus (zB bei Netbooks, Handys u.ä.) noch auf SSDs verzichtet worden wäre. Ich glaube das war so eine 50:50 Entscheidung.
 
Zuletzt bearbeitet:
Ich fürchte das hätte nicht gereicht. Die Produktion hätte noch erhöht werden müssen. Wie gesagt Toshiba hat schon bestätigt wieder um 40% zu erhöhen in 2010.

Die Nachfrage steig ja nichtt nur durch die niedrigen Preise, sondern weil sich Flash Speicher immer mehr etabliert in allen möglichen Bereichen. Man muss sich nur mal dieses unsägliche IPhone ansehen, sowie die IPods. Da steigen die Kapazitäten schneller als man gucken kann und gekauft wird der teure Müll auch wie blöd. Was da an Flash verbraucht wird ist irre.
 
Eine reine Preissenkung hätte aber den Vorteil gehabt, die Nachfrage kontrollieren zu können. So wie sie es ja jetzt auch gerade machen. ;)

Das ist aber eine reine Konjunktivdiskussion. Daher lieber wieder back to topic.

Geht aus dem Anandtech-Artikel eigentlich hervor welche Fertigungsgröße die Speicherbausteine haben?
 
Bis ich ne SSD kaufe, wirds noch einige Zeit dauern. Die performance ist aktuell schon sehr gut. Aber wie man sieht, gibts noch sehr viel zu optimieren.

Deswegen werd ich nicht so viel geld für ne SSD ausgeben, die in nem Jahr völlig veraltet ist und total überteuert war.


Ich warte auf 250 GB SSDs mit 350 MB lesen und schreiben sowie mit SLC für 100€. Dann schlag ich zu. :)

Und wenns so weiter geht, dürfte das in spätestens 5 Jahren auch der Fall sein.

Oder wenns aber doch früher sein soll - aktuelle SSDs mit 100GB für 70-80€.
 
bei den ersten 2 zeilen gebe ich Fatal!ty Str!ke recht ;) glaube in sachen SSD-Technik haben -die- noch einiges zu machen^^ aber 5 Jahre warte ich nicht auf -meine- SSD ;) bei meiner nächsten neuanschaffung (ca. in 2-3 jahren) is SSD auf jedenfall dabei^^
 
hihi über die Preise meckern, aber bestimmt ne 600 € Grafikkarte im Rechner. Könnt mich tot lachen.
 
Ich muss Fatal!ty Str!ke auch zustimmen - ich wollte aktuell eine System SSD kaufen und werde wohl auch erst mit dem nächsten System Upgrade in 1-2 Jahren nochmal darüber nachdenken wenn die Technik noch ein zwei Schritte vorwärts gemacht hat.
Oder wenns aber doch früher sein soll - aktuelle SSDs mit 100GB für 70-80€.
Das könnte mich auch nochmal früher zuschlagen lassen.
 
Irgendwie klingt "SandForce" ziemlich lächerlich,
wenn man dabei an ihn hier denkt:

t4wspd.gif
 
hihi über die Preise meckern, aber bestimmt ne 600 € Grafikkarte im Rechner. Könnt mich tot lachen.

nur das ne graka was anderes als nen simpler massenspeicher ist. ich sag ja nicht das 600€ für ne graka wenig sind aber dein vergleich hinkt so dermaßen das ich mich auch gleich tot lache
26.gif
 
Zuletzt bearbeitet:
Wobei eine SSD im Gegensatz zu einer GraKa nicht alle 2 Jahre rausfliegt. :p

@topic

Klingt gut. Wenn der Preis für die schnellen Modelle noch etwas nachlässt (2€/GB), dann wird die Bootplatte ausgewechselt. Bis dahin wird jetzt mit einer mechanischen Hitachi 320GB HD die Zeit überbrückt. :)

PS: gutes neues!
 
Irgendwie gefällt mir die Richtung in die sich SSDs entwickeln nicht...

Das komprimierte Daten wiederhergestellt werden können (durch "absichtliche Redundanzen") wenn NAND-Zellen (von denen ja billigere verbaut werden sollen) ausfallen klingt nicht nur blöd sondern auch etwas unmöglich.

Besonders blöd wirds dann wenn die MFT auf wenige Zellen zusammenkomprimiert wird die dann gemeinsam ausfallen. :x

Oder wird da einfach damit gerechnet das eh 5% der ausgelieferten SSDs ausfallen, die RMA Kosten dafür werden dann beim Preis aufgeschlagen und die Sache ist für den Hersteller erledigt?


Und noch dazu erfährt man nichts über die Arbeitsweise - weder über die Komprimirungs- noch über die Wiederherstellungsalgorithmen. Man kauft also mehr oder weniger ne Katze im Sack. Bzw. eine Katze im Sack die dann in einen weiterem Sackt gesteckt wird, weil die eine SandForce-SSD ist nicht gleich der anderen, denn den Herstellern wird freie Hand gelassen wird beim Design der SSD (und der Wahl des Flashs).

Klingt irgendwie so als würd ich einen Medion PC beim Hofer kaufen. Also ehrlich - das wissen wir doch alle besser oder?

Oder erwarten die das man den dreifachen Preis für eine SLC SSD zahlt um etwas halbwegs zuverlässiges zu bekommen?

[EDIT]
Der derzeitige Stand der dinge bietet sich imho sehr gut an um die einzelnen Komponenten (bzw. Schnittstellen) zu standardisieren. Man müsste die Hersteller dazu zwingen SSDs in zukunft so zu gestalten dass man sie sich selbst wie einen PC zusammenbauen kann. Also sich selbst den Flash, den Controller, das Board und auch die Software auszusuchen.

Dann würde endlich mal auch konkurrenz von der Opensource Seite kommen. Kann ja nicht sein das Intel Monatelang den fast dreifachen Preis für Ihre SSD verlangt (für die erste x25-m) nur weil sie eine bessere Software haben. Bzw. einfach so beschließt die Schreibgeschwindigkeit auf 70 (bzw. 80/100) MB/s zu begrenzen weil sie den Markt segmentieren wollen.
 
Zuletzt bearbeitet:
@SwarteX

Imho ist eine Investition in eine 600€ SSD deutlich sinnvoller als in eine 600€ Grafikkarte. Aber jedem das Seine ;)


@Cytrox

Natürlich muss man das genau testen, aber direkt verteufeln würde ich die Technik nicht.
 
denke man sollte die SSD-Technik fördern, und nicht verteufeln^^ kommen wird sie auf jedenfall (oder halt eben der ersatz für SSD, wenns SSD nicht wird ;))

wir sind dann beim -perfekten- PC angekommen, wenn sich " nix mehr im Gehäuse dreht " -- ausser vllt der Lüfter (oder sind Lüfter beim -perfekten- PC auch überflüssig?!)^^ :D
 
Cytrox schrieb:
Das komprimierte Daten wiederhergestellt werden können (durch "absichtliche Redundanzen") wenn NAND-Zellen (von denen ja billigere verbaut werden sollen) ausfallen klingt nicht nur blöd sondern auch etwas unmöglich.
Es ist keine Komprimierung wie das üblicherweise bekannt ist.
Es ist mehr eine Parität die ähnliche einem RAID5 arbeitet und als Redundanzen verschiedene NAND-Zellen verwendet. Beim schreiben einer Windows 7 und Office 2007 Installation wurden bei ca. 25 GB nur ca. 11 GB an Daten wirklich physikalisch auf die SSD geschrieben. Fallen einzelne NAND-Zellen aus wird das vom Kontroller erkannt und umgeschichtet. Die Zelle wird als defekt markiert und nicht mehr verwendet. Daher auch fast doppelt so viele Reserve Zellen als Intel derzeit verwendet.

Das Verfahren kann man hier nachlesen:
http://www.anandtech.com/storage/showdoc.aspx?i=3702&p=3
SandForce referenced data deduplication as a type of data reduction algorithm that could be used. The principle behind data deduplication is simple. Instead of storing every single bit of data that comes through, simply store the bits that are unique and references to them instead of any additional duplicates. Now presumably your hard drive isn’t full of copies of the same file, so deduplication isn’t exactly what SandForce is doing - but it gives us a hint.
 

Anhänge

  • durawrite.jpg
    durawrite.jpg
    112,9 KB · Aufrufe: 525
  • durawrite2.jpg
    durawrite2.jpg
    131 KB · Aufrufe: 526
Nand Flash ist eine veraltete Technologie, die leider durch "künstliche" Probleme in der Entwicklung alternativer Techniken herhalten musste.
Schon Anfang 2000 sagte man, Nand wäre bald Geschichte.
Wenn es nach mir ginge, wäre ich lieber "early adopter" von Mram und Co und hätte Nand schon längst auslaufen lassen.
Ich kann verstehen, warum einige HDD Hersteller nie auf den SSD Zug aufspringen wollten.

Der Sandforce Controller ist meiner Meinung nach nicht der Hit.
storagesearch.com macht es eigentlich deutlich. Einer unter vielen kommenden.
Sollte es tatsächlich Mtron nochmals schaffen ihren ewig angekündigten Onfi 2.1 Controller vor der Totalinsolvenz rauszubringen oder auch Memoright, wäre der Sandforcecontroller möglicherweise keine News auf CB wert.
Indilinx neuer Controller sollte Q1 2010 kommen, verschiebt sich wohl mindestens um ein Jahr nach Preessemitteilungen.
Was macht FusionIO mit ihren PCIe SSDs. Mitarbeiter: "Wir wollten doch die Karten windowsbootfähig machen und die SSDs an die Enthusiasten Community veräußern.
Chef:"Lassen wir lieber sein. NTFS und Windows zerstört unsere SSDs und unser Marketing is dann hin. Solange die Serverfarmen die Teile kaufen, macht es uns reich."
http://hothardware.com/Articles/Fusionio-ioXtreme-PCI-Express-SSD-Review/

Unfortunately, a bit of a let-down for some might be, that the product still currently can't be utilized as a boot volume. Fusion-io assures us that this feature will be supported in future driver and/or firmware revisions but also didn't commit to a schedule for that roll-out just yet.
Diese Aussage kommt schon seit der Einführung der ersten Fusion Karte. Mittlerweile zwei Jahre her. So kauft sich die Karte nur noch ein Bruchteil der Enthusiasten und läßt den Preis dadurch auf einem Level taxieren, der selbst jene letzten Enthusiasten Schmerzen bereitet.

Frage an Microsoft, Apple und Co: Warum konzipiert ihr kein neues Dateisystem für SSDs?
Die Antwort im Flüstrerton: Da wir hoffen, dass diese NAND Dinger bald der Vergangenheit angehören.

Letzteres kann mann nicht mal als Scherz nehmen. Denn dies ist es, was ich bei den Aussagen jener innerhalb der letzten 5 Jahre entnehme.
Im Gegenzug warten sie auf http://www.mram-info.com/
oder auf ein prognostiziertes Online-Storage bzw. ein Online Betriebssystem, um Geld zu schäffeln.
Dann gibt es noch einzelne Leute wie Jörn Engel (LogFS), die an die Zukunft von Flash glauben. Solche Projekte werden aber wenig gepusht.

Fazit: Nand wird nicht mehr billiger, möglicherweise sogar eher noch teurer: Da die Herstellung der Oxidgates alles andere als trivial ist und einige sehr teure und z.T. äußerst begrenzte seltene Elemente verwendet werden.
Das ist ähnlich wie Abgaskatalysatoren auf Platinbasis. Unmöglich für jedes Auto einen solchen bereitzustellen allein mit den Ressourcen der Erde.
Nand erreicht aktuell ein Limit, was kaum noch weiter gedehnt werden kann.
Allerhöchstens auf Kosten der Umwelt, in dem versucht wird noch mehr Seltene Erden in großem Maßstab abzubauen.
 
Zuletzt bearbeitet:
Complication ich habe den Anandtech Artikel gelesen - deswegen bin ich auch so besorgt.

Komprimieren funktioniert (wie auch im Artikel beschrieben) nur auf eine weise - Redundanzen vermeiden. (Da gibt es kein "wie üblicherweise bekannt". Wenn man Redundanzen nicht vermeiden würde wärs keine Komprimierung.)
Dann aber wiederum erhöht man die Redundanz künstlich (wie bei einem RAID) um die Ausfallsicherheit zu erhöhen.

Naja, gut, kann sein dass die da etwas geniales gefunden haben - so gut kenn ich mich in dem Gebiet dann auch wieder nicht aus. Aber bei Software (vor allem bei so Grundlegenden Themen) ist immer die Frage wieso sind da nicht schon andere wesentlich früher draufgekommen. Wir haben ja Komprimierungs- und Fehlerkorrekturalghorithmen schon seit Ewigkeiten und es hat sich in dem Bereich nicht viel getan die letzten Jahre. Was also gefunden/erfunden/erforscht werden kann in dem Bereich ist großteils bereits schon (jedem) bekannt.

Natürlich besteht noch die möglichkeit dass die etwas neues entdeckt haben (dass dann auch bei HDDs bzw. beim senden von Daten übers Internet verwendet werden kann) oder dass durch die Eigenschaften einer SSD neue Ansätze möglich sind. Aber es besteht jedenfalls ein berechtigter Grund zum Zweifel.

Blind werd ich denen jedenfalls nicht vertrauen. Und wenn sie keine Informationen rausrücken (was teilw. verständlich ist, da es ja das ist was den Controller besonders macht) dann haben wir ein Problem :>


Außerdem ist schon klar dass Reservezellen verbaut sind, aber das wesentliche ist dass die Daten in den kaputten Zellen zu 100% wiederherstellbar sein müssen. Es wird ja fix damit gerechnet das Zellen schon frühzeitig ausfallen (also lang bevor die SSD die geplante Einsatzdauer erreicht hat). Oder erwartet man jetzt das ich täglich ein Image von meiner Systempartition mache?

Das schlimme hier ist das wenn eine Zelle ausfällt nicht nur die 1 bzw. 2 Bit die in der Zelle waren verloren sind (bzw. die 4KB in denen diese Bits liegen) sondern u.U. ganze Gigabytes an Daten weil ja alles komprmiert ist und die Orginaldaten evtl. nicht mehr wiedergerestellt werden können ohne diese Bits.
 
Zuletzt bearbeitet:
Moep89 schrieb:
Aber es kann mir kein Wirtschaftsfutzi erzählen, dass man diese massive Nachfrage nicht hätte erahnen können.

Ich denke mal, die Wirtschaftskrise spielt da auch noch mit rein. Da hat JEDER auf fallende Verkaufszahlen spekuliert, da dann die Produktion weiter hoch- bzw. aufrechtzuerhalten, erschien wohl den ganzen "Wirtschaftsfuzzis" (zu Recht) als zu riskant. Schließlich kann Überproduktion ganz schnell zum Aus führen, wenn dir das Zeug hinterher keiner abkauft.

Aber wenns erstma wieder bergauf geht mit der Wirtschaft, kann es sein, das die Produktion umso massiver wieder hochgefahren wird, hoffe ich jedenfalls. :)

Fatal!ty Str!ke schrieb:
Ich warte auf 250 GB SSDs mit 350 MB lesen und schreiben sowie mit SLC für 100€. Dann schlag ich zu. :)

Will dich ja nicht enttäuschen, aber SLC kannste abhaken. Einfach weil da nur 1bit pro Zelle gespeichert wird, da brauchst du soviel Wafer-Fläche, um auf deine 250GB zu kommen, das ist einfach nimmer feierlich. Wohingegen bei MLC 2 oder 3 bits gespeichert werden können und man folglich nur 1/3 der Fläche benötigt (und somit sich die Kosten auch dritteln, zumindest für den Flashspeicher.

Kurze Rede, langer Sinn: SLC wird für den Privatkunden auf Dauer (>10 Jahre) zu teuer sein. Vor allem im Vergleich zu MLC, die einfach besser sind bei P/L.

Aber mit MLC kann ichs dir gern vorrechnen.

250GB Ultradrive kostet 530€

Nach Moores Law verdoppelt sich die Speicherdichte von Transistoren alle 18 Monate.

Also alle 18 Monate halbiert sich der Preis bzw. die Kapazität verdoppelt sich.

Heute: 250GB=530€

in 1,5 Jahren: 265€

in 3 Jahren: 130€

Schon ziemlich knapp dran.

in 4,5 Jahren: 65€.

Bei SLC kannste das noch verdoppeln, eher verdreifachen.

INTEL MLC 80GB =190€
INTEL SLC 64GB = 590€

Also ca. 6 Jahre, dann kannste vielleicht ne SLC @250GB fürn hunni schießen, aber ehrlich gesagt sind die Vorteile einer SLC schon heute nicht mehr SOOO entscheidend als das sich da das warten lohnt.

Totschreiben kannste ne MLC schon nicht mehr, außer du legst es drauf an (50GB pro Tag für 10 Jahre AFAIK)

Und von der Geschwindigkeit nimmt es sich im Prinzip nix, die paar ms hin oder her merkste eh nicht. IMO.

Vor allem in 6 Jahren, wenn die Technik nochmal deutlich weiter ist und die Kapazitäten größer, was bei ner SSD ja auch sehr für bessere Performance und Lebensdauer sorgt.
 
ScoutX schrieb:
Frage an Microsoft, Apple und Co: Warum konzipiert ihr kein neues Dateisystem für SSDs?
Die Antwort im Flüstrerton: Da wir hoffen, dass diese NAND Dinger bald der Vergangenheit angehören.
Querfrage, was ist mit exFAT? Soll ja für Flashspeicher gut sein...
 
Zurück
Oben