News OCZ-Statement zu 25-nm-NAND in SSDs

@aurum

Du hast definitiv eine 34mn Version. Wie schon durch diverse Vorposts beschrieben einfach auszurechnen:

111,9 Gib netto = 34nm
107 Gib netto =25nm


Deine Screenshots beweisen lediglich dass du deine ssd mit häufigen Benchmarks in den
"Selbsterhaltungsmodus" getrieben hast, und sie dadurch langsamer schreibt.
Lass sie einfach für ein paar Stunden in der Woche im ausgeloggtem Zustand "idlen" damit
sie sich wieder erholen kann. Dann sollte sie nach 1-2 wochen wieder schneller werden.
 
Die ASS-Benches meiner nicht kaputt-gebenchten 60GB Vertex2E deuten wie bei Aurum auf eine mit 25nm, wobei die 55,9GB wohl eher ein Hinweis auf 34nm sein sollten...;)
Kaufdatum war ca. 1.12.2010.

Grüße

Uwe
 

Anhänge

  • Vertex2E-25nm.JPG
    Vertex2E-25nm.JPG
    239,2 KB · Aufrufe: 527
Die 25nm gibt es meines bescheidenen Wissens nicht mit einer Firmware unter V1.28, egal was die Benches sagen. Laut dem Screenshot benutzt du den Microsoft Standardtreiber, der dafür bekannt ist etwas langsamer zu sein als zB der von Intel.
 
Ja, aber etwas langsamer sind hier 60+ MB pro Sekunde beim Schreiben weniger :D SSDs sind also doch noch nicht wirklich ausgereift ^^
 
@UweW
deine Firmware ist 1.24

@aurum
deine Firmware ist 1.25

die 25nm werden erst ab Firmware 1.26 unterstützt.
 
aurum schrieb:
Ja, aber etwas langsamer sind hier 60+ MB pro Sekunde beim Schreiben weniger :D SSDs sind also doch noch nicht wirklich ausgereift ^^

Das kann man schon so sagen, für den Mainstream Markt werden die SSDs ja gerade erst interessant. Bis sie sich etabliert haben wird wohl noch eine Weile vergehen, aber wenn der Preis sinkt steigt das Interesse der Käufer, möglicherweise ähnlich wie bei USB Sticks (Achtung, überzogene Spekulation :D ).

Problem ist aber auch, dass Systeme immer komplexer werden und oft nur noch einen (aus technischer Sicht) sehr oberflächlichen Eindruck erlauben. Für an der Materie Unbeteiligte dürfte es schon ziemlich unmöglich sein zB kurz einen OEM Rechner anhand der Hardware grob zu beurteilen, Recherche eingeschlossen, worüber die meisten hier im Forum nur schmunzeln würden.
Wer kann da schon genau sagen (mglw noch nicht einmal der Hersteller), warum jetzt genau jener Benchmark schlechter ausgefallen ist.
 
aurum schrieb:
25nm werden schon länger verbaut!! Ich habe 111,7 gb nutzbare Kapazität + FW 1.25 und erreiche lediglich die Werte der 25nm Version ...

Schade, das war wohl ein griff ins WC ^^ Werde definitiv nie wieder etwas von OCZ kaufen.


Hier der Beweis:

Die Werte alleine einer SSD auf einem System beweisen nichts, zumal Du auch nur die seq. Leserate der 34nm Version erreichst und im Gegensatz zur Schreibrate oder den 4k Werten, die stärker vom Testsystem abhängen, ist die seq Leserate da weniger anfällig. Je nach System (also Chipsatz, BIOS und Energiespareinstellungen etc) schwanken die Werte schon recht stark und sind eben für sich alleine nicht aussagekräftig.
Die von mir verlinkte Seite ist in sofern ausssagekräftig, als das dort eben wohl der gleiche User drei neue SSDs zeitnah auf dem gleichen System gebencht hat. So lassen sich die Werte vergleichen, aber jetzt die eigene SSD zu nehmen, zu benchen und aus einzelnen Werte die näher an denen der 25nm Version des anderen Users lagen Schlußfolgerungen zu ziehen und gar als Beweis zu bezeichnen ist Unsinn.
Wenn hier einer eine 120GB Vertex 2 mit 120GB Kapazitätsangabe hat, die auch 220MB/s seq. bei ASS liest und ähnliche Schreibwerte erreicht, dann würde ich das Hinweis werten, dass es 25nm NAND sein könnte.
 
ASS alleine hat bei Sandforce basierenden SSDs keine Aussagekraft.
ATTO ist der Benchmark der bei SF-SSDs vergleichbare Max. Werte ausgibt.

http://forum.corsair.com/v3/showthread.php?t=90450
Das man aber Werte von AS SSD als regulären Echtzeitwert ansieht ist auch nicht korrekt. Denn der AS SSD berücksichtigt in dem Fall bis zur heutigen Revision keine Force Besonderheiten. In der Regel ist der Wert mittig zwischen ATTO und AS SSD Ergebnis, der "reale" Leistungswert den eine SSD über eine längere Lebensdauer leistet. Dies ist natürlich stark von der Nutzungsart der SSD abhängig, nutzt man die SSD als System-Platte wird diese bei diversen Vorgängen den ATTO Wert erreichen, bei anderen wiederum den AS SSD Wert - dies l i e g t in der Materie der unterschiedlichen Dateiarten und Typen - ebenso der Priorität die im Betriebssystem festgelegt ist. Aus Erfahrung der Langzeittests verhält es sich so, dass die Force SSD weder den ATTO, noch den AS SSD Benchmark-Wert dauerhaft bei allgemeiner PC-Nutzung erreicht - es ist dazwischen angesiedelt. Nutzt man den Computer bspw. mehr für Spiele und Simulationsanwendungen, bzw. SQL Datenbanken und Programmierung, ebenso wie für das Echtzeitrendering - ist man sehr nahe den ATTO Werten. Nutzt man Sie lediglich als Systemplatte für einen Media PC auf dem man Filme schaut, l i e g t man mehr Richtung AS SSD Werten - jedoch ist man auch hier schneller als die AS SSD Benchmark-Messung. Bei anderen Benchmarks sind die Werte z.T. überhaupt nicht verwertbar, daher raten wir hier generell von der Nutzung solcher Programme ab. Dies gilt insbesondere für alle SSDs mit SandForce Controller (Herstellerübergreifend) - dies ist also keine SSD-Herstellerabhängige Frage, sondern hängt lediglich vom Controller-Typ der SSD ab.

I.d.R. kann man das ATTO Ergebnis als bestes und das AS SSD Ergebnis als schlechtestes ansehen das die SSD leistet. Da aber kein Datenspeicher durchgehend den besten bzw. schlechtesten Wert nutzt, kann allein schon aus logischer Sicht die mitte als "realer Wert" angesehen werden. Unsere Langzeittests stützen dies zudem.
 
klar, etwas komprimierbares wird sich schon auf der ssd speichern lassen, daher ist auch bessere performance als im as benchmark.

hat dieser typ (arbeitet für corsair, soweit ich sein forumprofil interpretiere) auch dokumentation dieser langzeittests, die er anspricht??

DvP schrieb:
Ich habe weder das eine noch das andere behauptet. Aber (auch wegen 25nm) man sieht eben wie es mit den Qualitätsansprüchen von OCZ aussieht.

sorry. durch das missverständnis gab es aber weitere dinge zu diskutieren :P
 
mit diesem betrug ist OCZ für mich gestorben...für 2011 zumindest ganz sicher...
wollte gerade die vertex2 kaufen, jetzt muss ich mich umsehen...
unglaublich, was OCZ sich hier leistet...nie wieder OCZ ssd
OCZ...das ist der untergang...ganz sicher...
 
Für mich ist das eine abolute Frechheit, die sich OCZ da erlaubt. Mich haben schon vorher die wenigen P/E Zyklen bei SSD's abgeschreckt, aber sie jetzt nochmal zu reduzieren ist unfassbar. Wer ist denn damit zufrieden, dass seine SSD nach Ablauf der Garantiezeit den Geist aufgibt? Da muss man doch krank im Hirn sein als Verbraucher, um sich so verarschen zu lassen. Wenn ich soviel mehr als bei einer HDD bezahle, will ich den Performance Gewinn doch nicht nur für 2-3 Jahre habe und dann die SSD entsorgen :mad:
 
Morgen,

geht mir genauso wie vielen von euch. Hatte mir ebenfalls eine Vertex 2E 120GB bestellt, die wenn sie morgen ankommt, wahrscheinlich übermorgen wieder zurück geht :mad: ...Ich habe mich jetzt wieder nach einer neuen SSD umschauen müssen und eine zur Vertex 2E (von den Werten her gleiche MTBF, IOPS etc...) identische SSD gefunden. Bei der SSD handelt es sich um die Mushkin Enhanced Callisto Deluxe (http://geizhals.at/eu/a554018.html) hier noch ein Test zu der Mushkin im vgl zur Vertex 2E: http://www.gamezoom.net/artikel/Mushkin_Callisto_Deluxe_120GB_SSD_Test_Review-21206 ...das war der Einzige Test den ich zur Zeit gefunden habe. Die Frage ist nur, ob die Mushkin die selbe Umstellung wie die Vertex 2E mitmachen musste (wg identischer Werte). Weiß da zufällig jmd was drüber? Oder besitzt einer von euch schon die Mushkin und kann ein kl. Fazit abgeben?

Gruß
 
Ich habe gerade meine 180er OCZ II eingebaut und Windows 7 drauf gespielt. Ich bin überrascht, wie deutlich schneller sie selbst als mein voriges Intel 40GB SSD ist. Unter anderem mag das natürlich mit dem frisch installierten System zusammen hängen. Das ist klar.

Die Speichergröße beläuft sich auf 167GB und ich habe die Firmware 1.28. Bestellt hatte ich sie letzte Woche zu einem Preis von 250 Euro, was in meinen Augen für sozusagen 175GB Größe noch immer derzeit mehr als fair ist.
Benchen werde ich sie nicht, weil es mir einfach völlig egal ist, ob ich 10 oder 20% mehr oder weniger Leistung habe. Trotzdem wünsche ich mir natürlich nicht, dass sie eines Tages einfach kaputt geht, aber sind wir mal ehrlich: Keiner hier weiß, wie lange ALLE auf dem Markt erhältlichen SSDs wirklich halten und wie es in mgwl. 5 Jahren mit Langzeiterfahrungen aussehen wird.
 
Complication schrieb:
ASS alleine hat bei Sandforce basierenden SSDs keine Aussagekraft.
ATTO ist der Benchmark der bei SF-SSDs vergleichbare Max. Werte ausgibt.

http://forum.corsair.com/v3/showthread.php?t=90450

Das ist nicht die rein "logische" Sicht, weil es stark abhängig von der Komprimierbarkeit der Daten abhängt. Die realen Werte sind näher am worst case als am best case.

Edit: Und sorry, aber es ist einfach BS was dort geschrieben wird. ATTO ist überhaupt nicht für Force konzipiert bzw. "beachtet dessen Besonderheiten" in keiner Weise mehr als jeder andere Benchmark. Die Sache ist ganz einfach: ATTO verwendet in der Standardeinstellung 100% komprimierbare Daten (die so NIEMALS existieren), weshalb die maximale Leistung erzielt werden kann. Stellt man ATTO entsprechend so ein, dass zufällige Daten geschrieben werden, wie das in Realität eher der Fall ist, erzielt man die exakt gleichen Werte wie im AS SSD Benchmark. Also bitte, hier davon zu sprechen dass dabei irgendwas spezielles beachtet wird oder der AS SSD Benchmark nicht alle "Funktionen" des SF-Controllers nutzen kann ist doch Mumpitz hoch drei.

ATTO ist so aussagekräftig wie wenn ich beim Test der Effizienz eines Packprogramms eine Datei mit lauter 0en packe und dann behaupte, dass 100GB auf wenige Bytes komprimiert werden können.
 
Zuletzt bearbeitet:
Also bitte, hier davon zu sprechen dass dabei irgendwas spezielles beachtet wird oder der AS SSD Benchmark nicht alle "Funktionen" des SF-Controllers nutzen kann ist doch Mumpitz hoch drei.
Na dann haben wir ja das auch geklärt auf technisch fundierter Basis mit allen Quellen die das belegen - Ironie darf behalten werden :rolleyes:
Nur um mal realistische Quellen die nicht von irgendjemandes "Logik" abhängt zu nennen.
http://www.anandtech.com/show/2899/3
SandForce states that a full install of Windows 7 + Office 2007 results in 25GB of writes to the host, yet only 11GB of writes are passed on to the drive. In other words, 25GBs of files are written and available on the SSD, but only 11GB of flash is actually occupied. Clearly it’s not bit-for-bit data storage.
Eine Installation windows 7 und Office 2007 kommt recht nah an die Realität - und nur 40% Daten geschrieben gegenüber allen anderen Controllern macht schon einen Unterschied
What SF appears to be doing is some form of real-time compression on data sent to the drive. SandForce told me that it’s not strictly compression but a combination of several techniques that are chosen on the fly depending on the workload.

SandForce referenced data deduplication as a type of data reduction algorithm that could be used. The principle behind data deduplication is simple. Instead of storing every single bit of data that comes through, simply store the bits that are unique and references to them instead of any additional duplicates. Now presumably your hard drive isn’t full of copies of the same file, so deduplication isn’t exactly what SandForce is doing - but it gives us a hint.
http://de.wikipedia.org/wiki/Deduplikation
Deduplizierung, auch Data-Deduplication, Datendeduplizierung (engl. Deduplication), ist in der Informationstechnologie ein Prozess, der redundante Daten identifiziert und eliminiert, bevor diese auf einen nicht flüchtigen Datenträger geschrieben werden. Der Prozess komprimiert wie andere Verfahren auch die Datenmenge, die von einem Sender an einen Empfänger geschickt wird. Es ist nahezu unmöglich, die Effizienz bei der Verwendung von Deduplizierungs-Algorithmen vorherzusagen, da sie immer von der Datenstruktur und der Änderungsrate abhängig ist. Deduplizierung ist jedoch die derzeit effizienteste Art, Daten zu reduzieren, bei denen eine Mustererkennung möglich ist (unverschlüsselte Daten).

Vorrangiges Einsatzgebiet der Deduplizierung ist vorerst die Datensicherung (Backup), bei der sich in der Praxis realistische Datenverdichtungen von 1:12 erzielen lassen. Das Verfahren eignet sich jedoch grundsätzlich für jeden Einsatzfall, bei dem Daten wiederholt kopiert werden.
 
Complication schrieb:
ATTO ist so aussagekräftig wie wenn ich beim Test der Effizienz eines Packprogramms eine Datei mit lauter 0en packe und dann behaupte, dass 100GB auf wenige Bytes komprimiert werden können.

Absolut richtig und das ATTO (und auch IOMeter) in der Standarteinstellung nur Nullen schreibt hängt sicher damit zusammen, dass es vor dem Sandforce keinen Unterschied gemacht hat, wie die Daten aussehen. Weder bei Festplatten noch bei anderen SSDs hat dies die Geschwindigkeit beeinflusst. Es ist aber klar, dass die Hersteller von SSDs mit Sandfocre Controler mit hohen Zahlen glänzen wollen und deshalb versuchen nur den ATTO als Benchmark durchzusetzen.
In der Praxis ist aber selbst eine Windows Installation nicht so weit komprimierbar, dass man auf diese Werte kommen würde und wenn ich die Daten eben auf 66% der Orginalgroße komprimieren kann, dann bekomme ich auch nur 50% mehr Geschwindigkeit als bei ASS. Hoffentlich bring mal jemand einen Benchmark, bei dem man die Komprimierbarkeit der Testdaten auch noch einstellen kann, dann könnte das mal jeder deutlich sehen.
 
@Holt
Das habe ich nicht geschrieben - bitte korrigiere das Zitat :)

Hier gerne nochmals der Link damit man nicht einfach Kompressionzahlen erfinden muss:
http://www.anandtech.com/show/2899/3

aus 25 GB -> 11 GB geschrieben => 44% der ursprünglichen Daten. Das ist unter 0.5 Write Amplification

Dies hatte ich zitiert:
I.d.R. kann man das ATTO Ergebnis als bestes und das AS SSD Ergebnis als schlechtestes ansehen das die SSD leistet. Da aber kein Datenspeicher durchgehend den besten bzw. schlechtesten Wert nutzt, kann allein schon aus logischer Sicht die mitte als "realer Wert" angesehen werden. Unsere Langzeittests stützen dies zudem.
 
Zuletzt bearbeitet:
Ich kann nur von meinen Dateien sprechen und ich habe praktisch nichts, was über 30% komprimierbar ist. Die einzige Möglichkeit dies zu testen, wären Benchmarks mit verschiedenen Kompressionsstufen - dass Sandforce in diesem Fall ziemlich sicher Cherrypicking betrieben hat (was keine Kritik sein soll sondern normal ist) dürfte wohl klar sein.
Und ich habe an der Aussage kritisiert, dass es eben nicht logisch ist einfach die Mitte zu nehmen.

Im Xtremesystems Forum gab es mal einen Test mit einer VM und dort waren die Resultate doch relativ nah am AS SSD Bench und weit entfernt von den Maximalwerten. Werd's heute Nachmittag noch suchen, wenn ich Zeit habe.


Edit: Aber egal, die Diskussion dürfte wohl kein Ende finden.
 
Zuletzt bearbeitet:
Zurück
Oben