Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsPlextor stellt neue SSDs mit Marvell-Controller vor
@Blackwidowmaker:
Wenn Plextor das mit der GC ähnlich händelt wie Intel bei der 510 sollte die Plextor sich sogar sehr gut in einem Raid machen. Wie man es in dem Fall nicht macht, zeigen die anderen Hersteller die Marvell Controller verwenden.
Was GC angeht kann man aktuell eigentlich nur zur Intel 510 oder einer SF 2XXX SSD raten.
Letztere verlieren nämlich nur einmalig die Leistung, aber laufen dann sehr Konstant, im Gegensatz zu Samsung 830 und M4, um mal die anderen Sata 6GB/s SSDs in den Raum zu werfen.
Das Problem ist halt das der Marvell Controller von jedem Hersteller mit einer eigenen Firmware versehen wird und da gibt es große Unterschiede, wenn man die Details betrachtet.
Für für den Betrieb in einem Raid sind SF2XXX SSDs zumindest bei Preis- Leistung imho erste Wahl, da die Intel 510 Series zu teuer ist und nur bei den Sequentiellen Lese- und Schreibleistungen mit den SF2 SSDs mithalten kann.
Wenn Plextor das mit der GC ähnlich händelt wie Intel bei der 510 sollte die Plextor sich sogar sehr gut in einem Raid machen. Wie man es in dem Fall nicht macht, zeigen die anderen Hersteller die Marvell Controller verwenden.
Allerdings führt doch, so weit ich weiß, eine aggressivere GC auch zu mehr Write Amplification und damit zu einer stärkeren Abnutzung der Flash Zellen. So gesehen ist eine weniger aggressive GC zu bevorzugen, wenn man das SSD in einem System mit TRIM benutzt (was allerdings bei RAID nicht der Fall ist - was ja dein Punkt war)
Die seq. Transferraten und auch die IOPS klingen schon sehr gut, wenn das auch auf Dauer und in der Praxis so aussieht, dann findest Du solche Performance z.Zt. wohl nirgens. Was erwartest Du denn noch mal als nur eine bessere Performance? Solle die SSD auch noch Kaffee machen?
FatEric schrieb:
5 Jahre Garantie sind auch nicht sooo attraktiv. Bei einem schaden sind meine Daten auch so futsch
Kein Hersteller eines Datenträger bietet mehr als den Ersatz des selbigen in seiner Garantie. Eine Datenwiederherstellung musst Du bei allen ggf. selbst bezahlen. Außerdem hat man entweder eine vernünftige Backuplösung oder keine wichtigen Daten.
FatEric schrieb:
mal angenommen in 4 Jahren geht das Teil kaputt... dann Krieg ich wohl nen Austausch
Wenn es keine 128GB mehr gibt, dann wird man vermutlich eine 256GB oder was immer die kleineste, lieferbare Kapazität der dann aktuellen SSD Reihe ist, bekommen. Das wird aber auch bei keinem Hersteller anders sein. Deine Erwartungen sind etwas weltfremd.
Tigerfox schrieb:
Was macht dise Variante nun schneller als die M2P, die ebenfalls die Kombination Marvell 88SS9174+Toshiba Toggle-NAND nutzt
Während Crucial die 009er FW für alle m4 kostenlos gebracht und damit die Performance gesteigert hat, lässt sich Plextor sein FW-Update als PX-M2P Reihe auch noch teuer bezahlten.
Tigerfox schrieb:
warum verdient diese Variante die Bezeichnung M3S, die andren aber nur M2?
Vermutlich weil bei OCZ und Corsir die 3 auch in den Bezeichungen der aktuellen Generation steht und weil man mit dem neuen NANDs eben ein neues Produkt bringt, welches auch einen neuen Namen bekommen soll, wie es sich gehört. Crucial wird sicher auch einen m5 bringen, wenn die 20nm NANDs wirklich ausgreift genug für den Einsatz in SSDs sind.
Tigerfox schrieb:
Oder irre ich mich und die M2S nutzt asynchronen MLC, die M2P synchronen und die M3S Toggle?
Jein, die haben alle Toshiba Toggle NANDs (welches aber ein async. Interface ist), nur jetzt in 24nm und vorher in 32nm. Mit den async. ONFI NANDs wie sie in der Agility3 oder Force3 verbaut sind, würde man diese Performance niemals erreichen.
Fragmentierung ist sicher ein ungünstiges Wort dafür, aber eine suboptimale Datenverteilung gibt es bei SSDs schon und die geht auch auf die Performance. Grosse Dateien werden ja über alle Kanäle verteilt auf die NAND Dies geschrieben und kleine (4k z.B.) immer nur auf ein einzelnes Die. Belegen jetzt viele kleine Dateien ein bestimmtes Die übermäßig, so können die großen Dateien eben nicht mehr im gleichen Masse auch auf dieses verteilt und damit nur langsamer gelesen und geschrieben werden. Mit der klassischen Fragmentierung einer HDD hat das natürlich nichts zu tun.
DUNnet schrieb:
Wenn es keine 699€ werden - extrem interessanter Preis!
Das liegt ja bei 1€ pro GB
Wieso, die Crucial m4 512GB kostet keine 600€, die Samsung 830 512GB auch keine 610€. SF-2281 mit 480GB würde ich nicht in Erwägung ziehen, da bei denen die Performance gegenüber den 240GB Versionen wieder deutlich abfällt. Vermutlich weil denen ja der externe Cache fehlt und damit diee Verwaltung des großen Adressbereiches auf die Performance geht. Immerhin müssen die ja auch noch die Datenkompression alleine im RAM das Controller machen.
BlackWidowmaker schrieb:
habe ich das jetzt richtig interpretiert, daß die Vorteile des neuen Systems darin bestehen weniger an Performance über die Zeit zu verlieren.
Solange das in keinem Test nachgewiesen ist, würde ich das erstmal als das übliche Marketinggeschrei abtun. Damit bewirbt doch nun wirklich jeder Hersteller jede neue SSD.
BlackWidowmaker schrieb:
Soll man das dann auch so auslegen, daß selbst wenn ein System Trim nicht unterstützt die neue Plextor dann nicht so gnadenlos in der Performance einbricht wie z.B. eine SF-SSD?
Das die SF SSD in der Performance einbrechen hat mit TRIM nichts zu tun und auch die Plextor wird ohne TRIM in der Performance deutlich einbrechen, weil es schlicht nicht anders geht, ausser durch Interpretation des Filesystems auf der SSD. Das geht aber bei RAIDs (und Verschlüsselung, etc.) schon nicht und so muss die SSD spätestens wenn die Kapazität des vorher freien Bereiches beschrieben wurde, eben erstmal noch gültige (und eben mangels TRIM nicht als ungültig erkannte) Daten kopieren und Blöcke löschen, wenn man weiterschreibt. Das drückt die Performance. Lies Dir das hier durch, dann wird klar warum keine GC TRIM ersetzen kann, schon garnicht im RAID. Egal was die Hersteller versprechen, man kann ohne TRIM die Leistungseinbussen nur komplett verhindern, wenn man fast 50% der Kapazität unpartitioniert lässt, denn nur dann kann die GC auch ohne TRIM dafür sorgen, dass genügend gelöschte Blöcke für alle Daten der Nutzkapazität zur Verfügung stehen.
Fischkopp schrieb:
Wenn Plextor das mit der GC ähnlich händelt wie Intel bei der 510 sollte die Plextor sich sogar sehr gut in einem Raid machen. Wie man es in dem Fall nicht macht, zeigen die anderen Hersteller die Marvell Controller verwenden.
Auf Crucial kannst Du das nicht bezogen haben, denn mit der 009er FW hat auch die m4 ein sehr effiziente GC bekommen. Vergleiche einfach mal den Anfang der Diagramme aus anands Test der 009er FW:
Da sieht man schon deutlich, dass GC in der 009er FW den kleinen freien Bereich sehr gut aufgeräumt hat und somit am Anfang mit voller Geschwindigkeit geschrieben werden kann. Die Intel 510 onnte das im Test nicht wirklich besser, denn sie schreibt ja nicht einmal am Anfang, also im freien Bereich der bei ihr noch größer ist (sie bietet ja nur 250GB Userkapazität) ihre vollen 267MB/s Schreibrate im Neuzustand sondern nur 180MB/s:
Wenn ich also ein RAID 0/5 aus SSD bauen soll und damit immer die volle Performance erreichen will, dann würde ich diese aus Crucial m4 SSDs bauen bei denen ich die halbe Kapazität unpartitioniert lasse. Dann wird mein RAID in der Performance nicht einbrechen. Das gilt für jede andere SSD die ein entsprechendes Verhalten bei diesem Test zeigt natürlich genauso, aber sicher nicht für eine die sich wie die Intel 510 verhält.
Fischkopp schrieb:
Was GC angeht kann man aktuell eigentlich nur zur Intel 510 oder einer SF 2XXX SSD raten.
S.o., das Gegenteil ist der Fall. Die minimal Schreibrate der Intel 510 liegt zwar über der der m4, aber die m4 erreicht für die freie Kapazität (das Overproviding) die volle Schreibrate des Neuzustandes und die Intel nur 2/3, ebenso wie die SF-2281 SSD. Im Alltag braucht man auch nicht die halb Kapazität unpartitioniert zu lassen, es genügt dann auch nur soviel, wie man üblicherweise darauf schreibt und deshalb mit voller Geschwindigkeit schreiben möchte/muss.
Fischkopp schrieb:
Letztere verlieren nämlich nur einmalig die Leistung, aber laufen dann sehr Konstant, im Gegensatz zu Samsung 830 und M4, um mal die anderen Sata 6GB/s SSDs in den Raum zu werfen.
Das stimmt überhaupt so nicht. Die SF SSDs verlieren einmal an Leistung, wenn sie von Neuzustand in den Normalzustand gegangen sind und dann wieder, wenn in kurzer Zeit mehr Daten geschrieben wurden, weshalb bei denen ja auch nicht mehrere AS-SSD Durchläufe ohne idlen zwischendurch mit konstanter Performance möglich sind. Dann gibt es noch die harte Bremse die einige Hersteller aktivieren um die P/E Zyklen über die Garantiezeit zu bringen. Von konstanter Schreibperformance ist also keine SSD weiter entfernt als eine mit SF Controller.
Wie die Samsuung 830 dasteht, kann ich noch nicht sagen. Dazu müssen erst noch mehr Reviews erscheinen.
Fischkopp schrieb:
Das Problem ist halt das der Marvell Controller von jedem Hersteller mit einer eigenen Firmware versehen wird und da gibt es große Unterschiede, wenn man die Details betrachtet.
Was heisst Problem? Das ist doch auch ein Vorteil, denn jeder hat die Chance es besser zu machen und die SSD mit dem Controller sind eben nicht so ein austauschbarer Einheitsbrei wie die mit Sandforce, wo die SSD Hersteller immer nur die fertige FW vorgesetzt bekommen und nur noch ein paar Parameter einstellen können. Bei gleicher NAND Bestückung und gleicher FW Version kommt da dann immer das gleiche heraus.
Ergänzung ()
etheReal schrieb:
Allerdings führt doch, so weit ich weiß, eine aggressivere GC auch zu mehr Write Amplification und damit zu einer stärkeren Abnutzung der Flash Zellen.
Eben und da die allermeissten SSDs wohl getrimmt werden, ist ein agressives GC in so einem Fall nicht wirklich von Vorteil für die Anwender. Ob es ein Nachteil ist, hängt eben davon ab, ob es die SSD schon vor dem geplanten Austausch schon kaputt gemacht hat, wie es bei den Indilinx Barefoot SSD gerne mal der Fall ist. Bei denen kommen WAs von über 80 zustande, gerade bei Usern die wenig auf ihrere SSD schrieben aber diese über viele Stunden laufen haben. Wenn es um den Verschleiß der NAND Zyklen geht, zählen da die Betriebsstunden dann schon mehr als die geschriebene Datenmenge.
Datenrettung bei defekten SSDs ist definitiv kein Do-It-Yourself Job und bei einigen Modellen, z.B. allen mit Sandforce Controller, auch für Profis zumeist unmöglich. Aber wer kein Backup seiner wichtigen Daten hat, dem ist sowieso nicht zu helfen.