SSD Optimierungen (Raxco PD,SSD Fresh etc..)

Diablow51

Lt. Commander
Registriert
Aug. 2009
Beiträge
1.531
Was haltet ihr von der eigens für SSDs vorhandenen Optimierungsmethode

in Perfect Disk oder zb SSD Fresh ??? Die Meinungen sind wohl geteilt.

"There are 2 camps. One that says free sapce consolidation helps SSD performance. The other says free space consolidation is just plain useless. I'm of the latter.

If a SSD, by nature, does not require defragmenting, then how will free space consolidation help it? I'm not so much worried about shortening the life of the drive since a normal user would require years to accomplish the lifetime writes of a SSD. By that time everyone will have moved on to SATA5 or SATA6 SSDs
. "


Entwickler Präsentation:
http://www.youtube.com/watch?v=0tpZHZDVIAo


Diskussionen über die Methode:
http://forum.corsair.com/forums/showthread.php?t=97604

SSD Fresh:
http://www.chip.de/downloads/SSD-Fresh-2012_50763589.html
 

Anhänge

  • perfect disk.jpg
    perfect disk.jpg
    144,8 KB · Aufrufe: 361
  • ssd2.jpg
    ssd2.jpg
    131,1 KB · Aufrufe: 324
  • ssd3.jpg
    ssd3.jpg
    221,5 KB · Aufrufe: 277
  • CrystalDiskInfo SSD.jpg
    CrystalDiskInfo SSD.jpg
    222,8 KB · Aufrufe: 307
Zuletzt bearbeitet:
Es verhält sich möglicherweise wie Schulmedizin zu heilpraktisch angehauchter Pseudoesoterik.

Die Hersteller der SSDs geben (wohl) durchgängig selbst Tools heraus, mit denen ihre SSDs verwaltet, optimiert und Firmwareupdates vorgenommen werden können. S.M.A.R.T.-Werte werden ausgegeben und insgesamt Zustand sowie voraussichtliche Lebensdauer der SSD angezeigt.
Die Optimierung reduziert sich dabei auf die Trim-Funktion, wenn die SSD diese unterstützt.
Es gibt (wohl) kaum noch aktuelle SSDs, die dieses Feature nicht unterstützen.

Durch die technische Funktionsweise bedingt zerstören sich SSDs durch Benutzung sukzessive selbst, haben daher von vornherein nur eine absehbare Lebensdauer.
Infolgedessen sollte jeder unnötige Speichervorgang unterlassen werden.

Defragmentierungen erzeugen bekanntlich jede Menge Lese-/Speichervorgänge, daher ein Maximum an Belastung für das Medium SSD.
Ein anderes Feature ist die Indizierungsfunktion des BS, die zumeist bereits auf dieser Ebene ausgeschaltet wurde, weil sie im Zusammenhang mit HDDs zu systembelastend wirkte.

Fraglos darf jeder mit SSDs in seinem Eigentum "machen, was er will".
Jeder sollte sich jedoch über die Auswirkungen klar sein

Betrachtet man sich kommerzielle Defragmentierungstools, wie z.B. O&O Defrag 15 Pro, werden SSDs erkannt und von der Defragmentierung ausgenommen. Lediglich der Trim-Befehl wird ausgeführt.
Dafür muss bei SSDs kein zusätzliches Geld ausgegeben werden, das erledigen die kostenlosen SSD-Tools der Hersteller auch.

Aus meiner Sicht sind SSDs gegenwärtig noch zu teuer, als dass man damit als Endverbraucher mehr experimentieren sollte, als "lebens"notwendig ist.

SSD-Fresh ist ein Tool, dass Einstellungen der Systemsteuerung abgreift, als Liste darstellt und Änderungen dieser Einstellungen vornimmt, die jede/r User/in selbst vornehmen könnte.
Natürlich wollen die Programmierer ein "Trinkgeld", wenn man das Programm beendet und haben auf jeden Fall eine (temporär) gültige email-Adresse erhalten.

Perfect Disk gibt vor, nicht zu Defragmentieren, wohl aber den freien Speicherplatz einer SSD zu optimieren. Dass man technisch veränderte Darstellungen von Blöcken anzeigen lassen kann, ist sicherlich allgemein bekannt. Ob im Hintergrund wirklich etwas passiert, das zudem einen positiven Effekt aufweist, sollte wissenschaftlich nachvollziehbar bewiesen werden.
Ansonsten befindet man sich auf der Ebene "technisch verbrämter Gläubigkeit".

Daher nutze ich für meine Intel SSD das kostenlose Tool von Intel und für die Defragmentierung der HDDs das oben bezeichnete, kommerzielle Defragmentierungstool.
 
Zuletzt bearbeitet:
Der sichere Weg mehr Performance zu haben die einem nicht so schnell stirbt ist halt ein Raid0 :)

Es hat nicht ganz soviel Reaktionszeit wie eine SSD, aber immerhin läufts biszu doppelt so schnell als nur eine der 2 Platten die man da in so einem Raid0 Verbund hat.
Mal davon abgesehen das man doppel soviel Plattenplatz hat ;)

Ich hab mich vor kurzem teilweise zwar auch ausgebremst weil eine meiner beiden 250GB-Platten weniger Cache hat u.s.w., aber zum Übergang bis ich eine passendere 250er habe zur momentan vorhandenen "guten" 250er nehme ich es hin und hab erstmal mehr Platz :)


Gruss Dennis_50300
 
Wenn Du deine SSD defragmentierst, kannst Du auch gleich einen Hammer nehmen und draufhauen, das geht dann mit dem kaputt machen noch schneller!
Lies Dir bitte mal gründlich diesen: http://www.pc-experience.de/wbb2/thread.php?threadid=30040
Artikel durch. Und stell sie danach ein. Ich habe meine Vertex 2, 120 GB bei Einbau im Mai 2010 so eingestellt und habe bis heute keine einzige Macke oder einen Fehler gehabt.
 
Fraglos darf jeder mit SSDs in seinem Eigentum "machen, was er will".
Jeder sollte sich jedoch über die Auswirkungen klar sein

Wunderbar formuliert, Danke!

Pragmatisch gesehen, hat eine SSD mit 120GB und einer Lebensdauer von 5.000 Program/Erase Cycles (eine der Einfachheit angenommen WA von 1), in etwa ein Schreibvolumen von 600TB (alles Annahmen nach Chip Spezifikation und Herstellerangaben)

SSD Nutzungsdauer von rund 10 Jahren angenommen, stehen pro Jahr entsprechend 60TB Write Volumen zur Verfügung. Macht also bei 60TB / 365 (Schaltjahre sind hierbei unberücksichtigt) rund 164,38 GB pro Tag.

Entsprechend sparsam sollte die SSD auch eingesetzt werden.
 
pipsich, ganz so dramatisch ist es nicht, SSDs vertragen ja schon eine Menge geschriebener Daten.

Diablow51, Hersteller müssen was verkaufen und Hersteller von Defragmentierprogrammen verlieren mit der Verbreitung der SSDs ihren Markt, also versuchen sie eben auch etwas zu verkaufen, was man garnicht braucht.

Allgemein gilt bzgl. der Defragmentierung von SSDs folgendes: Die Geschwindigkeit der SSDs kommt aus der Datenverteilung über die Flashkanäle die paralleles Lesen ermöglichen und das wird umso schneller, je grösser die Datenvolumen der Zugriffe sind. Dieses Datenvolumen wird nun durch durch zwei Faktoren begrenzt, einmal die Größe des Puffers des Treibers (üblich 128/256/512k) und dann der Größe der Dateifragmente. Ist die Datei also fragmentiert, so macht das nur dann etwas aus, wenn die Fragmente kleiner als die Puffergröße sind bzw. der Rest des Vielfachen der Puffergröße sehr klein ist, weil dabei jeweils kurze Zugriffe entstehen.

Man könnte jetzt also schon annehmen das die Defragmentierung dann eine gute Idee ist, aber es gibt einen weiteren Aspekt: Die Datenverteilung im Flash! Das kann nur der SSD Controller selbst beeinflussen und kennen, niemals aber eine Software auf dem Rechner. Defragmentieren erfolgt immer nur in kleinen Schritten, meist nur 4k und Microsoft empfiehlt maximal 16k. Damit zerhackt man beim Defragmentieren also alle große Dateien, die mit langen Schreibzugriffen (Puffersize) geschrieben wurden in eine Menge kleiner Schreibzugriffe. 16k könne nur auf maximal 4 Kanäle verteilt werden. Dann hat man zwar weniger und längere Zugriffe aber eben vermutlich auch viel schlechter im Flash verteilte Daten und bekommt dann doch viel weniger Geschwindigkeit. Dafür hat man dann auch noch reichlich P/E Zyklen verbraucht, weil gerade die kurzen Schreibzugriffe auch noch gewaltig Write Amplification erzeugen.

Vergiss also das Defragmentieren und kauf eine schnelle SSD wenn Deine SSD zu langsam ist. Außerdem sollte man eben auch eine SSD nie zu voll werden lassen, auch damit Windows die Dateien nicht so heftig fragmentiert und weil das der Performance sowieso schadet.
 
Ich danke euch allen für das Feedback.War mir schon iwie klar dass es mehr ein Placebofeature ist.
Dann hab ich ja soweit alles getan was man eine gute Grundvorraussetzung nennt.

-Trim:8. Samsung 830: generell
-neuste firmware
-msahci
-Dienste ala automatische Defragmentierung/Ready Boost/Readyboot/Superfetch deaktiviert
 
Wieso deaktivierst Du denn diese Dienste? Willst Du Deine HDD nicht defragmentiert haben? Windows lässt diese Dienst aktiv, stellt sie aber entsprechend der Leistung der SSD so ein, wie es Sinn macht. Die SSD wird z.B. im Scheduler des Defragmentierdienst nicht eingetragen und auch nicht angeboten, wenn Du da die Laufwerke auswählst. Die ganzen Tipps im Internet die dazu raten sind von 2009 und noch für Vista bzw. XP, die anders als Windows 7 noch keine SSDs kannten.
 
@Diablow51:

Perfect Disk ist ein echt tolles Programm, taugt aber echt nur für mechanische Platten und desweiteren auch nur dann mehr als das von Windows selbst, wenn es daran gehen soll z.B. die Auslagerungsdatei zu defragmentieren.

B.z.w. wenn es um Dateien gehen soll wo das Windowstoolt nicht drankommt weil Windows gerade läuft.

Ein Dualboot mit XP Prof 32-Bit und 7x64 kann das Problem aber schon lösen und würde das Problem was Prefect Disk bei der "Bootzeitdefragmentierung" zum Mehrwert macht aber auch schon wieder zunichte machen.

Ich werde das im übrigen demnächst auch so handhaben auf meinem Rechner, XP Prof 32-Bit und dazu im Dualboot dann mein 7x64.

Das alte XP hat dann so seine gewissen Vorteile für ältere Games, desweiteren kann man sich so ein teures Defragprogramm dann sparen.


Gruss Dennis_50300
 
Der Artikel von pc experience ist von 08.02.2010

Das ist so nicht ganz richtig. Der Artikel ist am 8.2.2010 zwar erstmals erstellt worden, wird seitdem aber immer auf dem aktuellen Stand der Technik gehalten. Es wäre auch sonst einfach zu mühselig und zeitverschwendung jedesmal einen komplett neuen Artikel schreiben zu müssen. Und wenn man sich mal die Mühe gibt, den Artiel gründlich zu lesen, sieht man (nämlich oben unter dem Titel), dass das letzte Update am 16.01.2012 erfolgt ist.

Ich habe mein Win7 Defrag abgestellt und defragmentiere die übrigen 6 HDDs mit Defraggler. Der macht seine Arbeit und schaltet den PC danach aus, wärend ich schon lange im Bett liege und penne.
 
Es spielt keine Rolle, wie die Daten im Flash verteilt sind denn was zählt ist der LBA-Bereich. Sequentielles Schreiben meint immer sequentielles Schreiben im LBA-Bereich, AS-SSD kann ja gar nicht wissen wie die LBA-Blöcke SSD-intern gemappt sind. Defragmentierung bringt daher gegenüber extremster Fragmentierung einen erheblichen Performance-Vorteil, dieser ist exakt so groß wie der Unterschied zwischen AS-SSD 4k und sequentiellen Lese-Werten. Hinzu kommt der geringere Overhead durch die Dateisystemverwaltung unter Windows, denn ein Fragment veraltet sich deutlich leichter als tausende und schont die CPU.

Nur kommt extremste Fragmentierung (alle Dateien sind in einzelne 4K-Blöcke zerhackt gespeichert) so gut wie nie vor, es gibt immer Sequenzen aus mehreren zusammenhängenden 4k-Blöcken. Und die GC bzw. interne Verwaltung der SSD kann tatsächlich dazwischenfunken, der genaue Effekt lässt sich nicht abschätzen, weil die Hersteller die exakte Funktionsweise der Firmwares nicht offenlegen.
Solange die Fragmentierung nicht wirklich extrem ist, ist eine Defragmentierung also nicht sinnvoll, da die SSD mit ihren schnellen Zugriffszeiten viele kleine Sequenzen fast genauso schnell liest wie eine große.

Zum oben genannten Tuning, es wird behauptet Trim würde keine teilweise belegten Blöcke erfassen, daher werden diese vermieden oder die Daten darin konzentriert. Ob das wirklich etwas bringt, lässt sich nicht wirklich abschätzen aber die paar halbvollen Blöcke dürften in der Masse der SSD nicht ins Gewicht fallen.
 
Zuletzt bearbeitet:
etking schrieb:
Es spielt keine Rolle, wie die Daten im Flash verteilt sind denn was zählt ist der LBA-Bereich. Sequentielles Schreiben meint immer sequentielles Schreiben im LBA-Bereich, AS-SSD kann ja gar nicht wissen wie die LBA-Blöcke SSD-intern gemappt sind. Defragmentierung bringt daher gegenüber extremster Fragmentierung einen erheblichen Performance-Vorteil, dieser ist exakt so groß wie der Unterschied zwischen AS-SSD 4k und sequentiellen Lese-Werten. Hinzu kommt der geringere Overhead durch die Dateisystemverwaltung unter Windows, denn ein Fragment veraltet sich deutlich leichter als tausende und schont die CPU.
Das gilt so aber nur, wenn die Datei wirklich so viele Fragment hat wie die Cluster belegt und wie Du schon schreibst:
etking schrieb:
Nur kommt extremste Fragmentierung (alle Dateien sind in einzelne 4K-Blöcke zerhackt gespeichert) so gut wie nie vor, es gibt immer Sequenzen aus mehreren zusammenhängenden 4k-Blöcken.
Eben und gut Controller merken sich eben auch, wie lang die Sequenzen waren, mit einem Befehl geschrieben wurden und verteilt diese Daten dann auch nach Möglichkeit immer so über die ganze Kanäle, dass diese Sequenz eben auch schnell geschrieben und auch wieder gelesen werden kann. Controller die sowas nicht machen sind zwar ehrheblich einfach, bieten dann eben auch nur eine sehr inkonstante Performance, wie es PHISON.

etking schrieb:
Und die GC bzw. interne Verwaltung der SSD kann tatsächlich dazwischenfunken, der genaue Effekt lässt sich nicht abschätzen, weil die Hersteller die exakte Funktionsweise der Firmwares nicht offenlegen.
Wie gesagt, gute SSD Controller wissen welche LBAs zusammenhängen weil diese zusammen geschrieben wurden und berücksichtigen das auch bei der GC. Wird das jetzt in Blöcken zu 4k oder 16k defragmentiert, so geht diese Zusammenhang kaputt und der Controller kann die Verteilung der Controller kann diese eben bei der Verteilung der Daten im NAND nicht mehr berücksichtigen.
etking schrieb:
Zum oben genannten Tuning, es wird behauptet Trim würde keine teilweise belegten Blöcke erfassen, daher werden diese vermieden oder die Daten darin konzentriert. Ob das wirklich etwas bringt, lässt sich nicht wirklich abschätzen aber die paar halbvollen Blöcke dürften in der Masse der SSD nicht ins Gewicht fallen.
Wenn man unter Blöcken die Flashblöcke (kleines löschbare Einheit) von üblicherweise 128/256/512 Pages versteht, dann frage ich mich mal, wie die Software denn wissen will, in welchen Pages und damit Blöcken der Controller die Daten denn nun konkret ablegt. Das weiß nur der Controller und der verrät es nicht. Nur weil man die LBAs in Blockgrößen einteilt, wie sie bei SSDs üblich sind (dei konkrete Blockgröße der verwendeten NAND kann man ja bestenfalls aus dem Datenblat der NANDs erfahren und welche NANDs nun genau verbaut sind, erfährt man oft auch überhaupt nicht) und die Daten dan entsprechend sortiert, hat das keinen Einfluss auf die Anordnung der Daten im Flash.

Außerdem hat TRIM mit der Erfassung von Blöcken nicht zu tun. TRIM ist auch nicht Teil der FW einer SSD. TRIM ist ein SATA Kommando, welches dem Controller anzeigt, welche LBAs nun nicht mehr mit gültigen Daten belegt sind. Das erfährt der Controller sonst erst, wenn diese erneut beschrieben werden. Woher auch immer der Controller es erfahren hat, die Garbage Collection muß entweder im Idle oder beim Schreiben großer Datenmengen regelmäßig die Blöcke auswählen, bei denen der Anteil an Pages mit ungültigen Daten im Verhltnis zu den unbenutzten Pages plus denen mit noch gültigen Daten besonders hoch ist, die gültigen Daten in Pages anderer Blöcke kopieren und den Block flashen.

Nur so steht wieder freier Flashspeicher zum Schreiben von Daten zur Verfügung. Wer also behauptet, diese oder jede SSD hätte keine GC, der soll doch mal erklären, was passiert wenn die Nutzerkapazität erstmalig vollgeschrieben wurde. Das Kopieren der Pages mit noch gültigen Daten erzeugt übrigens die Write Amplification, je weniger gültigen Daten also kopiert werden, umso geringer ist die WA. Der Sandforce versucht die WA möglichst gering zu halten und flasht daher den Speicher immer erst, wenn geschrieben wird, weshalb der auch diesen Einbruch bei der Schreibrate hat, wenn die Flashpages erstmalig beschrieben wurden. Sinnvoll finde ich das nicht, denn wenn keine gültigen Daten mehr in eiinem Block stehen, dann gibt es keine WA und man könnte den Block auch früher flashen ohne irgendwelche Einbussen in der Lebensdauer der SSD zu haben.
 
Zuletzt bearbeitet:

Ähnliche Themen

Antworten
9
Aufrufe
2.166
Zurück
Oben