Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Samsung SSD 830/840 Series / 64GB, 128GB, 256GB, 512GB
Wenn du die SSD in einem System auf dem TRIM aktiviert ist und funktioniert, verwendest, dann brauchst du gar kein Overprovisioning, bzw. hättest auch die volle Kapazität partitionieren können. Das ganze Magician-Tool ist für Windows 7 unnötig, weil dieses die SSD erkennt und alles selbst einstellt. Für Vista und XP kann man das Tool verwenden.
Ich hab den Kram jetzt nicht gelesen, weil das Datum vermuten lässt, dass es sowieso nur der alte "meine SSD darf nicht beschrieben werden, sonst geht sie so schnell kaputt"- Müll ist.
Wenn TRIM aktiv ist und funktioniert, braucht man kein Overprovisioning, weil die SSD immer gemeldet bekommt, welche pages zu löschen sind, daher steht immer genug freier Speicher für Wearlevelling und hohe Schreibgeschwindigkeit zur Verfügung. Daher reicht es aus, ca. 10-20% der voll partitionierten SSD frei zu lassen, aber in dem Sinne, dass eben die Systempartition nur zu 80% belegt ist.
Und wo ist da jetzt der Unterschied wenn ich auf Nummer sicher gehe und 10 - 20% unpartitioniert lasse und damit vermeide das diese durch schlichtes vergessen "schreibgeschützt" sind ...
Oder ich mich einfach immer darauf verlasse das ich immer darauf achten werden 10 - 20% der Partition frei von Daten zu halten ...
Da gehe ich doch lieber auf Nummer sicher und lasse 10 - 20% unpartitioniert und kann dann immer mit dem freien Platz rechnen, den mir mein Windows anzeigt ^^
Iss doch eigentlich gehüpft wie gesprungen ?!
Ergänzung ()
JuggernautX schrieb:
ok aber dann läuft man halt Gefahr, dass die SSD doch mehr gefüllt wird. Deshalb dann doch lieber Overprovisioning.
Es besteht ja keine "Gefahr", wenn die SSD mehr gefüllt wird. Allenfalls bricht sie mit der Schreibgeschwindigkeit ein und hält statt 20 nur noch 10 Jahre. Wenn kein TRIM verfügbar ist, dann kann man Overprovisioning betreiben, denn hat hat man einen Bereich der nie beschrieben wird und so immer freier Speicher für hohe Schreibgeschwindigkeit und Wear Levelling verfügbar ist. Dazu muss ein Teil dann unpartitioniert bleiben (im Neuzustand) oder man muss vorher ein Secure Erase machen und dann einen Teil unpartitioniert lassen.
Edit:
Man kann auch mit TRIM Overprovisioning betreiben, es ist aber nicht notwending und außerdem unnötig kompliziert.
SSDs sind halt immer noch Voodoo und viele Leute haben immer noch den Wunsch, unbedingt etwas "optimieren" zu wollen.
...oder man verkleinert die Partition auf 80%, legt eine neue auf die verbleibenden 20% und formatiert diese (kein Schnellformat)...(kann man dann auch nach gewisser Zeit wieder löschen)
Da gehe ich doch lieber auf Nummer sicher und lasse 10 - 20% unpartitioniert und kann dann immer mit dem freien Platz rechnen, den mir mein Windows anzeigt ^^
Wenn kein TRIM verfügbar ist, wäre das auch der sichere Weg. Den ganzen SSD Bereich zu partitionieren und immer etwas Platz darauf freilassen funktioniert bei Non-TRIM nicht, da das Betriebssystem im Lauf der Zeit die Daten mal hier und mal dahin speichert. Damit wird eben irgendwann jeder Block mal beschrieben, auch wenn keine gültigen Daten mehr enrhalten sind - Für die SSD bleiben aber alle einmal beschriebenen Blöcke weiterhin belegt.
Overprovisioning durch freilassen eines Bereichs gleich bei der Partitionierung ist da eigentlich notwendig.
Möchte mich einfach noch mal schlicht weg für den Tipp bei euch beiden, den ich hier beim Durchlesen entdeckt hatte, bedanken! Ich habe beide Controller Mittels 'Magician' ausprobiert und siehe da, der Intel macht gleich viel mehr her - wäre ich so nie drauf gekommen, dass da Unterschiede bestehen... War zwar ein wenig Probiererei bei meinem Asrock, was da welcher ist, aber sie läuft damit gleich viel flotter.
Ich hätte eine Frage die hier vielleicht jemand beantworten kann der Garantiezettel aufhebt
Die 840pro hat ja eine 5 jahresgarantie, allerdings mit der Einschränkung, wenn nicht vorher die maximal zugesicherte schreibmenge erreicht wird.
Welche geschriebene Datenmenge sichert Samsung für die 840pro (256gb) in den Garantiebestimmungen zu?
Bevor der Einwurf kommt dass das ja sowieso niemand erreicht, ich habe nun nach fast 2 Monaten noch mal nachgeguckt, ich schreibe pro Tag im Schnitt 190GB.
Auf die Laufzeit gerechnet knapp 3,25 MB/s.
Ich habe den Garantiezettel leider gewohnheitsmäßig weggeworfen da man sich praktisch sowieso nie darauf berufen kann sondern besser mit der Gewährleistung kommt. Nach 2 Jahren noch einen Herstellerfehler nachweisen dürfte einem als Privatnutzer eher schwer fallen.
das ist deutlich weniger als ich gehofft hatte, damit komme ich in weniger als einem jahr an die von samsung versprochene schreibmenge
ich hoffe die hält länger als samsung ihr zutraut ~.~
Dann ist die 840 Pro (und auch jede andere für den Heimgebrauch gedachte SSD) eigentlich die falsche SSD für dich. Da solltest du dich mal lieber im Professionellen Bereich umsehen.
Ich dachte eigentlich die 840 Pro wäre schon 'semiprofessionell'
SLC SSDs in der Größenordnung kosten 1000€ aufwärts nach einer kurzen suche bei geizhals
Oder was ist mit Professionell gemeint? Ich tue mich irgendwie etwas schwer damit für verschiedene SSDs die zugesicherte Menge an Schreibdaten zu finden, selbst bei den anderen Samsung SSDs war unerwartet nichts mehr zu finden. Mich hätte der Unterschied zu den 840 Basic interessiert.
mit neuer Harware unterm Hintern sehen die Benchs auch endlich mal nice aus
Der Unterschied zwischen einem Marvel Controller und dem X97 Chipsatz, ist schon gewaltig
Nur bei den 4K-64 istwas schief gelaufen.
X97? Du meinst wohl X79, oder hast Du schon einen Prototypen der nächsten Generation am Start
Der zweite Screen ist aber wohl nicht von einem Marvell Controller sondern an einem SATA 3Gb/s Port und die 4k_64 lesend sind kein Fehler von AS-SSD sondern der Effekt des Windows- oder Treiber Caches, aus dem während des Benchen wieder zurückgelesen wird. Die Testdaten werden ja geschrieben und dann gleich wieder gelesen, stehen also noch im Cache und deshalb bekommt man da zuweilen auf Datentransferraten, die gar nicht über die Schnittstelle passen. Das ist aber ein Effekt der bei allen Benchmarks auftreten kann, die auf Filesystemebene arbeiten.