Sammelthread Kaufberatung und Fragen zu SSDs

Status
Für weitere Antworten geschlossen.
Tut mir leid, dass ich so plump fragen muss, aber dieser thread ist eine Wissenschaft für sich,
Was könnt ihr mir für mein MacBook pro 15"(2010) für eine günstige kleinere SSD empfehlen?
 
Wie klein und wie günstig? Am besten eine Intel Postville, die machen am wenigsten Probleme und da Aple immer noch kein TRIM hat, hier lesen und etwas größer kaufen, damit man sie niemals ganz voll macht.
 
für mabook würd ich auf jeden fall ne postville empfehlen :) laufen am besten mit den apple teilen und sind grade für die apple teile die sicherste wahl :) größe is dann zweitrangig je nachdem was du brauchst halt :) für ne main speicher und os platte würd ich da mindestens 120gb empfehlen.. besser 160gb
 
Postville also! Gut dann werde ich mich mal nach postville und 160gb umschauen. Hoffentlich gibt's was unter 200€...
Vielen dank für die schnellen informativen antworten!
 
Die SSDNow V+ hat wie alle SSDNow sehr schlechte Random Werte und wäre damit als Systemlaufwerk nicht erste Wahl für mich. Auch mit der FW 1.32 würde ich keine Vertex2 in mobilen Rechner einsetzten, darum und weil die 25nm NANDs und damit recht bescheidene Performance bieten, wobei die Scheibrate noch um 30% abfälllt wenn die Pages einmal beschrieben wurden. Das reisst dann auch die kompression nicht raus, wie man hier sieht:

ass3-jpg.226374


liegt zwischen unkomprimierbar und 50% komprimierbar etwas die Steierung in der Schreibrate, die man nach einiger Zeit sowieso unwiederbringlich (außer durch Secure Erease) verliert.

Zusammen mit dem wohl hohen Stromverbrauch in Idle und Sleep ergibt das kein optimales Paket.
 
Zuletzt bearbeitet:
Benchmark lassen nicht immer Rückschlüsse auf die Realleistung zu! Schau dir den Test der SSDNow V+ mal in Ruhe an:
https://www.computerbase.de/artikel/storage/preiswerte-ssds-test.1153/

Wenn man auch noch berücksichtigt, das evtl. Differenzen bei Anwendungsstarts auf einem Notebook noch geringer ausfallen, dann sehe ich nichts, was gegen die SSDNow V+ spricht. Apple verwendet diese Serie ja nicht umsonst.

Zur Vertex 2:
Zeig mir doch bitte einen Userbericht oder Test bzw. Review, der zeigt, dass die Realleistung der Vertex 2 mit 25nm Chips geringer ist als mit den älteren Chips. Die sequentielle Schreibgeschwindigkeit, wenn sie niedriger sein sollte, merkt man ausschließlich beim Kopieren von großen Dateien auf der SSD selbst. Das macht man so selten, dass es quasi keine Rolle spielt!

Um das mit dem einmaligen Absinken endlich mal zu klären:
Wo siehst du denn das Problem? Selbst nach dem Absinken schreibt eine Vertex 2 nicht komprimierbare Dateien immernoch genauso schnell wie eine Intel Postville.
 
Moros schrieb:
Die 4k-Werte allein sagen überhaupt nichts aus. Indilinx-SSDs hatten z.B. nur 4k-Write-Werte von 10 MB/s und waren real auch unwesentlich langsamer als andere SSDs. Bei der SSDNow V+ sind die 4k-Werte auch nicht hoch und trotzdem ist es eine sehr schnelle SSD-Serie.

Es gibt nur eine Möglichkeit die REALEN Leistungsdifferenzen zu beurteilen, und das sind REAListische Testszenarien wie Bootzeiten, Anwendungsstarts, reales kopieren/entpacken, Installationen, Viren- oder Spyware-Überprüfung, Frameraten beim Zocken usw.
Eben alles das, was man tatsächlich macht.

Indilunx SSDs hatten 4k Random Werte im lesen von 25MB/s - 30MB/s (QD=1) und waren in diesem Bereich somit schneller als manche aktuelle SSD.
Meine 2.5 (?) Jahre alte 32GB UltraDrive GX liefert zumindest immernoch über 20MB/s ...

4k ist halt auch nicht alles. Ein Grossteil der Dateien welche gelesen werden liegen auch weit über 4k.
 
Zuletzt bearbeitet:
Moros schrieb:
Zur Vertex 2:
Zeig mir doch bitte einen Userbericht oder Test bzw. Review, der zeigt, dass die Realleistung der Vertex 2 mit 25nm Chips geringer ist als mit den älteren Chips.
So einen Bericht habe ich vorliegen und so viel User drüfte es kaum geben, die beide SSD direkt miteinander verglichen und darüber auch noch berichtet haben. Reviews der 25nm Version findet man auch nicht, alle haben ihre Reviewes gemacht, bevor OCZ die 25nm Version eingeführt hat.
Moros schrieb:
Die sequentielle Schreibgeschwindigkeit, wenn sie niedriger sein sollte, merkt man ausschließlich beim Kopieren von großen Dateien auf der SSD selbst. Das macht man so selten, dass es quasi keine Rolle spielt!
So selbst schreibt man große Dateien nun wirklich nicht, pagefile und hipernate haben viele auch immer noch auf ihren Rechnern, mache erstellen auch Archive. Außerdem ist ja auch die Leistung bei mehreren parallelen Writes kleinerer Dateien auf die seq. Transferrate begrenzt, ob kommen bei Dir auch keine parallelen Writes mehrerer Dateien vor?
Moros schrieb:
Um das mit dem einmaligen Absinken endlich mal zu klären:
Wo siehst du denn das Problem? Selbst nach dem Absinken schreibt eine Vertex 2 nicht komprimierbare Dateien immernoch genauso schnell wie eine Intel Postville.
Sorry, das widerspricht ja nun sogar den Werten von OCZ selbst:

Die G2 Postvilles lesen jeweils 250MB/s und schreiben 70 MB/s (80GB) bzw 100MB/s (120GB) und damit 27% bzw 25% schneller als die Vertex2 in gleicher Größe.

Keiner von uns ist dabei, wenn Du die Knöpfe Deiner Stoppuhren drückst, aber für mich lieferst Du jetzt hier nur noch einen weiteren Beweis, wie wenig Vertrauen man den nicht nachvollziehbaren Messungen in den sogenannten Realtests schenken darf.
 
Holt schrieb:
So einen Bericht habe ich vorliegen...
Was heißt denn vorliegen? Wo denn?
Versteh' mich bitte nicht falsch. Ich will gar nicht ausschließen, dass die Vertex 2 mit 25nm Chips langsamer ist. Ich möchte nur vermeiden, dass du das Gegenteil behauptest, wenn es keinen Hinweis darauf gibt (die sequ. Schreibrate nehme ich davon aus).

Holt schrieb:
Außerdem ist ja auch die Leistung bei mehreren parallelen Writes kleinerer Dateien auf die seq. Transferrate begrenzt, ob kommen bei Dir auch keine parallelen Writes mehrerer Dateien vor?
Natürlich kommen parallele Schreibvorgänge vor, das ist ja bei jedem so. Die Frage ist nur, ob die niedrigeren sequentiellen Transferraten auch die Geschwindigkeit von Installation, Anwendungen usw. negativ beeinflussen.

Holt schrieb:
Keiner von uns ist dabei, wenn Du die Knöpfe Deiner Stoppuhren drückst, aber für mich lieferst Du jetzt hier nur noch einen weiteren Beweis, wie wenig Vertrauen man den nicht nachvollziehbaren Messungen in den sogenannten Realtests schenken darf.
Wieso nicht nachvollziehbar? Die Ergebnisse kann doch jeder mit mehr als einer SSD überprüfen. Das Prozedere ist genau beschrieben. Was ist daran nicht nachvollziehbar?

Nochmal zur Leistung der Vertex 2 mit 25nm:
Meine Aussagen oben haben sich auf die Empfehlung der 180GB-Variante bezogen. Ich will dir überhaupt nicht widersprechen, dass die sequentiellen Schreibraten bei großen Dateien mit den 25 nm Chips geringer ausfallen.
Dies ist aber nur ein Aspekt der Gesamtleistung und sollte mit dieser keinesfalls gleichgesetzt werden.
Ich habe bei OCZ sogar schon eine 25nm Vertex 2 angefragt, um einen realen Vergleichstest machen zu können. Falls sich dann herausstellt, dass die Vertex 2 dadurch langsamer wird, werde ich das in den Empfehlungen auch berücksichtigen.

Mir geht es ausdrücklich nicht darum, das die Vertex 2 die schnellste SSD wäre. Dem ist nicht so. Auch eine zu niedrige sequ. Schreibgeschwindigkeit finde ich nicht mehr empfehlenswert wie du in meinem Test der Corsair F40 nachlesen kannst, die genau deshalb keine Empfehlung bekommen hat.
Ich finde deine Schlussfolgerung, dass die Vertex 2 aufgrund des einmaliges Sinkens der Schreibrate bzw. der 25nm Chips grundsätzlich nicht empfehlenswert wäre, aber falsch! Dies gilt natürlich auch für andere SandForce-SSDs, sollte nur ein Beispiel sein.

@edit
Nochmal zum Absinken der Schreibrate. Das ist ein Phänomen unter dem andere SSDs wie die C300 und die Postville mehr oder weniger auch leiden. Hier mal ein Screenshot der C300, die ich als Systemplatte verwende (Win7 x64, 43 GB frei):
 

Anhänge

  • as-ssd-bench C300-CTFDDAC128M 27.03.2011 01-30-02.png
    as-ssd-bench C300-CTFDDAC128M 27.03.2011 01-30-02.png
    38,4 KB · Aufrufe: 496
Zuletzt bearbeitet:
Moros schrieb:
Mir geht es ausdrücklich nicht darum, das die Vertex 2 die schnellste SSD wäre. Dem ist nicht so. Auch eine zu niedrige sequ. Schreibgeschwindigkeit finde ich nicht mehr empfehlenswert wie du in meinem Test der Corsair F40 nachlesen kannst, die genau deshalb keine Empfehlung bekommen hat.
Ich finde deine Schlussfolgerung, dass die Vertex 2 aufgrund des einmaliges Sinkens der Schreibrate bzw. der 25nm Chips grundsätzlich nicht empfehlenswert wäre, aber falsch! Dies gilt natürlich auch für andere SandForce-SSDs, sollte nur ein Beispiel sein.
Dann solltest Du vielleicht mal definieren, was Du als empfehlenswert betrachtest. Ich empfehlen nur, was ich auch selbst in der Situation einsetzen würde und was ich selbst kenne.

Der geringe Preisvorteil einer Vertex2 gegenüber einer Postville oder C300 gleicht deren Nachteile in meinen Augen nicht aus. Deswegen ist sie in meinen Augen schlicht nicht empfehlenswert, weil man für ein wenig mehr Geld eine schnellere und / oder ausgereiftere SSD bekommen kann.
Moros schrieb:
@edit
Nochmal zum Absinken der Schreibrate. Das ist ein Phänomen unter dem andere SSDs wie die C300 und die Postville mehr oder weniger auch leiden. Hier mal ein Screenshot der C300, die ich als Systemplatte verwende (Win7 x64, 43 GB frei):

Sorry, aber Deine Schreibraten stellen mit Sicherheit kein normales Absinken der Schreibrate einer C300 dar, die nicht mißhandelt wurde und mit TRIM betrieben wurde. So einen Benchmarks kann allerdings jeder produzieren der meine Erklärung zu TRIM und GC verstenden hat und es darauf anlegt.

Man kann übrigens auch jede Sandforce SD (auch die Vertex3) so misshandeln, dass sie massiv einbricht, nur erklärt man dann, dass dies zur Schonung der SSD notwendig ist.
 
Als empfehlenswert betrachte ich SSDs, die nicht wesentlich langsamer sind als das aktuell schnellste Modell, die keine wesentlichen Macken haben und die ein gutes Preis-Leistungs-Verhältnis aufweisen. Da zähle ich die 120er Vertex 2 dazu.

Die C300 in meinem System wird übrigens ganz normal als Systemplatte verwendet. Als OS nutze ich Win7 x64 und dazu den TRIM-kompatiblen Intel-Treiber. Ich kann dir versichern, dass ich normalerweise keine Benchmarks laufen lassen und nichts Außergewöhnliches mit dem System anstelle. Wenn man den Test wiederholt, sind die Werte auch wieder im normalen Bereich.
Von einem solchen Absinken merkt man aber eben nichts im Normalbetrieb.

@edit
Ich habe die SandForce-SSDs jetzt bei den Varianten unter 120 GB nicht mehr als Empfehlung drin. Denn da muss ich dir zustimmen, dass die sequ. Transferraten doch sehr niedrig sind.
 
Moros schrieb:
Die C300 in meinem System wird übrigens ganz normal als Systemplatte verwendet. Als OS nutze ich Win7 x64 und dazu den TRIM-kompatiblen Intel-Treiber. Ich kann dir versichern, dass ich normalerweise keine Benchmarks laufen lassen und nichts Außergewöhnliches mit dem System anstelle. Wenn man den Test wiederholt, sind die Werte auch wieder im normalen Bereich.
Von einem solchen Absinken merkt man aber eben nichts im Normalbetrieb.
Ok, die Verwendung als Systemlaufwerk könnte eine Erklärung sein, da nur braucht gerade mal Windows darauf zuzugreifen und schon gehen die Werte runter, gerade beim Schreiben. Das passiert dann auch mit jeder SSD, aber die 30% der SF Controller haben ja ihren Grund in dessen Arbeitsweise und ist wohl zusammen mit dem großen Overproviding der Preis für die Datenkompression. Da die Daten komprimiert werden, kann der Controller ja nicht mehr einfach eine LBA auf eine Page mappen sondern muß zusätzlich noch die Anfangs- und Endadresse in der Page sowie ggf. der Folgepage für jede LBA speichern. Andernfalls würde die kompression ja keinen Gewinn für die Lebensdauer bringen, denn ob ich die nur halb statt ganz vollzuschrieben bringt nur was bei der Performance und reduziert nicht die Löschzyklen. Dazu muß man schon die andere Hälfte mit Daten einer anderen LBAs beschreiben und wenn die da nicht ganz reinpassen, dann den Rest ggf. in eine weitere Page schreiben oder sich gleich eine ausreichend große Lücke suchen, was aber auch wieder Zeit kostet und oft nicht erfolgreich sein könnte, denn 50% Datenkompression sind schon ene ganze Menge für so einen kleinen Controller.

So eine komplexe Verwaltung der Pages macht es dann vermutlich auch nicht wirklich einfacher zu erkennen, wann ein Block nun wirklich ohne Write Amplification gelöscht werden kann, denn jede Page hat ja normalerweise nur drei Zustände: Frei (also gelöscht), Daten gültiig, Daten ungültig. Wenn alle Pages des Blockes nur ungültige Daten enthalten, dann kann dieser Block gelöscht werden ohne eine WA zu erzeugen, denn die WA wird nur durch das Kopieren der noch gültigen Daten hervorgerufen. Außerdem sollte natürlich vermieden werden Blöcke zu löschen, in denen noch freie Pages sind. Will man dabei noch Bruchteile von Pages berücksichtigen und können die Daten eines LBAs womöglich in Pages verschiedener Blöcke stehen, so wird das ganze schon richtig kompliziert. Obendrein sind dann wohl eine Menge Verwaltungsdaten zu schreiben bzw. öndern, wenn ich einen Block wirklich mal löschen muß und wenn diese auch noch in einer dedizierten Die stehen, dann könnte diese am Ende womöglich sogar zuerst verschlissen sein. Aber SF speichert da wohl nur die Checksummen, denn der Controller erkaubt es den SSD Herstellern ja viele verschiedene NAND Typen daran zu betreiben, was gerade für die SF Kunden sehr wichtig ist, hat doch keiner von ihnen eine eigenen NAND Produktion und wären andernfalls in einer sehr großen Abhängigkeit. Durch die Datenkkompression ändern sich dabei dann nicht mal die Geschwindigkeitsangeben von ATTO, auch wenn gerade weniger performante NANDs verbaut werden. Für den Kunden bleibt aber damit letztlich das gleiche Risiko wie bei vielen USB Stick, einer ist besser und der andere, scheinbar gleiche und vom selben Hersteller womöglich deutlich langsamer.
 
Hi,

ich will eure Diskussion nicht stören ;) aber ein Abfall der Schreibraten bei der C300 wie bei Moros halte ich für nicht normal.

Ich nutze meine C300 auch als Systemplatte und auch für Programme + Spiele die ich oft nutze. Bei mir sind die Schreibraten seit ich das Teil im Mai 2010 eingebaut hatte auf lange Sicht gesehen nicht abgefallen. Ich hatte zwischenzeitlich TRIM deaktiviert wegen der Problematik mit der FW0006 aber mittlerweile funktioniert alles mit dem AMD AHCI Treiber wieder perfekt. Anbei meine Werte vom Mai 2010 mit FW0001 + FW0002, vom Dezember 2011 mit FW0006 und von heute mit FW0006.

Da hat sich bei den Schreibraten nicht viel verändert und das was sich verändert hat beruht auf Messtoleranz. Das sieht bei den SF Controllern aber ganz anders aus wenn die einmal vollgeschrieben waren.
 

Anhänge

  • as-ssd-bench C300-CTFDDAC256M 20.05.2010 19-28-26 FW0001 Bios0801.png
    as-ssd-bench C300-CTFDDAC256M 20.05.2010 19-28-26 FW0001 Bios0801.png
    38,8 KB · Aufrufe: 509
  • as-ssd-bench C300-CTFDDAC256M 29.05.2010 15-58-16 FW0002 Bios0801 MSAHCI.png
    as-ssd-bench C300-CTFDDAC256M 29.05.2010 15-58-16 FW0002 Bios0801 MSAHCI.png
    38,7 KB · Aufrufe: 498
  • as-ssd-bench C300-CTFDDAC256M 03.12.2010 19-29-00.png
    as-ssd-bench C300-CTFDDAC256M 03.12.2010 19-29-00.png
    38,8 KB · Aufrufe: 505
  • as-ssd-bench C300-CTF DDAC256 27.03.2011 15-08-15.png
    as-ssd-bench C300-CTF DDAC256 27.03.2011 15-08-15.png
    38,8 KB · Aufrufe: 507
Hi Lightning58,
Lightning58 schrieb:
Hi,
ich will eure Diskussion nicht stören ;) aber ein Abfall der Schreibraten bei der C300 wie bei Moros halte ich für nicht normal.
Wir hatten schon herausgearbeitet, dass dieser Bench auch bei ihm nicht normal war:
Moros schrieb:
Die C300 in meinem System wird übrigens ganz normal als Systemplatte verwendet.
...
Wenn man den Test wiederholt, sind die Werte auch wieder im normalen Bereich.
Von einem solchen Absinken merkt man aber eben nichts im Normalbetrieb.
Trotzdem vielen Danke für Deine Benchmarkergebnisse, Du hast ja die C300 seid der 001er FW, die ja nur kurz aktuell war. Deine seq Leserate liegt mit 335M/s genau da wo meiene 128GB C300 auch hinkommt und ich betreibe sie auch an der AMD SB850 mit Phenom II X6 und 890FX Chipsatz.

Die C300 ist schon wirklich eine sehr schnelle SSD, was eben auch daran liegt, dass sie als erste ONFI 2.0er NANDs verwendet hat, was andere SSDs erst jetzt machen.
 
Mal eine ganz andere Frage:

Sollte man beim Kauf einer SSD eigentlich auch etwas in die Zukunft planen? Soll heißen, sollte ich mir besser jetzt schon eine Sata 6GB SSD kaufen, wenn ich weiß, dass ich in 2-3 Jahren auch einen SATA 6GB Controller in meinem Mainboard haben werde?

Ich bin mir nämlich bzgl. der zu erwartenden Lebensdauer einer SSD relativ unsicher. Kauft man sich in der Regel nach 3-4 Jahren eine neue SSD, weil die alte dann mittlerweile ein einigermaßen hohes Risiko hat, kaputt zu gehen? (was ansonsten tägliche Backups voraussetzen würde)
 
Der Vorteil von SATA 6 ist minimal (sh. Test der C300). Es schadet aber nicht und es kann durchaus sein, dass der Vorteil mit besseren CPUs größer wird. Da mit der Vertex 3 und den neuen SSDs auf Basis des Marvell-Controllers eine große Auswahl an SATA-III-SSDs besteht, würde ich, wenn man noch einen Monat warten kann, tatsächlich eine SATA III SSD kaufen.
 
Danke erstmal für die Info, aber wie sieht es denn generell mit der Lebensdauer aus bzw. wie muss man damit umgehen?

Also muss ich bei einer SSD schon so denken:
Nach 3 Jahren Nutzung kaufe ich mir eine neue, weil die alte Gefahr läuft (mit meinen Daten drauf) kaputt zu gehen? (was ansonsten tägliche Backups bedeuten würde und wer lebt schon gerne bewusst mit einem solchen Risiko)

Denn sonst könnte man sich ja nun theoretisch auch eine Sata 6GB Platte mit 240 GB kaufen und damit die nächsten 5-6 Jahre zufrieden sein, weil man damit gut ausgesorgt hat und diese Platte dann direkt ins (bis dahin sicherlich gekaufte) Notebook einbauen.
 
Die jede gute SSD sollte 5 Jahre Lebensdauer bei normaler Nutzung und nicht mehr als 20GB geschriebener Daten erreichen, Indilinx gehört wohl nicht in diese Gruppe, da die ersten todgeschriebenen SSDs i.d.R. den Indilinx Controller haben und meißt auch nur 32GB. Möglicherweise war aber kaum kein TRIM aktiv und / oder nicht ausreichend Kapazität feigehalten, was bei den agressiven GC der Indilinx dann halt noch mehr auf die Lebensdauer geht.

Ob man den Performancevorteil von SATA3 so spürt, hängt sicher in erster Linie von der Art der Nutzung der SSD ab, denn Windows liest kaum mal große Dateien seq. ein (bestenfallls mal hipernate.sys beim Aufwachen) und schreibt auch kaum solche. Dagegen sind die Randommwerte dann schon wichtiger und vor allem wenn man mehrere Programme gleichzeitig laufen läßt, dann auch bei größerer Queue Depth. Hohe seq. Transferraten sind also sicher kein Nachteil, wenn sie aber duch zu geringe IOPS erkauft wird, kann das auch zu einer geringeren Leistung in der Praxis führen. Gneauso keine eine Auslegung auf sehr hohe IOPS die dafür die seq. Tranferraten zu sehr einschränkt ebenfalls für viele Anwender nachteilig sein, während ein Server sehr davon profitiert.

Mit dem gleichen Controller und vergleichbaren NANDs kann man eben entweder die seq. Transferraten oder die IOPS angheben, aber nicht beides, denn eines geht immer auf Kosten des anderen.
Ergänzung ()

Tamuha schrieb:
Also muss ich bei einer SSD schon so denken:
Nach 3 Jahren Nutzung kaufe ich mir eine neue, weil die alte Gefahr läuft (mit meinen Daten drauf) kaputt zu gehen? (was ansonsten tägliche Backups bedeuten würde und wer lebt schon gerne bewusst mit einem solchen Risiko)

Denn sonst könnte man sich ja nun theoretisch auch eine Sata 6GB Platte mit 240 GB kaufen und damit die nächsten 5-6 Jahre zufrieden sein, weil man damit gut ausgesorgt hat und diese Platte dann direkt ins (bis dahin sicherlich gekaufte) Notebook einbauen.

Die Lebensdauer einer SSD kann man nicht mit der einer HDD vergleichen, denn bei einer HDD sind es i.d.R. Defekte an mechanischen Teilen, welche die Lebensdauer einschränken. Bei einer SSD beschränken die limitierten Schreib- Löschzyklen (PE-Zyklen) der NANDs die Lebensdauer, von der immer mal vorhandenen Möglichkeit eines anderen Defekts wie ihn jedes elektronsiche Bauteil ereilen kann, einmal abgesehen.

Die SSD Herstellen gehen überlicherweise davon aus, das diese 5 Jahre halten sollten und geben teilweise auch schon das Datenvolumen an, welches man in darauf schreiben kann, ohne in die Gefahr zu kommen die Zyklen ausgebraucht zu haben (TBW = Terra Byte Written). Obendrein kann man i.d.R. die verbleibenden PE Zyklen aus den SMART Werten auslesen und so deren Ende rechtzeitig erkennen.

Da man die magenischen Scheiben einer HDD unbegrenzt oft ummagentisieren kann, spielt bei geschriebene Datenmenge bei HDDs für deren Lebensdauer praktisch keine Rolle (vom höheren Verschleiß der Mechnik die die Köpfe bewegt mal abgesehen), dafür aber die Umwelteinflüsse umso mehr. Inbesondere ungeünstige Betriebstemperaturen und mechnsiche Belastungen (Schock) können die Lebensdauer einer HDD verkürzen oder sogar deren Ende bedeuten, während diese einer SSD noch lange nicht schaden.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben