Test Crucial MX200 und BX100 im Test: Sechs ungleiche SSDs im Schatten der MX100

Was bitte schön hat die Plextor M6e Black Edition in der Benchmarkliste verloren? Es ist ja wenig überraschend, das ein Datenspeicher mittels schnelleren Interface eine bessere Performance zeigen kann... die Aussagekraft geht gegen irrelevant.
Vorallem der Vergleich einer SSC-on-SSM (PCIe) gegen normale SSD (SATA) ist wie der berühmte Vergleich zwischen Äpfeln und Birnen.
Wenn dann bitte auch richtige SSMs (z.B. Samsung SM951 sowohl die AHCI- als auch NVMe-Version) mit in den Benchmark aufnehmen und als Vergleich mit auflisten.
 
highks schrieb:
Bei Crucial (oder anderen NAND Herstellern) ist der NAND normalerweise kein Problem, aber wenn ich dann lese, dass die BX100 einen sehr günstigen Controller hat, von dem man noch nicht allzu viele Erfahrungswerte hat, dann wäre ich persönlich erst mal vorsichtig.

Wenn tatsächlich keine Erfahrungen vorliegen, ist Vorsicht ohne Frage angebracht. In den Reviews der BX100 wird aber im Grunde das Gegenteil festgestellt und diese Feststellung ist rel. leicht nachvollziehbar. Der SM2246-Controller der BX100 wird bereits seit über einem Jahr in SSD anderer, über wesentlich weniger Expertise verfügende SSD-Hersteller verwendet und hat dort bisher eine sehr gute Figur gemacht. In Verbindung mit höherer Flash-Qualität und exklusiven Features wie partial power loss protection ist kaum zu begruenden, dass die BX100 fragwuerdige Qualität hat.
 
Ich bin für diesen Test sehr dankbar, auch wenn ich mir gewünscht hätte das auch mal eine M.2 Version getestet werden würde.

Die Crucial ist derzeit quasi die einzigste die es im M.2 2260 Format gibt (ab 250GB) und dessen Schreibraten identisch dem einer Desktop SSD sind.
 
TNAPiet schrieb:
Ich bin für diesen Test sehr dankbar, auch wenn ich mir gewünscht hätte das auch mal eine M.2 Version getestet werden würde.
Was soll der Test ergeben, außer das die Werte praktisch identisch sein werden? M.2 ist nur ein Formfaktor, die Schnittstelle ist die gleiche (SATA 6Gb/s), der Controller ist der gleiche, die übrigens Bauteile auch und allenfalls stecken mehr NAND Dies in einem Chipgehäuse und dafür sind weniger Chips auf der Platine verbaut. Damit kann es allenfalls einen Unterschied gehen, wenn die Ansteuerung der Chips dadurch anders wird, aber selbst der dürfte minimal sein, denn heute reichen offenbar auch 4 Kanäle um eine sehr gute Performance zu erzielen, wie die BX100 ja auch zeigt.
Ergänzung ()

MichaG schrieb:
Die Leistung sollte in etwa auf dem Niveau der BX100 liegen. Der Controller ist der gleiche (SM2246EN), nur hat Transcend eine eigene Firmware dafür. Obs mit einem Test klappt, will ich aber nicht versprechen. ;)
Wieviel eigenes außer dem Label auf dem Chip noch von Transcend in dem SMI steckt, würde ich mal dahingestellt sein lassen. Die S.M.A.R.T. Attribute sind jedenfalls die gleichen wie bei allen anderen SSDs mit dem SMI auch und ob SMI, die ja das Paket auch Controller und FW zusammen verkaufen nun wirklich den Quellcoder an Transcend rausgegeben hat, darf auch bezweifelt werden. Mehr eigenes als vielleicht ein paar Parameter einzustellen und die Versionsnummer zu vergeben war schon beim Sandforce nur Intel gestattet und mehr dürfte auch SMI nicht erlauben.

Paratronic schrieb:
Eine MX100 würde ja auch reichen, aber dann lieber ein paar Euro mehr ausgeben, und man hat etwas besseres.
Was ist denn an der MX200 besser als an der MX100? Die bietet in der 250GB 2.5" nur den Vorteil des Psuedo-SLC Schreibcaches und dafür 6GB weniger Nutzkapazität, das ist nicht wirklich berauschend.
Paratronic schrieb:
Eine MX100 mit 512GB hatte ich mir vor ein paar Monaten nur für den Steamordner gegönnt
Wozu brauchst Du dann noch eine extra SSD für das System, ist da nicht noch genug Platz frei? Den Sinn der Trennung von Windows und Spielen auf 2 SSDs kann ich nicht nachvollziehen, da sich die Zugriffe bei SSDs eben nicht spürbar gegenseitig ausbremsen.
Paratronic schrieb:
Jemand noch eine Idee?
Wenn es nicht an Java liegt, könnte an der AMD Plattform liegen, zusammen mit dem AMD AHCI (oder gar RAID) Treiber haben machen SSD Toolboxen dann Probleme mit der Erkennung der SSDs.

HominiLupus schrieb:
Nein. Die BX100 hat 2 Features die grade bei einem Laptop notwendig sind: Stützkondensatoren wenn dem Laptop die Batterie ausgeht
Also wenn dem Laptop die Batterie ausgeht, dann sollte der so eingestellt sein, dass er vorher in den Ruhzustand geht. Sonst nutzt es auch wenig, wenn die SSD war überlegt, aber alle Dateien die gerade grade geöffnet waren doch nicht in ihrem letzten Zustand gespeichert wurden.

Mr.Seymour Buds schrieb:
Dachte die Power Loss Protection sind die Stützkondensatoren? Denn die sind ja wohl vorhanden.
Das alleine reicht aber nicht und SMI schreibt im Datenblatt des SM2246EN auch nichts über eine Power Loss Protection. Neben den Kondensatoren muss auch eine Erkennung des Power-Losses im Controller vorhanden sein und der muss dann sofort reagieren und die entsprechenden Daten unverzüglich ins NAND schreiben. Außerdem muss die Spannungsversorgung darauf ausgelegt sein auch mit der abfallenden Spannung der sich entladenden Kondensatoren den Controller stabil zu versorgen und der muss dann kurz bevor die Spannung zu gering wird auch noch aufhören die NANDs zu beschreiben. Nur ein paar mehr Kondensatoren ergeben also noch keine Power loss protection.

Es würde mich übrigens wundern, wenn der SMI als Budget Controller so ein Feature hätte, auch bei SF haben die Enterprise Versionen der Controller diese Feature, die einfach Consumerausführungen wurden darum beschnitten. Die Marvell haben das, aber die werden ja auch in Enterprise SSDs verwendet, z.B. in der Micron M500 DC.

MichaG schrieb:
Eine echte Sicherung gegen Datenverlust ist es aber nicht, da nur die Integrität der Daten, die schon in den NAND Flash geschrieben wurden (data at rest), geschützt wird. Daten, die nur im Cache vorliegen, sind bei einem Stromausfall dann trotzdem weg.
Das ist die Client Ausführung so einer Power loss protection, aber es gibt auch SSDs deren Controller offenbar die Verwaltungsdaten geschickter handhabt, vielleicht ähnlich wie bei einem Journaling Filesystem und daher fallen sie auch nicht häufiger aus als z.B. die Crucials mit den Stützkondensatoren.

Bei der Kingston KC310 Business-Class SSD (was immer das nun wieder sein soll) mit dem Phison S10, klingt das dann so:
Ist natürlich kein echter Schutz, aber je schneller auch die Verwaltungsdaten ins NAND geschrieben werden, umso geringer ist das Risiko das bei einem plötzlichem Spannungsabfall dort korrupte Daten stehen. Weiß man nun das die FW die Verwaltungsdaten sowieso immer sofort in die NANDs schreibt und baut dann mehr Kondensatoren ein um die Zeit die das typischerweise dauert zu überbrücken, dann erzielt man so auch einen besseren Schutz, auch wenn der Controller eigentlich gar nichts von dem Stromausfall wusste.

Das ist halt nicht schwarz-weiß, da gibt es viele Graustufen und richtige Enterprise SSDs die für den Einsatz im Data Center gedacht sind, haben so ausreichend dimensionierte Kondensatoren an Board, dass es denen immer gelingen sollte alle Daten aus dem RAM ins NAND zu schreiben. Dann brauchen sie das auch nicht laufend im Betrieb zu machen, was der Performance bei Schreibvorgängen und der Lebensdauer der NANDs natürlich guttut.

MichaG schrieb:
Dafür bräuchte die MX200 echte Stützkondensatoren, wie sie in vielen Enterprise-SSDs zu finden sind.
Es gibt glaube ich bei Retail SSDs nur bei der Intel 730 und 750 eine wirkliche Enterprise-class power loss protection, aber beides sind ja auch Consumer Ableger der Intel DC S3500 bzw. DC P3500.

Datenverlust ist aber schon aufgrund des Verlustes des Schreibcaches in Windows meist nicht zu vermeiden, außer man deaktiviert den.
Mr.Seymour Buds schrieb:
In dem Datenblatt: Das ist wirklich eine tolle Beschreibung, was sich nun hinter dem angepriesenem Feature verbirgt. NOT.
Hat Du jemals ein Datenblatt gelesen wo etwas nicht so ganz positives ausführlich drin erklärt wurde? Da steht immerhin in der Fußnote, dass sich die Power loss protection nur auf die Data at rest bezieht und wenn man nicht weiß was damit gemeint ist, dann googlet man halt und findet z.B. diese Erklärung:
Da steht eben auch, dass nicht nur Kondensatoren reichen um eine Power loss protection zu realisieren, da muss der Controller mehr können.

Etwas weiter auf der Seite steht auch beschrieben, warum die Crucial SSDs zuweilen beim Booten länger brauchen, wenn vorher plötzlich der Strom ausgefallen war, zumindest aus Sicht der SSD und da kann ein HW-Reset reichen:
Micron’s
newest client SSDs employ a superior method
of keeping track of data addressing information.
Although Micron’s SSDs use fairly large DRAM
components, only a small amount of the DRAM is
actually used to buffer user data. Rather, the DRAM
is used to manage the logical-to-physical
address table (the FTL, as described earlier)
in real-time. The new management method
ensures that the FTL addressing is recorded
and efficiently laid out such that if a powerloss
event causes a loss of the address table,
it can be rebuilt rapidly from information still
stored in nonvolatile memory. Rebuilding
the FTL table only adds a few seconds to the
boot and can be complete in plenty of time
for the system BIOS or UEFI to “handshake” with the
drive. The system may respond a bit more slowly than
it would during a typical reboot, but is none-the-worse
for wear after recovering from the unexpected power
loss.
Wer als bei seine Crucial immer wieder mal Erkennungsprobleme beim Kaltstart hat, der sollte seiner Systemstabilität oder seinem Netzteil mal einen kritischen Blick zuwerfen und sich bemühen den Rechner immer korrekt runterzufahren.

KillerGER87 schrieb:
Flasch die höchste TBW in dieser Klassse bietet diese hierTranscend SSD370 512GB laut dem Datenblatt des HerstellersAnhang anzeigen 488264 hat dies 550TB TBW.[/URL]
In dem was aktuell als Datenblatt auf der Transcend Seite verlinkt ist, stehen auch gar keine TBW mehr drin. Aber die angegebenen TBW sind doch sowieso nur Schall und Rauch und allenfalls für die Garantie relevant, aber bei Transcend zählt jetzt offenbar die Verschleißanzeige und nicht die geschriebenen TBW:
Aber vorauf basiert diese? Ist die vielleicht genauso nicht linear und fällt beim Ausfall von NAND Blöcken plötzlich stark ab wie z.B. bei einigen OCZ SSDs oder der Corsair Neutron GTX? Die hatte bei Hardwareluxx im Härtetest als Systemlaufwerk gedient und dann vielen ein paar NAND Blöcke aus und der Zustand war von 100% auf 22% abgefallen, obwohl die kaum geschrieben hatte:



Keine Ahnung ob die sich so verhält, ich habe noch keinen Endurance Test einer SSD mit dem SMI gefunden, aber wenn, dann wären die TBW wirklich total irrelevant. Wenig vergleichbar sind sie sowieso, denn einige SSDs Hersteller geben diese unter Worst Case Bedingungen an, also im Steady State wo jede SSD die maximale Write Amplification (WA) erzeugt und andere geben sie bei Client Workloads an, wo die WA sehr gering ist.

Gegenüber der Transcend 370 bei der auch Spectek NANDs verbaut werden, also die NANDs von Microns Resterampe, würde ich die BX100 auf jeden Fall vorziehen. Aufpassen muss man bei der 370 auch, denn wegen der Umwidmung des Pins für die 3.3V zum Signal für DevSleep kann es zu massiven Performanceproblemen kommen, wenn die 3.3V dauerhaft anliegen. Keine Ahnung ob das behoben wurde, aber die BX100 scheint davon nicht betroffen zu sein, oder MichaG hattet ihr die BX100 über einen Molex SATA Adapter mit Strom versorgt? Damit entgeht man dem Problem natürlich.
 
Fragger911 schrieb:
https://geizhals.de/?cat=hdssd&xf=4830_2~4836_5#xf_top

Da könnte man die Intel aber auch noch dazu zählen, wenn denn...
Also nur von der Shreibleistung her betrachtet, den Preis bitte aussen vor lassen.


In der Tat könnte man, aber der SandForce SF-2281 Controller der ist jetzt nicht mehr so tau frisch und es ist und bleibt ein Sanforce, und mit 180GB Kapazität das ist Insgesamt einfach nichts halbes und nichts ganzes.
 
Die Sandforce Controller komprimieren die Daten und die beworbenen Transferrate werden mit ATTO mit extrem komprimierbaren Daten (nur Nullen) gemessen. Reale Daten sind weit weniger komprimierbar und damit die Werte teils sehr viel schlechter, vor allem bei den Schreibraten. Während man da aber bei halbwegs komprimierbaren Daten, Programmdateien und dlls sind so etwa zu 50% komprimierbar, noch einen gewissen Vorteil hat (so um die 30% im besten Fall), ist es bei den Phison Controller mit deren Benchmarkoptimierung die nur bei extrem komprimierbaren Daten anschlägt, nicht der Fall.
 
Holt schrieb:
Was soll der Test ergeben, außer das die Werte praktisch identisch sein werden? M.2 ist nur ein Formfaktor, die Schnittstelle ist die gleiche (SATA 6Gb/s), der Controller ist der gleiche, die übrigens Bauteile auch und allenfalls stecken mehr NAND Dies in einem Chipgehäuse und dafür sind weniger Chips auf der Platine verbaut. Damit kann es allenfalls einen Unterschied gehen, wenn die Ansteuerung der Chips dadurch anders wird, aber selbst der dürfte minimal sein, denn heute reichen offenbar auch 4 Kanäle um eine sehr gute Performance zu erzielen, wie die BX100 ja auch zeigt.


Dazu müsste man sich mit dem M.2 Format erst einmal intensiv beschäftigt haben.
Alleine durch den weniger vorhandenen Platz, im Vergleich zum 2.5 Zoll, ergeben sich signifikante Unterschiede. Man kann dies gut erkennen das bei den M.2 Varianten, in der Regel, die Schreibleistung deutlich niedriger ausfällt. Viele erreichen dadurch nicht mal SATA I Niveau oder liegen nur knapp über SATA II Niveau.
Dies ist aber noch längst nicht alles. Zusätzlich kommt zum tragen das bei den M.2 Varianten in der Regel auch noch HIPM/DIPM, DevSleep und sonstige Modifikationen mit einwirken, welche bei Desktops und Notebook keine und nur eine geringe Rolle spielen oder nicht vorhanden sind.

Ebenfalls darf man nicht vergessen das M.2 vor allem für Tablets und vergleichbares eingesetzt wird wo wir z.B. bei Intel dann U, Y CPU´s und co haben, die mit ihrem Stromsparverhalten und schlimmstenfalls Throttelling, auch noch mal auf die SSD einwirken.

Auch Crucial setzt bei der M.2 DWA bei allen Varianten ein, während im 2.5 Zoll Format nur die 250GB Variante DWA einsetzt.
Die Begründung nehm ich Crucial aber nicht ab, sondern vermute was anderes, welches ich am Ende noch mal erläutere.

Aus Praxiserfahrung kann ich jedenfalls berichten, das mein Arbeitstablet welches mit einer Enterprise M.2 von SanDisk bestückt ist, sich regelmäßig eine Kaffeepause nimmt wenn es um das schreiben kleinerer Dateien geht. Selbst das installieren von Windows Updates wird so zur Geduldsprobe und dauert dann so um die 40-55 Minuten.

Abseits der Schreibraten merkt man bei den M.2 Varianten aber auf jeden Fall diese gefühlte Zugriffszeit. Da sind immer Gedenksekunden vorhanden, warum ich vermute, weshalb Crucial hier auf DWA bei allen Modellen setzt.

Genau dieses Verhalten ist mir bei allen M.2 Vaianten die ich bislang benutzt/getestet habe aufgefallen.

Aus all den genannten Gründen würde ich gerne mal einen Vergleich zwischen M.2 und 2,5 Zoll lesen.
Ergänzung ()

Holt schrieb:
Die Sandforce Controller komprimieren die Daten und die beworbenen Transferrate werden mit ATTO mit extrem komprimierbaren Daten (nur Nullen) gemessen. Reale Daten sind weit weniger komprimierbar und damit die Werte teils sehr viel schlechter, vor allem bei den Schreibraten. Während man da aber bei halbwegs komprimierbaren Daten, Programmdateien und dlls sind so etwa zu 50% komprimierbar, noch einen gewissen Vorteil hat (so um die 30% im besten Fall), ist es bei den Phison Controller mit deren Benchmarkoptimierung die nur bei extrem komprimierbaren Daten anschlägt, nicht der Fall.

Ich hab noch einige Sanforce SSD´s daheim rumliegen, von daher bin ich damit bestens vertraut. Jedenfalls Sanforce ist keine Empfehlung mehr wert, weshalb ich diese auch nicht in den Auswahlkreis mit hinein nahm.
 
Und bei welchen konkreten SSDs ist denn die Schreibleistung bei den M.2 Varianten deutlich geringer als bei den 2.5" Ausführungen der gleichen SSD mit der gleichen Kapazität? Da kenne ich keine, so gibt Crucial für alle Formfaktoren der MX200 genau die gleichen Leistungswerte an, auch bei der Samsung 850 Evo 500GB reden wir von 500MB/s (M.2) gegenüber 520MB/s (mSATA), also einem Unterschied von 4% der nicht wirklich der Rede wert ist! Intels DC S3500 120GB in 2.5" hat ebenfalls die gleichen Werte wie im M.2 Formfaktor, natürlich kann man die nicht mit den Werten eine DC S3500 mit 600GB vergleichen, da es so eine Kapazität bei der bei der DC S 3500 in M.2 nicht gibt und die eben auch andere Werte als die kleine Version mit nur 120GB hat.

Beachte außerdem das viele Anbieter gar nicht die gleichen Modelle in unterschiedlichen Formfaktoren anbieten, so gibt es bei Plextor eine M6S und M6 Pro in 2.5", aber das M.2 SATA Modell heißt M6G (und die M.2 PCIe 2.0 x2 SSD M6e). Solche Modelle kann man natürlich nicht vergleichen, da es eben unterschiedliche SSDs sind.

LPM, also HIPM/DIPM und auch DevSleep unterstützen viele (DevSleep wohl nur einige) 2.5" SATA SSDs übrigens ebenfalls.
 
Paratronic schrieb:
-Firmware-Updates
-Monitoring (z.B. Schreibvolumen, Temperatur)
-S.M.A.R.T. Parameter
-Secure Erase (Sanitize Drive)
-Passwort-Reset für Verschlüsselung

Wenigstens mal gucken...

Aber ich tippe mal auf mein fehlendes Java auf dem Rechner, bei einer neuerlichen Installation eben huschte was mit bla.java.blabla über den Schirm.

Was ist das denn bitte für ein Tool? Zum einen ist es extrem fett (Größe in MB) und zum anderen kann ich kaum glauben, dass ein so systemnahes Tool in Java geschrieben ist?!
 
Holt schrieb:
Das alleine reicht aber nicht und SMI schreibt im Datenblatt des SM2246EN auch nichts über eine Power Loss Protection.

Immerhin ist folgendes spezifiziert "Built-in voltage detectors for power failure protection". Die Logik zur Erkennung eines Fehlers/Ausfalls der Versorgung dürfte also vorhanden und eine entsprechende Schutzmaßnahme unter Hinzunahme weiterer Bauteile realisierbar sein.
 
Danke für den sehr ausführlichen Test.
Hat mich dazu bewegt nun doch noch schnell ne M550 bei meinem Händler zu ergattern anstatt ner BX100. Der hatte die noch als Restposten!
 
Es wird , glaube ich langsam Zeit mir auch endlich eine SSD zu zulegen . Nur welche Größe ist fraglich , auf jeden Fall über 64 gb .
 
Aryko schrieb:
Es wird , glaube ich langsam Zeit mir auch endlich eine SSD zu zulegen . Nur welche Größe ist fraglich , auf jeden Fall über 64 gb .

so habe ich 2007 auch gedacht. bis 2008 habe ich es ausgehalten! deine ausdauer bewundere ich. seit 2008 hätte ich es nicht eine sekunde länger ausgehalten, den programmen beim laden zuzusehen und meine kostbare lebenszeit wegen ein paar euro zu verschenken.
 
Aryko, keine Ahnung was Du da alles so drauf packen willst, vermutlich weniger als da drauf sein sollte damit man wirklich was davon hat und noch doch alles mögliche wieder auf der HDD landen muss, aber unter 240GB lohnt es sich eigentlich nicht mehr, zumal die kleinen Kapazitäten pro GB viel teurer sind.
 
Holt schrieb:
Das ist halt nicht schwarz-weiß, da gibt es viele Graustufen und richtige Enterprise SSDs die für den Einsatz im Data Center gedacht sind, haben so ausreichend dimensionierte Kondensatoren an Board, dass es denen immer gelingen sollte alle Daten aus dem RAM ins NAND zu schreiben. Dann brauchen sie das auch nicht laufend im Betrieb zu machen, was der Performance bei Schreibvorgängen und der Lebensdauer der NANDs natürlich guttut.

Wobei es aber gerade bei Enterprise-SSDs eher ein nettes Goody ist und nicht mehr. Gerade dort wird im Normalfall extrem viel Wert auf eine stabile Stromversorgung gelegt und daher sollte es zu keinen Stromausfällen, Spannungsschwankungen o.ä. kommen.
 
TNAPiet schrieb:
Auch Crucial setzt bei der M.2 DWA bei allen Varianten ein, während im 2.5 Zoll Format nur die 250GB Variante DWA einsetzt.
Die Begründung nehm ich Crucial aber nicht ab, sondern vermute was anderes, welches ich am Ende noch mal erläutere.

Der Grund ist ganz simpel. Auf dem M.2 Modul hat Crucial weniger Platz für Chips. Durch weniger vorhandene Chips können auch weniger Chips parallel beschrieben werden was dann zu niedrigeren sequentiellen Transferraten führt. Deshalb wird DWA bei den größeren M.2 Modellen und auch bei den mSATA Modellen eingesetzt.


TNAPiet schrieb:
Aus Praxiserfahrung kann ich jedenfalls berichten, das mein Arbeitstablet welches mit einer Enterprise M.2 von SanDisk bestückt ist, sich regelmäßig eine Kaffeepause nimmt wenn es um das schreiben kleinerer Dateien geht. Selbst das installieren von Windows Updates wird so zur Geduldsprobe und dauert dann so um die 40-55 Minuten.

Abseits der Schreibraten merkt man bei den M.2 Varianten aber auf jeden Fall diese gefühlte Zugriffszeit. Da sind immer Gedenksekunden vorhanden, warum ich vermute, weshalb Crucial hier auf DWA bei allen Modellen setzt.

Das ist nicht richtig. DWA pusht primär sequentielle Transfers, damit es auf dem Datenblatt toll aussieht.
Wenn dein Tablet lahmt und sich teilweise ganze Sekunden gönnt ist eher die CPU am throtteln als dass es an der SSD liegt. Oder dein Produkt ist einfach nicht wirklich toll.

Ich kann dir aus eigener Erfahrung sagen dass eine Samsung PM851 als mSATA, M.2 SATA und 2,5" SATA bei den IOPS nahezu identische Werte schafft.
 
Habe mir zum PC Upgrade noch schnell eine MX100 gesichert. Dabei wurde das Lieferdatum immer wieder verschoben (insgesamt eine Woche). Lange wird es das gute Stück Technik wohl nicht mehr Neu zu erwerben geben :( Dazu noch eine M.2 Plextor M6e 256gb (Systemplatte) ich bin begeistert, Windows in unter 15 Sekunden Einsatzbereit <3
 
Dafür gibt es dann die MX200 und BX100 in rauen Mengen. ;)
 
Aryko schrieb:
auf jeden Fall über 64 gb .

In dieser Größe gibt es doch gar keine aktuellen SSDs mehr ;) 256 GB empfinde ich bereits als bedenklich klein.
 

Ähnliche Themen

Zurück
Oben