[Sammelthread] Kaufberatung und Fragen zu SSD

Status
Für weitere Antworten geschlossen.
ich fand diese entwicklung seitens intel immer schade. wenn ich da an die postville-generation denke, wird mir etwas schwer ums herz. ich kann mich aber auch nicht mehr so richtig erinnern, warum intel diesen schritt gesetzt hat. davor und danach wurden ja eigene controller verwendet. dessen ungeachtet kann man die intel ssds wohl grosso modo als rock-solid bezeichnen. die leisten sich nicht viele aussetzer. (würde eigentlich auch gern wieder welche verbauen aber...tja).
 
Intel hat sich für die Konzentration auf Enterprise SSDs entschieden, weil die Margen dort besser sind. Da Intel auch nur einen recht Anteil an dem gemeinsamen Joint-Ventrue IMFT (Intel Micron) hat, ist das auch ein logischer Schritt, da im Consumersegment nur über große Menge auch Gewinn gemacht wird und dazu muss man auch die entsprechenden NAND Volumen fertigen.

Die Cosnumer SSDs mit dem inzwischen sehr veralteten Sandforce SF-2281 scheinen mit eher dazu da zu sein überhaupt auf dem Consumermarkt Präsenz zu zeigen und damit Endkunden die unbedingt eine Intel SSDs haben aber nicht das Geld für die interessanten Modelle ausgeben wollen, bedienen zu können.
 
Hallo,
kurze Frage die sich wahrscheinlich auch mit einem Ja beantworten lässt.
Habe Das Lenovo E330 so wie es unter dem Link zu finden ist.
Würde sich der Einbau einer msata SSD sehr auf die Performance auswirken? Linux Mint im DualBoot mit Win8.1 läuft drauf und manchmal reagiert mir Linux ein wenig zu langsam. Würde die SSD hier nachhelfen?
Sollte ich dann gleich noch den RAM auf 8 GB aufstocken?
Genutzt wird es hauptsächlich in der Uni zum Programmieren oder fürs WebDevolopement, wo es besonders im nächsten halben Jahr als "Arbeitstier" benutzt werden muss (Auslandspraktikum).

Danke für kommende Antworten!
 
Welche SSD für OS

Hallo,

ich habe 3 SSD´s

OCZ Agility 3 / 120 GB ( aktuelle System platte )
Samsung 840 / 240 GB ( hier sind paar Games installiert )
und Samsung 850 Evo / 500 GB ( nur Programme zur Bild-/und Videobearbeitung + die aktuellen Videos/Bilder )

Da in kürze Windows 10 erscheint und ich sowieso das System mal auf 0 setzen wollte würde ich gerne wissen ob ich das System wieder auf der OCZ installieren soll?

Von der Performance sollte soweit ich sehe die 850 EVO klar vorne sein, aber stören die Programme die ich installiert habe die System Performance? bzw. würde man einen unterschied merken? Wozu würdet ihr mir raten?
Kann mir dann auch vorstellen die OCZ rauszuschmeißen da ich so viel Platz gar nicht benötige.

j4i als Datengrab benutze ich meine NAS
Die restliche Hardware findet ihr in meiner Signatur

Lg Mario/Abibi2k
 
@knuthen
- ja, die auswirkungen auf die performance wären deutlich spürbar selbst wenn die verbaute festplatte (vergleichsweise) recht flott ist.
- ja, wenn du die 8gb auch wirklich brauchst. musst du dann selbst entscheiden.

@abibi2k
etwas schwierig,
langfristig wäre die 850evo als systemplatte (& platz für anwendungsprogramme) vermutlich die bessere lösung. aber auch die kann ohne vorwarnung instant den geist aufgeben. von der performance her sehe ich keine probleme. es sei denn du lastest die ssds durchgehend massiv aus was ich nicht vermute. eventuell findest du ja auch ein anderes plätzchen für die ocz?
 
Zuletzt bearbeitet:
nudelaug schrieb:
@abibi2k
etwas schwierig,
langfristig wäre die 850evo als systemplatte (& platz für anwendungsprogramme) vermutlich die bessere lösung. aber auch die kann ohne vorwarnung instant den geist aufgeben. von der performance her sehe ich keine probleme. es sei denn du lastest die ssds durchgehend massiv aus was ich nicht vermute. eventuell findest du ja auch ein anderes plätzchen für die ocz?

Aber denkst du das eine spürbare Performance Verbesserung sein wird von der OCZ auf die Evo?
 
Welche SSD für Laptop?

Hallo Leute.
Ich hätte eine Frage zu meinem Laptop.
Ich hatte vor, mir eventuell eine richtig gute SSD zu kaufen.

Von Sandisk habe ich eine gefunden, die mir gut gefällt und von der GB Anzahl völlig ausreicht. 128€ würden jedoch auch gehen.

http://www.amazon.de/SanDisk-SDSSDX...sr=8-1-spell&keywords=sandisk+extreme+pro+sdd

Meine Komponenten:
Intel Core I7-4702MQ
8GB Ram
Nvidia GT 750M

Wenn es, wie gesagt, auch eine bessere mit 128GB zu einem günstigeren Preis gibt, immer her damit. :D
 
abibi2k schrieb:
Aber denkst du das eine spürbare Performance Verbesserung sein wird von der OCZ auf die Evo?
Eher nicht, dafür ist schon die OCZ zu schnell, so einen Sprung wie von der HDD zur SSD wird man kaum noch bei einem Wechsel zwischen zwei SSDs spüren, wenn man sie nur normal als System- und Programmplatte nutzt. Nur wer sehr I/O intensive Anwendungen hat, wird das schon mehr merken.

feuergurke schrieb:
Wenn es, wie gesagt, auch eine bessere mit 128GB zu einem günstigeren Preis gibt, immer her damit. :D
Die Extreme Pro ist eine gute SSD, aber eben zu teuer und ich würde da entweder die Samsung 850 Evo oder die Crucial BX100 nehmen, zumal wenn man eine 850 Evo 500GB mal wieder in einem Blitzangebot für 150 bis 160€ bekommt.
 
Holt schrieb:
Eher nicht, dafür ist schon die OCZ zu schnell, so einen Sprung wie von der HDD zur SSD wird man kaum noch bei einem Wechsel zwischen zwei SSDs spüren, wenn man sie nur normal als System- und Programmplatte nutzt. Nur wer sehr I/O intensive Anwendungen hat, wird das schon mehr merken.

Okay, dann werde ich das System wieder auf der OCZ installieren und fertig :) danke für eure Hilfe
 
die ocz mag vielleicht etwas schreibfaul sein, aber da wirst du im alltag auch kaum was merken. es sei denn du verschiebst mal lustig täglich ein paar 100gb hin und her. wird nicht passieren denke ich :D
messbar sind die unterschiede auf jeden fall. spürbar...kaum.

mit der extreme ist es so eine sache. irgendwie konnte sie im heimanwenderbereich nie so wirklich akzente setzen. sollte die 850pro (256gb) im angebot bei amazon sein, zieht sie preislich gleich und ist somit klar der bessere deal. jetzt stellt sich die frage ob du unbedingt (!) 10 jahre garantie etc. haben magst. leistungstechnisch sind die teile natürlich ganz weit oben. aber die evo und die bx folgen auf dem fuße und zwar ziemlich knapp teilweise. der aufpreis rechnet sich mitunter nicht und wie holt schon erwähnt hat, gibt es von der seite wirklich günstige angebote (evo mit 250gb ca. 91€ im blitzangebot als kleiner vergleich, die bx ohnehin um ca. 85€)
 
Zuletzt bearbeitet:
Amazon hat heute die Samsung 850 Pro 1 TB für knapp 400 Euro im Angebot (nächster Preis ~475 €).
Ist vielleicht für den ein oder anderen interessant.
 
Zuletzt bearbeitet:
Die Sandisk Ultra II in der 240 GB Variante gibt es heute bei Amazon auch im Angebot für 75 Euro. Taugt die was, oder doch auf ein anständiges Samsung oder Crucial Angebot warten?
 
n1ghtk1n schrieb:
Die Sandisk Ultra II in der 240 GB Variante gibt es heute bei Amazon auch im Angebot für 75 Euro. Taugt die was, oder doch auf ein anständiges Samsung oder Crucial Angebot warten?

Scheint schon ausverkauft zu sein zu diesem Preis. Ich habe sie mir heute Nacht direkt geholt. Nach allem was ich an Testberichten lesen konnte, scheint das eine sehr günstige und schnelle Einsteiger SSD zu sein. Für 75 € liegt der Preis pro GB bei nur 31 Cent. Gut sie besitzt keine Selbstverschlüsselung (braucht man das als Normalnutzer überhaupt?) und die P/E Zyklen liegen nur bei ~500, aber in einem englischen Testbericht wurde das schön durchgerechnet: Wenn man jeden Tag 20 GB neu schreibt (wer macht das schon, ich jedenfalls nicht) und das 365 Mal im Jahr, dann beträgt die Haltbarkeit 7 Jahre. Bis dahin hat man die Komponenten dann vermutlich sowieso schon ausgetauscht bzw. das System komplett verändert.

Sollte es noch ein besseres Angebot geben von der Preis/Leistung her, dann wird das einfach auch bestellt und die Sandisk zurückgeschickt. Ist doch alles kein Problem. :)
 
@n1ghtk1n
manche werden sich wohl am tlc-speicher stören aber ansich ist es ein gutes angebot welches aber so immer wieder vorkommt. die sandisk ultra II, ocz arc, bx100 und 850evo werden immer mal von unterschiedlichen händlern (nicht nur amazon) als sonderangebot rausgeklatscht. persönlich tendiere ich eher zur bx100/850evo was nicht bedeutet, dass die sandisk ssd irgendwie schlecht ist (wurde sogar teilweise empfohlen: http://www.anandtech.com/show/8520/sandisk-ultra-ii-240gb-ssd-review/8 )

ich kann mich auch nicht erinnern jemals etwas schlechtes über das teil gelesen zu haben (was aber auch nichts bedeutet...oder nur recht wenig)
 
Die Ultra II hat TLC NAND und das wird eben nur mit 500 P/E Zyklen spezifiziert, wohl nicht zuletzt weil deren Marvell Controller eigentlich gar nicht für die Nutzung von TLC ausgelegt ist und die dafür eigentlich nötige aufwendigere Fehlerkorrektur verfügt. Was sie auf Dauer taugt, wird sich zeigen müssen.
 
Samsung Evo 840 gegen 850 tauschen?

Servus,

ich habe 2x 250 GB... da meine zweite 250 GB Evo 840 zu klein war habe ich eben bei Amazon
(Prime Blitzangebot) Evo 850 mit 500 GB für 139€ gekauft.

Frage: Soll ich schauen, dass ich heute eine 250 GB im Blitzangebot finde und die andere auch ersetze?
Oder hat man bei der 840 Evo als Windows Partition keine Probleme? (langsamer werden)

Die große 500er will ich für Spiele, Musik und co. nehmen.
Die Hauptplatte mit 250 GB nehme ich nur für Windows und Programme.

Weil ich gelesen habe es sind nur Dateien betroffen, die selten genutzt werden.
Windows wird ja DURCHGEHEND benutzt und sollte somit nicht betroffen sein? :)

Danke euch!
 
AW: Samsung Evo 840 gegen 850 tauschen?

Zuckerwatte schrieb:
Für die 840 Evo gibt es bereits eine zweite hotfixfirmware zum Beseitigen der Probleme?! Schon ausprobiert?

siehe http://www.heise.de/newsticker/meld...Evo-Firmware-nun-frei-verfuegbar-2628990.html

Da schreiben die Leute es sei nur eine Defragmentierung, womit ich wieder auf den Nullpunkt komme.
Sollte es also immer wieder und wieder durchlaufen lassen, was ich eher nicht so toll finde :(
Lieber gscheit...
 
Die Leute schreiben viel Blödsinn und wie der Fix genau wirkt ist doch egal, es sind 1200 P/E Zyklen für die NANDs spezifiziert, selbst wenn die SSDs jeden Monat einmal komplett neu beschrieben wird, kann man das 100 Jahre lang machen, bevor damit diese 1200 Zyklen verbraucht sind und wo ist das Problem mit einer Defragmentierung? Das macht eine SSD nicht kaputt, gerade darüber wird sehr viel Blödsinn geschrieben.

Zunächst mal folgendes, was viele oder alle nicht zu wissen scheinen die sich gegen eine Defragmentierung von SSD aussprechen, weil es nichts bringen würden und die SSDs ja die Daten intern sowieso anders anordnen und quer über die NANDs verteilen, als es von außen scheint: Weder SSDs noch HDDs kennen Partitionen, Filesysteme, Dateien, Verzeichnisse oder auch eine Fragmentierung! Das alles sind Geschichte die auf einer logischen Ebene darüber passieren, nämlich im Betriebssystem und dessen Routinen zu Verwaltung der Datenträger, zu denen auch das Filesystem gehört, denn ein Filesystem ist mehr als seine Datenstrukturen auf dem Datenträger, es gehört auch eine Menge Software dazu!

HDDs wie SSDs stellen nur eine Menge LBAs zu Verfügung, die i.d.R. je 512 Byte verwalten und es werden dann ATA Befehle benutzt, die fast immer einen LBA X und Y folgende LBAs auslesen oder beschreiben. Bestimmte Daten an bestimmten Adressen werden dann vom Betriebssystem eben entsprechend interpretiert, die selben Bytes am Anfang im MBR die Partitionstabelle ausmachen, könne an anderer Stelle die Pixel in einem Bild darstellen, das weiß weder eine HDD noch eine SSD. Es stimmt das die Controller von SSDs die Daten quer über die NANDs verteilen, aber das hat einen Sinn, denn so können bei langen Zugriffen wegen der internen Parallelität die sequentiellen Transferraten gesteigert werden, aber die maximalen Transferraten erreichen SSDs eben erst, wenn die Zugriffe auf über viele aufeinanderfolgende LBAs erfolgen und ein ATA EXT Befehl kann bis zu 2^16 LBAs adressieren denn es ja wird nicht LBA für LBA gelesen, was bei 512 Byte pro LBA dann 32MiB sind. Moderne SATA SSDs erreichen oft erst bei Zugriffe von 512 Kilobyte ihre vollen Transferraten und PCIe SSDs brauchen dafür sogar noch längere Transfers. Im IDE Modus werden nur ATA Befehle unterstützt, die maximal 2^8 LBAs adressieren können, also 128k, was nicht reicht und daher haben die SSDs im IDE Modus dann auch immer deutlich geringere sequentielle Transferraten, meist knapp über 300MB/s.

Was hat das nun mit der Fragmentierung zu tun? Filesysteme bemühen sich die Dateien in einem Fragment abzulegen, also die Dateien ab einem bestimmten LBA (bzw. Cluster, aber das ist für das Thema egal, denn ein Cluster lässt sich nach der Formel "Offset der Partition + Clusternummer * LBAs pro Cluster" fix in LBAs umrechnen und das muss das Betriebssystem auch machen, da die Platten eben nur LBAs und keine Cluster verwalten) und dann auf allen folgenden zu legen. Nur wachsen eben Dateien wie Logdateien oder auch der Aufsatz über Fragmentierung an dem man scheibt und der immer länger wird während er zwischendurch immer mal gespeichert wird oder es gibt keine Lücke im Filesystem um die Datei aufzunehmen. Lücken im Filesystem sind Bereiche von LBAs die nicht von Dateien belegt sind, wo also neue Dateien abgelegt werden können.

Ist es nun nicht möglich eine Datei in einem zusammenhängenden LBA Bereich zu speichern, spricht man von Fragmentierung, weil Dateien dann eben nicht mehr nur in einem Fragment abgelegt sind, Fragmentierung betrifft also auch immer nur einzelne Dateien, mal mehr mal weniger auf einer Partition, denn es ist ein Problem des jeweiligen Filesystems und nicht das muss nicht mit der Platte identisch sein, es kann über mehrere Platte gehen so wie eine Platte mehrere Partitionen und damit Filesystem haben kann, aber wie gesagt ist dass nur eine logische Aufteilung des Betriebssystems und der Controller der Platte, egal ob SSD oder HDD, weiß nichts davon.

Was passiert nun wenn eine Datei fragmentiert ist? Nun ein Befehl kann bis zu 32MiB adressieren und ab etwa 512k erreichen moderne SSDs ihre volle Performance. Bei 4k (8 LBAs) sind es viel weniger (ein Blich auf die 4k Ergebnisse von AS-SSD oder CrystalDiskMark zeigt das auch deutlich), 4k sind die kleinste Clustergröße bei den meisten aktuellen Filesystemen, ein Cluster ist auch die kleinste mögliche Größe eines Fragments. Nun liest ein Betriebssystem beim Lesen einer Datei mit einem Befehl immer nur bis zur Grenze eines Fragmentes und dann mit einem weiteren Befehl ab dem Anfang des nächsten Fragmentes bis zur Länge des Puffers oder bis zum Ende des Fragmentes.

Dann müssen bei einer HDD die Köpfe an die neue Position fahren, wo das nächste Fragment anfängt und fast alle die über Fragmentierung fahren, was länger dauert und das ist der einzige Aspekt an fast alle bei Fragmentierung denken. Das hört man oft auch, das dauert, da spürt man die Fragmentierung. Das ist aber nicht die Fragmentierung, es ist nur ein Ergebnis der Fragmentierung und das fällt bei SSD in der Tat weg, da diese sehr kurze Zugriffszeiten haben, aber deswegen bleiben sie von Fragmentierung nicht unberührt, denn durch die Fragmentierung werden mehr Zugriffe nötig und die Länge der Zugriffe, also wie viele LBAs mit einem Befehl adressiert werden, wird dadurch kürzer und das beeinflusst eben auch bei SSD die Performance, wenn auch längst nicht so massiv wie bei HDD!

Um die Einflüsse von Fragmentierung besser zu zeigen, sollte man sich einen Extremfall ansehen, den kann man auch mit etwas Programmiererkenntnissen leicht nachstellen: Man erstellt eine Partition, formatiert sie mit 4k pro Zuordnungseinheit (Cluster), bencht mit AS-SSD, formatiert noch mal und beschreibt diese Partition mit 4k großen, durchnummerierten Dateien. Dann löscht man z.B. alle Dateien mit gerader Endziffer (oder alle mit einer 0 hinten, das verschärft den Test noch, da moderne NAND durchaus 16k Pagesize haben) und bencht erneut. Man darf dann auch der SSD Zeit für die Idle CG lassen und nochmal benchen, damit die Effekte der internen Datenorganisation keine Rolle spielen. Die sequentiellen Transferraten (vor allem Lesend) werden schlechter sein, mindestens um 100MB/s bei SATA SSDs im AHCI Modus und bei einer schnellen PCIe SSD wie der SM951 oder im IDE Modus noch viel deutlicher!

Was passiert bei dem Test? Nun statt weniger Zugriffe mit 1MB (oder weniger, je nachdem was der Treiber darauf macht) werden viele Zugriffe mit 4k erfolgen und selbst wenn diese parallel erfolgen, sind die Transferraten deutlich geringer, schon weil mehr Overhead nötig ist. Die Befehle und Bestätigungen etc. müssen ja auch über den SATA Kanal mit seinen maximal 600MB/s und pro FIS (Übertragungspaket, je mit Overhead wie z.B. eigner CRC) werden maximal 8k übertragen und bei nur 4k pro Befehl gehen eben auch über SATA 6Gb/s maximal so 400MB/s.

Fragmentierung hat also auch auf SSDs einen Einfluss, weil es die Art und Länge der Zugriffe ändert, nicht aber den Effekt wie bei HDDs, weil eben die Zugriffszeiten von SSDs kürzer sind. Wenn ein Treiber sowieso nur 1MiB pro Zugriff liest und alle Fragmente genau ein MiB groß sind, wird es keinen Einfluss auf die Performance einer SSD haben, ist aber jedes Fragment nun genau 1028k lang, so wird für jede Fragment neben dem 1024k langen Zugriff noch ein weiterer mit nur 4k nötig und damit fällt die Performance.

Defragmentieren schaden SSDs auch nicht wirklich, sie wissen ja auch nicht was es ist. Für den Controller der SSD sind es Lese- und Schreibvorgänge wie alle anderen Lese- und Schreibvorgänge auch und die bewirken einen bestimmten Verschleiß also Verbraucht von P/E Zyklen der NANDs, aber ordentliche SSD mit NANDs in normalen Qualitätsstufen wie sie für SSDs gedacht sind, können so viele P/E Zyklen vertragen, da macht das keinen Unterscheid. In allen Endurancetests haben die SSDs viele Hundert TB bis einige PB ausgehalten, ein normaler Heimanwender schreibt kaum 10TB im Jahre, nur wenige schaffen mehr und die werden sich meist auch regelmäßig die neuste, größte, schnellste SSD kaufen. Außerdem ist der Effekt von Fragmentierung bei SSDs eben viel geringer als bei HDDs die muss man bei weitem nicht so oft defragmentieren wie HDDs.

Böse Schatten oder hat die Defragmentierung keinerlei Nachteile außer ein wenig Verschleiß? Doch, es gibt noch einen Aspekt, das Schattenfilesystem, welches viele SSD Controller führen. Die kennen ja nun einmal keine Dateien und verteilen die Daten so über die NANDs, dass diese möglichst schnell geschrieben und gelesen werden können. Daher können sie das nur aufgrund der Lese- und Schreibbefehle entscheiden, welche Daten zusammengehören und das bezeichnet man als Schattenfilesystem. Werden beim Defragmentieren nun stark fragmentierte Dateien aus vielen kleinen Bereichen auf einen zusammenhängenden Bereich von LBAs kopiert, so kann der Controller der SSD dies eben nicht als eine zusammenhängende Datei erkennen und legt diese Daten so ab, als wenn es einzelne kleine Dateien werden, er rechnet also nicht damit, dass dieser neu geschaffene Bereich dann später zusammenhängend gelesen werden wird. Deshalb funktionieren ja auch Low-Level Benchmarks wie HD Tune bei SSDs nicht korrekt. Außerdem liest HD Tune in der Standardeinstellung auch nur alle paar MB mal 64k, was eben nicht reicht um bei SSDs die maximalen sequentiellen Leseraten zu erzielen.

Was macht Windows? Nun vor Win 7 kannte Windows keine SSDs. Bei Win 7 werden SSDs sofort aus dem Zeitplaner des Deframentierdienstes geworfen, man kann sie auch nicht manuell dort eintragen, Das kann man auch gleich nach dem Klonen von einer HDD prüfen, sobald der Dienst startet fliegen die SSD da raus, manuell kann man aber auch noch eine Defragmentierung für SSDs anstoßen. Ab Win 8 (oder besser bei 8 und 8.1, keine Ahnung was Win 10 da macht) ist es anders, da bleiben die SSD im Zeitplaner des Defragmentierdienstes stehen, aber es wird keine Defragmentierung für SSD mehr ausgeführt, sondern ein Batch- oder Offline TRIM wie bei Linux mit fstrim. Dabei werden alle LBAs die als unbelegt erkannt werden getrimmt. Man muss also bei Win7 den Service nicht deaktivieren und sollte es ein Win 8(.1) auch keineswegs tun.

So, das war nun einen Menge und für viele Leser dürfte auch eine Menge neu sein und vielleicht mit dem bisher geglaubten kollidieren, bitte erst noch einmal lesen, dann nachdenken (vor allem was auf welcher Ebene passiert,was Filesysteme sind und die Fragmentierung passiert) noch etwas dazu googlen und erst dann darauf antworten!
 
Holt schrieb:
Die Leute schreiben viel Blödsinn und wie der Fix genau wirkt ist doch egal, es sind 1200 P/E Zyklen für die NANDs spezifiziert, selbst wenn die SSDs jeden Monat einmal komplett neu beschrieben wird, kann man das 100 Jahre lang machen, bevor damit diese 1200 Zyklen verbraucht sind...

Ja an dem Blödsinn ist was dran. Der Kunde hat eine SSD gekauft, die eigentlich ohne Refresh die Daten halten sollte. Es ist völlig egal ob die SSD mit Refresh 100 Jahre oder 500 hält. Der Kunde hat ein Recht auf eine SSD, die ohne Refresh - also auch stromlos in der Schublade liegend - die Daten erhalten kann.


... und wo ist das Problem mit einer Defragmentierung? Das macht eine SSD nicht kaputt, gerade darüber wird sehr viel Blödsinn geschrieben.

Auch hier sollte man wieder unterscheiden, ob mit defrag nur ein Zusammenfassen von Dateifragmenten gemeint ist, oder die oft vollständige Optimierung der Dateistruktur wie es bei HDDs auch in der Anordnung der Dateien ans Disklayout gemeint ist.

In "Wise Disk Cleaner" kann beispielsweise zwischen den beiden Optimierungsmethoden a) Dateien zusammenfassen oder b) vollständige Optimierung unterschieden werden.


Zunächst mal folgendes, was viele oder alle nicht zu wissen scheinen die sich gegen eine Defragmentierung von SSD aussprechen ...

Noch überheblicher gehts wohl nicht mehr ?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben