B
Blueline56
Gast
@Holt:
Vielen Dank
Vielen Dank
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Was ist normale Nutzung, Windows Systemplatte? Mit TRIM oder ohne TRIM? 128GB sind für Windows im meinen Augen recht wenig, da würde ich eine größere SSD wählen, so viel mehr kosten sie ja nicht, für 50% Aufpreis bekommt man 100% mehr Kapazität und zumindest schreibend eine bessere Performance.Kampfkuchen schrieb:Sie soll bei normaler Benutzung so 5+ Jahre mitmachen, aber das sollte ja selbst irgendeine TLC oder Kingston V300 auch machen oder was muss man im schlimmsten Fall bei den günstigen erwarten?
Halte Dich an die Empfehlungen im ersten Ports des Threads, die sind bekannt und problemlos, zumindest sind keine großen Probleme bisher bekannt bzw. wurden entsprechende SSDs gestrichen. Man könnte noch die SanDisk Ultra Plus 128GB aufnehmen, die ist auch gut, wurde aber durch die Ultra II mit TLC ersetzt, über die man wenig sagen kann und die ich auch nicht empfehlen würde, da selbst SanDisk seine ersten TLC NANDs gerade mal mit 500 P/E Zyklen spezifiziert.Kampfkuchen schrieb:Natürlich sollte sie keine bekannten Probleme haben oder so wenige Erfahrungen existieren, dass man das nicht sagen kann.
Wie Du am Beispiel der V300 sieht, sind die Angeben teils auch geschummelt. Die V300 hat einen Sandforce Controller und die Sandforce Controller komprimieren die Daten und die beworbenen Transferrate werden mit ATTO mit extrem komprimierbaren Daten (nur Nullen) gemessen. Reale Daten sind weit weniger komprimierbar und damit die Werte teils sehr viel schlechter. Bei allen SSD mit einem Sandforce oder Phison Controller musst Du damit rechnen die Werte im Alltag teils deutlich zu verfehlen.Kampfkuchen schrieb:Geschwindigkeit beim Programme starten und so merkt man ja eh keinen unterschied bei den ganzen also ist doch nur sequentielle Lese- (fast immer hoch) und Schreibgeschwindigkeit im Alltag zu merken, oder?
Die Liste ist aber sehr langKampfkuchen schrieb:Welche wäre von diesen da Preis / Leistungsmäßig am besten für mich?
Die seq. Schreibrate ist bei einem Systemlaufwerk wenig relevant. Wenn Du eine gute Schreibrate und ein gutes P/L Verhältnis willst, nimm die m550.Kampfkuchen schrieb:Oder gibt es einen Grund unbedingt auf eine MX100 oder M500 usw. zu gehen da diese ja bei 128GB schon teurer sind und zumindest vom Datenblatt sequntiell teils langsamer?
Die Unterschiede zwischen den empfehlenswerten SSDs es ersten Posts (bzw. einer Ultra Plus) und einer High-End SATA SSD wie der 850 Pro sind im Alltag eigentlich allesamt nicht zu spüren, wenn man sie nur als Systemlaufwerk nutzt. Spürbar schneller wären wenn, dann PCIe angebundene SSD wie eine Samsung XP941, eine Intel DC P3000er, aber die kosten richtig Geld und brauchen einen passenden Rechner.Kampfkuchen schrieb:Anders gesagt: Millisekunden schneller beim Anwendungsstart sind egal, wenn dann muss eine bessere SSD Verbesserungen bei spürbaren Szenarien bringen.
Holt schrieb:Welche der heutigen wie gut sind ist schwer zu sagen, aber generell würde ich der SSD genug OP spendieren wenn sie ohne TRIM laufen muss, also im Neuzustand oder nach einem Secure Erease einen Teil unpartitioniert lassen. Wie viel das bringt hängt von der jeweiligen SSD ab.
Ja jede SSD hat ab Werk ein OP, denn eine 256GB SSD hat z.B. immer 256GiB NAND verbaut, alos etwa 7% mehr, die Betriebssysteme machen kein OP. Das Problem ist bei Windows, dass es zwar in Binärpräfixen rechnet, aber die falchen Abkürzungen anzeigt.Core #1 schrieb:Aber ist es nicht so, dass werksseitig sowieso bei jeder SSD unabhängig vom Betriebssystem mal mehr mal weniger OP angewendet wird?
Das hängt sehr von der aktuellen SSD ab und naturlich spielt dann auch der Faktor Zeit eine Rolle, den kann man in Reviews nicht nachstellen, weshalb es da kaum Erfahrungen gibt. Wenn nicht getrimmt wird, würde ich wenigstens so 10% unpartioniert lassen.Kampfkuchen schrieb:Bei wieviel Auslastung wird denn so eine aktuelle SSD überhaupt spürbar langsamer? 85%? 95%?
Wenn es hochauflösendes Rohmaterial ist, also wirklich viel geschrieben wird, sollte man keine mit Pseudo-SLC Cache nehmen, besser zwei SSD um von der einen auf die anderen schneiden zu können wenn es wirklich schnell gehen soll, aber bei kodiertem Material bremst i.d.R. die CPU/GPU so sehr, da sollte jede SSDs mit umgehen können.Kampfkuchen schrieb:Anwendungsgebiet ist alles mögliche. Programmieren, mal ein Video / Audio schneiden oder bisschen Blender. Fragt einfach, ob ich etwas mache was die Empfehlung verändern würde
Kannst und solltest Du, kann auch einfach einen cron anlegen der zuweilen fstrim aufruft.Kampfkuchen schrieb:Trim kann man anmachen in Linux und wird dann auch angemacht, wenn nix dagegen sprechen sollte.
Das Risiko besteht und es ist auch nicht unwahrscheinlich, die Marktlage ist eben wie sie ist und wer gute NAND Qualitäten einkauft, kann gegen die Angebote der NAND Hersteller, vor allem denen von Crucial, nicht bestehen und damit noch Geld verdienen.Kampfkuchen schrieb:Okay dann meide ich mal lieber die ohne eigene NAND Fertigung, weil die jederzeit auch total schlechten NAND einsetzen könnten, der vllt mit 5 Jahre schon Probleme kriegt bzw. man es nicht weiß, richtig?
Nein, die unentdeckte Perle gibt es nicht, die koche alle nur mit Wasser.Kampfkuchen schrieb:ob es nicht noch ein bisschen mehr gibt, die empfehlenswert sind, weil man dann ja teilweise günstiger / mit mehr Leistung weg kommen könnte.
Das habe ich nun nicht ganz verstanden, aber vielleicht so viel: Es gibt im Alltag praktisch keine so extrem komprimierbaren Daten wie viele Benchmarks sie verwenden, da solche Daten keinerlei Informationen enthalten. Programme und dlls sind gewöhnlich etwa zu 50% komprimierbare, Archive (zip, rar, etc.) und Mediendateien (außer Raw-Formaten) sind praktisch überhaupt nicht mehr komprimierbar, immer bezogen auf verlustfeie Kompression, was anderes darf ein SSD Controller ja sowieso nie machen.Kampfkuchen schrieb:Aber dann ist immernoch die sequentielle Schreibrate komprimiert und unkomprimiert das einzige, was man überhaupt merken kann bei der Benutzung zwischen unterschiedlichen SSDs, oder?
Nur wenn die Archive gar nicht komprimiert sind, aber wie oft kommt das bei Dir vor? Bei wirklich komprimierten Archiven dürfte immer die CPU begrenzen und die Unterschiede zwischen den SSDs daher kaum zu merken sein.Kampfkuchen schrieb:Und Anwendungsbeispiele / -gebiete, wo man Unterschiede zwischen SSDs nicht nur messen kann wären dann Sachen wie entpacken? Was gibts da noch?
Für die normale Anwendung als Systemlaufwerk ist das auch wirklich hilfreich, aber wenn man eben Dinge damit macht wo ständig viele GB am Stück geschrieben werden, dann nicht. Verlieren tut man die Daten auch nicht, die stehen ja auch im NAND, nur eben immer nur ein Bit pro Zelle. Unerwartete Stromausfälle sind für SSDs aber genereall sowieso Gift, die Crucial m500, m550, MX100 und MX200 haben aber wenigsten Stützkondensatoren die einen Bricken der SSD in den Fall verhindern sollen, Daten aus dem Schreibcache im RAM der SSD können dabei aber immer noch verloren gehen, da müsste man wohl eine Intel 730 (stammt von der DC S3500 ab) oder eben gleich eine richtig gute Enterprise SSD mit Stützkondensatoren nehmen, die haben Kondensatoren mit so hoher Kapazität, dass sie daraus auch den Schreibcache noch schreiben können.Kampfkuchen schrieb:Schreibcache für ein paar GB ist denke ich super, mehr am Stück wird da eher selten geschrieben. Man verliert dann nur theoretisch diese Daten bei einem Stromausfall, aber nicht mehr als bei einer Platte mit gleicher wirklicher Schreibrate, oder was gibt es dabei noch zu beachten?
Kampfkuchen schrieb:Also gibt es eine 256GB SSD, die in in spürbaren Gebieten schneller ist als die MX100, auch zuverlässig und dabei nicht viel teurer ist im Prinzip die Frage.Kampfkuchen schrieb:Das wäre die m550 256GB gewesen, aber die ist schon bei keinem Händler mehr ab Lager gelistet.
Entwder hällst Du Dich an die Beratungsempfehlungen und kaufst danach oder Du kaufst aufgrund der Daten im Preisvergleich, dass sie Deine Sache, aber in der Leserate nehmen sich die empfohlenen alle nicht, auch da eine mal meher mal weniger angibt und die eine im Benchmarks vielleicht ein paar MB/s mehr schafft.Kampfkuchen schrieb:auf was solle ich noch achten (als auch Systemlaufwerk)? Sequentielle Leserate?
Kampfkuchen schrieb:Ist es nicht das gleiche wenn der Speicherplatz frei ist statt unpartitioniert?
Und wenn getrimmt wird, wie sieht es dann mit langsamer werden bei fast voll aus?Ja, wenn die SSD wirklich getrimmt wird, braucht man das OP nicht, dann reicht es wenn man zuweilen etwa löcht wenn die SSD zu voll wird. Aber wenn TRIM nicht funktioniert bringt das Löschen nichts, der Controller der SSD erfährt ja nichts davon, dass bestimmte Daten nun ungültig geworden sind, genau dafür ist ja der TRIM Befehl. Dann einfach etwas auf der Partition frei lassen funktioniert oft nicht einmal weil Windows die LBAs gelöschter Dateien nicht sofort überschreibt sondern die Dateien mit der Zeit über die ganze Kapazität verteilt (nur der für MFT reservierte Bereich wird möglichst frei gelassen, aber halt vom MFT immer weiter belegt) und wenn dann mal irgendein Programm verrückt spielt und die ganze Kapazität beschreibt, dann hat man den Salat. Lässt man einen Teil unpartitioniert, so kann der eben auch nicht versehentlich beschrieben werden, das ist also sicherer.
Das bringt Performancenachteile, weil die TRIM Befehle ja auch übertragen und abgearbeitet werden müssen.Kampfkuchen schrieb:Bringt es mir einen Nachteil wenn sofort statt immer mal wieder alles getrimmt wird?
Davon würde ich mal stark ausgehen, Du kannst ja mal die Auslastung der CPU und die Datenraten der Platte dabei ansehen und weißt Du ja welchen Datenrate dabei entsteht und wenn die CPU am Limit hängt, würde die mit einer SSD auch nicht höher sein können, wenn die CPU zu 2/3 ausgelastet ist und die HDD limiert und z.B. 100MB/s liefert/schreibt, dann wären mit einer SSDs maximal 50% mehr drin und sie muss nur 150MB/s schaffen, dann würde die CPU wieder limitieren, ist doch recht einfacher Dreisatz.Kampfkuchen schrieb:Wenn man wirklich rendert ist aber doch auch CPU limitiert oder was meinst du?
Das kann man so sagen.Kampfkuchen schrieb:1. Das einzige was die Leistung der SSDs im Alltag mehr als 10tel Sekunden unterscheidet ist also die sequentielle Schreibrate, richtig?
Die Komprimierbarkeit der Daten spielt nur bei SSDs mit Sandforce Controllern eine Rolle, bei denen mit Phison nur ob die extrem komprimierbar sind, die halbwegs komprimierbaren Daten bringen gegenüber den gar nicht komprimierbaren keine Vorteil, bei Phison ist das wohl keine echte Datenkompression sondern ein einfach Deduplizierung und damit reine Verarsche für gute Herstellerangaben. Die Cruical haben andere Controller, da spielt die Komprimierbarkeit der Daten dann keine Rolle.Kampfkuchen schrieb:2. (unkomprimiert und komprimiert muss man natürlich beachten, könnte aber bei beiden je nach Anwendung spürbare Unterschiede bringen?)
Teurere SSDs haben i.d.R. eine bessere Performance Consitiancy, aber die spielt bei Heimanwendern keine Rolle, die ist für Enterprise Anwendungen wichtig, wo pausenlos und stundenlange auf die SSD vor allem geschrieben wird.Kampfkuchen schrieb:3. Und dann ist die Frage, welche Anwendungsgebiete denn von einer besseren SSD spürbar profitieren, also in welchen Anwendungsgebieten merkt man einen Unterschied zwischen einer billigeren und einer bisschen teureren SSD?
Das alles kann eine gute günstige SSD wie die empfohlenen etwa genauso gut wie eine teure Premium SSD, sofern Du das nicht mit einer schnellen High-End CPU pausenlos und stundenlang machst.Kampfkuchen schrieb:Archive wären irgendwelche packages installieren / compilen / packen meistens, das müsste CPU limitiert sein oder?
Ja, die SSD haben eigentlich alle heute einen RAM Cache (auch der SF als SRAM auf dem Chip oder im Package) und einige haben nutzen eben feste Pseudo-SLC Bereiche (die TLC SSDs) oder beschreiben alle freien Zellen zuerst im Pseudo-SLC Modus, also nur mit einem Bit.Kampfkuchen schrieb:Das heißt er nutzt einen SLC Cache und schreibt den dann zb nach dem Stromausfall in den anderen Flash?Was kurz oder lang ist, hängt von der Größe dieser Schreibcaches ab, wenn der voll ist, brechen die Schreibraten halt mehr oder weniger ein, das hängt von der SSD ab. Eine 850 Evo mit 500GB oder 1TB kann auch ohne den Cache so schnell schreiben wie mit, da gibt es dann keinen Einbruch der Schreibraten.Kampfkuchen schrieb:Das heißt bei mittelkurzen Schreibzugriffen schafft er eher sogar noch mehr persistent zu speichern?
Die 840 ohne Zusatz (Evo oder Pro) ist total veraltet und die hat das gleiche Problem mit der Performance beim Lesen alter Daten wie die Evo, weshalb ich diese beide nicht empfehle solange das nicht behoben ist.Kampfkuchen schrieb:Da gibt es aber momentan eh nur die nicht empehlenswerte 840?Ja, wie gesagt interessiert die Komprimierbarkeit nur bei SSD mit Sandforce oder Phison Controllern.Kampfkuchen schrieb:Und die M550 ist auch unkomprimiert schreibend genauso schnell und günstiger, oder?
Ja, aber die SSDs sind da unterschiedlich abfällig und die mit Stützkondensatoren generell extrem robust, dafür spendiert man ihnen die Konsendatoren ja auch. Andere haben aber selbst ohne Kondensatoren praktisch keine Probleme damit, da haben die Entwickler offenbar andere Lösungen gefunden.Kampfkuchen schrieb:Also die Firmware der SSD kann schon mal bricken bei vielen SSDs wenn der Strom ausfällt, nicht nur die Daten, die grade geschrieben wurden?
Die Performance scheint nach den Reviews gut zu sein, der Preis ist es inzwischen auch, aber es liegen wenig Erfahrungen vor, zumal auch der SMI Controller noch recht neu ist. Einen Grund direkt von der abzuraten sehe ich nicht, aber für eine sichere Empfehlung fehlt halt die Erfahrung damit und keiner kann sagen ob da nicht demnächst da ein dickes Problem hoch kommt.Kampfkuchen schrieb:Okay, BX100 gibts halt noch keine großen Erfahrungsberichte und sie ist nicht so gleich wie die MX100, dass man sagen könnte es gibt genauso wenig Probleme, richtig?
Wobei beide defacto wohl von der BX100 und MX200 abgelöst werden, auch wenn sie laut Crucial weiter produziert werden sollen, so ist die m550 256GB im Moment bei keinem Händler als lagernd angegeben und auch wieder deutlich teurer als die MX100, die war aber sogar mal günstiger obwohl sie eigentlich das höher positionierte Produkt ist.Kampfkuchen schrieb:Also kommt dann überhaupt nur MX100 oder M550 in Frage für 256GB, wenn man nicht Preis / Leistungsmäßig in den Keller will, oder hab ich was übersehen?
Holt schrieb:Ja jede SSD hat ab Werk ein OP, denn eine 256GB SSD hat z.B. immer 256GiB NAND verbaut, alos etwa 7% mehr, die Betriebssysteme machen kein OP. Das Problem ist bei Windows, dass es zwar in Binärpräfixen rechnet, aber die falchen Abkürzungen anzeigt. [...]. Bei denen mit 240GB ist geauso viel NAND verbaut, aber man hat weniger Nutzkapazität, die haben also mehr OP, nur weiß man nie wie viel davon jeweils für Verwaltungsdaten und zusätzliche Fehlerkorrekturen wie RAISE (SF) oder RAIN (Micron) abgeht.
Die Boards sind zwar aus dem Handel verschwunden, sind aber immer noch Basis von vielen Rechnern mit Phenom II X4 welcher aktuell sogar noch fürs kommende GTA V ausreichen soll. Solche Rechner lassen sich mit SSDs aufrüsten. Anders als es am Anfang dieses Themas dargestellt wird lässt sich auch AHCI samt Trim nutzen.jodd schrieb:Boards mit NV Chipsatz dürften wohl keine Rolle mehr spielen.
Du meinst weil sonst nichts mehr frei ist oder ist auch mit TRIM die Performance bei 99% Belegung schlechter als bei 80%?Holt schrieb:Ja, wenn die SSD wirklich getrimmt wird, braucht man das OP nicht, dann reicht es wenn man zuweilen etwa löcht wenn die SSD zu voll wird.
Ah, das ergibt Sinn, danke für die Erklärung! Ist das unter Linux anders?Holt schrieb:Aber wenn TRIM nicht funktioniert bringt das Löschen nichts, der Controller der SSD erfährt ja nichts davon, dass bestimmte Daten nun ungültig geworden sind, genau dafür ist ja der TRIM Befehl. Dann einfach etwas auf der Partition frei lassen funktioniert oft nicht einmal weil Windows die LBAs gelöschter Dateien nicht sofort überschreibt sondern die Dateien mit der Zeit über die ganze Kapazität verteilt (nur der für MFT reservierte Bereich wird möglichst frei gelassen, aber halt vom MFT immer weiter belegt) und wenn dann mal irgendein Programm verrückt spielt und die ganze Kapazität beschreibt, dann hat man den Salat. Lässt man einen Teil unpartitioniert, so kann der eben auch nicht versehentlich beschrieben werden, das ist also sicherer.
Und er ist nicht so schlau die TRIM Befehle zurück zu stellen, wenn ein anderer Befehl rein kommt?Holt schrieb:Das bringt Performancenachteile, weil die TRIM Befehle ja auch übertragen und abgearbeitet werden müssen.
Guuuut, das ist also der Punkt nachdem man schauen sollte.Holt schrieb:Das kann man so sagen.[Sequentielle Schreibrate einziger Unterschied]
Ok, in der Realität bringen aber auch SSDs mit hoher komprimierbarer sequentieller Schreibrate manchmal Vorteile, oder?Holt schrieb:Die Komprimierbarkeit der Daten...
Durch effizientere GC oder Trim Bearbeitung etc?Holt schrieb:Teurere SSDs haben i.d.R. eine bessere Performance Consitiancy, aber die spielt bei Heimanwendern keine Rolle, die ist für Enterprise Anwendungen wichtig, wo pausenlos und stundenlange auf die SSD vor allem geschrieben wird.
CPU wird eine 4690K OCed, also gut, aber nicht nonplusultra.Holt schrieb:Das alles kann eine gute günstige SSD wie die empfohlenen etwa genauso gut wie eine teure Premium SSD, sofern Du das nicht mit einer schnellen High-End CPU pausenlos und stundenlang machst.
Okay, und sonst hat keine andere Turbo Write? Und die 850 bringt auch keine Vorteile und ist teurer? (ist ja die einzige die noch im Start Post empfohlen ist)Holt schrieb:Die 840 ohne Zusatz (Evo oder Pro) ist total veraltet und die hat das gleiche Problem mit der Performance beim Lesen alter Daten wie die Evo, weshalb ich diese beide nicht empfehle solange das nicht behoben ist.
Nein, ich meine, die M550 ist sequentiell schreibend doch eh schon so schnell wie andere nur mit Turbo Write oder andere nur bei komprimierten Daten, also ist da die M550 in jedem Fall besser, richtig? (und günstiger)Holt schrieb:Ja, wie gesagt interessiert die Komprimierbarkeit nur bei SSD mit Sandforce oder Phison Controllern.
Nur aus Interesse, weiß man das welche da noch robust sind?Holt schrieb:Ja, aber die SSDs sind da unterschiedlich abfällig und die mit Stützkondensatoren generell extrem robust, dafür spendiert man ihnen die Konsendatoren ja auch. Andere haben aber selbst ohne Kondensatoren praktisch keine Probleme damit, da haben die Entwickler offenbar andere Lösungen gefunden.
Ok, alles klar.Holt schrieb:[Kommentar zur BX100 und keine Erfahrung]
Das hängt von der jeweiligen SSD und dem OP ab Werk ab, aber im Prinzip ja und dann kommen noch die Effekte der Fragmentierung des Filesystems hinzu, die bei 99% Füllung auch zuschlagen und die längen der Zugriffe verkürzen wird. Das hat zwar bei SSDs weit weniger Einfluss als bei HDDs, aber auch SSD sind bei langen Zugriffen schneller als bei kurzen.Kampfkuchen schrieb:Du meinst weil sonst nichts mehr frei ist oder ist auch mit TRIM die Performance bei 99% Belegung schlechter als bei 80%?
Das hängt sicher von Filesystem ab, aber die einzelnen Linux Filesystem und wie diese Speicherplatz belegen, kenne ich auch nicht.Kampfkuchen schrieb:Ah, das ergibt Sinn, danke für die Erklärung! Ist das unter Linux anders?
Das mit dem Zurückstellen ist nicht so einfach. Eine Datei hat LBA x belegt, wird gelöscht, LBA x wird aber gleich wieder von einer anderen Datein beschrieben (gerade wenn die Partition sehr voll ist nicht ungewöhnlich) und darf (und braucht) dann natürlich nicht nachträglich noch getrimmt werden, sonst wäre die neue Datei korrupt.Kampfkuchen schrieb:Und er ist nicht so schlau die TRIM Befehle zurück zu stellen, wenn ein anderer Befehl rein kommt?
Wirkliche Datenkompression hat nur der Sandforce, aber andere sind ohne schneller als der mit, bei realen Daten.Kampfkuchen schrieb:Ok, in der Realität bringen aber auch SSDs mit hoher komprimierbarer sequentieller Schreibrate manchmal Vorteile, oder?
Durch andere NANDs, einen schnelleren Controller, mehr Cache, bessere Algorithmen, etc. was auch immer.Kampfkuchen schrieb:Durch effizientere GC oder Trim Bearbeitung etc?
Eine 850 Pro ist High-End, unter den SATA SSD die schnellste, sie schlägt teils die M6e, aber die XP941 und vor allem die Intel DC P3000er sind natürlich noch ganze andere Geschütze und haben auch andere Anforderungen an das System. Die sind auch nur für Enthusiasten unter dem Heimanwendern zu empfehlen.Kampfkuchen schrieb:High-End ist bei dir z.B. die 850 Pro oder erst eine Samsung XP941 oder Intel DC P3000er? Würden selbst diese keine spürbaren Unterschiede bei meinen Anwendungen bringen (außer die sequentielle Schreibrate)?
Natürlich, der Pseudo-SLC Bereich ist ja auch NAND und damit nicht flüchtiger Speicher.Kampfkuchen schrieb:Ich meinte, wenn eine SSD keinen Strom mehr bekommt und gerade der SLC Cache dreiviertel voll geschrieben wurde, dann kann dieser nach dem Stromausfall in den normalen TLC geschrieben werden?
Das hat mit der Überlegung nichts zu tun und zumindest die 840 Evo kopiert die Daten erst im Idle vom Pseudo SLC Bereich in den normalen NAND Bereich. Außerdem gibt es keine Einheit Mib/s, es gibt MB/s (Megabyte/s), MiB/s (Mebibyte/s) und Mb/s (Megabit/s). Wie Du siehst ist die korrekte Groß- Kleinschreibung wichtig, ein kleines b steht für Bit, ein großes B für Byte.Kampfkuchen schrieb:(sagen wir mit 500Mib/s) als bei einer SSD ohne Turbo Cache und gleicher Schreibrate wie die Turbo Cache SSD nachdem der Cache voll ist (z.B. 250Mib/s)?
Kann es sein, dass Du gar nichts verstanden hast? Die 840 (ohne Zustanz) hat keinen TurboWrite Pseudo-SLC Schreibcache, alle anderen aktuellen Consumer-SSD mit TLC aber schon, auch wenn Plextor den anderes nennt.Kampfkuchen schrieb:Okay, und sonst hat keine andere Turbo Write?
Ja, weshalb ich die Dir ja auch schon eine ganze Weile empfehle und wenn Du die schon gekauft hättest, dann könnte ich mir diese lange Antwort hier sparen.Kampfkuchen schrieb:Nein, ich meine, die M550 ist sequentiell schreibend doch eh schon so schnell wie andere nur mit Turbo Write oder andere nur bei komprimierten Daten, also ist da die M550 in jedem Fall besser, richtig? (und günstiger)
Die Samsungs sind offenbar auch robust, da Ausfälle bei denen extrem selten sind.Kampfkuchen schrieb:Nur aus Interesse, weiß man das welche da noch robust sind?
Das ist total unnötiger Mist, wie fast alles in den Anleitungen. Du hast mehr als genug Platz auf der SSD und kaputtgeschrieben bekommst Du die auch nicht, spar Dir die HDD. Das verlangsamt nur den ganzen Rechner.Lonely Shepherd schrieb:hatte allerdings gedacht, dass ich die 1TB HDD trotzdem im Rechner lasse und dort einfach z.B. den Internet-Cache oder pagefile.sys auslagere. Also überall wo häufig viele Daten geschrieben werden, um die SSD zu schonen.