News 3D-NAND: Intel und SK Hynix setzen neue Maßstäbe bei der Flächendichte

@Araska es ging spezifisch um den 'Schreibgeschwindigkeit bei ~500GB TLC' Aspekt. Dass es größere SSDs gibt, die schneller sind, ist klar, aber verfehlt den Punkt.
 
Wenn man mit den Äpfel Birnen Vergleich weitermachen will, kann man auch noch SSDs mit 100% pSLC in den Ring werfen. Hab selbst schon mit einer 320GB SSD gearbeitet welche von 0-100% komplett mit gleichbleibender Datenrate von 3GB/s geschrieben hat. Leider zu teuer für den Privatbereich mit den benötigten Datenmengen von Spielen und UHD Content etc. :/
 
Rickmer schrieb:
Aber '20 Jahre alte boot-SSD für Heimserver' darf mMn mit zu 'kleine Bastelprojekte' zählen :)

Weiss nicht ob ich dieser "kleine Bastelprojekt"-Kategorisierung folge.

Es werden heute noch Notebooks mit 256GB-SSD verkauft. Wir Enthusiasten hier belächeln sowas, aber im Prinzip ist es doch so, dass, wenn man einen Rechner nicht mit Multimediadaten konfrontiert, an die SSD sehr geringe Anforderungen gestellt werden und das für Otto Normalo reicht.

Selbst ein 256GB-Notebook hat genügend Platz, um neben den Daten für die Arbeit noch eine handvoll Filme für die Zugfahrt und ein ansehnliches MP3-Archiv mitzunehmen. Die Office-Dateien, die so anfallen - es fällt überhaupt nicht ins Gewicht. Das ist marginalisiert. Und ich glaube, das wird noch lange so bleiben.

Wer natürlich ein Filme-Langzeit-Archiv betreibt, 20 Jahre enthusiastisch DSLR-Raw-Fotos sammelt und jetzt mit 4K-Filmen anfängt, für den ist jede SSD zu klein. Wer das aber nicht tut, für den ist jede SSD zu gross... :)
Etwas plakativ, aber so isses doch.
 
  • Gefällt mir
Reaktionen: Rickmer
Rickmer schrieb:
Was ist denn bei den beiden SSDs der Wert von Attribut AD (Average Block Erase Count)?
Das SMART der MX500 hatte ich vor dem einmotten doch ausgelesen (die unwesentlichen Abschnitte habe ich entfernt):
Code:
smartctl 7.3 2022-02-28 r5338 [x86_64-linux-6.1.8-artix1-1] (local build)
Copyright (C) 2002-22, Bruce Allen, Christian Franke, www.smartmontools.org

Model Family: Crucial/Micron Client SSDs
Device Model: CT250MX500SSD1
Serial Number: 1919E201E172
LU WWN Device Id: 5 00a075 1e201e172
Firmware Version: M3CR023
User Capacity: 250.059.350.016 bytes [250 GB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: Solid State Device
Form Factor: 2.5 inches
TRIM Command: Available
Device is: In smartctl database 7.3/5440
ATA Version is: ACS-3 T13/2161-D revision 5
SATA Version is: SATA 3.3, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Sun Feb 19 12:48:22 2023 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
AAM feature is: Unavailable
APM level is: 254 (maximum performance)
Rd look-ahead is: Enabled
Write cache is: Enabled
DSN feature is: Unavailable
ATA Security is: Disabled, NOT FROZEN [SEC1]
Wt Cache Reorder: Unknown


ID# ATTRIBUTE_NAME FLAGS VALUE WORST THRESH FAIL RAW_VALUE
  1 Raw_Read_Error_Rate POSR-K 100 100 000 - 0
  5 Reallocate_NAND_Blk_Cnt -O--CK 100 100 010 - 0
  9 Power_On_Hours -O--CK 100 100 000 - 6167
 12 Power_Cycle_Count -O--CK 100 100 000 - 2751
171 Program_Fail_Count -O--CK 100 100 000 - 0
172 Erase_Fail_Count -O--CK 100 100 000 - 0
173 Ave_Block-Erase_Count -O--CK 095 095 000 - 79
174 Unexpect_Power_Loss_Ct -O--CK 100 100 000 - 54
180 Unused_Reserve_NAND_Blk PO--CK 000 000 000 - 29
183 SATA_Interfac_Downshift -O--CK 100 100 000 - 15
184 Error_Correction_Count -O--CK 100 100 000 - 0
187 Reported_Uncorrect -O--CK 100 100 000 - 0
194 Temperature_Celsius -O---K 065 046 000 - 35 (Min/Max 0/54)
196 Reallocated_Event_Count -O--CK 100 100 000 - 0
197 Current_Pending_ECC_Cnt -O--CK 100 100 000 - 0
198 Offline_Uncorrectable ----CK 100 100 000 - 0
199 UDMA_CRC_Error_Count -O--CK 100 100 000 - 1
202 Percent_Lifetime_Remain ----CK 095 095 001 - 5
206 Write_Error_Rate -OSR-- 100 100 000 - 0
210 Success_RAIN_Recov_Cnt -O--CK 100 100 000 - 0
246 Total_LBAs_Written -O--CK 100 100 000 - 11183237492
247 Host_Program_Page_Count -O--CK 100 100 000 - 190726635
248 FTL_Program_Page_Count -O--CK 100 100 000 - 161261453
                            ||||||_ K auto-keep
                            |||||__ C event count
                            ||||___ R error rate
                            |||____ S speed/performance
                            ||_____ O updated online
                            |______ P prefailure warning


SMART Extended Self-test Log Version: 1 (1 sectors)
Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error
# 1 Extended offline Completed without error 00% 2872 -
# 2 Short offline Completed without error 00% 573 -
# 3 Extended offline Completed without error 00% 8 -
# 4 Conveyance offline Completed without error 00% 7 -
# 5 Short offline Completed without error 00% 7 -


Device Statistics (GP Log 0x04)
Page Offset Size Value Flags Description
0x01 ===== = = === == General Statistics (rev 1) ==
0x01 0x008 4 2751 --- Lifetime Power-On Resets
0x01 0x010 4 6167 --- Power-on Hours
0x01 0x018 6 2593302900 --- Logical Sectors Written
0x01 0x020 6 47610056 --- Number of Write Commands
0x01 0x028 6 2452521642 --- Logical Sectors Read
0x01 0x030 6 218007176 --- Number of Read Commands
0x01 0x038 6 4294967296 --- Date and Time TimeStamp
0x04 ===== = = === == General Errors Statistics (rev 1) ==
0x04 0x008 4 0 --- Number of Reported Uncorrectable Errors
0x04 0x010 4 57 --- Resets Between Cmd Acceptance and Completion
0x05 ===== = = === == Temperature Statistics (rev 1) ==
0x05 0x008 1 35 --- Current Temperature
0x05 0x010 1 33 --- Average Short Term Temperature
0x05 0x018 1 33 --- Average Long Term Temperature
0x05 0x020 1 54 --- Highest Temperature
0x05 0x028 1 0 --- Lowest Temperature
0x05 0x030 1 40 --- Highest Average Short Term Temperature
0x05 0x038 1 0 --- Lowest Average Short Term Temperature
0x05 0x040 1 40 --- Highest Average Long Term Temperature
0x05 0x048 1 0 --- Lowest Average Long Term Temperature
0x05 0x050 4 37 --- Time in Over-Temperature
0x05 0x058 1 70 --- Specified Maximum Operating Temperature
0x05 0x060 4 0 --- Time in Under-Temperature
0x05 0x068 1 0 --- Specified Minimum Operating Temperature
0x06 ===== = = === == Transport Statistics (rev 1) ==
0x06 0x008 4 275763 --- Number of Hardware Resets
0x06 0x010 4 81105 --- Number of ASR Events
0x06 0x018 4 1 --- Number of Interface CRC Errors
0x07 ===== = = === == Solid State Device Statistics (rev 1) ==
0x07 0x008 1 5 --- Percentage Used Endurance Indicator
                                |||_ C monitored condition met
                                ||__ D supports DSN
                                |___ N normalized value

Die Bedeutung der SMART-Werte 247+248 wüsste ich gerne und im letzten Abschnitt sagen mir "Number of Write/Read Commands" auch nichts.

Auch @massaker :

Anbei dann noch die ungekürzten Protokolle meiner Intenso-Tests, inkl. einer kurzen Beschreibung.

WICHTIG: Die Befehle bzgl. beschreiben und löschen der SSD sollte man nur nutzen, wenn man sie wirklich versteht und weiß was die anrichten können.

Ich nutze nicht grundlos mehrere Sicherungsplatten, die ich nur bei Bedarf mit dem PC verbinde. ;)
 

Anhänge

@Rickmer: Verzeihung. Überlas ich. Mein Fehler.

Wobei es peinlich genug ist, daß es noch etliche SSDs mit >500 GB gibt, die auch mit den 500 MB/s Steady Write zu kämpfen haben... aber das ist noch eine andere Baustelle...
 
  • Gefällt mir
Reaktionen: Rickmer
Naja. seien wir mal ehrlich,
wer eine SSD kauft die beim schreiben dermassen einbricht, der schreibt eben wenig, sowieso langsam, oder eben nicht so viel - wer sie anders nutzt, der hatte keine Lust sich vorher zu informieren, oder den Aufpreis zu bezahlen.
 
Caramon2 schrieb:
Das hatte ich übersehen. Ich kenne das Tool nicht.

Aber das macht Sinn: Mit ist schon häufiger aufgefallen, dass bei der Temp in deinem Fall "Current" (ich kenne das als normalisiert) und raw zusammen 100 ergeben. 41 würde also gut zu 59 passen.

Zeigen auch andere Tool (z. B. GSmartControl) den kaputten Wert?

GSmartControl kannte ich noch nicht, sieht nach einem sehr coolen Programm aus, vielen Dank.

Das hier spuckt GSmartControl bei meiner SSD aus

1679335422372.png



Caramon2 schrieb:
Also sozusagen mit Fußbodenheizung. :)

Ich habe meine beiden internen in einen Doppel-Adapter aus Metall, damit die Wäre besser angeführt wird


So in der Art ja, ich bin echt nicht stolz drauf, aber was will man machen wenn man die Drive Cages von seinem Gehäuse nicht mehr findet ;D

Das soll in der Zukunft alles mal besser werden, wenn ich mir nen neuen PC baue,
Obwohl ich eigentlich 2x 8TB WD Red Plus einbauen wollte. Mittlerweile tendiere ich eher zu 2x 8TB QLC SATA SSD.
Vor allem wenn ich meine Library mal richtig getagged hab, etc. sind das zu 99% nur noch Read Zugriffe, und vor allem für Musik sind da SSDs Gold wert. Wenn man z.B. zwischen vielen verschiedenen Künstlern am durchklicken ist, bis man etwas findet was man gerade mag, sind schnellere Random Reads wirklich geil.

Ich werde denke ich nie Full SSD gehen, ich vertraue denen nicht genug dafür. Aber mittlerweile auch nicht mehr HDDs. Deswegen ist ein mixed Approach (Live Version auf den SSDs, 1 Backup Kopie RAW auf HDDs im Schrank, 1x Backup Kopie Encrypted auf den HDDs im Schrank, 1x Backup Kopie auf BluRays) meiner Meinung nach ideal.
 
Phoenix_29021 schrieb:
(Live Version auf den SSDs, 1 Backup Kopie RAW auf HDDs im Schrank, 1x Backup Kopie Encrypted auf den HDDs im Schrank, 1x Backup Kopie auf BluRays) meiner Meinung nach ideal.
Ich kann verstehen, dass man seine Backups nicht verschlüsseln will, wenn man Angst hat, dass man den Schlüssel verbummelt. Aber was soll denn eine Kombination bringen? Wenn Du auch nur eine Kopie unverschlüsselt rumliegen hast, kannst Du es Dir doch gleich komplett sparen?
 
Die verschlüsselte Kopie bekommt eher von einem Angreifer wieder, der damit nix anfangen kann,
Und es hat keinerlei negative Konsequenzen, wenn man seine 2. Kopie verschlüsselt. Ist nur etwas nerviger beim Backup
 
Yosup schrieb:
Wer natürlich ein Filme-Langzeit-Archiv betreibt, 20 Jahre enthusiastisch DSLR-Raw-Fotos sammelt und jetzt mit 4K-Filmen anfängt, für den ist jede SSD zu klein.
Für Langzeit-Archivierung sind SSDs ungeeignet, da inkontinien: Ohne Strom verlieren die rel. schnell die Datenintegrität: Bei Hochleistungs-SSDs (auf sehr viel scheiben ausgelegt) soll das schon nach wenigen Monaten passieren können.

Normale SSDs sind zwar weit unkritischer, aber das nach 10 Jahren "in der Schublade" noch irgendwas lesbar ist, würde mich (außer vielleicht bei "echten" SLC-SSDs) ziemlich überraschen. - Je mehr Bit/Zelle, um so schneller sind die Daten weg.

Ich habe sogar eine regelmäßig aktualisierte Sicherungsplatte bei meiner Mutter, da ich in einer Dachwohnung wohne: Vor einigen Jahren hat es kaum 20 km entfernt von hier so stark gestürmt, dass gleich reihenweise Häuser abgedeckt wurden.

Phoenix_29021 schrieb:
GSmartControl kannte ich noch nicht, sieht nach einem sehr coolen Programm aus, vielen Dank.
Darauf stößt man fast zwangsläufig, wenn man unter Linux ein SMART-Tool sucht.

Genauso bin ich 2007/8 auf AVIdemux gestoßen: Ich habe einen Ersatz für VirtualDub gesucht. Auch als ich dann wieder zu Windows zurück musste *), bin ich dabei geblieben, da viel besser als VirtualDub.

Erst 2015 habe ich es wieder mit Linux versucht, da mir XP als nicht mehr tragbar erschien und alle späteren Windows-Versionen mir als immer schlechter erschienen.

*) Ich hatte den PC aufgerüstet und auf dem neuen Board ließ sich Fedora 9 nicht mehr installieren: Damals wusste ich nicht weiter, heute würde ich das als Herausforderung ansehen. ;)

Phoenix_29021 schrieb:
Das hier spuckt GSmartControl bei meiner SSD aus
61/39 passt. :)

Was mit auch auffällt: Zwar 50% Restlebenszeit, aber erst bei 1% soll es kritisch werden.

Ich interpretiere das so, dass man sie bis dahin noch bedenkenlos nutzen kann und erst dann die Fehlerwahscheinlichkeit steigt: Bei 0% wird sie sicherlich nicht sofort tot sein, sondern vermutlich erst damit anfangen, dass es zu defekt Sektoren kommen kann.

Phoenix_29021 schrieb:
So in der Art ja, ich bin echt nicht stolz drauf, aber was will man machen wenn man die Drive Cages von seinem Gehäuse nicht mehr findet ;D
Kannst sie ja hochkant stellen. Dann kann die HD ihr wärme auch besser abgeben.

Bei meinen SSD-Tests hatte ich eine statt des DVD-Brenners (oberster 5¼" Einschub) angeschlossen und am Kabel einfach lose im Gehäuse baumeln lassen: Eine SSD interessiert das nicht.

Phoenix_29021 schrieb:
Ich werde denke ich nie Full SSD gehen, ich vertraue denen nicht genug dafür. Aber mittlerweile auch nicht mehr HDDs. Deswegen ist ein mixed Approach (Live Version auf den SSDs, 1 Backup Kopie RAW auf HDDs im Schrank, 1x Backup Kopie Encrypted auf den HDDs im Schrank, 1x Backup Kopie auf BluRays) meiner Meinung nach ideal.
Ich habe 240+120 GB SSDs im PC und darauf nur Daten, auf die ich schnell zugreifen können möchte, wenn ich sie mal brauche.

Das Datengrab (vor allem das Videoarchiv) habe ich ausschließlich auf den ext. HDDs: Die Sachen will ich gar nicht ständig auf dem PC haben. Dort bevorzuge ich schlank, übersichtlich und effizient.

Wenn ich davon was brauche, kann ich es mir holen, wenn ich eine der Platten zur Datensicherung angeschlossen habe. - Oder umgekehrt: Wenn ich sie anschließe um mir was auf dem Archiv zu holen, aktualisiere ich auch gleich die dortige Sicherung. = Zwei Klappen mit einer Fliege. :)

Sowohl meine Home-Partition, als auch die Sicherungsplatten sind per LUKS verschlüsselt und /tmp in der RAM-Disks, damit es nicht auf die unverschlüsselte System-Partition kommt:

Nicht wegen Raubkopien oder sowas, sondern weil ich 2004 einen schweren, unverschuldeten Verkehrsunfall hatte (seit dem leicht behindert und arbeitslos) und über ein halbes Jahr im Krankenhaus lag (zwei Wochen im künstlerischen Koma):

Da ich alleine wohnte, hätte in der Zeit jeder (z. B. ein Einbrecher, oder mein Arschloch von Bruder) an alle meine Daten (inkl. Bankverbindung & Co.) gekonnt und was immer der damit gemacht hätte, wäre erst viel zu spät aufgefallen.

Beim booten gerade das Passwort einzugeben, ist definitiv das kleiner Übel.
(die Sicherungsplatten lasse ich automatisch entsperren - funktioniert ja nur vom gebooteten System aus, in das ohne Pw keiner kommt)
 
Phoenix_29021 schrieb:
mixed Approach (Live Version auf den SSDs, 1 Backup Kopie RAW auf HDDs im Schrank, 1x Backup Kopie Encrypted auf den HDDs im Schrank, 1x Backup Kopie auf BluRays) meiner Meinung nach ideal.
Hmm, ich sehe mit dem Setup zwei Probleme:
1) Alle Backups sind 'im Schrank' und daher weg, falls die Bude abfackelt oder ein Dieb alle Technik mitgehen lässt. Je nach Daten sind die grade nach einem Feuer besonders wichtig, wenn man z.B. wichtige Unterlagen eingescannt hatte... oder auch nur um wenigstens die Familienfotos noch zu haben nach dem Totalschaden am sonstigen Besitz.
2) Alle deine Backups sind vollständig manuell und damit schnell mal vergessen oder sonstwie nicht ausreichend häufig aktualisiert. Der Mensch ist ein faules Tier, da zähle ich mich auch selber mit bei...


Persönlich habe ich folgende Struktur:
  • Nutzdaten vom PC und Laptop werden alle paar Stunden automatisiert auf den File-Server kopiert
  • Beim File-Server und der Nextcloud-Instanz werden nächtlich alle Nutzdaten über VPN auf ein NAS, das bei meinen Eltern steht, kopiert. Das NAS hat automatische Snapshots aktiv.
  • Gleichermaßen werden (semi) regelmäßig dieselben Daten auf eine externe HDD kopiert, die sonst nicht angeschlossen ist. Von den HDDs habe ich zwei. Eine davon ist immer bei den Eltern im Tresor (das ist ein guter Tresor mit Brandschutz usw) und ich wechsel die HDDs aus, wenn ich zu Besuch bin.
  • Alle Daten, VMs und PC/Laptop werden per Veeam auf mein NAS gesichert, dem GFS-Prinzip entsprechend.

Damit habe ich ein tagesaktuelles lokales Backup von allem sowie ein tagesaktuelles Remote-Backup von dem, was mir wirklich wichtig ist. Sollte eine wirklich gute Malware irgendwie schaffen, sogar das Remote-Backup zu zerstören, habe ich immernoch die beiden offline Backups.

(Ein Remote-Backup der VMs und Geräte würde ich machen, wenn die Internetleitung es hergeben würde. Das wird erstmal nichts...)
 
Rickmer schrieb:
Hmm, ich sehe mit dem Setup zwei Probleme:
1) Alle Backups sind 'im Schrank' und daher weg, falls die Bude abfackelt oder ein Dieb alle Technik mitgehen lässt. Je nach Daten sind die grade nach einem Feuer besonders wichtig, wenn man z.B. wichtige Unterlagen eingescannt hatte... oder auch nur um wenigstens die Familienfotos noch zu haben nach dem Totalschaden am sonstigen Besitz.

Ich weiß, darüber habe ich mir auch schon Gedanken gemacht, aber 1. ich will nicht regelmäßig Unmengen (oder überhaupt regelmäßig) für eine Cloud zahlen, und ich vertraue nicht meiner Arbeit, wo anscheinend manche Backups lagern, weder Freunden oder einem Banktresor die (verschlüsselten) Daten an. Ich habe Paranoia, und dann ist das schlimmste was passiert, das mein Medienarchiv (aber auch Bilder und Installationfiles, Savegames, etc.) weg sind.
Das will ich aber zumindest teilweise beheben. Ich habe bereits "Doomsdaysticks" mit essentiellen Installern, Passwörtern, etc. Dieses System wird bald ein wenig verbessert, indem ich durch eine Pillendose am Schlüsselanhänger immer eine Micro-SD Karte mit Indexes von meinem Archive, Passwörtern, etc. etc. mit mir rumtrage. Die Schlüssel und das Handy holt man trotzdem wenns Haus brennt.

Rickmer schrieb:
2) Alle deine Backups sind vollständig manuell und damit schnell mal vergessen oder sonstwie nicht ausreichend häufig aktualisiert. Der Mensch ist ein faules Tier, da zähle ich mich auch selber mit bei...

Das stimmt, allerdings auch nicht mehr sonderlich wichtig. Wenn ich nicht eine Phase (wie im Moment) habe, in der ich Monatelang meine gesamte Freizeit den Datenoverlords opfere (also sowieso die Drives alle 2 Wochen ca. kopiere), ändert sich an meinen Collections nichts. Da kommen mal ein paar nützliche Installer dazu, oder das ein oder andere Redditvideo, aber das wars.
Meine Sammlung ist zum Glück stagnant, bevor meine Paranoia noch teurer wird.
Ergänzung ()

Darauf stößt man fast zwangsläufig, wenn man unter Linux ein SMART-Tool sucht.

Genauso bin ich 2007/8 auf AVIdemux gestoßen: Ich habe einen Ersatz für VirtualDub gesucht. Auch als ich dann wieder zu Windows zurück musste *), bin ich dabei geblieben, da viel besser als VirtualDub.

Ich benutze zur Bearbeitung DaVinci Resolve (eher kreatives Cutten von Gaming Clips) und für alles andere (YouTube webp Downloads von yt-dlp in ein Format das mein Blu-Ray Player lesen kann transcoden, audio extrahieren, Audio und Video Mergen, Downscaling für Dateien auf Handys und ähnliches zu laden), etc. und das alles auch in Bulk ffmpeg.

Basiert AVIdemux auf ffmpeg, oder ist das was ganz anderes? Weil es hört sich interessant an.

Caramon2 schrieb:
61/39 passt. :)

Was mit auch auffällt: Zwar 50% Restlebenszeit, aber erst bei 1% soll es kritisch werden.

Ich interpretiere das so, dass man sie bis dahin noch bedenkenlos nutzen kann und erst dann die Fehlerwahscheinlichkeit steigt: Bei 0% wird sie sicherlich nicht sofort tot sein, sondern vermutlich erst damit anfangen, dass es zu defekt Sektoren kommen kann.

Keine Ahnung, ich kenne mich mit SSDs nicht aus. Ich hab mal gehört das Samsung SSDs in einen künstlichen, irreversiblen Lockdown (read-only) gehen sollen, sobald die TBW überschritten wurden.

Aber deine Vermutung klingt sehr logisch. Das würde auch gut mit dem Konzept des Wear-Levelings zusammenpassen, ich hab schon häufiger (einfach aus Platzgründen) mit der SSD mit weniger als 50GB frei arbeiten müssen, und teilweise sind da die Prozente im Wochentakt gefallen. Andererseits wenn ich dann wieder etwas Platz zum atmen auf den HDDs hatte, und die SSD entrümpelte, habe ich Monatelang keinen Prozentpunkt weniger gesehen. Auch wenn ich die SSD da dann meistens nicht intensiv genutzt habe, ergibt es doch Sinn, das Dateien die selten verändert werden auf die "schlechteren" NAND Zellen geschoben werden, damit die "besseren" die Differenz in der Restlebensdauer abbauen können.

Caramon2 schrieb:
Kannst sie ja hochkant stellen. Dann kann die HD ihr wärme auch besser abgeben.

Bei meinen SSD-Tests hatte ich eine statt des DVD-Brenners (oberster 5¼" Einschub) angeschlossen und am Kabel einfach lose im Gehäuse baumeln lassen: Eine SSD interessiert das nicht.

Ne, ich werde definitiv keine HDDs hochkant ohne jeglichen Support stehen lassen. Und falls du die SSD meintest, ansonsten ist kein Platz für die SSD. Hinter den Drivecages liegen Unmengen an Kabeln, wenn ich sie an die HDDs lehne, habe ich Angst dass das die Vibrationen nur noch verstärkt, einfach vorne in das Case legen geht nicht, weil die ohne Sidepanel dann häufiger mal runterfallen könnte.

Caramon2 schrieb:
Ich habe 240+120 GB SSDs im PC und darauf nur Daten, auf die ich schnell zugreifen können möchte, wenn ich sie mal brauche.

Das Datengrab (vor allem das Videoarchiv) habe ich ausschließlich auf den ext. HDDs: Die Sachen will ich gar nicht ständig auf dem PC haben. Dort bevorzuge ich schlank, übersichtlich und effizient.

Ich habe im Moment leider nicht die Möglichkeit auf die Daten außerhalb des PCs zuzugreifen. Bücher kommen von den Festplatten über den PC auf den E-Book Reader und das Handy.
Filme für den Fernseher kommen von den Festplatten, über den PC und einen USB-Stick auf den Blu-Ray Player.
Musik kommt von den Festplatten über den PC aufs Handy fürs Radio im Auto, ansonsten höre ich nur am PC. (Leider)
Und das ist bei allen meinen Daten so.

Schlank, übersichtlich und effizient finde ich super. Ich bin aber leider noch nicht dazu gekommen, das beim OS zu etablieren. Ich bin dabei die Folder Structure meiner HDDs zu bearbeiten, damit diese schlank, übersichtlich und effizient wird, allerdings muss ich auch noch (für meine mentalen Gymnastiken) jede einzelne Datei überprüfen, kurieren und sortieren. Lyrics bei ~3TB an Musik, Untertitel (und idealerweise Audio in Originalsprache + Englisch + Deutsch) bei allen Filmen, Serien, Animes, etc., auf Funktionalität und richtiges Komprimierungsformat prüfen bei allen meinen Games.
Das erfordert, neben den normalen impulsgesteuerten Projekten, eine Menge Programme, und Trial&Error. Daher gehe ich den "Ich mache das alles fertig, und dann bin ich effizient" - Approach. Mein Windows ist komplett zugemüllt, aber das kommt die nächsten Wochen per CloneZilla sicher auf einer der Backup HDDs. Folgenderweise kann dann das Windows sogar korruptieren und ich könnte es schnellstens wiederherstellen.

Bisher nutze ich einfach eine Custom-ISO mit vorinstallierten Programmen, Passwörtern und DeBloat.

Caramon2 schrieb:
Wenn ich davon was brauche, kann ich es mir holen, wenn ich eine der Platten zur Datensicherung angeschlossen habe. - Oder umgekehrt: Wenn ich sie anschließe um mir was auf dem Archiv zu holen, aktualisiere ich auch gleich die dortige Sicherung. = Zwei Klappen mit einer Fliege. :)

Das ist natürlich auch eine Möglichkeit. Und eine intelligente dazu :D

Caramon2 schrieb:
Sowohl meine Home-Partition, als auch die Sicherungsplatten sind per LUKS verschlüsselt und /tmp in der RAM-Disks, damit es nicht auf die unverschlüsselte System-Partition kommt:

Nicht wegen Raubkopien oder sowas, sondern weil ich 2004 einen schweren, unverschuldeten Verkehrsunfall hatte (seit dem leicht behindert und arbeitslos) und über ein halbes Jahr im Krankenhaus lag (zwei Wochen im künstlerischen Koma):

Da ich alleine wohnte, hätte in der Zeit jeder (z. B. ein Einbrecher, oder mein Arschloch von Bruder) an alle meine Daten (inkl. Bankverbindung & Co.) gekonnt und was immer der damit gemacht hätte, wäre erst viel zu spät aufgefallen.

Beim booten gerade das Passwort einzugeben, ist definitiv das kleiner Übel.
(die Sicherungsplatten lasse ich automatisch entsperren - funktioniert ja nur vom gebooteten System aus, in das ohne Pw keiner kommt)

Ich hoffe dir geht es, bis auf die Behinderung, nach dem Unfall mittlerweile wieder gut.

Ich würde mich nicht sicherfühlen mit einem kompromissbehafteten Passwort. Der Kompromiss ist hierbei zwischen Komfort und Security. <64 Zeichen (inkl. Groß/Klein/Sonder/Zahlen) sind mir selbst bei sehr guten Algorithmen nicht genug. Und wenn jemand der an die Daten will, innerhalb von ein paar Jahren drankann, ist mir auch nicht geholfen. Richtig oder gar nicht.

Ich kenne mich mit Linux leider (Noch ;)) nicht sonderlich gut aus, aber wie steht LUKS im Vergleich zu VeraCrypt, oder einer Live-USB wie Linux Tails mit verschlüsselter Permapartition dar?

VeraCrypt kann z.B. eine verschlüsselte Partition komplett verstecken. Hinter Random 1/0 Noise.
Tails läuft nur im RAM und schreibt nichts auf den Host-PC, das nicht in nen volatilen Speicher kommt, außer man befiehlt es explizit.
 
Zuletzt bearbeitet:
Rickmer schrieb:
Ein Remote-Backup der VMs und Geräte würde ich machen, wenn die Internetleitung es hergeben würde. Das wird erstmal nichts...
Es gäbe noch die Möglichkeit, nicht die Images zu sichern, sondern deren Inhalte dateiweise per rsync. Dann bräuchten nur die Änderungen übertragen werden und wenn man sie dabei noch per --link-dest miteinander verknüpft, werden identische Dateien nur einmal übertragen und ansonsten als Hardlinks erstellt.

Bei meinen lokalen Sicherungen (auch von Testinstallationen) mache ich das so schon seit Jahren, weil das viel Zeit und Platz spart. Aber wie das online oder übers Netzwerk funktioniert (genau dafür ist rsync eigentlich entwickelt worden) kann ich nicht sagen, da ich weder LAN noch Festnetz habe. - Nur Mobilfunk mit 5 GiB/Monat.


Bzgl. Erase-Counts habe ich die SSDs nochmal angeschlossen:

Die 250 GB BX100 mit MLC hat bei 13,3 TiB Hostwrites und 98% remaining: 110

Die 250 GB MX500 mit TLC + SLC-Cache hat bei 5,2 TiB Hostwrites und 95% remaining: 79

Danach alter die MX500 also 3,5x schneller als die BX100: (110/2)/(79/5)

und generiert fast doppelt so viele Erase-Counts pro TiB Hostwrites: (13,3/5,2)/(110/79)

Phoenix_29021 schrieb:
Basiert AVIdemux auf ffmpeg, oder ist das was ganz anderes? Weil es hört sich interessant an.
Ja: AVIdemux - News

Phoenix_29021 schrieb:
Ich hab mal gehört das Samsung SSDs in einen künstlichen, irreversiblen Lockdown (read-only) gehen sollen, sobald die TBW überschritten wurden.
Das erinnert mich an Tintenpisser. ;)

Gehört habe ich davon aber noch nie etwas, bei keinem Hersteller.

Phoenix_29021 schrieb:
Ne, ich werde definitiv keine HDDs hochkant ohne jeglichen Support stehen lassen. Und falls du die SSD meintest, ansonsten ist kein Platz für die SSD.
Ich wollte keinen Lagerschaden provozieren, sondern meinte natürlich die SSD. :)

Phoenix_29021 schrieb:
Mein Windows ist komplett zugemüllt, aber das kommt die nächsten Wochen per CloneZilla sicher auf einer der Backup HDDs. Folgenderweise kann dann das Windows sogar korruptieren und ich könnte es schnellstens wiederherstellen.
Ich bin so froh, mich nicht mehr mit Windows herumärgen zu müssen.

Windows XP konnte man wenigstens noch schnell und bequem (wenn man das Sicherungsskript erst mal fertig hat) per rsync sichern: Windows 10/11 zwar auch, aber im Gegensatz zu XP zerschießt man es sich damit bei der Wiederherstellung irreparabel.

Linux lässt sich damit dagegen z. B. sogar so auf ein ext. Laufwerk sichern, dass man es von dort weiterhin booten kann: An jedem PC, der von USB booten kann!

Man hat also nicht nur ein Backup, sondern damit auch gleichzeitig ein voll ausgestattetes Reservesystem, dass man einfach nur wieder per rsync aufs int. Laufwerk übertragen muss, um es wiederherzustellen, wenn man es sich zerschossen hat:

Da immer nur die Änderung übertragen werden, dauert das zwischen int./ext. SSD nur 15-20 Sekunden. - Außer man hat es sich vollständig zerlegt und muss die Systempartition neu formatiert: Die komplette Übertragung auf die leere Partition hat vorgestern 48 Sek. gedauert. (ich wollte etwas mit einer andere Formatierung ausprobieren)

Phoenix_29021 schrieb:
Ich hoffe dir geht es, bis auf die Behinderung, nach dem Unfall mittlerweile wieder gut.
Ja, danke.

Die Behinderung ist eher lästig, als dass sie mich gravierend einschränkt: Als gelernter Industriekaufmann hätte ich problemlos weiterarbeiten können, trotzdem hat man mich einfach rausgeschmissen, ohne mir auch nur die Möglichkeit zu geben, zu zeigen wie wenig es mich einschränkt. Und bei Vorstellungsgesprächen dachte man wahrscheinlich aufgrund der Narben, das ich ständig krank bin (oder sowas) und das letzte was ich hörte war "Sie hören von uns…"

Inzwischen bin ich zu lange raus und bekomme nicht mal mehr Absagen. Aber mir dem ALG2 komme ich gut zurecht: Was wäre ich für ein Kaufmann, wenn ich nicht wirtschaften könnte? ;)

Phoenix_29021 schrieb:
Ich würde mich nicht sicherfühlen mit einem kompromissbehafteten Passwort. Der Kompromiss ist hierbei zwischen Komfort und Security. <64 Zeichen (inkl. Groß/Klein/Sonder/Zahlen) sind mir selbst bei sehr guten Algorithmen nicht genug. Und wenn jemand der an die Daten will, innerhalb von ein paar Jahren drankann, ist mir auch nicht geholfen. Richtig oder gar nicht.
Meins hat nur 8 Stellen, auch von allem etwas, aber das wirr durcheinander (definitiv in keinem Wörterbuch ;) ), wobei ich darauf geachtet habe, dass es sich möglichst flüssig eintippen lässt. - Mir reicht das: Keiner würde sich die Mühe machen, es weiter zu versuchen, wenn eine Wörterbuchattacke (falls man das überhaupt versucht) nichts gebracht hat.

Ich nutze LUKS übrigens mit dem Whirlpool-Hash: Da weniger üblich als AES, wird der erst recht nicht so schnell geknackt sein. - Die Iterationstiefe habe ich dafür auf 1 Sek. reduziert, damit es beim entsperren auf langsameren PCs nicht zu lange aufhält.

Phoenix_29021 schrieb:
Ich kenne mich mit Linux leider (Noch ;)) nicht sonderlich gut aus, aber wie steht LUKS im Vergleich zu VeraCrypt, oder einer Live-USB wie Linux Tails mit verschlüsselter Permapartition dar?
Das kenne ich beides nicht. Auch mit Truecrypt hatte ich mich nie beschäftigt.

Phoenix_29021 schrieb:
VeraCrypt kann z.B. eine verschlüsselte Partition komplett verstecken. Hinter Random 1/0 Noise.
Tails läuft nur im RAM und schreibt nichts auf den Host-PC, das nicht in nen volatilen Speicher kommt, außer man befiehlt es explizit.
Verstecken geht bei LUKS nicht. Dazu müsste man ohne LUKS verschlüsseln. Damit habe ich mich auch nicht beschäftigt.

Mir reicht es, dass Otto Normalo nicht an meine Daten kommt und Vereine wie die NSA zu wenig Interesse hätten, sich die Mühe zu machen.
 
Caramon2 schrieb:
Es gäbe noch die Möglichkeit, nicht die Images zu sichern, sondern deren Inhalte dateiweise per rsync. Dann bräuchten nur die Änderungen übertragen werden und wenn man sie dabei noch per --link-dest miteinander verknüpft, werden identische Dateien nur einmal übertragen und ansonsten als Hardlinks erstellt.
Remote-Backup der wichtigsten Inhalte habe ich ja, soweit so gut.
Veeam kann auch Forever-Incremental über VPN schieben, solange auf der anderen Seite ein Remote-Repository steht. Das könnte ich arrangieren. Aber das würde eventuell zu lange dauern und das NAS, auf dem mein lokales Backup Repository drauf ist, soll tagsüber ausgeschaltet sein um mir den Lärm zu ersparen.

Caramon2 schrieb:
Bzgl. Erase-Counts habe ich die SSDs nochmal angeschlossen:

Die 250 GB BX100 mit MLC hat bei 13,3 TiB Hostwrites und 98% remaining: 110

Die 250 GB MX500 mit TLC + SLC-Cache hat bei 5,2 TiB Hostwrites und 95% remaining: 79

Danach alter die MX500 also 3,5x schneller als die BX100: (110/2)/(79/5)

und generiert fast doppelt so viele Erase-Counts pro TiB Hostwrites: (13,3/5,2)/(110/79)

Danke für die Statistiken :)
Die deutlich höhere write amplification der MX500 kommt sicherlich größtenteils aus dem SLC Caching, das bei TLC üblich ist und bei MLC noch nicht eingesetzt wurde.
 
Caramon2 schrieb:
Danach alter die MX500 also 3,5x schneller als die BX100: (110/2)/(79/5)

und generiert fast doppelt so viele Erase-Counts pro TiB Hostwrites: (13,3/5,2)/(110/79)

Die Grundaussage ist richtig, Rickerms Vermutung mit dem pSLC Cache stimmt schon, dennoch kann man das nicht so in Zahlen fassen und als gegeben hinnehmen.

Die Abnutzung der SSD ist extrem stark abhängig davon wie Daten geschrieben werden. Sowohl die jetzigen als auch die in der Vergangenheit. Solche Unterschiede wie von dir gezeigt bekommt man auch problemlos auf dem gleichen Modell hin, je nachdem wie sich sequentiell/random/kleine/große Blöcke beim IO abwechseln.
 
Rickmer schrieb:
Die deutlich höhere write amplification der MX500 kommt sicherlich größtenteils aus dem SLC Caching, das bei TLC üblich ist und bei MLC noch nicht eingesetzt wurde.
Ich habe übrigens eine 120 GB Liton, die hat MLC und einem SLC-Cache: Nur ca. 4 GB und darüber hinaus schreibt sie nur noch mit ca. 70 MB/s. - Vermutlich weil es bei der geringen Kapazität kaum Parallelität gibt.

Allerdings nutzt ihr Controller intern eine Komprimierung: Es passen zwar trotzdem nur 120 GB drauf, aber komprimierbares belegt effektiv weniger Flashspeicher, wodurch er geschont wird und in den SLC-Cache passen dann auch mehr Daten: Der Gnome-Disks-Schreibbench konnte sogar die vollen 120 GB mit SLC-Geschwindigkeit beschreiben - offensichtlich schreibt er nicht mit Zufallszahlen. ;)

Ich hatte sie mir vor 3 Jahren gekauft, weil sie trotz MLC nur ca. 25€ gekostet hat und da MLC beim beschreiben nicht so warm wie TLC wird, wäre das optimal für ein ext. Gehäuse gewesen (die SSD hat sogar ein Metallgehäuse).

Dazu ist es aber nie gekommen: Seit den Tests habe ich sie nicht mehr benutzt. - Zum weggeben ist sie mir aber zu schade. Irgendwann werde ich schon was für sie finden. :)

Chuuei schrieb:
Die Abnutzung der SSD ist extrem stark abhängig davon wie Daten geschrieben werden. Sowohl die jetzigen als auch die in der Vergangenheit. Solche Unterschiede wie von dir gezeigt bekommt man auch problemlos auf dem gleichen Modell hin, je nachdem wie sich sequentiell/random/kleine/große Blöcke beim IO abwechseln.
Beide habe ich als Hauptlaufwerk (System und Home) in meinem PC genutzt: Die MX hat die BX ersetzt, weil mich die Opal-Verschlüsselung interessiert hat.

Die BX wanderte anschließend in ein ext. Gehäuse, wo ich sie (wie oben beschrieben) als Reservesystem genutzt habe: Inhalt und Partitionierung waren identisch.

Also Nutzung und Zugriffe sollten weitestgehend vergleichbar gewesen sein.

Mich überrascht nur, dass es bei der MX nicht ganz doppel so viele Erase-Counts/TiB gab: Wie zu Anfang dieses Threads berechnet, hätte ich durch den SLC-Cache 4x so viele erwartet.

Kann es sein, dass wenn nur langsam, oder nur vereinzelt in geringen Mengen geschrieben wird, die SSD das erkennt und den SLC-Cache umgeht, da er ja nichts bringen würde?

Ach ja: Den Browser-Cache symlinke ich ins RAM (tmpfs): Jetzt um der SSD die vielen unnötigen Schreibzugriffe zu ersparen, früher da ein großer Browser-Cache auf HD den ersten Browser-Start extrem verzögert hat: Statt 1-2 Minuten nur noch 12 Sek. war spürbar. :)
 
Caramon2 schrieb:
Danke
sieht aber leider nicht danach aus, als dass ich im Moment mit den Features etwas anfangen könnte. Aber ich lese mich da irgendwann TM mal rein .

Caramon2 schrieb:
Das erinnert mich an Tintenpisser. ;)

Gehört habe ich davon aber noch nie etwas, bei keinem Hersteller.

Ich hab eben mal ein wenig Research betrieben, und glücklicherweise nichts gefunden. Dann waren es wohl nur ein paar viele Reddit Posts, bei denen die SSDs gestorben sind (wegen abgenutztem Flash) und es waren zufälligerweise Samsungs.

Caramon2 schrieb:
Ich bin so froh, mich nicht mehr mit Windows herumärgen zu müssen.

Windows XP konnte man wenigstens noch schnell und bequem (wenn man das Sicherungsskript erst mal fertig hat) per rsync sichern: Windows 10/11 zwar auch, aber im Gegensatz zu XP zerschießt man es sich damit bei der Wiederherstellung irreparabel.

Ach, ich hab meinen Stick mit Ventoy drauf, der hat etliche Linux und Windows ISOs, und da ich wie gesagt eine Preloaded Windows ISO hab, kann ich innerhalb von 30 Minuten mein Windows neu aufsetzen.
Natürlich händisch, und man muss den USB-Stick rauskramen.

Caramon2 schrieb:
Linux lässt sich damit dagegen z. B. sogar so auf ein ext. Laufwerk sichern, dass man es von dort weiterhin booten kann: An jedem PC, der von USB booten kann!

Man hat also nicht nur ein Backup, sondern damit auch gleichzeitig ein voll ausgestattetes Reservesystem, dass man einfach nur wieder per rsync aufs int. Laufwerk übertragen muss, um es wiederherzustellen, wenn man es sich zerschossen hat:

Da immer nur die Änderung übertragen werden, dauert das zwischen int./ext. SSD nur 15-20 Sekunden. - Außer man hat es sich vollständig zerlegt und muss die Systempartition neu formatiert: Die komplette Übertragung auf die leere Partition hat vorgestern 48 Sek. gedauert. (ich wollte etwas mit einer andere Formatierung ausprobieren)
hmm
Das hört sich sehr geil an.
Ein Field-Ready OS für jeden PC in der Tasche dabeizuhaben klingt sehr sehr nützlich. Geht das bei allen Linux Distros, oder nur bei speziellen?

Caramon2 schrieb:
Ja, danke.

Die Behinderung ist eher lästig, als dass sie mich gravierend einschränkt: Als gelernter Industriekaufmann hätte ich problemlos weiterarbeiten können, trotzdem hat man mich einfach rausgeschmissen, ohne mir auch nur die Möglichkeit zu geben, zu zeigen wie wenig es mich einschränkt. Und bei Vorstellungsgesprächen dachte man wahrscheinlich aufgrund der Narben, das ich ständig krank bin (oder sowas) und das letzte was ich hörte war "Sie hören von uns…"

Inzwischen bin ich zu lange raus und bekomme nicht mal mehr Absagen. Aber mir dem ALG2 komme ich gut zurecht: Was wäre ich für ein Kaufmann, wenn ich nicht wirtschaften könnte? ;)

That sucks, das wichtigste ist bei sowas, sich beschäftigen zu können, meiner Meinungn nach. Vor allem wenn man mit dem Geld klarkommt (obwohl es ja zu ALG2 ja noch Zuschüsse von der Rente und Sozialkasse geben soltle).

Caramon2 schrieb:
Meins hat nur 8 Stellen, auch von allem etwas, aber das wirr durcheinander (definitiv in keinem Wörterbuch ;) ), wobei ich darauf geachtet habe, dass es sich möglichst flüssig eintippen lässt. - Mir reicht das: Keiner würde sich die Mühe machen, es weiter zu versuchen, wenn eine Wörterbuchattacke (falls man das überhaupt versucht) nichts gebracht hat.

Ich nutze LUKS übrigens mit dem Whirlpool-Hash: Da weniger üblich als AES, wird der erst recht nicht so schnell geknackt sein. - Die Iterationstiefe habe ich dafür auf 1 Sek. reduziert, damit es beim entsperren auf langsameren PCs nicht zu lange aufhält.

Tief bin ich in der Kryptographie nicht drin, Public/Private Key Systeme kenne ich natürlich (Informatik in der Schule sollte ja auch besser nicht komplett nutzlos gewesen sein ^^), aber der Whirlpool-Hash sagt mir nix.

Die Iterationstiefe kommt darauf an, wie oft man rebooted. Mein System läuft Tage durch (Weil ohne Powerbutton hab ich keinen Bock jeden Tag unter den Tisch zu krabbeln und unter der 2. Graka mit dem Pin-Shortener die Powerpins zu shorten.
Deswegen ist der nur aus, wenn es wirklich sein muss.

Caramon2 schrieb:
Das kenne ich beides nicht. Auch mit Truecrypt hatte ich mich nie beschäftigt.
Very Crypt kann ich sehr empfehlen:
https://www.veracrypt.fr/en/Home.html
Ist auch gut als Zip Ersatz. Wenn der Empfänger auch VC hat muss man gar nix mehr packen. Wenn man will kann man zu einem Passwort noch eine Keyfile benutzen, aber da hab ich eher Angst davor, dass falls mich doch mal ein Bitflip trifft, meine Volumes nicht mehr accessible sind.
128bit Passwörter werden unterstützt, und vor allem kann man Volumes Read-Only mounten.

Linux Tails (https://tails.boum.org/) ist sehr auf Anonymität getrimmt. Sämtlicher Internettraffic wird standardmäßig über TOR geschleust, und es läuft halt Live, und nichts wird auf die Systemdrive geschrieben, alles bleibt im RAM.

Caramon2 schrieb:
Verstecken geht bei LUKS nicht. Dazu müsste man ohne LUKS verschlüsseln. Damit habe ich mich auch nicht beschäftigt.

Mir reicht es, dass Otto Normalo nicht an meine Daten kommt und Vereine wie die NSA zu wenig Interesse hätten, sich die Mühe zu machen.
Mit VeraCrypt kannst du einfach deine Systempartition verschlüsseln, und bevor du bootest wird das VC Passwort abgefragt. Dann läuft erst das OS an, weil die gesamte C Drive dann verschlüsselt ist.
 
Phoenix_29021 schrieb:
Ein Field-Ready OS für jeden PC in der Tasche dabeizuhaben klingt sehr sehr nützlich. Geht das bei allen Linux Distros, oder nur bei speziellen?
Theoretisch mit jedem, da es bei Linux (zumindest mit dem Standard-Bootloader Grub) nicht interessiert, wovon man es bootet: Selbst von einer Digitalkamera wäre das möglich, wenn die sich am PC als normales USB-Laufwerk meldet. - Das hatte ich früher mit MSDOS (da gab es so ein Tool von HP, mit dem man MSDOS auf USB-Sticks bringen konnte) mal erfolgeich getestet. - Mit Linux habe ich mich damals noch nicht beschäftigt, aber dafür wäre die 1 GB SD-Karte in der Cam sowieso zu klein gewesen.

Einzig mit Solus gab es Probleme: Es ließ sich zwar ganz normal auf die USB-SSD bringen und booten, aber spätestens nach der zweiten oder dritten Aktualisierung wollte es plötzlich nicht mehr booten: Irgendwann macht es bei der Aktualisierung irgendwelchen Mist und zerschießt sich. - Da ich von systemd schon lange die Schnauze gestichen voll habe, hatte ich keine Idee, wie man das beheben kann und habe Solus platt gemacht. - Das passierte mir bei Testinstallation, egal was ich versucht habe, sie kompatibeler zu bekommen.

Fest auf einem PC installiert, läuft es dagegen sehr stabil (darauf legen die nach eigenen Aussagen besonderen wert). Nur wenn man es von USB auf mehreren PC booten will, passiert das.

Phoenix_29021 schrieb:
Tief bin ich in der Kryptographie nicht drin, Public/Private Key Systeme kenne ich natürlich (Informatik in der Schule sollte ja auch besser nicht komplett nutzlos gewesen sein ^^), aber der Whirlpool-Hash sagt mir nix.
Ich kenne das auch nur, weil cryptsetup das unterstützt und habe dann bei Wikipedia geguckt.

Phoenix_29021 schrieb:
Mit VeraCrypt kannst du einfach deine Systempartition verschlüsseln, und bevor du bootest wird das VC Passwort abgefragt. Dann läuft erst das OS an, weil die gesamte C Drive dann verschlüsselt ist.
Das geht mit Grub und LUKS auch, aber damit habe ich mich noch nicht beschäftigt. - Irgendwann werde ich das sicherlich, aber mit Linux kann man so ungeheuer viel machen, testen und lernen, was mir wichtig als eine Vollverschlüsselung ist, so dass das ziemlich weit hinten auf meiner Liste ist. ;)
 
Caramon2 schrieb:
Theoretisch mit jedem, da es bei Linux (zumindest mit dem Standard-Bootloader Grub) nicht interessiert, wovon man es bootet: Selbst von einer Digitalkamera wäre das möglich, wenn die sich am PC als normales USB-Laufwerk meldet. - Das hatte ich früher mit MSDOS (da gab es so ein Tool von HP, mit dem man MSDOS auf USB-Sticks bringen konnte) mal erfolgeich getestet. - Mit Linux habe ich mich damals noch nicht beschäftigt, aber dafür wäre die 1 GB SD-Karte in der Cam sowieso zu klein gewesen.

Sehr gut, das heißt, generalisiert, wenn ich mir meine "optimale" Distro zusammegestellt habe, von Distro über GUI Vesion zu Programmen, kann ich die auf einen EveryDayCarry Datenspeicher werfen. Das klingt sick und gibt mir wieder Motivation mich mit Linux zu beschäftigen.

Caramon2 schrieb:
Einzig mit Solus gab es Probleme: Es ließ sich zwar ganz normal auf die USB-SSD bringen und booten, aber spätestens nach der zweiten oder dritten Aktualisierung wollte es plötzlich nicht mehr booten: Irgendwann macht es bei der Aktualisierung irgendwelchen Mist und zerschießt sich. - Da ich von systemd schon lange die Schnauze gestichen voll habe, hatte ich keine Idee, wie man das beheben kann und habe Solus platt gemacht. - Das passierte mir bei Testinstallation, egal was ich versucht habe, sie kompatibeler zu bekommen.

Interessant, aber Ausnahmen bestätigen die Regel. Und es kann sehr gut sein, dass ein Linux-Äquivalent von Windows .dlls einfach nicht mit USB klarkommt, vielleicht wegen dem portablen Mount.

Caramon2 schrieb:
Fest auf einem PC installiert, läuft es dagegen sehr stabil (darauf legen die nach eigenen Aussagen besonderen wert). Nur wenn man es von USB auf mehreren PC booten will, passiert das.

Das dürfte es erklären. Eine Prioritisierung auf einen spezifischen Usecase.

Caramon2 schrieb:
Ich kenne das auch nur, weil cryptsetup das unterstützt und habe dann bei Wikipedia geguckt.


Das geht mit Grub und LUKS auch, aber damit habe ich mich noch nicht beschäftigt. - Irgendwann werde ich das sicherlich, aber mit Linux kann man so ungeheuer viel machen, testen und lernen, was mir wichtig als eine Vollverschlüsselung ist, so dass das ziemlich weit hinten auf meiner Liste ist. ;)
Ist natürlich auch persönliche Präferenz. Wenn man keine akute To-Do List hat die man abarbeiten will, kann man sich mit kreativen Dingen beschäftigen und frei nach Schauze ausprobieren und lernen.

Vielen Dank für die Einsicht und die Antworten. Und ich würde vorschlagen, dass wir die Kommentarsektion von einer NAND-Flash News nicht mit noch mehr Off-Topic Zeug vollspammen :D
 
  • Gefällt mir
Reaktionen: Caramon2
Zurück
Oben