@AlphaKaninchen urks, manchmal bin ich doch froh nicht auch ungewollt in smr reingetreten zu sein. ich dachte barracuda sei mal deren performance desktop line gewesen und firecuda ssd
Aber 5 TB in 2,5' klingt erstmal nice. Irritierend ist dass laut Datenblatt die 500 GB Variante genauso schnell ist wie die 5 TB. Das widerspricht so ganz und gar der normalen Festplattenlogik.
Was machen die so in Spitze bei großen sequentiellen Daten?
Ja, die Ironwolf 8 TB sind nett, hab die für Spiele und allgemeine Daten. Auch wenn sie lauter und hungriger sind als die Konkurrenz. Nachts, wenn es draußen still ist kann ich manchmal die Kopfbewegungen hören.
bensen schrieb:
Die meisten Controller erreichen mit 4 NAND Dies pro Kanal die maximale Performance.
Ich wusste doch dass ich irgendwas vergessen habe. Also Die-level parallel, aber nur ein schreibvorgang pro die zur gleichen zeit? Wobei das ja theoretisch eine Frage der elektrischen Anschlüsse ist, spricht ja nichts dagegen auch auf einem Die zu segmentieren auf Kosten der Speicherdichte. Und vermutlich auch bei höheren Kosten gegenüber gleicher Speicherdichte in einfacherem Aufbau. Liegt vermutlich längst in den Schubladen falls PLC nicht schnell genug wird.
ok, zu spät wie es scheint
@Piktogramm ich habe keine berechtigung deine Anhänge zu betrachten. pun not intended
Zum Schreib-Lese-DB: ich denke da lässt man bei hoher Anforderung auch die Finger von QLC als sei das Senfgas O.o
Außer vielleicht man kann das Problem in RAM-Cache ertränken. Oder man tauscht Latenz gegen Durchsatz. Gibt ja zum Glück meist noch ein paar Stellschrauben an denen man drehen kann. Bis man beim hochgradig verteilten Dateisystem, samt optimierter DB mit optimiertem Zugriff angekommen ist. Dann muss eine zweite DB her. Aber so spontan fällt mir zumindest nichts ein wo ich das erwarten würde. Wäre bestimmt ein spannender Versuch, ein mittelgroßer lustre Cluster, mariadb drauf und gucken wie viel man da reinstopfen und gleichzeitig lesen kann. Dann DBMS wechseln und vergleichen.
AlphaKaninchen schrieb:
Und das schönste nichts deutet darauf hin das die Erhöhung der Speicherdichte zu einem Ende kommt.
Najaaaa .... gibts schon eine Idee für Speicherung auf subatomarem level? Spin ändern, Quarks umkippen erscheint mir zu reich an nebenwirkungen, abgesehen vom derzeit eher unvorstellbarem aufwand. Einzelne Elektronen verändern ist auch instabil und atome zerfallen gelegentlich. Wobei ich nicht weiß ob bei formal stabilen elementen die zerfallsrate hoch genug ist dass es für datenspeicher relevant wäre.
Aber das Limit ist nahe
kalter windhauch
Der Trost ist höchstens dass unsereins das nicht mehr erleben muss. Die finale Frage wird sein: "Welches Katzenbild muss dran glauben um ein neues zu speichern?"
scnr ^^
Simanova schrieb:
Als wenn ich die QLC Datenraten sehe, hol ich dich lieber wieder mein USB Floppy Disk raus.
Ich würde das sogar empfehlen, das wirkt sich vermutlich zumindest kurzfristig sehr heilsam aus. Zumindest solange bis man sich wieder an heutige Geschwindigkeiten gewöhnt hat. Auch das rhythmische kratzige Surren wirkt eventuell beruhigend. Wie eine kettenrauchende Katze die schnurrt.
@begin_prog ->
passt besser