Gemäss den letzten Meldungen sind es 32TB ModelleXelnaga schrieb:Ich konnte es jetzt im Artikel nicht finden.
Oder ich habe es übersehen.
Welche Festplatten Größen gehen denn jetzt in die Serienproduktion?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Mit 30 TB und mehr: Seagates HAMR-Festplatten gehen endlich in Serie
- Ersteller Frank
- Erstellt am
- Zur News: Mit 30 TB und mehr: Seagates HAMR-Festplatten gehen endlich in Serie
AlphaKaninchen
Commander
- Registriert
- Mai 2018
- Beiträge
- 2.926
Ich hatte eine 2,5" 2TB FireCuda als Spiele Speicher, was die gekillt hat? Nix funktioniert noch... Was sie unbrauchbar gemacht hat? SMR!Bigeagle schrieb:
Also ernsthaft wenn man die nicht Secure Ereased hat, sank die Schreibrate teils auf 5MB/s. Meine OS Platte war damals schon eine 256GB 950 Pro, als 2 TB auf 300€ gefallen sind habe ich sie dann zum Datengrab degradiert und irgendwann in ein Externes Gehäuse gebaut.
thomy22 schrieb:Gemäss den letzten Meldungen sind es 32TB Modelle
Oh, das wäre schon mal eine Hausnummer.
Gefällt mir.
Wichtig ist aber, dass überhaupt was voran geht.
Damit fallen dann hoffentlich die Preise weiter.
Araska
Commander
- Registriert
- März 2023
- Beiträge
- 2.141
DoS007 schrieb:Bei "alten" Sata-SSDs ja. Aber bei PCIe SSDs? Wie hast du da ein Gehäuse?
U.2 bzw. U.3?
Kenne ich nicht ohne Gehäuse.
SSHDs ergeben mMn keinen Sinn. Man bekommt das gleiche oder meist ein besseres Ergebnis indem man eine SSD, beliebig viele HDDs und die passende Software zum Caching benutzt.
Damit ist man ist sehr viel flexibler. Man kann die Größe und Geschwindigkeit der SSD genauso an die eigenen Bedürfnisse anpassen wie auch die Caching-Strategie. Bei Consumer-SSHDs, wurde in der Regel ein kleiner Cache in Verbindung mit einer Caching-Strategie genutzt, die auf kleine Writes ausgelegt war. Wer eine solche Festplatte für seine Videosammlung nutzen wollte, hätte kaum Vorteile aus dem Cache gezogen.
Damit ist man ist sehr viel flexibler. Man kann die Größe und Geschwindigkeit der SSD genauso an die eigenen Bedürfnisse anpassen wie auch die Caching-Strategie. Bei Consumer-SSHDs, wurde in der Regel ein kleiner Cache in Verbindung mit einer Caching-Strategie genutzt, die auf kleine Writes ausgelegt war. Wer eine solche Festplatte für seine Videosammlung nutzen wollte, hätte kaum Vorteile aus dem Cache gezogen.
Zuletzt bearbeitet:
ulfied
Cadet 4th Year
- Registriert
- Mai 2015
- Beiträge
- 115
Und wenn sich dieser Speicher verabschiedet, sind alle Videos, die sich in dieser Menge sowieso wohl niemand wieder je ansehen will und wird, mit einem Mal futsch. Es sei denn, man kauft sich für das viele Geld gleiche Redunzanzmöglichkeiten. Trotzdem wird sich diese Urlaubsvideos wohl niemand antun wollen, meine Meinung.Rock Lee schrieb:Endlich genug Platz für meine Urlaubsvideos! <3
Araska
Commander
- Registriert
- März 2023
- Beiträge
- 2.141
Limit schrieb:SSHDs ergeben mMn keinen Sinn. Man bekommt das gleiche oder meist ein besseres Ergebnis indem man eine SSD, beliebig viele HDDs und die passende Software benutzt.
Ist eben die Faul-und-schnell-Methode.
Wurde auch schon bei QLC-SSDs mit Oprane-Cache gesichtet.
Ergänzung ()
ulfied schrieb:Und wenn sich dieser Speicher verabschiedet, sind alle Videos, die sich in dieser Menge sowieso wohl niemand wieder je ansehen will und wird, mit einem Mal futsch. Es sei denn, man kauft sich für das viele Geld gleiche Redunzanzmöglichkeiten.
Auch die Daten dieser Platten können wohl von einem Datenrettungsunternehmen ausgelesen werden...
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.615
MrHeisenberg schrieb:Sind QLC SSDs nicht ultra lahm?
Nein. Ich habe 6 Stück mit RAID 5 im NAS und bekomme 1,1 GB/s zustande. Auch das 72 GB Limit ist im Prinzip weg. Habe schon hunderte GB drauf geschoben und selbst bei 400+ GB ist das nach wie vor 1,1 GB/s.
MrHeisenberg
Lt. Commander
- Registriert
- Okt. 2022
- Beiträge
- 1.713
Ja gut, bei 8TB ist der SLC Cache auch groß genug, aber wenn der ausgeht, ist die SSD langsamer als die meisten HDDs.
ThePlayer
Captain
- Registriert
- Aug. 2011
- Beiträge
- 3.195
Die Trial von PrimoCache habe ich schon benutzt. Ist an sich gut. Aber das was ich wollte kann die Software leider nicht. Ich wollte einen Writecache für alle meine HDDs haben. Dafür braucht es dann aber pro HDD eine SSD.Corpus Delicti schrieb:Geht schon heute "selbst gemacht".
Schau dir mal die Trial-Version von PrimoCache an, tut eigentlich genau das (und mehr). Kann mit einer alten SSD oder einer Partition als L2-Cache kombiniert werden.
Ergänzung ()
Mit welcher Software geht das?Limit schrieb:SSHDs ergeben mMn keinen Sinn. Man bekommt das gleiche oder meist ein besseres Ergebnis indem man eine SSD, beliebig viele HDDs und die passende Software zum Caching benutzt.
Zuletzt bearbeitet:
Corpus Delicti
Lt. Commander
- Registriert
- Nov. 2016
- Beiträge
- 1.969
ThePlayer schrieb:Ich wollte einen Writecache für alle meine HDDs haben. Dafür braucht es dann aber pro HDD eine SSD.
Vorab: Sorry fürs Nutzen des Forums, leider kann ich bei pers. Mails keine ScreenShots einbinden.
Kein Problem, lässt sich (mittlerweile?) einstellen.
Ich kann pro Cache-Task bei jedem Laufwerk einstellen ob der L2-Cache genutzt werden soll, und auch festlegen welcher Anteil (50%/50% r/w oder 80%/20% oder oder oder, hier: shared)
Schaut hier so aus:
Araska
Commander
- Registriert
- März 2023
- Beiträge
- 2.141
RAMSoße schrieb:wie das funktioniert ist interessant, aber für mich nicht wichtig. ich möchte das sie günstig sind und mind. genauso lang halten wie konventionelle HDD´s
Ich möchte noch eine gewisse Schreibgeschwindigkeit; SMR-artige Zustände brauche ich nicht wirklich.
Wenn dann noch irgendwann der Preis stimmt, freut meine Syno sich auf vier von den Teilen.
ThePlayer
Captain
- Registriert
- Aug. 2011
- Beiträge
- 3.195
@Corpus Delicti oh das ging vor 2-3 Jahren noch nicht.
Donnerkind
Lt. Commander
- Registriert
- Juli 2014
- Beiträge
- 1.377
XamBonX schrieb:Scheiß auf HAMR, die sollen mal die Dual-Accuators HDDs billiger machen.
Ich frage mich immer, wie Dual Actuators die (sequentielle) Transferrate steigern sollen. Die haben doch auch nicht mehr Köpfe im Vergleich zu einem einzelnen Arm, nämlich einen pro Scheibenseite. Dual Actuators würden nur etwas verbessern, wenn bisher pro Actuator immer nur ein Lesekopf gleichzeitig was macht. Werden die Platter nicht längst parallel beschickt?Limit schrieb:Das hoffe ich auch. Ich bin es leid, dass das kopieren einer Festplatte mitunter mehr als 24h dauert.
Xiaolong
Lieutenant
- Registriert
- Sep. 2008
- Beiträge
- 938
Kapazitäten HDD vs. SSD etc. hin oder her.
Ich finde es deutlich beeindruckender, dass man es hinbekommen hat einen Mikroskopischen kleinen Laser zu bauen, den an einen beweglichen Arm geflatscht hat, diesen beweglichen Arm auf Mikrometer genau positionieren kann, damit dann Daten Schreiben und lesen kann und das ganze so prozesssicher, dass man das produziert, an Kunden verkauft und Support bietet.
Das ist schon harter Tobak und man würde diese Mühen und Gelder da nicht investieren wenn die "HDD ist doch eh tot"-Fraktion jetzt so richtig liegen würde. Klar ist, dass das auf lange Sicht kein Standard Enduser Produkt wird, aber das wird noch eine ganze Weile, ich denke mal so bis in die Mitte des Jahrhunderts durchaus seine Daseinsberechtigung haben. Diese werden dann wahrscheinlich die heutigen Backup-Bänder ersetzen oder so
Ich finde es deutlich beeindruckender, dass man es hinbekommen hat einen Mikroskopischen kleinen Laser zu bauen, den an einen beweglichen Arm geflatscht hat, diesen beweglichen Arm auf Mikrometer genau positionieren kann, damit dann Daten Schreiben und lesen kann und das ganze so prozesssicher, dass man das produziert, an Kunden verkauft und Support bietet.
Das ist schon harter Tobak und man würde diese Mühen und Gelder da nicht investieren wenn die "HDD ist doch eh tot"-Fraktion jetzt so richtig liegen würde. Klar ist, dass das auf lange Sicht kein Standard Enduser Produkt wird, aber das wird noch eine ganze Weile, ich denke mal so bis in die Mitte des Jahrhunderts durchaus seine Daseinsberechtigung haben. Diese werden dann wahrscheinlich die heutigen Backup-Bänder ersetzen oder so
Ich war eine Weile in der Laserfertigung tätig und weiß was das bedeutet. Unsere Laser waren aber so groß wie ein Kleinwagen und wogen mind. 1.500 kg. Das Ganze jetzt auf eine unsichtbare Größe zu minimieren, da habe ich Respekt vor den Entwicklern und Ingenieuren. Ich möchte gar nicht wissen die für Klimmzüge damit veranstaltet haben um das Ganze lauffähig zu kriegen, Hut ab.
Zuletzt bearbeitet:
T
Trelor
Gast
Der Laser selbst wird nicht so genau positioniert. Der Laser wird durch angelegte E-Felder nachjustiert. Das hat eine sehr viel höhere Genauigkeit als die Mechanik. Da wurde in den letzten 20-30 Jahren viel Forschung aus der Optoelektronik für optische Verbindungen (Glasfaser) übernommen.Xiaolong schrieb:Ich finde es deutlich beeindruckender, dass man es hinbekommen hat einen Mikroskopischen kleinen Laser zu bauen, den an einen beweglichen Arm geflatscht hat, diesen beweglichen Arm auf Mikrometer genau positionieren kann, damit dann Daten Schreiben und lesen kann und das ganze so prozesssicher, dass man das produziert, an Kunden verkauft und Support bietet.
Es gibt mittlerweile sogar photonische Chips, welche dann teils tausende Laser Dioden on Die haben und über deren Modulation dann Berechnungen anstellen können (meist ist das Signalverarbeitung).
Da hast du durchaus recht, wobei die Investitionen in HDD Forschung mittlerweile nur noch ein schatten ihrer selbst sind und Flash und ReRam Forschung da um viele Potenzen stärker finanziert wird.Xiaolong schrieb:Das ist schon harter Tobak und man würde diese Mühen und Gelder da nicht investieren wenn die "HDD ist doch eh tot"-Fraktion jetzt so richtig liegen würde. Klar ist, dass das auf lange Sicht kein Standard Enduser Produkt wird, aber das wird noch eine ganze Weile, ich denke mal so bis in die Mitte des Jahrhunderts durchaus seine Daseinsberechtigung haben. Diese werden dann wahrscheinlich die heutigen Backup-Bänder ersetzen oder so
Ergänzung ()
Die Anzahl der Schichten pro Wafer ist trotzdem enorm angestiegen und tut es immernoch. Auch wenn heute eine 2 oder 3 Die Kombination üblich ist (Logik + Speicher oder Logik + Speicher + Speicher oder Speicher/Logik +Speicher/Logik + Speicher/Logik).Limit schrieb:Jein. Das Problem ist nicht die physikalische Höhe, sondern die Fertigung. Diese wird schwieriger und teurer je mehr Layer man verwenden will. Deshalb bestehen die aktuellen NAND-Chips mit vielen Layern nicht aus einem Stück Silizium, sondern aus mehreren gestapelten. Die Kosteneinsparung sind daher eher gering.
Pro Layer nehmen die Kosten immernoch zügig ab und das wird meiner Einschätzung nach auch noch 10 Jahre so weiter gehen.
Zuletzt bearbeitet von einem Moderator:
AlphaKaninchen
Commander
- Registriert
- Mai 2018
- Beiträge
- 2.926
Du meinst bcache, bcachefs ist ein experimentelles Dateisystem auf Basis von bcache, dass das aber glaube ich auch kann.Limit schrieb:bcachefs
Das ist eine sehr gute Frage. So gut, dass ich selbst mal ein wenig recherchiert habe und es scheint in der Tat so zu sein, dass bei "normalen" Festplatte immer nur ein Kopf aktiv ist. Ein Grund dafür könnte sein, dass es bei diesen zwar mehrere Köpfe gibt, diese aber nicht unabhängig voneinander arbeiten können, da sie sich andere Komponenten teilen.Donnerkind schrieb:Dual Actuators würden nur etwas verbessern, wenn bisher pro Actuator immer nur ein Lesekopf gleichzeitig was macht. Werden die Platter nicht längst parallel beschickt?
Da hast du natürlich recht.AlphaKaninchen schrieb:Du meinst bcache, bcachefs ist ein experimentelles Dateisystem auf Basis von bcache, dass das aber glaube ich auch kann.
Ähnliche Themen
- Antworten
- 38
- Aufrufe
- 3.402
- Antworten
- 27
- Aufrufe
- 3.889
- Antworten
- 87
- Aufrufe
- 10.784
- Antworten
- 104
- Aufrufe
- 12.262
- Antworten
- 57
- Aufrufe
- 8.000