News Seagate: HAMR Gen 2 ermöglicht 30-TB-Festplatte für die Cloud

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.346
Seagate räumt ein, dass die erste HAMR-Festplatte mit 20 TB lediglich in kleinem Maßstab Abnehmer findet und mehr für Erkenntnisse als Umsatz sorgt. Mit der zweiten Generation mit voraussichtlich 30 TB soll die neue Technik zum Massenprodukt werden. Aber auch dort wird HAMR wohl erst eine Nische bedienen.

Zur News: Seagate: HAMR Gen 2 ermöglicht 30-TB-Festplatte für die Cloud
 
  • Gefällt mir
Reaktionen: ThePlayer, BrollyLSSJ, JeanLegi und 3 andere
Ich bin gespannt, ob es überhaupt noch HDD mit 50 TB geben wird.

Die Datendichte bei NAND macht doch ganz andere Sprünge, bleibt nur noch der hohe Preis.
 
  • Gefällt mir
Reaktionen: flo.murr, Unnu, Santa Clause und 5 andere
LamaMitHut schrieb:
Die Datendichte bei NAND macht doch ganz andere Sprünge, bleibt nur noch der hohe Preis.

Genau beim Preis liegt da halt der Vorteil und das wird auch noch lange so bleiben. Die Zeiten der Riesen Sprünge sind beim NAND auch langsam vorbei. Halbleiterfertigung in halbwegs modernen Prozessen wird zukünftig nicht unbedingt günstiger. Ein einfaches erhöhen der Bits pro Zelle wird immer ineffektiver. Konnte man beim Sprung von SLC auf MLC noch 100% drauflegen, sieht es bei QLC gegen PLC schon wieder ganz anders aus. Gleichzeitig steigen damit auch wieder andere Probleme, so ist schon manche QLC SSD ohne Cache langsamer als manch eine Fedtplatte.

Ich denke HDDs werden gerade im Datacenter noch recht lange leben. Da gibt es genug Anwendungen, wo die sich lohnen. Würde mich aber wenig wundern, wenn HDDs bald auf dem Endkundenmarkt weitestgehend verschwinden. Bis SSDs in allen Bereichen vorbeigezogen sind, werden noch viele Jahre vergehen.
 
  • Gefällt mir
Reaktionen: Brian.Griffin, NMA, PS828 und 11 andere
Das Laser assisted recording ist technisch ziemlich anspruchsvoll, ich wundere mich, dass es da keine Abwärmeprobleme gibt.
 
  • Gefällt mir
Reaktionen: Framue_
Shoryuken94 schrieb:
Ich denke HDDs werden gerade im Datacenter noch recht lange leben. Da gibt es genug Anwendungen, wo die sich lohnen.
Die gibt es definitiv. Da muss man eigentlich nur mal an Backups oder VM Snapshots denken. Also Daten, die zwar irgendwann mal erzeugt werden, aber danach selten bis nie wieder gelesen werden. Die können gut und gerne auf vergleichsweise günstigen und langsamen HDDs verstauben. Also im Prinzip alles was keinen Random Access braucht. So ein Backup Image wird einfach komplett am Stück geschrieben bzw. gelesen. Da schafft dann auch jede Consumer HDD 200 MB/sec. Im Datacenter mit entsprechenden RAIDs bringt man damit auch eine 10 GBit Leitung schnell zum glühen.

Shoryuken94 schrieb:
Würde mich aber wenig wundern, wenn HDDs bald auf dem Endkundenmarkt weitestgehend verschwinden.
Nur wenn die SSD Preise ganz stark fallen. In mein NAS möchte ich ungern SSDs für 20000€ verbauen, nur damit ich dann ein paar Terabyte habe :D Aber reine Desktop Festplatten werden sicherlich bald nur noch in Mikroskopischen Dosen auf dem Markt vertreten sein.
 
  • Gefällt mir
Reaktionen: Mr Peanutbutter, kaji-kun, Mar1u5 und 3 andere
MichaG schrieb:
so that they get familiar with the new drive
Inwiefern soll man sich mit den neuen Laufwerken vertraut machen? Marketing Blabla?
Der Kunde bekommt doch von der Technik im Inneren nichts mit. Ob da nun Kobolde drin arbeiten oder Aliens sieht man von außen nicht.
 
  • Gefällt mir
Reaktionen: Mr Peanutbutter, zEtTlAh, rentex und eine weitere Person
@Shoryuken94

https://www.computerbase.de/2018-03/nimbus-data-exadrive-dc100-100-tb-ssd/

Das war 2018 mit MLC. Mit aktuellen QLC könnte man wahrscheinlich schon heute eine SSD mit 400 TB bauen, die würde dann 20 HDD ersetzen.

Natürlich dauert es noch etwas, bis so dicke SSD gebaut werden. Es lohnt halt noch nicht, weil man dann deutlich mit dem Preis / TB runtergehen müsste. Das Ding ist: für eine 1 PB SSD muss das Rad nicht neu erfunden werden, bzw. die Kosten für Forschung und Entwicklung werden auf ganz viele Kunden verteilt.
 
Nuon schrieb:
Das Laser assisted recording ist technisch ziemlich anspruchsvoll, ich wundere mich, dass es da keine Abwärmeprobleme gibt.
Der Laser wird so stark fokussiert wie es mit der genutzten Wellenlänge möglich ist und der erhitzte Punkt ist winzig, in der Größenordnung 0,5 Mikrometer. Einen so kleinen Spot kann man schon mit sehr wenig Leistung punktuell sehr heiß kriegen. Das muss zudem auch nur kurzzeitig passieren. Der gesamte über die Zeit gemittelte Wärmeeintrag ist dadurch verschwindend gering, und das wird dann sofort von der Umgebung abgeführt. Ich bezweifle, dass man an der Festplatte eine wie auch immer geartete zusätzliche Erwärmung durch Einsatz des Lasers von außen auch nur messen kann.
 
  • Gefällt mir
Reaktionen: Pulsar77, racer3 und Holylemon
LamaMitHut schrieb:
Das war 2018 mit MLC. Mit aktuellen QLC könnte man wahrscheinlich schon heute eine SSD mit 400 TB bauen, die würde dann 20 HDD ersetzen.

Völlig richtig, ändert aber nichts am hohen Preis pro TB. Zumal bei 400TB schnell das Problen auftritt, dass sich so eine Platte mit den gängigen Interfaces kaum sinnvoll nutzen Lässt, bzw nur in wenigen Einsatzzwecken wirklich Sinn macht.
LamaMitHut schrieb:
Das Ding ist: für eine 1 PB SSD muss das Rad nicht neu erfunden werden, bzw. die Kosten für Forschung und Entwicklung werden auf ganz viele Kunden verteilt.

Wie gesagt, nicht die reine Einzelgröße der Datenträger ist hier das Kriterium, sondern die Effizienz für den angedachten Einsatzweck. Und je nach Anwendung ist da selbst QLC um ein Vielfaches Teurer. SSDs setzen sich in den Bereichen durch, wo es Sinn macht. HDDs werden ähnlich wie z.B. LTO Tapes aber sehr lange leben, da sie je nach Einsatzzweck extrem kosteneffizient sind und es keine Entwicklung am Horizont gibt, die die Nand Technik da in absehbarer zeit aufholen lässt. Ob die größten SSDs nun 100TB haben, 500TB oder auch 5PB spielt da weniger eine Rolle. Das macht SSDs nur für andere Bereiche Interessanter.
 
Alles schön und gut aber die Technik sollte halt auch mal kommen.... Wie lange reden wir nun schon über HAMR? 5 Jahre? Nun wird schon über HAMR 2.0 gesprochen obwohl HAMR 1.0 nicht mal wirklich im Markt angekommen ist.
 
Wenn ich mir ansehe, wie lange die Hersteller schon von 30,40,50TB-HDDs sprechen... ich glaub, das erleb ich nicht mehr... oder erst im hohen Alter :p
Ich wär schon froh, wenn es erschwingliche 20TB-HDDs geben würde... doch davon weit und breit keine Spur...
 
  • Gefällt mir
Reaktionen: Recharging
@Shoryuken94

Ich würde dagegen wetten. Wenn man irgendwann 50 Fastplatten durch eine SSD ersetzen kann, dann spielen die Betriebskosten doch eine wichtige Rolle. Da zählt nicht nur der reine Preis / TB.

Besonders wenn die Nachfrage nach Speicher immer weiter steigen sollte, kann diese wahrscheinlich gar nicht mehr mit HDD gedeckt werden. Dafür sind die Kapazitätssteigerungen viel zu gering.
 
Caspian DeConwy schrieb:
Inwiefern soll man sich mit den neuen Laufwerken vertraut machen? Marketing Blabla?
Der Kunde bekommt doch von der Technik im Inneren nichts mit. Ob da nun Kobolde drin arbeiten oder Aliens sieht man von außen nicht.
Das sind immer noch keine Platten für Endkunden und Firmen wie Google, Amazon etc. machen mit den Platten schon etwas mehr als einfach ins Rack schieben. Da wird die Software speziell auf die Hardware optimiert und nicht selten kommt eigene Hardware zum Einsatz die natürlich auch kompatibel sein muss.
 
  • Gefällt mir
Reaktionen: Caspian DeConwy
LamaMitHut schrieb:
Die Datendichte bei NAND macht doch ganz andere Sprünge, bleibt nur noch der hohe Preis.
Nein, es ist quasi schon das Ende der Fahnenstange erreicht. Schon bei PLC geht der Geschwindigkeitsvorteil gegen eine HDD flöten, von der Haltbarkeit wollen wir erst garnicht reden.

Bleibt nur noch der Platzvorteil und die Lautstärke. Zudem wird es eine Herrausvorderung sein, eine 50 TB SSD in ein 3,5er Gehäuse zu zwängen.
 
  • Gefällt mir
Reaktionen: Innocience, ChrisHoep und Purche
Denke auch, dass in viele Server noch lange HDDs beherbergen werden. Im Desktop braucht man ja selten mehr als 1TB, was man sich locker als SSD leisten kann. Wenn man diverse Server mit TB Volumen im zwei oder dreistelligen Bereich braucht, dann schaut die Sache schon ganz anders aus. Dort wird es diese Technik noch ne ganze Weile geben.
 
Schaby schrieb:
Nein, es ist quasi schon das Ende der Fahnenstange erreicht. Schon bei PLC geht der Geschwindigkeitsvorteil gegen eine HDD flöten, von der Haltbarkeit wollen wir erst garnicht reden.

Bleibt nur noch der Platzvorteil und die Lautstärke. Zudem wird es eine Herrausvorderung sein, eine 50 TB SSD in ein 3,5er Gehäuse zu zwängen.
Was hat plc damit zu tun?

Man kann die Datendichte ja auch durch hinzufügen von Schichten erhöhen, pro Generation werden da zur Zeit ca. 30% an Datendichte hinzugewonnen.
 
  • Gefällt mir
Reaktionen: Santa Clause
LamaMitHut schrieb:
Natürlich dauert es noch etwas, bis so dicke SSD gebaut werden
Nja, gegen SSDs im 3.5" Format mit entsprechendem Speicher hätte ich jetzt auch nichts (im Desktop/Server Bereich).
 
  • Gefällt mir
Reaktionen: dersuperpro1337
LamaMitHut schrieb:
@Shoryuken94

https://www.computerbase.de/2018-03/nimbus-data-exadrive-dc100-100-tb-ssd/

Das war 2018 mit MLC. Mit aktuellen QLC könnte man wahrscheinlich schon heute eine SSD mit 400 TB bauen, die würde dann 20 HDD ersetzen.

Natürlich dauert es noch etwas, bis so dicke SSD gebaut werden. Es lohnt halt noch nicht, weil man dann deutlich mit dem Preis / TB runtergehen müsste. Das Ding ist: für eine 1 PB SSD muss das Rad nicht neu erfunden werden, bzw. die Kosten für Forschung und Entwicklung werden auf ganz viele Kunden verteilt.
5 Trilliarden TB pro SSD!!EINSELF

Das Ding ist: Für die 1 PB SSD muss das Rad eben doch neu erfunden werden. Naja, das Rad selber vielleicht nicht, aber Speichen, Lager, Reifen... so ziemlich alles. Du stellst dir die Nummer viel zu einfach vor.

Bauen könnte man außerdem viel, die Frage ist immer: Wer soll das kaufen?
Außerdem dürften bei 2,5" 400 TB platztechnisch (aktuell!) tatsächlich nicht hinhauen - das lässt sich nicht unendlich stapeln und komprimieren.
Ergänzung ()

PERKELE schrieb:
Nja, gegen SSDs im 3.5" Format mit entsprechendem Speicher hätte ich jetzt auch nichts (im Desktop/Server Bereich).
Die meisten relevanten Kunden in dem Preissegment aber schon: Ausfallrisiko und Bandbreite bei so dicken und damit wenigen Datenträgern sind suboptimal. Eine 30 TB SSD als "billiges" S-ATA Modell wäre für viele Anwendungsbereich unbrauchbar. Selbst mit SAS ist bei ~2,2 GB/s Ende.
 
Naja, wenn wäre das ne U3 TM SSD. Also U2 nur in Groß.

Aber ja, die Interfaces müssen schneller werden. Die Rebuildzeiten von raids sind schon mit 16TB heftig. SAS kann man für 30TB oder mehr eigentlich schon vergessen.
 
@Nagilum99 Das ist klar das die Schnittstelle limitiert, im normalen, abgesehen von den versierten, Desktop duerfte das keinem "Jucken".

SAS oder besser wie schon @Skysnake schrieb ne U2/U3 sollte es im Server Bereich schon sein.

Allenfalls, preiswert (P/L pro GB), eine 4-8TB Nvme SSD auf M.2.
 
Zurück
Oben