Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Alternative zu Lasern in zukünftigen HDDs
- Ersteller Parwez
- Erstellt am
- Zur News: Alternative zu Lasern in zukünftigen HDDs
Klar der Laser ist weg, das ist ein eher konventioneller Ansatz, die Festplatte wird jetzt:
1. einfach gekühlt und/oder
2. Teile der Platte durch ein seitliches Magnetfeld in die Schmelze gebracht, daher auch die Eisen-Platin-Legierung, die zerfließt dabei nicht gleich wie Butter und ist trotzdem magnetisierbar!
Es geht im Grunde nur um neue magnetisierbare Materialen mit hohem Schmelzpunkt oder einer Absenkung der Schmelztemperatur durch Kühlung!
1. einfach gekühlt und/oder
2. Teile der Platte durch ein seitliches Magnetfeld in die Schmelze gebracht, daher auch die Eisen-Platin-Legierung, die zerfließt dabei nicht gleich wie Butter und ist trotzdem magnetisierbar!
Es geht im Grunde nur um neue magnetisierbare Materialen mit hohem Schmelzpunkt oder einer Absenkung der Schmelztemperatur durch Kühlung!
Zuletzt bearbeitet:
Das Prinzip und der Gedanke ist doch schon vergleichsweise alt, vor 3 Jahren gabs an der Uni mal nen Vortrag zur Magnetischen Datenspeicherung, dort haben sie auch eben diese Methode vorgestellt zukünftig die Datendichte erhöhen zu können. Wieso es grade jetzt eine News wert ist verstehe ich aber nicht? Gab es einen Durchbruch oder Meilenstein der erreicht wurde?
Für dieses Verfahren benötigt man keinen Laser, es ist eine alternative.
Normalerweise hat man zur Speicherung eines Bits einen oder mehrer kleine Weisischen Bezirke, wenn man diese aber immer weiter verkleinert sind sie irgendwann nicht mehr stabil, daher benötigt man Materialien wo sie trotz sehr kleiner Strukturen stabil sind, das setzt aber eine sehr starke Felder zum beschreiben vorraus, (die noch dazu sehr scharf begrenzt sein müssen).
Die Idee mit dem Laser ist das Material punktuell zu erhitzen und damit die nötigen Feldstärken zum beschreiben kurzzeitig zu verrigern.
Die alternative um die es geht benutzt ein seitliches Magnetfeld mit dem man dank der spin Effekte eine Kraft hervorruft die gleichgerichtet der Magnetisierung ist und damit kurzfristig den Schreibkopf unterstützt die Weischen Bezirke auszubilden.
Es ist letzendlich der Ansatz anstatt die nötige Energie zu halbieren (indem man die stelle erhitzt), eine zusätzliche Kraft zu zutzen durch die man die nochn nötige Kraft halbiert.
Was ich hier versuche zu erklären ist eine starke Vereinfachung einer Vereinfachung, im Detail ist das ganze wohl wieder Falsch erklärt
Für dieses Verfahren benötigt man keinen Laser, es ist eine alternative.
Normalerweise hat man zur Speicherung eines Bits einen oder mehrer kleine Weisischen Bezirke, wenn man diese aber immer weiter verkleinert sind sie irgendwann nicht mehr stabil, daher benötigt man Materialien wo sie trotz sehr kleiner Strukturen stabil sind, das setzt aber eine sehr starke Felder zum beschreiben vorraus, (die noch dazu sehr scharf begrenzt sein müssen).
Die Idee mit dem Laser ist das Material punktuell zu erhitzen und damit die nötigen Feldstärken zum beschreiben kurzzeitig zu verrigern.
Die alternative um die es geht benutzt ein seitliches Magnetfeld mit dem man dank der spin Effekte eine Kraft hervorruft die gleichgerichtet der Magnetisierung ist und damit kurzfristig den Schreibkopf unterstützt die Weischen Bezirke auszubilden.
Es ist letzendlich der Ansatz anstatt die nötige Energie zu halbieren (indem man die stelle erhitzt), eine zusätzliche Kraft zu zutzen durch die man die nochn nötige Kraft halbiert.
Was ich hier versuche zu erklären ist eine starke Vereinfachung einer Vereinfachung, im Detail ist das ganze wohl wieder Falsch erklärt
Zuletzt bearbeitet:
Was ich hier versuche zu erklären ist eine starke Vereinfachung einer Vereinfachung, im Detail ist das ganze wohl wieder Falsch erklärt
Trotzdem meine ich, es jetzt etwas besser verstanden zu haben. Danke!
ich sagte ja nicht das es aufhören würde, ganz im gegenteil.
Nur man fing ja damals an multicore cpus zu bauen, wie die abwärme einer einzelnen extrem hochgetakteten nicht mehr hätte abgeführt werden können.
Nun ist intel bei 32nm fertigung angekommen die ersten firmen haben schon 28 und 22nm in versuchen. Die theoretische grenze liegt glaub ich bei 7nm. Intel selber wollte aber nur bis 11nm gehen (weil es vorhersehbar ist, dass eine produktion in 7nm mehr geld verschlingen würde, als sie später einbrächte).
Dann hat man 11 (oder gar 7nm) im jahr 2020 erreicht und danach? Entweder andere matherialien die ggf, noch auf 3nm runtergehen oder die sache mit der verkleinerung hat sich gegessen.
Denn noch gehen geschwindigkeit und fertigungstechnik fast einher.
Natürlich würde man dann noch weiter optimieren können aber auch das wird dann vorbei sein.
Deswegen ist Nvidia drauf und dran ihre GPUs auch für andere zwecke zu "missbrauchen" weil die jetzt schon eine viel höhere rechenleistung bieten als eine CPU.
Das gleiche auch bei Speicherzellen - dort wird die größe nur durch verkleinerung erreicht.
Denn man kann ja nicht unmengen an speicherzellen auf ein pcb kloppen - abwärme und stromverbrauch muss man ja auch noch handeln.
ich meine damit im jahre 2020 oder gar 2030 wird man neue technische wege beschreten müssen
Nur man fing ja damals an multicore cpus zu bauen, wie die abwärme einer einzelnen extrem hochgetakteten nicht mehr hätte abgeführt werden können.
Nun ist intel bei 32nm fertigung angekommen die ersten firmen haben schon 28 und 22nm in versuchen. Die theoretische grenze liegt glaub ich bei 7nm. Intel selber wollte aber nur bis 11nm gehen (weil es vorhersehbar ist, dass eine produktion in 7nm mehr geld verschlingen würde, als sie später einbrächte).
Dann hat man 11 (oder gar 7nm) im jahr 2020 erreicht und danach? Entweder andere matherialien die ggf, noch auf 3nm runtergehen oder die sache mit der verkleinerung hat sich gegessen.
Denn noch gehen geschwindigkeit und fertigungstechnik fast einher.
Natürlich würde man dann noch weiter optimieren können aber auch das wird dann vorbei sein.
Deswegen ist Nvidia drauf und dran ihre GPUs auch für andere zwecke zu "missbrauchen" weil die jetzt schon eine viel höhere rechenleistung bieten als eine CPU.
Das gleiche auch bei Speicherzellen - dort wird die größe nur durch verkleinerung erreicht.
Denn man kann ja nicht unmengen an speicherzellen auf ein pcb kloppen - abwärme und stromverbrauch muss man ja auch noch handeln.
ich meine damit im jahre 2020 oder gar 2030 wird man neue technische wege beschreten müssen
Naja rony12, es muss ja nicht zwangshaft kleiner werden, damit's schnell geht.
Mit andere Materiallien, können ganz andere Frequenzbereiche angesteuert werden. (Weit über der ~4Ghz-Grenze).
So schnell ist also noch kein Ende in Sicht.
Nunja und zu den GPUs, die können halt weniger als ihre großen Kollegen, dafür können sie das was sie können ganz schön schnell.
Und zwar einfache Daten parallel verarbeiten.
Aber keiner kann sagen, wie die Zukunft aussieht.
Mit andere Materiallien, können ganz andere Frequenzbereiche angesteuert werden. (Weit über der ~4Ghz-Grenze).
So schnell ist also noch kein Ende in Sicht.
Nunja und zu den GPUs, die können halt weniger als ihre großen Kollegen, dafür können sie das was sie können ganz schön schnell.
Und zwar einfache Daten parallel verarbeiten.
Aber keiner kann sagen, wie die Zukunft aussieht.
Darkwonder
Rear Admiral
- Registriert
- Aug. 2008
- Beiträge
- 5.609
DHnumenor schrieb:Was ich hier versuche zu erklären ist eine starke Vereinfachung einer Vereinfachung, im Detail ist das ganze wohl wieder Falsch erklärt
Das könnte man unter die News Pinnen, hab jetzt verstanden was in der News gemeint ist
Finde es gut, dass weiter geforscht wird. Aber auch hier werden die Forscher immer wieder Hürden überqueren müssen, wo man jetzt denkt das ist das Ende.
@rony12
Einfach mal abwarten, was die Zeit bringt. Denke da haben die Firmen schon nen Plan in der Hinterhand, wir als User bekommen ja das meiste gar nicht mit.
Wenn nicht, wird das ne Hürde sein, die Unsere Wissenschaftler auch knacken werden.
In der Steinzeit konnte sich auch noch keiner Vorstellen, dass wir auf den Mond fliegen, heute könnte man das schon als Normal ansehen.
Auch heute ist das Universum noch nicht erkundet, denke auch da werden neue Materialien entdeckt werden.
Zuletzt bearbeitet:
paul1508 schrieb:Also ich wäre mit so einer 500TB HDD auch schon zufrieden wenn sie das schaffen würden, aber nein es wird schon geforscht was danach (eh wieder nicht) kommen wird
Eine Festplatte in dieser Größe ist aber nur dann interessant wenn gleichzeitig die Datenübertragungrate deutlich gesteigert werden kann, denn diese hält bei aktuellen Festplatten kaum noch schritt.
Bei einer durchschnittlichen Schreibrate von 100MB/s brauche ich dann ca. 60 Tage um eine 500TB Platte vollständig zu beschreiben. Schnelle Datensicherung?
paul1508
Captain
- Registriert
- Nov. 2005
- Beiträge
- 3.792
tXX schrieb:@paul: Entweder ich hab dich falsch verstanden, oder du Kritisierst in einem Satz die Tatsache dass es noch keine 500TB HDDs gibt und dass geforscht wird?
Ich kritisiere, dass man davon redet, dass die Lasertechnik altbacken ist und was neues sucht, diese aber noch nicht mal verkauft wird! Heutige Festplatten vertrauen alle NUR auf magnetische Lese/Schreibköpfe...
[MK2]Mythos
Newbie
- Registriert
- Mai 2007
- Beiträge
- 1
Ich finde den Artikel völlig daneben, erstens wirkt er und ist vermutlich auch einfach copy&paste und dann das mit der Alternative zu Lasern in zukünftigen Festplatten, dass sagt mir, dass der Autor anscheinend keine Ahnung hat, wie heute Festplatten bzw Magnetspeicher funktionieren...
RubyRhod
Commodore
- Registriert
- Jan. 2006
- Beiträge
- 4.305
riDDi schrieb:Huh? Tunneleffekt? Soll das heißen, die Daten werden geschrieben, bevor der Schreibvorgang begonnen wird?
Der Tunneleffekt beschreibt, dass ein Teilchen ein Energienieveau überwinden kann, obwohl seine Energie dazu nicht ausreicht.
Bildlich beschreibt man dies immer mit einem Tennisball, der durch eine Wand durchtunnelt. Das ist theoretisch auch möglich, nur eben nicht wahrscheinlich. Es ist sogar so unwahrscheinlich, dass es nie passiert. Auf Teilchenebene ist es recht wahrscheinlich, adss so etwas passiert.
Was der Tunneleffekt nun im konkreten Fall hier bewirkt, habe ich nicht verstanden.
Nureinnickname!
Commodore
- Registriert
- Jan. 2010
- Beiträge
- 4.185
Ex0r schrieb:Ähm...könnte man damit Daten auf ner Münze speichern oder wat o.0
Du kannst sogar Daten auf einer Tesarolle Speichern
miagi
Lt. Commander
- Registriert
- Okt. 2007
- Beiträge
- 1.070
ja ganz tolle sache...
wie waers wenn die sich auch mal gedanken um hoehere schreib-/leseraten machen wuerde...
ist echt toll wenn man dann eine 100TB festplatte hat aber wenn man ne woche brauch um die daten da drauf zu schreiben brignt mir das garnix...
oder mehr vorschungsaufwand in memristor stecken und ein datenspeicher entwickeln der HDD und Hauptspeicher in sich vereint.
wie waers wenn die sich auch mal gedanken um hoehere schreib-/leseraten machen wuerde...
ist echt toll wenn man dann eine 100TB festplatte hat aber wenn man ne woche brauch um die daten da drauf zu schreiben brignt mir das garnix...
oder mehr vorschungsaufwand in memristor stecken und ein datenspeicher entwickeln der HDD und Hauptspeicher in sich vereint.
Hurrycane
Lt. Commander
- Registriert
- Mai 2007
- Beiträge
- 1.726
Ich finde das klasse. ob nun laser oder tunneleffekt, hauptsache mehr speicherplatz^^
Ich frage mich, ob es schon was ausmacht, wenn eine Festplatte 30 statt 45° hat. Also datenverlusttechnisch.
ansonsten könnten HHD-Kühler in zukunft teuer werden^^
Ich freu mich schon auf meinte erste Festplatte mit 10TB :-)
Ich frage mich, ob es schon was ausmacht, wenn eine Festplatte 30 statt 45° hat. Also datenverlusttechnisch.
ansonsten könnten HHD-Kühler in zukunft teuer werden^^
Ich freu mich schon auf meinte erste Festplatte mit 10TB :-)
da!mon
Lt. Commander
- Registriert
- Juli 2006
- Beiträge
- 1.131
Hurrycane schrieb:Ich freu mich schon auf meinte erste Festplatte mit 10TB :-)
Nicht, wenn diese Platte eine Eisen-Platin-Legierung hat, dann könnte es doch ein wenig teurer werden
miagi schrieb:...
oder mehr vorschungsaufwand in memristor stecken und ein datenspeicher entwickeln der HDD und Hauptspeicher in sich vereint.
Gabs da nicht vor einiger Zeit schonmal nen Ansatz, mit einer PCI/PCI-E Steckkarte auf der
dann oben und unten je 4 oder 8 RAM-Riegel eingebaut wurden, und ein Pufferakku, um die
Daten auch bei abgeschaltetem Rechner, Stromausfall oder entnahme der Steckkarte
Zwecks umbau zu halten?
Bin der Meinung sowas hier schon gelesen zu haben, nur leider hab ich dieses Thema
wieder komplett aus den Augen verloren. Wären zwar bei heutigen RAM-Riegeln dann auch
"nur" 256GB max, wenns bei 2x8 Riegeln mit je 8GB bleibt, aber
Zugriffszeiten und Schreib-/lesegeschwindigkeit sicherlich interessant.
Ähnliche Themen
- Antworten
- 43
- Aufrufe
- 6.065