Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsUltraRAM: RAM-Massenspeicher-Symbiose rückt Serie näher
UltraRAM heißt ein neuer technischer Ansatz bei der Suche nach einem Universalspeicher, der die Aufgaben von Arbeits- und Massenspeicher gleichzeitig übernimmt. Jetzt melden Forscher einen Durchbruch auf dem Weg zur Massenfertigung von UltraRAM.
Da werden ja sicherlich noch einige Jahre vergehen. Wenn man aber dann auf RAM verzichten und einfach den Massenspeicher als Ersatz nehmen kann, werden vlt. neue Formfaktoren möglich, da man auf die bisher noch notwendigen RAM-Bänke verzichten könnte.
Ob das als DRAM-Ersatz für einen PC wirklich reicht ?
Im embedded Bereich sehe da eher Anwendungen. Und auch dort wo heute schon 3D-Xpoint verwendet wird.
Am Ende wird der Preis ( pro TB) weitgehend entscheiden, wo das eingesetzt wird
Wenn ich im RAM eine Variable mit CPU-Takt von 1 GHz hochzähle, ist die Speichersteller also nach 0,01s kaputt geschrieben?
Klingt zwar nach einer interessanten Technik, aber für einen RAM-Ersatz muss sich die Haltbarkeit um viiiiiiiele Größenordnungen verschieben.
Spannend...
Bis zur Serienreife wird vielleicht noch etwas Zeit vergehen. Aber sollte Sie das hinbekommen, wird es die PC-Technik stark verändern.
Instant On aus dem Kalten ohne SuspendMode, Transfergeschwindigkeiten bzw. Lese-/Schreibgeschwindikeit die kaum einer ausreizt.
Ich kann mir gut vorstellen, das es anfangs (je nach Kosten) darauf hinausläuft eine Systemplatte mit relativ geringer Größe und klassische SSD7HDD als Datengrab. Dafür entfällt der RAM.
Auf der Systemplatte wird es nur immer einen Bereich geben müssen, in dem die Temporären Daten abgelegt werden, welche bisher im RAM vorhanden waren. Als eine keine RamDisk, sondern eher DiskRam.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Wenn man aber dann auf RAM verzichten und einfach den Massenspeicher als Ersatz nehmen kann, werden vlt. neue Formfaktoren möglich, da man auf die bisher noch notwendigen RAM-Bänke verzichten könnte.
Dadurch sparst du dir auch nicht wirklich was. Der Speicher der beides kann, wird auch deutlich mehr Platz brauchen.
Und dann ist es eigentlich ein ziemlich chaotisches System:
Man speichert Daten auf einem teuren Permanentspeicher ab um sie Millisekunden später wieder zu verwerfen, weil man sie eigentlich gar nicht persistiert braucht, weil es nur Zwischenergebnisse von Berechnungen sind.
Zudem vereint man durch sowas auch immer die Nachteile:
es wird teurer und die Leistung wird geringer vom RAM.
Wenn die Leistung so eines Speichers so schnell wäre wie herkömmlicher RAM, dann könnte man zu dem Zeitpunkt mit fluchtigem Speicher eine viel schnellere Leistung erzielen. Die Technik hat sich ja dann massiv weiterentwickelt.
Ziemlicher Unsinn das Ganze.
Wenn etwas Sinn ergibt zum Platz sparen, dann viel eher, dass die CPU-Caches so groß werden, dass kein RAM mehr erforderlich ist, bzw. L4 Cache die Aufgaben des RAM erfüllt.
Ergänzung ()
Mickey Cohen schrieb:
hier ist das ganze nochmal ganz gut erklärt:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Interessant wäre wenn man im Setup vom Betriebssystem dann auswählen kann wie viel vom vorhandenen Speicher als RAM und festen Speicher verwendet wird.
Komplett variabel kann ich mir das irgendwie nicht vorstellen, Werner & Liselotte Meyer hauen ihre Fotosammlung rauf und dann ist kein Platz mehr für RAM?
Es sei denn Menge X wird mindestens pauschal reserviert für RAM. Dann kann aber ein Poweruser zu kurz kommen.
Interessant wäre wenn man im Setup vom Betriebssystem dann auswählen kann wie viel vom vorhandenen Speicher als RAM und festen Speicher verwendet wird.
Wieso? Das ergibt ja mal gar keinen Sinn und ist eher die Quadratur des Kreises.
Wenn ich den Ultra-Super-Duper-Speicher dann partitioniere hab ich doch keinerlei Vorteile mehr
Dann hab ich doch wieder einen flüchtigen und einen festen Speicher. Damit ist doch nichts gewonnen.
Wenn dann muss der Speicher auch vollständig als RAM dynamisch nutzbar sein, vielleicht höchsten mit einer Obergrenze, falls ein Programm Amok läuft, aber eine feste Größe und Aufteilung ergibt für mich keinen Sinn
Ergänzung ()
fanaticmd schrieb:
Es sei denn Menge X wird mindestens pauschal reserviert für RAM. Dann kann aber ein Poweruser zu kurz kommen.
Für so einen Speicher bräuchte man eh ein komplett anderes Speicherkonzept als jetzt.
Wir haben eben flüchtigen und nicht-flüchtigen Speicher. Darauf basiert die komplette PC-Architektur. Wenn jetzt dieser Wunderspeicher kommen würde, ergibt es keinen Sinn an dem Konzept festzuhalten. Da muss man einen gänzlich neuen Ansatz finden um hier die Vorteile rauszuschlagen die man braucht, damit die Kompromisse nicht zuviele Nachteile bringen.
Aber wir werden auf solchen Speicher noch 30 Jahre warten.
Gerechnet ab heute.
In einem Jahr wirds auch noch genau 30 Jahre dauern.
In 5 Jahren wirds auch noch genau 30 Jahre dauern...
Hmm warum riecht es hier so nach Bullshitbingo????
Ach ja richtig. Man nimmt wohl für die Haltbarkeit und die retention time die aktuelle riesigen Strukturen für Kosten, speed und Energieeffizienz dann aber die prognostizierten kleinen Strukturen...
Da geht man also auch mal wieder davon aus, dass die Leute so dumm sind nicht zu sehen, dass jeweils eine der beiden Gruppen massiv schlechter wird wenn man das Zeug in ein reales Produkt kippt, bei dem es am Ende halt GENAU eine Fertigung gibt...
Klingt so als könnte es auch erstmal nur einfach ein neuer RAM-Standard ohne Massenspeicherfunktion sein. Dann braucht man für den Ruhezustand auch nix mehr auf Platte schreiben. Ich sehe den Overkill hier eher bei der Software-Architektur. Alles ist auf Trennung zwischen Arbeits- und Massenspeicher ausgelegt.
Es geht hier um Grundlagenforschung. So fair muss man jetzt schon sein. Der Artikel suggeriert aber, dass die Technik schon viel weiter wäre und man nahe am Marktstart ist. Dabei könnte man weiter kaum entfernt sein.
Ist halt so eine typische Lückenfüller-"News" und Clickbait.
Aber hin und wieder braucht man eben auch etwas Publicity, wenn man neue Forschungsgelder abstauben will. Dann macht man halt mal schnell einen Wafer, der keinerlei Funktion hat und auch die ganzen Wunschvorstellungen nicht bieten kann, aber eben irgendwas drauf hat, was man auf dem Papier konstruiert hat und ja nur ein Prototyp ist
Ergänzung ()
AncapDude schrieb:
Klingt so als könnte es auch erstmal nur einfach ein neuer RAM-Standard ohne Massenspeicherfunktion sein. Dann braucht man für den Ruhezustand auch nix mehr auf Platte schreiben.
Dazu brauchts aber im Grunde nur einen kleinen Akku um das selbe zu erreichen ^^ Der Akku hält dann den Speicher einfach solange stabil, bis die Kiste wieder eingeschaltet wird und ist instant hochgefahren.
Geht der Akku zur Neige, dann kann man kurz die Platte anwerfen und dort den Ruhezustand persistieren.
Mit einem Akku der ne Woche durchhält, sollte das eigentlich kein Problem sein und sehr günstig. Dafür muss man das Rad nicht neu erfinden.
Ja und? Das ist dich das typische bulshitbingo aus den einschlägigen Papern in der Elektronikbranche.
Da werden die Verbrauch/Speed mit Massenfertigung mit der Haltbarkeit in der handverlesenen einzelnen Zelle verglichen, wo dass dann auch nur eine von 100 oder noch weniger schafft...
Sorry, das hat nichts mit Grundlagenforschung zu tun sondern mit einer absoluten Fehlentwicklung in der durch Fördergelder und noch schlimmer mit privaten Geldern aus der Wirtschaft betriebenen Forschung wo jeder versucht noch geiler zu sein als eh schon, damit er mehr Fördergelder bekommt....
Das stimmt schon, ich denke wohl einfach zu sehr im jetzt und heute bezüglich der Trennung RAM/Festspeicher.
Wenn das kommt muss sich dann eh alles anpassen. Hardware, Hardwaredesign, Software und das Denken drumherum.
Wahrscheinlich wird’s so ablaufen wie mit fast allen neuen Dingen in der IT: XX Jahre Forschung -> Enterprise/Server Umgebungen -> XX Jahre Etablierung -> Consumer.
Sorry, das hat nichts mit Grundlagenforschung zu tun sondern mit einer absoluten Fehlentwicklung in der durch Fördergelder und noch schlimmer mit privaten Geldern aus der Wirtschaft betriebenen Forschung wo jeder versucht noch geiler zu sein als eh schon, damit er mehr Fördergelder bekommt....
Das ist leider so, da die Forschung immer mehr kommerzialisiert wird. Die Geldgeber wollen Ergebnisse sehen. Dann haut man eben Bullshit-Paper raus oder gar einen Fake-Wafer mit, wie du schon so schön sagtest, einer funktionierend Speicherzelle. Die technischen Laien sind dann davon begeistert und schon fließt das Geld weiter.
Traurig, aber daily business. Drum hab ich mich auch gegen eine universitäre Karriere entschieden, weil mir dieser ganze Wettkampf um die Kohle bei gleichzeitig recht mieser Bezahlung im Vergleich zur freien Wirtschaft einfach zu wider ist.
Wenn ich mich schon verkaufe, dann schon für einen ordentlichen Betrag und nicht für befristete Uni-Stellen
Ergänzung ()
fanaticmd schrieb:
Wahrscheinlich wird’s so ablaufen wie mit fast allen neuen Dingen in der IT: XX Jahre Forschung -> Enterprise/Server Umgebungen -> XX Jahre Etablierung -> Consumer.
Geht mir eher um Zugriffszeiten und Bandbreite. Vlt. gibts ja dann auf Grafikkarten Erweiterungsslots. 4GB/8GB HBM und dann je nach Wunsch als Zusatzkarte mit X GB VRAM mit raufstecken.