News UltraRAM: RAM-Massenspeicher-Symbiose rückt Serie näher

Hört sich gut an. Aber wie es im letzten Absatz gesagt wurde: Abwarten und "Getränk der Wahl einfügen" trinken.
 
rg88 schrieb:
Wie kommst du darauf, dass dies Strom sparen würde?
Ich nehme mal an weil das mobilgerät dann nach einigen twitterseiten die funktion einstellt. speicherzellen aufgebraucht, haltbarkeit überschritten. Scriptblocker verlängern die Lebensdauer auf das dreifache. ^^
Nach einigen Sekunden statischer Fehlermeldung kann man die Elektronik weitgehend abschalten. Kamera, Blitzlicht/Taschenlampe kann aktiv bleiben.

Ich wundere mich bei sowas ja eher wieso man ein Medium mit so begrenzten Schreibzyklen überhaupt als DRAM Alternative anpreist. Wie wahrscheinlich ist es dass man Strukturgröße deutlich verkleinert und dabei die Haltbarkeit um einige Größenordnungen verbessert?
Das wird eher ein sehr schneller Dauerspeicher oder ein sehr cooler Cache damit SSDs weder Kondensatoren noch SLC Caches brauchen. HLC Flash kann kommen mit 1-10% UltraRAM als Cache. Nach den ersten 100 GB mit 50 GB/s gehts dann mit 50 MB/s weiter für die nächsten 9,9 TB.

Wobei die Vorstellung dass der Dauerspeicher schneller im Zugriff ist als der RAM irgendwie lustig ist. "Wir würden ja UltraRAM statt DRAM nehmen, aber nach dem kurzen boost die Riegel zu wechseln versaut uns einfach die Latenzen!"
 
  • Gefällt mir
Reaktionen: rg88
Möhrenmensch schrieb:
Das wird witzig, wenn die ersten mit vollem Massenspeicher hier fragen, wieso ihr PC so langsam geworden ist:D
Da wird nix langsamer, wen der voll ist, ist Ende im Gelände. Heute kann der PC ja auf die Auslagerungsdatei (Windows) bzw. SWAP Partition (Unix/Linux) zurückgreifen, die wirds da nicht mehr geben ;)
Bigeagle schrieb:
Das wird eher ein sehr schneller Dauerspeicher oder ein sehr cooler Cache damit SSDs weder Kondensatoren noch SLC Caches brauchen.
Stimmt, als peristenten Zwischenspeicher, bietet sich ja gerade zu an für RAID/Storage Controller. Dann brauchts keine BBU mehr.
 
Und Zack - da ist das nächste große Ding. Liest sich gut, vor allem als Langzeitspeicher.
 
rg88 schrieb:
Dadurch sparst du dir auch nicht wirklich was. Der Speicher der beides kann, wird auch deutlich mehr Platz brauchen.
[...]
teuren Permanentspeicher

Das sind keine Naturgesetze. NAND-Flash braucht weniger Platz und ist billiger pro Bit als DRAM. Es hat Nachteile, die es als RAM-Ersatz unbrauchbar machen, aber diverse Forscher versprechen uns seit bald 10 Jahren, dass wir "bald" persistente Speichertechnologien haben werden, die DRAM abloesen werden; allerdings haben sich diese Versprechungen noch nicht wirklich erfuellt (schon bei meinem Skylake war eines der beworbenen Features, dass es mit Optane-Speicher (nicht dem SSD-artigen, sondern RAM-artigen Speicher) umgehen kann, bis jetzt ist das aber nicht so richtig angekommen). Diese Technologien sind wohl doch schwieriger als urspruenglich geglaubt.

Wenn die Leistung so eines Speichers so schnell wäre wie herkömmlicher RAM, dann könnte man zu dem Zeitpunkt mit fluchtigem Speicher eine viel schnellere Leistung erzielen. Die Technik hat sich ja dann massiv weiterentwickelt.

Auch das ist kein Naturgesetz. Z.B. war Kernspeicher (die dominierende Speichertechnologie in den 1960ern) persistent, aeltere Speichertechnologie wie mercury delay lines nicht, und die war auch langsamer (erlaubte auch keinen wahlfreien Zugriff), und wurde eben deswegen dann vom Kernspeicher abgeloest.
 
TrueAzrael schrieb:
Hängt wohl mehr davon ab ob im Grafikkartenspeicher üblicherweise Daten liegen die auch für zukünftige Ausführungen relevant sind. Dann wäre ein persistenter RAM auch für die GPU sinnvoll, weil man die Daten halt nicht extra von einem Speicher in den anderen laden muss. Wenn da aber beinahe nur Daten liegen die nach Ausführung mangels Wiederverwendbarkeit eh sofort verworfen werden, dann bringts auch nichts wenn die theoretisch auch einen Reboot überleben könnten.
es macht überhaupt keinen Sinn. Im VRAM liegen Texturen und Zwischenergebnisse der GPU. Die Ergebnisse der GPU sind nach der Bildausgabe obsolet und die Texturen würden eh nicht alle in den Speicher passen. Oder soll der Wunderspeicher 20TB groß sein um alle entpackten Texturen von 10 Spielen bereit zu halten?
 
Hmm... Um die heutige Struktur der Speicherebenen zu durchbrechen, müsste der Wunderspeicher dann neben Persistenz wirklich auch mindestens so schnell wie der Arbeitsspeicher sein und trotz deutlich größere Speichermenge nicht in der Bandbreite limitierten, dazu aber auch nicht teurer werden. Nicht zu vergessen, dass der Speicher auch deutlich mehr Schreibzugriffe abkönnen muss.
Die Bandbreite ist dann wohl die größte Herausforderung und macht so schnell keine Cache-Ebenen platt.
Ach, und Speicherdichte ist auch noch ein Thema, gerade wenn man Bandbreite in Betracht zieht. Die Bandbreite des Arbeitsspeichers müsste ja schon CPU-Nahe ausgelegt sein, und wenn man die Speicherdichte von Arbeitsspeicher so betrachtet, sind wir da noch weit von SSDs entfernt.
Ob man dann noch die Latenzen genauso niedrig halten kann, wenn man mehrere TB als nennen wir es Universalspeicher im System einsetzt?

Ansonsten sehe ich nur den Schutz bei Spannungsverlust als Vorteil bei einem Wechsel von flüchtigen zu nichfflüchtigen Speicher. Sofortiger Systemstart war damals zu HD-Zeiten ein Traum, heute mit schnellen SSDs aber kaum mehr nötig, so schnell wie der Systemstart vonstatten geht. Mein Rechner hängt länger im Post als das Laden des OS benötigt.

Bisher ist es ja eher vom Vorteil, mehr Cache-Ebenen einzubauen. L1-L2-L3-RAM-(Optan)-Massenspeicher. L4 war auch mal eine tolle Idee und ist jetzt eigentlich auch noch ein feuchter Traum. Ich stelle mir immer noch eine APU vor, die HBM als L4 verwendet, über IF dann sowohl für die GPU als auch für die CPU verwendbar.
Immerhin wird der Cache potentiell etwas billiger in den CPUs, wenn man auf Stacks zurückgreift, immerhin werden die Dice nicht zu groß und damit die Ausbeute besser.
AMDs RDNA2 setzt ja auch auf einen zusätzlichen Cache um Bandbreite zu sparen, bzw um bei gleicher Bandbreite eben schneller zu sein.

Kurz: ich sehe eine Auflösung von Cache-Ebenen eher als Herausforderung bei den Bandbreiten und Zugriffszeiten. Dazu eben noch die Schreibzyklen, die ein persistenter Speicher bewältigen müsste.
 
  • Gefällt mir
Reaktionen: chesus1332 und Colindo
rg88 schrieb:
Wie kommst du darauf, dass dies Strom sparen würde?

Wenn man die Geräte innerhalb von ner Sekunde an und aus schalten kann anstatt nur in einen standby modus wird das strom sparen. Wenn der RAM nicht flüchtig ist ist ja immer noch alles da wenn der Strom weg ist.. Ein Smartphone ist doch zu 90% inaktiv. Ab und zu mal notifications checken aber das wars.
 
rg88 schrieb:
Wir haben eben flüchtigen und nicht-flüchtigen Speicher. Darauf basiert die komplette PC-Architektur. Wenn jetzt dieser Wunderspeicher kommen würde, ergibt es keinen Sinn an dem Konzept festzuhalten.

Doch. Die Software braucht den Unterschied auch: Die Software kann dann im fluechtigen Speicher beliebiges Chaos anrichten, speichert dann die Daten in einem sauberen Format in den permanenten Speicher ab, und beim naechsten Start (insbesondere mit einer neuen Version der Software) muss sich die Software nur um das saubere Format kuemmern und nicht um das Chaos. Die Idee des permanenten Hauptspeichers ist verfuehrerisch, und wurde auch mehrfach versucht, hat sich aber nicht durchgesetzt:

Es gab durchaus Betriebssysteme (z.B. EROS), die der Software Persistenz des RAM-Speichers (mit moeglichem Verlust der letzten paar Sekunden Arbeit) garantiert haben, aber diese Art von Betriebssystemen hat sich nicht durchgesetzt.

Microsoft Word hat in frueheren Zeiten dem Vernehmen nach einfach einen etwas aufbereiteten Speicherdump seines Hauptspeichers abgespeichert. Das fuehrte einerseits dazu, dass, wenn die Daten aus irgendeinem Grund (z.B. Programmbug) korrupt waren, das Abspeichern und Neustarten keine Abhilfe war; weiters mussten neue Versionen die Speicherdaten der alten Version lesen und in die Datenstrukturen der neuen Version uebersetzen koennen, was entweder aufwendig war, oder sie beim Erweitern und Aendern der Datenstrukturen stark eingeschraenkt hat. Letztendlich hat Microsoft den Speicherdump aufgegeben und ist auf XML umgestiegen (wobei dem Vernehmen nach das XML-Schema noch sehr implementierungsorientiert ist).

Smalltalk-80 arbeitet ebenfalls mit Memory Images, aber auch das hat sich bei Systemen, die sich in anderen Bereichen von Smalltalk inspirieren liessen, nicht durchgesetzt, wohl aus aehnlichen Gruenden, aus denen Microsoft das Word-Format letztendlich auf XML umgestellt hat. Interessanterweise fuehrte das aber dazu, dass sie die Datenstrukuren offenbar gar nicht mehr geaendert haben, sodass WIMRE fuer das HOPL-IV-Paper ueber Smalltalk die diversen Images alle auf der selben Engine auf neuer Hardware zum Laufen bekommen wurden.

Das soll jetzt nicht heissen, dass es nicht Vorteile durch persistenten Hauptspeicher geben wird, aber die Aufteilung in Speicher, der nur fuer eine Session gueltig ist, und persistenten Daten wird bleiben.
 
  • Gefällt mir
Reaktionen: pvcf und Fried.Ice
Limeray schrieb:
Ein Smartphone ist doch zu 90% inaktiv.
Ein Smartphone ist in teilen immer aktiv, wie zB der Netzwerkchip, sonst wär man nicht erreichbar.
Ebenso laufen Hintergrunddienste permanent. Nur, weil das Display aus ist, heißt das noch lange nicht, dass das Gerät nichts tut. Der Speicher ist permanent in Betrieb ohne Pause. Den kannst auch nicht schlafen legen
 
Was dem UltraRAM zugute kommt, ist dass der Speicherbedarf kaum noch zunimmt bei Endanwendern, die überwiegend die Cloud nutzen.
Smartphones sind mit 128-256GB Speicher gut nutzbar.
 
rg88 schrieb:
Was mir sauer aufstößt ist dieser "Hype" der da im Artikel verbreitet wird. Mit "Durchbruch", "Serie rückt näher" usw. Das
Das ist kein Problem der Medien sondern der Leser

Jetzt melden Forscher einen Durchbruch auf dem Weg zur Massenfertigung von UltraRAM.
Also Durchbruch auf dem Weg. Da steht nichts von ob/wann

Abgesehen davon haben hier eh schon wieder die Superexperten erklärt warum das ganze unnötig und Geldverschwendung ist. Schade dass mir diese überragende Kompetenz mancher Forums Kollegen fehlt diese Dinge sofort beurteilen zu können
 
  • Gefällt mir
Reaktionen: Colindo
rg88 schrieb:
Ein Smartphone ist in teilen immer aktiv, wie zB der Netzwerkchip, sonst wär man nicht erreichbar.
Ebenso laufen Hintergrunddienste permanent. Nur, weil das Display aus ist, heißt das noch lange nicht, dass das Gerät nichts tut. Der Speicher ist permanent in Betrieb ohne Pause. Den kannst auch nicht schlafen legen
Also muss nur der netzwerk chip aktiv sein und der Prozessor kann komplett ausgeschaltet werden. Gut heutzutage ist das alles integriert aber kann dann ja teile ausschalten. Hintergrund dienste laufen heute schon nur periodisch um den Akku zu schonen.
 
  • Gefällt mir
Reaktionen: Innocience und rg88
jusaca schrieb:
Wenn ich im RAM eine Variable mit CPU-Takt von 1 GHz hochzähle, ist die Speichersteller also nach 0,01s kaputt geschrieben?
Klingt zwar nach einer interessanten Technik, aber für einen RAM-Ersatz muss sich die Haltbarkeit um viiiiiiiele Größenordnungen verschieben.
Wenn du nur eine Speicherzelle beschreibst...

In der Realität wird man dann zbs. 128gb Speicher haben und zbs. (Einfacher zum rechnen) ne Bandbreite von 128gb/s.
Selbst wenn man jetzt (komplett unrealistisch) auch durchgehend 128gb/s 24/7 Daten schreibt (ist schon alleine wegen Latenzen und Lesevorgängen eher unmöglich - Software mal ganz außen vor), sind wir trotzdem noch bei ner Haltbarkeit von
128gb/128gb * 10.000.000/(60*60*24) ~ 116 Tage

Für Enterprise Anwendungen, wenn vtl. wirklich nahezu durchgehend gelesen und geschrieben wird, vielleicht zu wenig.
Für Zuhause werden die Teile aber locker 10 Jahre+ halten.
 
bad_sign schrieb:
Den Text halte ich aber nach wie vor für passend, da er den Zusammenhang zwischen der Fertigung auf Silizium und einer fundamentalen Bedingung für die Massenfertigung herstellt. Man darf den Teilsatz eben nicht aus dem Ganzen herausreißen.
 
TheDarkness schrieb:
128gb/128gb * 10.000.000/(60*60*24) ~ 116 Tage
Was aber die sehr unrealistische Annahme macht, dass du gleichmäßig über den gesamten Speicher schreibst, wird so niemals geschehen.
In der Praxis hast du halt an wenigen Speicheradressen ein paar Werte stehen, die kontinuierlich geändert werden.

Bei einem Spiel wären das z.B. Koordinaten von Objekten, die im ms-Takt geupdated werden.
Mit ms-Takt hätten wir zwar schon 10.000.000 / 1000 (1/s) = 10.000s Haltbarkeit, aber dann hat ein Computerspiel die Speicherzelle innerhalb von 3h verbraucht.
Bei Serven, auf denen aufwändige Simulationen laufen ist die Updaterate bestimmer Werte bedeutend größer, da hält es dann also nichtmal eine Stunde durch.

Wenn du (wie in deinem Beispiel) den gesamten Speicher gleichmäßig abnutzen möchtest, müsstest du halt irgendwelche Wear-Leveling Algos für den Speicher einführen, wie er bei Flash zum Einsatz kommt.
Ich will jetzt nicht ausschließen, dass das kommt, halte ich bei den für Hauptspeicher benötigten hohen Geschwindigkeiten erstmal für unwahrscheinlich, da nochmal ne komplette Abstraktionseben in der Speicheraddressierung dazu käme. Darunter würden vermutlich die Zugriffszeiten zu stark leiden.
 
  • Gefällt mir
Reaktionen: rg88
Zurück
Oben