News UltraRAM: RAM-Massenspeicher-Symbiose rückt Serie näher

Den technischen Fortschritt darf man dabei aber nicht vergessen. Ich leg mir den Beitrag mal auf 10 Jahre Wiedervorlage 😅✌️
 
  • Gefällt mir
Reaktionen: Tzk, bad_sign, DFFVB und 3 andere
Das wäre echt cool, dann dürfte sich aber auch nicht ständig der Sockel ändern.
Dann wäre für den ein oder anderen aber auch Schluss beim OC Ram, wenn sich das Betriebssystem und wichtige Daten drauf befinden sollten.
 
rg88 schrieb:
Das ist leider so, da die Forschung immer mehr kommerzialisiert wird. Die Geldgeber wollen Ergebnisse sehen. Dann haut man eben Bullshit-Paper raus oder gar einen Fake-Wafer mit, wie du schon so schön sagtest, einer funktionierend Speicherzelle. Die technischen Laien sind dann davon begeistert und schon fließt das Geld weiter.
Traurig, aber daily business. Drum hab ich mich auch gegen eine universitäre Karriere entschieden, weil mir dieser ganze Wettkampf um die Kohle bei gleichzeitig recht mieser Bezahlung im Vergleich zur freien Wirtschaft einfach zu wider ist.
Wenn ich mich schon verkaufe, dann schon für einen ordentlichen Betrag und nicht für befristete Uni-Stellen
Ist bei mit am Ende auch so. Ich bin über den zweiten Bildungsweg zum Physiker gekommen. Also schon etwas älter. Ich hatte dann auch die Möglichkeit meinen Dr. Im Bereich Informatik/Datenanalyse zu machen, es dann aber am Ende nicht gemacht, weil das min 5 Jahre geworden wären, weil meiner Meinung nach das Umfeld nicht so gepasst hat. Und dann? Ja cool, dann in der Forschung von zwei Jahresvertrag zum nächsten hangeln...

Wenn man ne Familie gründen will geht man dann halt doch in die Wirtschaft...

Ich glaube ja, dass wir kommerzielle Quanten-Computer in Masse noch eher sehen, als solchen Wunderspeicher ;)
Naja, wenn man es recht genau nimmt, dann gibt es die mit DWave jetzt schon. Aber ja, si richtig gezündet hat es noch nicht. Da fehlen noch ein paar Jahre. Aber definitiv <10 Jahre.
 
  • Gefällt mir
Reaktionen: Möhrenmensch
Zauberspeicher geht bei mir normalerweise ins gleiche Regal wie der nächste Wunderakku, sns.

Und was ist überhaupt der Use Case, ein flotterer Systemstart und das wars? Der wäre auch heute schon möglich, wenn man die verwendeten SSDs denn auch mal voll ausreizen würde (also auch mit parallelen Zugriffen), anstatt mit linearem Laden noch in der HDD-Zeit zu hängen.
 
  • Gefällt mir
Reaktionen: -Stealth- und Qyxes
Naja, 10 Mio Zyklen sind jetzt nicht der Meilenstein. DRAM macht ja pro Sekunde deutlich mehr Schreib/ Lesezyklen. Da wird es selbst bei 10 Billionen möglich Zyklen schon eng als RAM-Ersatz...
Aber schön zu sehen, dass an vielen Stellen geforscht wird.
Allerdings so ein Datenspeicher als Cache auf einer SSD wäre wohl schon geil.
 
rg88 schrieb:
[...]

Ziemlicher Unsinn das Ganze.

Wenn etwas Sinn ergibt zum Platz sparen, dann viel eher, dass die CPU-Caches so groß werden, dass kein RAM mehr erforderlich ist, bzw. L4 Cache die Aufgaben des RAM erfüllt.
Ergänzung ()

Spätestens wenn sich damit Strom sparen lässt wird sich das in mobilen Geräten als einziger Speicher durchsetzen.
 
beckenrandschwi schrieb:
Allerdings so ein Datenspeicher als Cache auf einer SSD wäre wohl schon geil.
Was hätte das für einen Vorteil gegenüber einem normalen Cache?

Limeray schrieb:
Spätestens wenn sich damit Strom sparen lässt wird sich das in mobilen Geräten als einziger Speicher durchsetzen.
Wie kommst du darauf, dass dies Strom sparen würde?
 
Ich bin kein Spezialist für die technischen Spezifikationen von Speicher. Aber ist es nicht so, dass die kommenden PCI-5 SSD schon mit 16GByte/s kommen? Da sind wir doch schon bei Geschwindigkeitsbereichen, die einfacher DDR3 erreicht hat. Wäre es nicht denkbar, auf den CPUs direkt grosse Caches einzusetzen (die werden ja ohnehin jedes Jahr grösser) und den Rest direkt von einer sehr schnellen SSD zu lesen? Wäre doch sicher preiswerter?
 
rg88 schrieb:
Was hätte das für einen Vorteil gegenüber einem normalen Cache?
Kommt drauf an ob der Cache Volatil ist oder nicht. Mit ner simplen SSD oder 3dXPoint also Optain DIMMs kann man es gut vergleichen.

Erst mal ist es nur eine Technologie mit der Eigenschaft nicht volatil zu sein. Das ist aber nur eine von VIELEN Eigenschaften und erst die Summe ALLER Eigenschaften macht es geil oder shity

rg88 schrieb:
Wie kommst du darauf, dass dies Strom sparen
Naja, wenn man es als Cache in der CPU sehen würde, was da oft gedacht wird, oder zumindest wirklich als RAM, dann muss man nicht so viele Daten bewegen bevor man die CPU ausknipsen kann. Sprich mach kann das einfach öfter machen. Das wars. Da ist keine Magie dahinter.

ABER da wird immer angenommen, dass die neue Technologie die gleichen Eigenschaften wie bisher hat nur eben nonvolatile ist. Das hat bisher aber noch nie gepasst. Daher sehen wir das auch eigentlich nicht in realen Produkten....
 
Skysnake schrieb:
3dXPoint also Optain DIMMs
richtig, da wurde damals ähnliches prognostiziert und jetzt sind wir im Enterprise Segment bei einem niedrigen einstelligen Marktanteil... :p
 
  • Gefällt mir
Reaktionen: rg88
Skysnake schrieb:
Mit ner simplen SSD oder 3dXPoint also Optain DIMMs kann man es gut vergleichen.
Naja, damit baut man aber eigentlich nur nochmal einen zusätzlichen Speicher ein, statt mehrere Speicher zusammen zu legen.
Deshalb fragte ich ja, was er sich für Vorteile als Cache dabei verspricht.
Ergänzung ()

h00bi schrieb:
richtig, da wurde damals ähnliches prognostiziert und jetzt sind wir im Enterprise Segment bei einem niedrigen einstelligen Marktanteil... :p
Wird auch so bleiben. Zum einen zu teuer, zum anderen nur als zusätzliche Speicherschicht sinnvoll nutzbar. Dazu noch proprietär, was wohl der Todesstoß sein wird.
 
Zuletzt bearbeitet:
Da hier bereits das Wort Bullshitbingo fiel und unterstellt wird, die Forscher wollten nur zukünftige Förderer täuschen, möchte ich mal darauf hinweisen, dass alleine die Veröffentlichung als Open Acces die Forscher 3.550 € gekostet hat. Sowas tut man nicht, wenn man der Meinung ist, die Pressemitteilung im PR-Sprech sei besser dazu geeignet, die eigenen Forschungsergebnisse zu verbreiten. Außerdem hat das Journal einen Impact-Factor von über 7, das ist deutlich besser als alles, was ich in meinen 3 Jahren publizieren konnte.

Fazit: Solange niemand das Paper kritisch liest und belegte Gegenargumente hat, handelt es sich hier um die typische Erst-Demonstration eines in der Forschung vielversprechenden Ansatzes, der so neu und hochwertig ist, dass er das entsprechend wertvolle Journal erlaubt. Ob das Ganze dann kommerziell kommt, spielt an dieser Stelle natürlich so überhaupt keine Rolle, es ist ja Forschung.
 
  • Gefällt mir
Reaktionen: Letscho, cloudman, Metalyzed und 2 andere
Colindo schrieb:
Da hier bereits das Wort Bullshitbingo fiel und unterstellt wird,
Ich hab mir das Paper nicht durchgelesen und kann entsprechend den Sachverhalt auch nicht beurteilen. Und selbst wenn ich es gelesen hätte, fehlt mir wahrscheinlich die Kompetenz dazu ;)
Was mir sauer aufstößt ist dieser "Hype" der da im Artikel verbreitet wird. Mit "Durchbruch", "Serie rückt näher" usw. Das suggeriert ein bald marktreifes Produkt und nicht den wahren Zustand einer Grundlagenforschung, deren Ausgang vollkommen ungewiss ist und dessen scheitern viel wahrscheinlicher ist als der die Marktreife und kommerzieller Erfolg...
Ob das nun von den Medien so verzerrt falsch dargestellt wird oder von den Forschern, weiß ich nicht. So wie sich das liest, wird der Hype durchaus von den Forschern geschürt und das ist aus meiner Sicht nicht gerechtfertigt.
 
rg88 schrieb:
Willst das Spiel auf der Grafikkarte installieren?
Eine Grafikkarte hat auch Speicher für Texturen etc. ... vlt. könnte man diesen Speicher auch hierfür nutzen (wenn er günstiger/schneller/größer ist als der derzeit eingesetzte (V)RAM).

Hast du das nicht gewusst oder sollte dein Kommentar einfach nur zynisch sein?
 
@rg88 Hmm, ich verstehe deinen Kritikpunkt, muss aber sagen, dass weder "Durchbruch" noch "Serie rückt näher" wirklich kritische Formulierungen in dem Zusammenhang sind. Die Grenze würde ich ziehen, wenn Michael "kurz vor Serie" geschrieben hätte.
Dass man mit "Forscher demonstrieren..." weniger Interesse weckt, ist ja ein bekanntes Thema.

Du hast aber fast Recht, die Formulierungen kommen von der Uni.
 
  • Gefällt mir
Reaktionen: rg88
Spike Py schrieb:
wenn er günstiger/schneller/größer ist als der derzeit eingesetzte (V)RAM
Ja, wo wir wieder bei der Quadaratur des Kreises wären. Wunderspeicher. Bauernfängerei.
Das ist ein Zielkonflikt der garantiert mit dieser Technik nciht gelöst werden wird.

Spike Py schrieb:
Hast du das nicht gewusst oder sollte dein Kommentar einfach nur zynisch sein?
Nein, der war genauso gemeint mein Kommentar. Wozu sollte man als VRAM Ersatz einen nichtflüchtigen Speicher nutzen?

Colindo schrieb:
dass weder "Durchbruch" noch "Serie rückt näher" wirklich kritische Formulierungen in dem Zusammenhang sind.
Aus meiner Sicht schon. Es suggeriert einen Entwicklungsstand und einen Ausblick, der so nicht stimmt.
 
das gejammer kann ich hier nicht verstehen, viele denken zu sehr auf jetzt bezogen also einen der PC der z.B. nur aus Ram besteht. Klar wirkt das im 1. Moment befremdlich aber wa sman nicht vergessen darf das sich mit neuen Technologien auch neue Prozesse und Architekturen entstehen.

HP hat das ganze ja schonmal 2014 mit the maschine versucht. Auch kann man mit so einer Architektur z.B. Berechnungen pausieren und sie an ein anderes Institut schicken, wie eine SSD und macht dann dort einfach natlos weiter. es muss nichts installiert oder geladen (also von HDD zu RAM) werden.

Man könnte auch einfachere Systeme bauen, also weniger Schnittpunkte (RamSockel) und wer weiß was noch.
 
rg88 schrieb:
Nein, der war genauso gemeint mein Kommentar. Wozu sollte man als VRAM Ersatz einen nichtflüchtigen Speicher nutzen?
Der nach Angabe im Artikel, binnen <1 Sekunde kaputt geschrieben ist.
 
rg88 schrieb:
Willst das Spiel auf der Grafikkarte installieren?

Hängt wohl mehr davon ab ob im Grafikkartenspeicher üblicherweise Daten liegen die auch für zukünftige Ausführungen relevant sind. Dann wäre ein persistenter RAM auch für die GPU sinnvoll, weil man die Daten halt nicht extra von einem Speicher in den anderen laden muss. Wenn da aber beinahe nur Daten liegen die nach Ausführung mangels Wiederverwendbarkeit eh sofort verworfen werden, dann bringts auch nichts wenn die theoretisch auch einen Reboot überleben könnten.


Wie sieht das denn mit dem Aufwand für Betriebssysteme und andere Software aus? Kann mir gut vorstellen, dass da auch heutzutage noch darauf vertraut wird, dass Daten im RAM nach einem Reboot weg sind. Wenn das dann nicht mehr der Fall ist könnte das einige Lücken aufreißen.


Edit: Nachdem ich den Artikel nochmal gelesen habe, sehe ich da aber eher einen haltbareren, schnelleren, sparsameren NAND-SSD-Ersatz als einen RAM-Ersatz.
Für RAM scheinen die Schreibzyklen dann doch zu begrenzt, obwohl im Artikel nur ein Minimum genannt wird. Keine Ahnung ob damit gemeint ist, dass von x Prototypen der mit der geringsten Haltbarkeit nach 10 Mio. Zyklen kaputt ging, oder ob man einfach nur bis zu 10 Mio. Zyklen getestet hat und somit das Limit nicht kennt.
 
Zuletzt bearbeitet:
Zurück
Oben