News Speicherforschung: SanDisk 3D Matrix Memory soll die Memory Wall einreißen

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.513
  • Gefällt mir
Reaktionen: Lonex88, aid0nex, zhompster und 10 andere
Das Leistungsniveau soll in etwa jenes von DRAM erreichen.
"In etwa" macht mich skeptisch. Frage: "3D Matrix Memory" ist kein DRAM? Was ist es dann?
 
  • Gefällt mir
Reaktionen: aid0nex, lynx007, SgtChronos und eine weitere Person
Da wäre es fast eine Überlegung wert sich ein paar Aktien von denen auf Halde zu legen ... :freaky:
 
  • Gefällt mir
Reaktionen: Axonteer
hier muss ich mal paper dazu lesen um dazu mehr in erfahrung zu bringen wie gleich es sich später zu DRAM in der realität anfühlt. weil darauf kommt es letztlich an um lückenlos einsetzbar zu sein.
 
  • Gefällt mir
Reaktionen: evilhunter
Cr4y schrieb:
"In etwa" macht mich skeptisch. Frage: "3D Matrix Memory" ist kein DRAM? Was ist es dann?
In der Tat kein Wort zum Prinzip mit dem gespeichert wird. Und gerade das wäre interessant zu wissen wie man das Einschätzen soll.
 
  • Gefällt mir
Reaktionen: lynx007 und iron_monkey
Wir waren mal früher in der Lage ohne RAM auszukommen, indem wir einfach Daten in den Cache abgelegt haben. Heute hat eine Epyc X3D CPU bis zu 512 MB Cache. Da würde man ein ganzes Betriebssystem reinbekommen.

Was Grafikkarten betrifft, kann Nvidia mit KI Texturkompression den Bedarf in Zukunft stark reduzieren. Wir hoffen natürlich, dass dies nicht zum Grund genommen wird, weniger VRAM zu verbauen. *zwinker
 
  • Gefällt mir
Reaktionen: flynn9 und ThePlayer
Ich begrüße Vorstöße von SanDisk, mit neuer Technologie derzeitige technologische Hürden einzureißen. Besonders der AI Boom sorgt dafür, dass immer mehr Leistung benötigt wird, wenn man auf etwas Geschwindigkeit verzichten kann und dafür Sprachmodelle im RAM laufen lässt, wenn man nicht mehrere H100 GPU Beschleuniger sein Eigen nennen kann.
Erst kürzlich habe ich ein Video von C't gesehen, die einen 1,4 Terrabyte Rechner für ein Deepseek Modell genutzt haben.

Mir kommt es so vor, als würden die Anforderungen von Applikationen mit den marktüblichen Standards mitwachsen.
Kaum auszudenken mit welch leistungsschwachen Apparaten wir mal unterwegs waren, wenn man sich mal den Resourcenbedarf einiger Applikationen und Spiele heute anguckt.
Ich denke die Entwickler kümmert Optimierung und Ressourcensparen immer weniger. Das nimmt zum Teil auswüchsige Züge an. Teilweise verbraucht mein Firefox über 30GB RAM. Da könnte man sicher selbst optimieren. Dennoch, andere Browser kriegen das von Haus aus hin.
 
  • Gefällt mir
Reaktionen: redfng
Schon wieder eine Meldung zu SanDisk, aber wieder einmal sehr zurückhaltend mit Informationen. In den nächsten Jahren werden die den Markt sicherlich noch nicht an sich reißen.

Simanova schrieb:
Was Grafikkarten betrifft, kann Nvidia mit KI Texturkompression den Bedarf in Zukunft stark reduzieren.
Die 20 GB bei den Consumern dürften nicht das Problem sein, sondern die 200 GB HBM3 bei den dicken Karten.
 
  • Gefällt mir
Reaktionen: ILoveShooter132 und ThirdLife
Ach Mist hab den Artikel zu Hälfte gelesen und die ganze Zeit Nandflash vor Augen gehabt. Halber Preis bei vierfacher Kapazität. Das wären ja schon fast HDD Preise pro GB. Aber es geht hier um DRAM.
Gut dann wird es ab 2030 eventuell einen Sprung bei der VRAM Größe bei Grafikkarten geben. Falls sie damit nicht nur auf KI Beschleuniger abzielen.
 
@Cr4y naja das ist dann DDDR-RAM...
 
  • Gefällt mir
Reaktionen: Geckoo
Simonsworld schrieb:
Teilweise verbraucht mein Firefox über 30GB RAM. Da könnte man sicher selbst optimieren.
Ich habe schon seit langem den Datenträger-Cache in die RAM-Disk gelegt, da der bei heutigen Internetverbindungen keinen Sinn macht: Je größer der wird, um so langsamer, so dass das prüfen, ob etwas im Cache noch aktuell ist, oder die aktuelle Version aus dem Internet geladen werden muss, länger dauern kann, als würde man die aktuelle Version sofort aus dem Internet laden. - Vom Resourcenverbrauch und der unnötigen Schreiblast auf dem Datenträger (gerade Firefox ist für exzessives Verhalten ja berüchtigt) ganz zu schweigen.

Auch der Browser startet nach einem Reboot deutlich schneller, da der Datenträger-Cache ja leer ist und nicht erst initialisiert (oder was auch immer der Browser beim ersten Start damit macht) werden muss.
 
  • Gefällt mir
Reaktionen: Simonsworld
Die größte Memory- Wall gegen die wir generell seit Jahren rennen ist die der Latenzen. Die Bandbreite steigt und steigt. Die generelle Zugriffsgeschwindigkeit aber nicht mehr.
Das kompensiert man jetzt mit hohem Aufwand und nur zum Teil über größere Caches, was das ganze aber auch kompliziert und teuer macht.
 
  • Gefällt mir
Reaktionen: Jintho und Chaosbreed
Simanova schrieb:
Wir waren mal früher in der Lage ohne RAM auszukommen, indem wir einfach Daten in den Cache abgelegt haben. Heute hat eine Epyc X3D CPU bis zu 512 MB Cache. Da würde man ein ganzes Betriebssystem reinbekommen.

Mein Ryzen 8700G hat mit 16MB genausoviel Cache wie mein damals ueppig ausgestatteter 486DX2/66 von 1993 RAM hatte. Damals passte da locker Linux und Anwendungen hinein, aber der alte Kernel wird auf dem 8700G nicht booten; sogar fuer uebliche VMs ist der alte Kernel zu alt.
 
Simanova schrieb:
Wir waren mal früher in der Lage ohne RAM auszukommen, indem wir einfach Daten in den Cache abgelegt haben. Heute hat eine Epyc X3D CPU bis zu 512 MB Cache. Da würde man ein ganzes Betriebssystem reinbekommen.
Windows XP lief sehr gut mit 512 MB, also so weit zurück müsste man nicht mal.
Ergänzung ()

Caramon2 schrieb:
Ich habe schon seit langem den Datenträger-Cache in die RAM-Disk gelegt, da der bei heutigen Internetverbindungen keinen Sinn macht: Je größer der wird, um so langsamer, so dass das prüfen, ob etwas im Cache noch aktuell ist, oder die aktuelle Version aus dem Internet geladen werden muss, länger dauern kann, als würde man die aktuelle Version sofort aus dem Internet laden.
Vermutlich auf Windows mit Virenschutz? Wäre mal ein interessanter Vergleich. Windows ist berüchtigt langsam wenn es ums Filesystem geht. Ich hatte bei grösseren Javascript-Projekten teilweise Faktor 30 schnellere Buildzeiten auf Linux als auf Windows. Der Virenschutz spielt da aber sicherlich auch eine grosse Rolle.
 
  • Gefällt mir
Reaktionen: Roi-Danton
ETI1120 schrieb:
In der Tat kein Wort zum Prinzip mit dem gespeichert wird. Und gerade das wäre interessant zu wissen wie man das Einschätzen soll.
Definitiv. Aber sowas kennt man ja schon von anderen versprochenen "Revolutionen" im Speicherbereich. Als z.B. Samsung den Z-NAND vorgestellt hatte, gab es ja in erster Linie großes Schweigen...
 
Brrr schrieb:
Vermutlich auf Windows mit Virenschutz?
Ne, Windows bekommt von mir schon seit 2015 keinen Internetzugang mehr: Dadurch ist es nahezu unangreifbar (sogar für Microsoft ;)) und läuft erstaunlich stabil.
Brrr schrieb:
Wäre mal ein interessanter Vergleich. Windows ist berüchtigt langsam wenn es ums Filesystem geht.
Das kann ich nur für Win 10+11 bestätigen (Vista bis einschließlich Win 8.x habe ich nie genutzt), da Windows XP im direkten Vergleich beim Videoschnitt (DVB-S (SD), reines Streamcopy) mit VideoReDo 4 doppelt so schnell war (das ging bei der Aufnahme wirklich so glatt auf und war reproduzierbar):
  • Windows XP Home per KVM unter LinuxMint: 45 Sek.
  • Windows XP Pro x64: 1 Min.
  • Windows 10 Pro x64: 2 Min.
Quelle war ein USB3-Stick mit 140 MB/s Lesegeschwindigkeit, Ziel eine 250 GB BX100 mit 360 MB/s Schreibgeschwindigkeit (MLC, kein SLC-Cache).

Für meinen jetzigen PC gibt es keine XP-Treiber mehr, deshalb konnte ich vor ca. 2 Jahren Win 10+11 nur mit dem VM-XP vergleichen: Windows 10 22H2 war weiterhin mehr als doppelt so langsam, Win 11 22H2 aber nicht noch langsamer. - Wenig überraschend, da es "unter der Haube" nur ein relabeltes Windows 10 ist (einfach im DOS-Fenster "ver" ausführen). - Vermutlich um den TCP-Zwang zu rechtfertigen, da es ja eine "neue" Version ist…
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Brrr
Die Branche rennt gegen eine Memory Wall
Nee die Zocken ab und bringen einfach keine großen Module mit mehr Kapazität.

4800 Skhynix 256GB 2S4Rx4 HMCT14MEERA150N CL46
4800 Samsung 128GB 2S2Rx4 M321RAGA0B20-CWKBH CL46
Selbst bei PRO bekommst Du kaum große Riegel, wenn nur schlechte von der Leistung her und zu Preisen dann könnten die Hersteller einem auch ins Gesicht spucken.
Geht schon los auf Papier gibt es 256GB Riegel, nur niemals zu kaufen oder DDR5 ECC 8000 nur als max 24GB.
Normalerweise haben die Riegel mit weniger Takt dafür gute CL Werte auch das ist hier nicht mehr der Fall.

Mich nerven auch diese 24/48/96GB Riegel, die Dinger kommen mir immer mehr wie eine Mogelpackung vor.
Man kennt das ja, bei Lebensmitteln gleicher Preis oder teurer, dazu weniger Inhalt.
 
Zurück
Oben