Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News SK Hynix: 3D DRAM soll Kosten der EUV-Fertigung halbieren
- Ersteller MichaG
- Erstellt am
- Zur News: SK Hynix: 3D DRAM soll Kosten der EUV-Fertigung halbieren
- Registriert
- Juni 2019
- Beiträge
- 8.335
Das ist schwer zu sagen aber ich würde sagen mit guter Ausbeute an Reflexion ist aktuell schon die Grenze erreicht.latiose88 schrieb:und ab wann ist technisch schluss also ab welcher Wellenlänge denn?
SVΞN
Redakteur a.D.
- Registriert
- Juni 2007
- Beiträge
- 22.962
Mehr Dichte und damit mehr Kapazität ist [meinerseits] immer zu begrüßen.
Ich bin gerade erst von 64 GB (4x16) DDR4-3600 CL16 auf 96 GB (4x24) DDR5-6000 CL28 und weiß eigentlich immer was damit anzufangen.
Sandboxen, RAM-Disks … da gibt es schon einiges wo mehr RAM = mehr Performance und mehr Komfort bedeutet.
Ich bin gerade erst von 64 GB (4x16) DDR4-3600 CL16 auf 96 GB (4x24) DDR5-6000 CL28 und weiß eigentlich immer was damit anzufangen.
Sandboxen, RAM-Disks … da gibt es schon einiges wo mehr RAM = mehr Performance und mehr Komfort bedeutet.
Stahlseele
Rear Admiral
- Registriert
- Feb. 2009
- Beiträge
- 5.979
Wahrscheinlich wird sich für den Endanwender erst mal recht wenig ändern.
Es werden nur die Produktionskosten gesenkt, wieso sollten diese denn dann auch direkt an den Kunden weiter gegeben werden?
Die Preise werden Pro GB gleich bleiben, nur mit weniger Chips auf den PCBs.
Später wird man dann die Kapazität erhöhen zu entsprechend höheren Preisen.
Und dann kommt irgendwann der Abverkauf, wenn die nächste Generation kommt.
Es werden nur die Produktionskosten gesenkt, wieso sollten diese denn dann auch direkt an den Kunden weiter gegeben werden?
Die Preise werden Pro GB gleich bleiben, nur mit weniger Chips auf den PCBs.
Später wird man dann die Kapazität erhöhen zu entsprechend höheren Preisen.
Und dann kommt irgendwann der Abverkauf, wenn die nächste Generation kommt.
Der Puritaner
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.182
Ich bin mir nicht ganz sicher, aber das glaube ich hingegen nicht, Je mehr RAM zur Verfügung stehen könnte, umso weniger machen sich die Programmierer Gedanken Sinnvoll mit Arbeitsspeicher umzugehen. Möglicherweise braucht es auch einen neuen Controller das der RAM ja Dynamisch sein soll und vielleicht auch neue Speicherbänke. Wodurch auch wieder neue Mainboards gebaut und verkauft werden können.Stahlseele schrieb:Wahrscheinlich wird sich für den Endanwender erst mal recht wenig ändern.
Hauptsache der Speicher benötigt weniger Energie.
Das ist oft der Fall, aber es gibt auch legitime Änderungen im Speicherbedarf. In der Informatik gibt es den Begriff des Time-Memory Tradeoff. Du kannst manchmal die CPU Last reduzieren, in dem du mehr im Arbeitsspeicher ablegst, oder andersrum den Arbeitsspeicherbedarf auf Kosten der CPU reduzieren. Ein einfaches Beispiel wäre Daten komprimiert im Speicher zu halten, was den Speicherbedarf senkt, aber bei jedem Zugriff CPU Leistung zur Dekomprimierung benötigt.Der Puritaner schrieb:Je mehr RAM zur Verfügung stehen könnte, umso weniger machen sich die Programmierer Gedanken Sinnvoll mit Arbeitsspeicher umzugehen
Optimierte Programme sind auf eine Balance zwischen beidem ausgerichtet, die davon abhängt, was mit aktueller Technologie Sinn ergibt. Wenn in Zukunft jeder PC 1TiB Arbeitsspeicher hat, verschiebt sich der Sweetspot und die Definition was ein optimiertes Programm tun solle.
Nighteye
Lieutenant
- Registriert
- Okt. 2013
- Beiträge
- 536
Sei froh dass du kein Star Citizen spielst.latiose88 schrieb:Wobei mehr der Bedarf bei RAM irgendwie bei mir sehr langsam von statten geht. Ich muss mir aber eh in Zukunft mit 32 GB RAM keine Sorgen mehr machen.
Vor ein paar Jahren waren noch 8GB aussreichend, und 16GB empfohlen.
Heute sind 32GB Minimum, und selbst die sind nicht Smooth, sondern 64Gb ist jetzt Standard.
Mein nächstes System wird auf jeden fall 128Gb haben müssen für Star Citizen, um auch mal länger als 5 Jahre nicht den Ram erweitern zu müssen. Aber ok gibt ja noch viele Videospiele die laufen sogar mit 16GB Sehr gut, wie zb World of Warcraft, da bist du mit 32GB also gut aufgestellt.
Der Puritaner
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.182
Ich habe die Vermutung, dass Hardwarehersteller als auch die Game Industrie Hand in Hand zusammen arbeiten. Das wäre ja auch noch schöner, wenn Modernere Spiele mit einem AMD K6 Spielbar wären.
hans_meiser
Lt. Commander
- Registriert
- Jan. 2016
- Beiträge
- 1.353
Vorteil ist so ziemlich Null. Windows und Linux benutzen freien Speicher dazu, Dateien zu puffern (als 'cache') damit, sollten sie nochmal gelesen werden, diese schon im RAM liegen. Auch Schreibvorgänge können z.T. gepuffert werden ("lazy write") um Arbeitsgeschwindigkeit zu erhöhen.latiose88 schrieb:Ich könnte weil ich wohl bald 64 GB habe nen ramdisk machen. Alles in den RAM laden. Welche Vorteile kann man dann davon haben und wie richtet man ne RAM disk ein?
Jetzt manuell eine ramdisk anlegen ist dann eher müßig, einmal müssen die Daten ja eh geladen werden (in die ramdisk.) Macht schon mehr Sinn, das Betriebssystem das automatisch und dynamisch machen zu lassen.
Zu DOS- und frühen Windowszeiten war das noch anders, da hat man sich oft mit ramdisks beholfen da die Systeme das nicht eingebaut hatten.
@latiose88 @hans_meiser Habe meinen Download-Ordner als RAM-Disk. Lade schon so mehrere GB pro Tag runter. So müll ich meinen PC nicht voll und schone meine SSD ein wenig.
Habe wegen Home-Office 128 GB RAM drin, ist ja heute kein Ding mehr. Privat bekomme ich die aber kaum sinnvoll ausgelastet.
Habe wegen Home-Office 128 GB RAM drin, ist ja heute kein Ding mehr. Privat bekomme ich die aber kaum sinnvoll ausgelastet.
Land_Kind
Lieutenant
- Registriert
- Jan. 2013
- Beiträge
- 641
Die Skalierung ist praktisch am Ende, deshalb muss sich auch bei der Wellenlänge die bei der Lithographie eingesetzt wird, nicht mehr viel ändern. Was man sehr schön an der Potential logic scaling roadmap vom IMEC sieht:latiose88 schrieb:OK verstehe und ab wann ist technisch schluss also ab welcher Wellenlänge denn?
Der Pitch der Metallisierungsebene M0 ist die feinste Struktur. Beim Metall Pich sieht man dass er eine Kurve beschreibt, die immer flacher wird. Wenn ich mir den Verlauf ansehe sollte eine Wellenlänge mit 5 nm auf Dauer ausreichen. ASML hat auch den Weg über die Synchrotronstrahlung geprüft und verworfen. Aber das heißt nicht, dass hier nicht weiter geforscht wird.
Und trotzdem steigt die Transistordichte immer weiter. Weil die Skalierung durch die Lithographie nicht mehr der Treiber ist, rücken andere Techniken bei der Halbleiterfertigung mehr in den Vordergrund.
Eine DRAM-Zelle besteht aus eine Transistor und einem Kondensator. Bei DRAM ist aber nicht der Transistor die Herausforderung, sondern der Kondensator. Hier ist man schon lange in die 3. Dimension gegangen, um genügend Kapazität zu erreichen. Aber hier kämpft man mit vielen Problemen, EUV wird erst dann interessant, wenn die anderen Probleme gelöst sind und feinere Strukturen überhaupt physikalisch erst möglich sind. D. h. Erforschung neuer Materialien und Entwickeln von Technologien wie diese abgeschieden werden können sind hier viel wichtiger als EUV. Deshalb hängen die DRAM-Hersteller bei EUV zurück.
Nein.Yosup schrieb:Heisst denn dann 16 Lagen auch die 16fache Kapazität pro Chip, und damit theoretisch auch 16fach größere DIMMs? Das wäre ja extrem ordentlich. Ginge dann Richtung halbes bis ganzes TB pro DIMM...
Aktuell sehen DRAM-Zellen so aus :
aus einem Vortrag von Jim Handy OBJECTIVE ANALYSIS aus dem Flash Memory Summit 2022
3D-DRAM Zellen könnten so aussehen:
Das heißt die Fläche, die je Bit benötigt wird, steigt. Und damit müssen erst einmal genügend Layer zusammenkommen, um die größere Fläche je Bit zu kompensieren.
Aber das öffnet neuen Speichertechnologien die Tür. Hier tut sich Momentan einiges. Dem auch SRAM hat Skalierungsprobleme.
Die Wafer werden abgeschliffen, denn nur so werden Verbindungen durch den Wafer (Through Silicon Via, TSV) möglich. Was natürlich ganz besondere Probleme erzeugt wenn man mit einer Pizza mit der Stärke von ca. 20 µm hantiertLand_Kind schrieb:Ähhh... mal ne kleine Verständnisfrage an die Klugen im Forum: Werden die Wafer überhaupt durch das Stapeln irgendwann dicker (oder höher)?
Hoppla, hat sich möglicherweise erledigt, da steht ja was von vollflächig verbundenen Wafer.
hans_meiser
Lt. Commander
- Registriert
- Jan. 2016
- Beiträge
- 1.353
@S.Kara Das ist eigentlich eine sehr gute Idee! Habe ich noch nie in Erwägung gezogen. Ein anderer großer Vorteil ist, daß die ganzen downloads nach reboot futsch sind, was mir gefällt. Für downloads die ich später nochmal brauche habe ich eh' die Angewohnheit, diese in einen anderen Ordner zu kopieren.
B
Bruhtang
Gast
So technisch gesehen nicht ganz richtig. Die breite der einzelnen Finnen ist in der Regel nochmal deutlich kleiner. Bei den meisten Standard oder Custom Cells die man sich so in Cadence zusammenschustert werden pro Transistor jedoch mehrere Finnen genutzt, um die Kanalweite brauchbar zu halten. Das man wirklich die Minimalkanalweite von einer Finne (ein paar nm) ausnutzt, passiert allerdings nur in vergleichsweise wenigen Orten im Layout.ETI1120 schrieb:Der Pitch der Metallisierungsebene M0 ist die feinste Struktur.
Das ist auch ein Punkt wo nanowires und nanosheets mit den gestapelten Kanälen potentiell einen Vorteil bei der Dichte versprechen.*
*Sofern die Mindestabstände auf M0 in den design rules oder extended design rules mitspielen.
Knut Grimsrud
Lt. Junior Grade
- Registriert
- Mai 2008
- Beiträge
- 273
Nummer_1 schrieb:Dwr Bericht irritiert etwas beim Lesen. 1c sollen die kosten steigen? Was ist 1c? Ist das schon 3D RAM? Und mit 3D wieder sinken? Also am Ende praktisch plus minus 0??
PS828 schrieb:@Nummer_1 es gibt nach 1c auch noch 1b und 1a usw. Immer kleiner werdend (...)
Bei DRAM gab es viel mehr kleine "Sprünge" bei der Fertigungsdichte, als man das sonst so von CPUs oder GPUs kennt, zumindest in den letzten Jahren. Im Artikel heißt es z.B. auch 10-nm-Klasse. Der erste Fertigungsschritt in dieser 1x-Klasse war 1x. Darauf folgten 1y, 1z, 1a/1α, 1b/1β und nun 1c/1γ. Beispielquellen: 1 & 2 & 3
BTT: Abgesehen von den Zielen mehr RAM für Server und GPGPU sehe ich für den Endverbraucher viel mehr das Ziel, auch hier den Flächenverbrauch des RAM zu reduzieren. Fläche ist nicht nur in Smartphones von Relevanz sondern auch in Laptops und sogar in manchem Desktop-Rechnern. Es ließe sich gar nicht mal so wenig Platz einsparen, wären die Module z.B. nur noch halb so lang.
CAMM(2)-Module machen hier schon einen Schritt in die gleiche Richtung, wenn wohl auch eher aus anderen Gründen. Allerdings ließe sich mit schmaleren Modulen möglicherweise auch die Länge der Signalwege zum CPU-Sockel reduzieren, was den Latenzen und dem Energierverbrauch zugute käme.
Und mal etwas gesponnen: Vielleicht gibt es zukünftig nicht nur CPUs mit gestapeltem SRAM (der erweiteterte L3-Cache von Ryzen X3D-CPUs) sondern auch (wieder) CPUs mit (auf)gestapeltem RAM. Broadwell (Intel Core ix-5xxxC) war z.B. so eine CPU, die in Spielen bereits stark davon profitieren konnte. Klar, SRAM ist schneller. Aber DRAM wäre günstiger und wäre größer. Vielleicht die "Arme-Leute"-Lösung ... und ein neuer Standard.
Terabyte100
Lieutenant
- Registriert
- März 2016
- Beiträge
- 728
Die meisten modernen Spiele sind mit 10 bis 15 Jahre alten cpus Spielbar. Ich würde sagen das ist schon ganz gut. Die Spiele mussten halt darauf optimiert sein auf einer ps4 mit einer CPU auf dem Level eines i5 gen 2 zu laufen. Und das mit halber singelcore Leistung. Und das merkt kan sogar noch in recht aktuellen titteln.Der Puritaner schrieb:Ich habe die Vermutung, dass Hardwarehersteller als auch die Game Industrie Hand in Hand zusammen arbeiten. Das wäre ja auch noch schöner, wenn Modernere Spiele mit einem AMD K6 Spielbar wären.
in BW sitzen beide Hauptkomponentenfertiger.coolyhat schrieb:Es ist eine Firma in Baden Württemberg, die mit dem letzten Buchstaben des Alphabets anfängt.
Ergänzung ()
Ach, das gibt’s noch?Nighteye schrieb:Mein nächstes System wird auf jeden fall 128Gb haben müssen für Star Citizen, um auch mal länger als 5 Jahre nicht den Ram erweitern zu müssen.
Was macht denn Sq42?
Wie gesagt eine DRAM-Zelle besteht aus einem Transistor und einem Kondensator. Deshalb hat das Skalieren von DRAM-Zellen ganz andere Herausforderungen als das Skalieren von Logik-Zellen.Knut Grimsrud schrieb:Bei DRAM gab es viel mehr kleine "Sprünge" bei der Fertigungsdichte, als man das sonst so von CPUs oder GPUs kennt, zumindest in den letzten Jahren. Im Artikel heißt es z.B. auch 10-nm-Klasse. Der erste Fertigungsschritt in dieser 1x-Klasse war 1x. Darauf folgten 1y, 1z, 1a/1α, 1b/1β und nun 1c/1γ. Beispielquellen: 1 & 2 & 3
Was nutzt es den Transistor zu verkleinern, wenn die Zelle nicht kleiner wird, weil dies der Kondensator verhindert?
Was Du hier ansprichst, betrifft weniger das Fertigen der RAM-Chips, sondern das Packaging und die Organisation des Packages.Knut Grimsrud schrieb:BTT: Abgesehen von den Zielen mehr RAM für Server und GPGPU sehe ich für den Endverbraucher viel mehr das Ziel, auch hier den Flächenverbrauch des RAM zu reduzieren. Fläche ist nicht nur in Smartphones von Relevanz sondern auch in Laptops und sogar in manchem Desktop-Rechnern. Es ließe sich gar nicht mal so wenig Platz einsparen, wären die Module z.B. nur noch halb so lang.
Traditionell werden die DDR5 SDRAM Dies einzeln in ein Gehäuse gepackt. Und dann ist es eine einfache Rechnung wie viele Packages man auf ein Modul Packen muss, um eine bestimmte Kapazität zu erreichen. Die Organisation des Packages legt fest wie breit das Speicherinterface ist. Je breiter
Ausnahmen sind LPDDR und HBM, hier sind jeweils mehrere Dies in einem Package. Deshalb bieten diese Varianten je Package erheblich höhere Kapazitäten als DDR5 SDRAM Packages.
3D DRAM bringt neue Optionen. Die einzelnen Chips bestehen aus vielen Schichten was es einfacher macht hohe Kapazitäten im Package zu erreichen oder Varianten mit breiterem Interface anzubieten.
Aber es wird noch eine Weile dauern bis 3D DRAM tatsächlich auf den Markt kommt.
CAMM2 Module wurden für das Notebook entworfen. In wie seit sie tatsächlich im Notebook zu Einsatz kommen werden wir sehen. LPDDR5 SDRAM bietet gerade im Notebook einiges an Vorteilen gegenüber DDR5 SDRAM. Da mit LPCAMM2 nun ein Modul für LPDDR SDRAM bereitsteht entfällt ein weiterer Grund für DDR5 SDRAM im Notebook.Knut Grimsrud schrieb:CAMM(2)-Module machen hier schon einen Schritt in die gleiche Richtung, wenn wohl auch eher aus anderen Gründen. Allerdings ließe sich mit schmaleren Modulen möglicherweise auch die
Natürlich wird CAMM als ein neuer Formfaktor auch für andere Verwendungen geprüft. MSI prescht hier bei den PC-Mainboards nach vorne und rührt kräftig die Werbetrommel.
Latenzen ist die Argumentation mit der MSI CAMM2 im Desktop pushen möchte.Knut Grimsrud schrieb:Länge der Signalwege zum CPU-Sockel reduzieren, was den Latenzen und dem Energierverbrauch zugute käme.
Das würde aber das Konzept des PCs beerdigen.Knut Grimsrud schrieb:Und mal etwas gesponnen: Vielleicht gibt es zukünftig nicht nur CPUs mit gestapeltem SRAM (der erweiteterte L3-Cache von Ryzen X3D-CPUs) sondern auch (wieder) CPUs mit (auf)gestapeltem RAM. Broadwell (Intel Core ix-5xxxC) war z.B. so eine CPU, die in Spielen bereits stark davon profitieren konnte. Klar, SRAM ist schneller. Aber DRAM wäre günstiger und wäre größer.
Für den Energieverbrauch ist der Hauptspeicher im CPU Package von Vorteil.
Was die Performance anbelangt funktionieren bei den für PCs üblichen Workloads SRAM Caches hervorragend. Es ist doch bezeichnend dass X3D bei vielen Anwendungsprogrammen auf dem PC nichts bringt. Auch der Performance-Zuwachs durch DDR5 SDRAM im verglaich zu DDR4 SDRAM hat die meisten nicht wirklich umgehauen.
Es ist keine Arme Leute Lösung, sondern eine reiche Leute Lösung.Knut Grimsrud schrieb:Vielleicht die "Arme-Leute"-Lösung ... und ein neuer Standard.
Sie muss früher oder später bei Data-Center GPUs kommen. Hier werden im gegensatz zum PC riesige Datenmengen verarbeitet und je kürzer diese Datenmengen bewegt werden desto weniger Energie wird benötigt.
Allerdings muss zuerst noch gelöst werden sie ein aktiver Stack gekühlt werden kann.
hans_meiser
Lt. Commander
- Registriert
- Jan. 2016
- Beiträge
- 1.353
@ETI1120 Du hast ja einiges an Ahnung. Ich nicht, in dem Bereich, aber ich habe ein paar Kleckser über CUDIMMs gelesen (z.B. hier https://www.anandtech.com/show/21455/making-desktop-ddr5-even-faster-cudimms-debut-at-computex) ich frage Dich, ob Du irgendwie Ahnung hast, ob das für consumer bald rauskommt, oder jemandes Traum ist? Wenn ich total falsch anklopfe, kein Problem einfach ignorieren
Ähnliche Themen
- Antworten
- 22
- Aufrufe
- 7.268
- Antworten
- 34
- Aufrufe
- 7.234
- Antworten
- 20
- Aufrufe
- 5.475