News ARM, HP und SK Hynix treten „Hybrid-Memory-Cube“-Konsortium bei

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.787
Das junge Hybrid Memory Cube Consortium (HMCC), angeführt von den beiden Speichergiganten Samsung und Micron, hat die Aufnahme dreier neuer Kandidaten verkündet. Mit ARM, HP und SK Hynix treten drei weitere namhafte Firmen dem Verbund bei, dem bereits Altera, IBM, Microsoft, Open-Silicon und Xilinx angehören.

Zur News: ARM, HP und SK Hynix treten „Hybrid-Memory-Cube“-Konsortium bei
 
@Rock Lee

weil RAM-Geschwindigkeit und -Latenzen im Desktop ja sooo wichitg sind (abgesehen von APUs)
Aber schön zu sehen. Diese HMCs sind sihcer im Server umfeld serh interessant um im gleichen Power Envelope ein vielfaches an Arbeitspeicher unterzubringen
 
Schön, dass die Speicher wieder einen Schritt Vorwärts machen.. oder in diesem Fall etwa 20 Schritte. :)
Ich denke aber, dass diese eher weniger für Privatkunden wichtig sein werden.
 
Nebuk schrieb:
Ich denke aber, dass diese eher weniger für Privatkunden wichtig sein werden.

Zu Beginn sicherlich nicht, aber noch scheint da ja nicht wirklich viel fest zu stehen, abwarten, aber für RAM Hersteller sicherlich zu Wünschen um wieder etwas mehr Gewinn einfahren zu können ;)
 
Ist diese Technik nicht auch auf VRAM übertragbar ?
Damit meine ich die Grundtechnik dann auf Grafikspeicher umgesetzt?
 
weil RAM-Geschwindigkeit und -Latenzen im Desktop ja sooo wichitg sind (abgesehen von APUs)

Das geht in die Richtung "Brauchen wir alle nicht, weil ich es mir nicht vorstellen kann!"

Im Moment brauchen wir es vielleicht nur nicht, weil wir bisher eben nur den "langsamen" RAM haben. Alles was wir kennen, wurde ja quasi um bisherige DIMM Lösungen herum gebaut.

Wenn wir dann aber auf einmal mehrere Potenzen schnelleren Speicher haben, dann eröffnen sich vielleicht ganz neue Anwendungsfelder.
Man denke nur mal an so Späße wie "1024mb L4 Cache" - also ein oder zwei solche Dinger direkt neben der CPU (also irgendwo da, wo jetzt die Spannungswandler sitzen, oder gar noch näher.
Das ist dann zwar immer noch langsamer angebunden als aktueller on-die Cache, aber um Welten schneller als RAM.
Dann könnte man eben komplette Dateien, Instruktionen und sonst was direkt in dem Ding ablegen, für nahezu sofortige Verfügbarkeit. Dazu dann die bekannten und dann billigen normalen RAM Riegel mit 8-16GB. Man muss nur mal weiter denken.
Zumal die Kapazität dieses potentiellen "L4" Caches nahezu "unbegrenzt" steigerbar ist. Die Module werden mit der Zeit mit Sicherheit größer. Und dann kommen eben irgendwann 4 solche Dinger an einer Art Quad Channel und schon haben wir 4-8GB, was bedeutet, man kann ganze Anwendungen(!) da rein legen. Das eröffnet ganz neue und ungeahnte Möglichkeiten. Zumal man sich sowieso etwas einfallen lassen muss. "Immer mehr Transistoren in kleinerer Fertigungsgröße" wird wohl ab 2016 (ca.) immer schwieriger. Und solche Lösungen sind eben ein Ansatz um die Systemleistung trotzdem noch exponentiell zu steigern.
Mal ganz abgesehen von den fundamentalen Vorteilen, die sich bei den immer wichtiger werdenden iGPUs bieten.

Finde AMD sollte dieser Foundation noch beitreten. Und Intel ja sowieso.

Sogar im mobilen Bereich bietet sich enormes Potential. Wenn der Verbrauch entsprechend gering ist, könnte man ein komplettes Androit, iOS oder schlimmeres nach dem Start in den HMC hineinladen. Man müsste nur ein paar Anpassungen zwecks Datensicherheit vornehmen. Ich habe vor einigen Jahren auf einer kleinen Gewerbemesse vor Ort mal einen PC bedienen dürfen, dessen OS auf einer RAM Disk lag. Das war abnormal und selbst eine SSD fühlt sich da an wie ein Bandlaufwerk.
Jetzt stelle man sich mal ein komplettes mobiles OS vor, dass von einer RAM Disk aus läuft.
Ich gebe zu - das ist im Moment wirklich nicht zu realisieren. Aber man muss eben auch mal 10 Jahre in die Zukunft denken. Und nur, weil die RAM Geschwindigkeit im Moment eher nebensächlich ist, muss das nicht immer so bleiben. Es ist wie mit dem führten Frontsidebus. Alles war auf diesen Flaschenhals hin optimiert und der deutlich schnellere in den Intel XE CPUs hat quasi gar nichts gebraucht.
Dieser Flaschenhals ist jetzt weg - nur leider nutzt das immernoch nichts, da es wie immer im X86 Bereich ist - Altlasten werden mit sich herumgeschleppt.


Ist diese Technik nicht auch auf VRAM übertragbar ?

Logo. Beinahe 1:1 - dann kommt der Block eben möglichst nahe an die GPU. Bringt sogar massive Vorteile, da ja auf diese paar Quadratmillimeter auf einmal viel mehr Gigabits "draufpassen". Dazu die extrem nahe Lage an der GPU. Da reicht im Prinzip (wenn die Vollmundigen Ankündigungen stimmen) ein 128bit Interface+HMC um einen theoretischen GDDR5@512bit zu überflügeln.
Auch hier ungeahnte Möglichkeiten. So wäre es bei entsprechender Größe des Speichers möglich vorgerenderte Objekte in sensationeller Qualität "einfach" in diesen Speicher zu laden. Diese müssten dann an der entsprechenden Stelle nur noch ins Spiel gebracht werden. Ohne Berechnungen, da ja alles schon vorgerendert ist. Nachladeruckler sollten bei einem entsprechend schnellen Speicher auch nicht auftreten. Dadurch würden enorme Ressourcen frei, da ein Großteil der Objekte schon fertig wären und deren Rechenaufwand nur noch in Speicherverwaltung und Platzierung bestehen würde.
Da werden brachiale Leistungen für Animationen, Effekte, Physik und KI frei! Und ebenfalls bei einer GPU wieder die Vorteile eines enormen "Caches".

Auch auf Grund dessen halte ich es für gar nicht mal so unwahrscheinlich, dass in der übernächsten Konsolengeneration so etwas zum Einsatz kommt. Wenn es nicht zu teuer wird, und diese Konsolen jemals erscheinen (traurigerweise wohl erst um 2020, wenn die westliche Konsumgesellschaft bis dahin nicht zusammengekracht ist - Gott bewahre! bloß nicht).
Neue Konsolen waren ja bei Speichertechnologien immer schon alles andere als Konservativ. Siehe z.B. XDR RAM. Und gerade bei der extremen Optimierbarkeit von Konsolen kann man da ausnutzen, was ich zur GPU geschrieben habe, da man ja für jedes System eine immer gleiche Speichermenge in entsprechender Größe voraussetzen kann (ich tippe bei der Größe, genauso wie bei potentieller Xbox next und PS4 auf die Option "viel zu wenig von allem")
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Schneller, kleiner, weniger verbrauch: einfach besser...ist gekauft ! :D

Aber für solch ein Marketingvideo nimmt man doch eine jüngere Person :-D

Die ultimative Frage ist, ob dadurch DDR(4) wircklich abgelöst wird!
 
NuminousDestiny schrieb:
Schneller, kleiner, weniger verbrauch: einfach besser...ist gekauft ! :D

Aber für solch ein Marketingvideo nimmt man doch eine jüngere Person :-D

Die ultimative Frage ist, ob dadurch DDR(4) wircklich abgelöst wird!

Ich gehe davon aus das HMC der Nachfolger von DDR4 wird... DDR4 kommt auf jeden Fall.

Nach und nach dann hoffentlich auch die HMC´s. Erst in großen ServerFarmen und vielleicht dann auch in den Desktop. Von mir aus auch erst für die GraKas...
 
NuminousDestiny schrieb:
Aber für solch ein Marketingvideo nimmt man doch eine jüngere Person :-D
Ich finde es angenehm wenn man sich manchmal vom Jugendwahn löst. Werbung mit Teenagern die Hightech-Produkte anpreisen ist einfach unglaubwürdig. Da sollten schon die Leute stehen die es entwickelt haben, oder sollen die sich für ihr Alter schämen?
 
Zuletzt bearbeitet:
Sehr gute Sache.
Bitte halbiert/viertelt die Riegel für Desktop und Notebook. Platz ist heute alles, und grade bei Ram sehe ich viel Potenzial.
 
@[F]L4SH
L4 Cache gut und schön, wenn deren Angabe was die Performance angeht stimmt und man davon ausgeht das bestimmt noch >5 Jahre vergehen bis zur Serienreife und somit weiter an der Performance gearbeitet wird würde ich eher sagen das der L3 Cache bald wieder wegfallen könnte...

Vor allem wenn man bedenkt, das dank SSDs, welche auch immer schneller werden, ein weiterer Flaschenhals sich mehr und mehr öffnet muss man auch durchaus aufpassen das man nicht wieder einen Bereich vernachlässigt und einen neuen Flaschenhals schafft.
 
Volker schrieb:
Ende dieses Jahres soll eine finale Spezifikation für HMC als potentiellem DRAM-Nachfolger stehen, womit ein Grundstein für erste Module im kommenden Jahr gelegt wäre.
Öhm das ist sicherlich kein DRAM-Nachfolger.
Das ist DRAM, nur eben mit nem Controller im gleichen Package.

Fonce schrieb:
L4 Cache gut und schön, wenn deren Angabe was die Performance angeht stimmt und man davon ausgeht das bestimmt noch >5 Jahre vergehen bis zur Serienreife und somit weiter an der Performance gearbeitet wird würde ich eher sagen das der L3 Cache bald wieder wegfallen könnte...
Schneller DRAM kann keinen onDie-Cache ersetzen, die Latenzen sind einfach viel zu hoch, auch wenn der Durchsatz enorm ist.
 
Wobei ich mir vorstellen könnte, das man hier durchaus noch auf PRAM oder RRAM setzen könnte welche zwar noch immer nicht an die Latenzen eines aktuellen L3 Cache kommen, aber schon deutlich besser sind als die von DRAM.
 
Uh ne, da liegst du falsch. PRAM (PCM) ist langsamer als DRAM, vor allem beim schreiben. Und SRAM ist ja nochmals erheblich schneller als DRAM. Das wäre ideal als Cache für Massenspeicher wie SSDs oder auch RAIDcontroller, aber nicht als CPU-Cache.
intel-numonyx-reveal-ground-breaking-pcm-technology-test-comparison-chart_BRLch_25552.jpg

Das Problem ist ja auch die Entfernung. Selbst Off-Die SRAM ist ja ziemlich lahm (vergleiche Pentium III "Katmai" gegen den damaligen Celeron "Mendocino". Der Celeron mit mickrigem onDie-Cache schlägt den PIII mit großem Cache auf dem Package).
Das ganze noch außerhalb des Package und die Latenzzeit wird riesig. Das kann man auch nicht mit riesigem Durchsatz ausgleichen.
 
Zurück
Oben