News Rambus: Neue Speichertechnologie für massives Umsatzwachstum

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.787
Rambus schickt sich nach Jahren der Hintergrundarbeit an, wieder ins Rampenlicht zu treten. Ein neues Speicherprojekt soll nicht weniger als die Probleme der aktuellen Datenzentren hinsichtlich Latenzen und Kapazität angehen, vor denen diverse Unternehmen seit Jahren stehen.

Zur News: Rambus: Neue Speichertechnologie für massives Umsatzwachstum
 
Rambus... damit verbinde ich seit jeher nur die völlig überteuerten RAM-Riegel für den P4, die grandios gefloppt sind... und nachher haben die wie wild rumgeklagt.

Das es Rambus noch gibt ist echt ne Überraschung für mich.
 
Warum das den?
Die Firma war und ist nun einmal fortschrittlich gewesen, leider zu teuer damals...
Aber wenn man eben existenziell wichtige Patente hat, dann lebst davon ohne irgendwas machen zu müssen.

Bin gespannt was Sie diesmal so herzaubern.
 
Die Ankündigung enthält ja nicht gerade viel.
Stutzig macht mich, dass sie behaupten, mehr oder weniger etwas komplett neues gebaut zu haben.

Hätte ansonsten viel eher auf einen XDR3 Speicher in 3D oder wenigstens 2,5D Design getippt.
 
SoilentGruen schrieb:
Ach waren das noch Zeiten, als man für P3 noch RAMBUS-RAM oder DDR kaufen konnte. :D War schon lustig und irgendwie damals auch sinnlos, aber wenn man sowas hatte, hat man sich irgendwie gut gefühlt. So wie heute, wenn man statt nur 8GB eben 16GB drin hat usw. :D
 
RAMBUS gab es nie für die Plattform PIII. Nur für die ersten PIV. Und auch da galt, nicht entweder oder. Entweder hatte man ein PIV mit RAMBUS Unterstützung oder eben dann später einen mit DDR. Aber nie gleichzeitig.

Aber im Grunde galt damals. RAMBUS war mit Abstand der schnellere Speicher. Mit großen Abstand. Aber er hat sich eben nicht durchgesetzt. Allen voran des Preises wegen. Aber technisch besser war er.
 
Speicher ist eines der größeren Probleme der IT-Industrie der nahen Zukunft.

Das Gegenteil ist der Fall. Der Prozessortakt ist in den letzten zehn Jahren nicht groß gestiegen und auf dem heutigen Halbleitermaterial wird er auch nicht mehr groß steigen, die Speicherzugriffszeit sinkt aber leicht. Klar, Speicher ist nach wie vor ein Flaschenhals, aber durch Cachehierarchie, Sprungvorhersage und Hyperthreading hat sich das entspannt. Warum Speicher aber wieder mehr zum Flaschenhals werden sollte ist mir rätselhaft.
 
Nein der Speicher ist das Problem. Die FLOPs der Prozessoren steigen schon seit Jahrzehnten schneller als der Datendurchsatz und die Latenzen des Speichers und somit sind praktisch alle gut optimieren Anwendungen speicher- und nicht rechenlimitiert.
 
Naja, wäre ja doof wenn die sagen würden, "es gibt zwar keine großen Probleme mit dem Speicher, aber wir haben da trotzdem was gaaanz Tolles entwickelt".
 
Also Volker ich muss dich nun wirklich mal persönlich fragen: Wie schaffst du es alle kommenden Speichertechniken zu Listen
Neben Hybrid Memory Cube (HMC) als greifbare Next-Gen-Lösung tun sich STT-MRAM, Phase Change Memory sowie Resistive Memory (ReRAM) als Alternativen auf.
Aber dabei den einzigen tatsächlich für kommende Produkte schon bekannten und als erstes den Massenmarkt erreichende HBM nicht zu erwähnen. Wenn ich jetzt frage "weil den AMD verbaut?" liegt das an verschiedenen News der letzten Wochen.

Genau dieser HBM wird wohl auch der Grund für die Ankündigung sein.
 
Was ist der Zusammenhang mit den FLOPs? Die FLOPs werden seit Jahren schön gerechnet, das ist alles. Die größten Steigerungen sind da durch Multicore gekommen, und das hat mit der Speicherzugriffszeit nichts zu tun.
 
Daedal schrieb:
Also Volker ich muss dich nun wirklich mal persönlich fragen: Wie schaffst du es alle kommenden Speichertechniken zu Listen Aber dabei den einzigen tatsächlich für kommende Produkte schon bekannten und als erstes den Massenmarkt erreichende HBM nicht zu erwähnen. Wenn ich jetzt frage "weil den AMD verbaut?" liegt das an verschiedenen News der letzten Wochen.

Genau dieser HBM wird wohl auch der Grund für die Ankündigung sein.

HBM ist ja komplett HMC nur mit anderem Namen, es ist von SK Hynix statt Micron. SK Hynix ist aber Teil des Memory Cuce Consortiums von Micron, da sammelt sich das alles was irgendwie anders heißt aber das gleiche Ziel hat: https://www.computerbase.de/2012-06/arm-hp-und-sk-hynix-treten-hybrid-memory-cube-konsortium-bei/

Ich hab es aber mal ergänzt ;)
 
Zuletzt bearbeitet:
Ich habe die Überschrift gesehen und das erste Mal heute gelacht :)

Wäre natürlich trotzdem cool, wenn es eine entsprechende Entwicklung gäbe, brauchen wir dringend.

Irgendwo stehen noch die Reste einer P4-Xeon Workstation mit Rambus-RAM, die habe ich bis Anfang 2012 (mit Windows 7 32 Bit!) genutzt, bis der 2.4(?) GHz Singlecore und 1 GB RAM einfach zu wenig waren. Aufrüstung ging schlecht weil 4x256 MB verbaut waren und 512 MB Rambus Module damals ihr Gewicht in Gold kosteten und ich den billigst eingekauften Prizessor für den zweiten Sockel mangels Standard-Kühllösung nie eingebaut habe. Good times, ich brauchte nie eine Heizung :D
 
B3ttWuR5tNapAlm schrieb:
Warum das den?
Die Firma war und ist nun einmal fortschrittlich gewesen, leider zu teuer damals...

Das liegt aber nicht an den Preisvorstellungen, sondern an der Technik selbst, wieso das so teuer war.

Volker
HBM gehört aber zu JEDEC und HMC nicht. Auch ist HBM in erster Linie als GDDR5 Ersatz gedacht und unterscheiset sich durch aus. Auch sind sie nicht pin kompatibel. Klar ist das nicht das selbe und die Argumentation für die selbe Aufgabe ist einfach lächerlich.
 
Zuletzt bearbeitet:
adebar17 schrieb:
[...] Warum Speicher aber wieder mehr zum Flaschenhals werden sollte ist mir rätselhaft.
Damit man seine Produkte besser an den Mann bringen kann, simple Logik. ;)
 
Als ob RAMBUS da jetzt irgendwas tolles aussem Hut Zaubern würde. Ich glaub einfach für die ist der Zug abgelaufen, SK Hynix, Micron und Intel sind da schon seit zig Jahren Massiv am Entwickeln, teilweise gehen die Produkte bald wohl schon in Massenproduktion.

Und RAMBUS erzählt was total tolles, aber nichts Konkretes? Das ist einfach n riesieges Luftschloss m.M.n.
 
adebar17 schrieb:
Das Gegenteil ist der Fall. Der Prozessortakt ist in den letzten zehn Jahren nicht groß gestiegen und auf dem heutigen Halbleitermaterial wird er auch nicht mehr groß steigen, die Speicherzugriffszeit sinkt aber leicht. Klar, Speicher ist nach wie vor ein Flaschenhals, aber durch Cachehierarchie, Sprungvorhersage und Hyperthreading hat sich das entspannt. Warum Speicher aber wieder mehr zum Flaschenhals werden sollte ist mir rätselhaft.

Bloß weil der CPU-Takt nicht hochgeht, bedeutet das nicht das CPUs nicht schneller werden. Takt ist nunmal nicht alles(seit ca 2001 als die XP Athlon kamen). Recherchiere mal wie(viel) RAM in der Industrie genutzt und benutzt wird. Wenn ich dich so lese habe ich eher den Eindruck daß du deine Desktoperfahrungen da fehlüberträgst.
 
Doch, Takt ist alles, wenn es um die Speicherzugriffszeit und einen Flaschenhals deswegen geht, Hito. Ich habe nie behauptet, dass CPUs deswegen nicht schneller werden. Und über die Speichergröße habe ich auch keine Aussage getroffen.
 
adebar17 schrieb:
Das Gegenteil ist der Fall. Der Prozessortakt ist in den letzten zehn Jahren nicht groß gestiegen und auf dem heutigen Halbleitermaterial wird er auch nicht mehr groß steigen, die Speicherzugriffszeit sinkt aber leicht. Klar, Speicher ist nach wie vor ein Flaschenhals, aber durch Cachehierarchie, Sprungvorhersage und Hyperthreading hat sich das entspannt. Warum Speicher aber wieder mehr zum Flaschenhals werden sollte ist mir rätselhaft.

Der Prozessortakt steigt deswegen nicht weil es zum einen physikalische Grenzen gibt und zum anderen, was viele vergessen, die Triebfeder für die Entwicklung mittlerweile eine andere ist. Früher hat wirklich JEDER PC einen schnelleren Prozessor gebrauchen können. Deine Firma arbeitete mit SAP? Gut, um die Jahrtausendwende haben diese riesigen Bibliotheken und Programmklötze selbst mit einem P IV Wartezeiten verursacht so dass ein schnellerer Prozessor direkt die produktivität erhöhen konnte. Zudem gab es damals noch andere Bereiche, von Musik enkodieren/ bearbeiten bis Videos enkodieren/bearbeiten, nahezu alles hat von mehr Leistung profitiert. Heutzutage ist Musik bearbeiten eine triviale Angelegenheit, das packt jedes smartphone. Videos enkodieren? Da reicht ein Atom, mittels Quicksync schafft der schon enorm viel. Auch größere Projekte mittels CAD oder Photoshop hängen derweil eher am Speicher als an der Prozessorleistung. Zumal sich diese arbeiten gut parallelisieren lassen. Und da kommen wir der Sache näher: dort wo derzeit produktiv gearbeitet wird und man nach mehr Rechenleistung schreit, vor allem in Servern etc, ist der Trend derzeit Parallelisierung. Dort steckt das Geld und dafür entwickeln die Hersteller. SIehe AMD, Bulldozer wurde exakt dafür entwickelt. Die haben sich nur dahingehend verkalkuliert dass sie damit gerechnet haben dass die Software für Privatanwender ebenfalls diesem Trend folgt. Und das tut sie nur langsam.
Prozessoren sind nicht das Problem solang Du die Aufgabe parallelisieren kannst.
Die Latenz von Speicher und der Durchsatz ist aber das nächste Problem. Das kannst Du nämlich nicht steigern indem Du mehr Speicher danebenklatschst. Vermutlich würde sich die Entwicklung neuen Speichers schon allein dafür lohnen dass man im Highspeedtrading an der Börse ein paar Nanosekunden rausholt, so viel Kohle steckt da drin.
Ähnlich sah es mit Festplatten aus. HDDs waren der Flaschenhals in jedem Server. SSDs lösen das Problem - im Augenblick. Ich kann mir aber vorstellen dass SSDs in ~zehn Jahren in Sachen Kapazität an ihre Grenzen stoßen. Die Suche nach einer Massenspeichertechnologie ist immer noch enorm wichtig da es keine Lösung gibt wie wir künftig Petabyte an Daten so speichern können dass sie schnell abgerufen und schnell geschrieben werden können.

P.S.: "gamer" stehen, als Minderheit, vor dem Problem dass ihre softwareentwickler das mit dem Parallelisieren noch nicht hinbekommen haben. Die Bürocomputer und durchschnittlichen Heimanwender fallen als Konsumenten langsam weg wodurch sie die Wahl haben auf Abwandlungen von Servertechnologie zu setzen oder eine Nische werden welche die Forschungskosten für "ihre" Hardware künftig alleine schultern muss. Auch wenn es eine recht große Nische scheint: gemessen am Gesamt-PC-Markt sind gamer ein kleiner Fisch.
Ergänzung ()

anonymous_user schrieb:
Als ob RAMBUS da jetzt irgendwas tolles aussem Hut Zaubern würde. Ich glaub einfach für die ist der Zug abgelaufen, SK Hynix, Micron und Intel sind da schon seit zig Jahren Massiv am Entwickeln, teilweise gehen die Produkte bald wohl schon in Massenproduktion.

Und RAMBUS erzählt was total tolles, aber nichts Konkretes? Das ist einfach n riesieges Luftschloss m.M.n.

Die Entwicklen aber eher an der Fertigung - und das aufgrund der enormen Kosten derzeit auch im Verbund. Die nächste Lithographiestufe wird mehr oder weniger von allen gemeinsam entwickelt. RAMBUS ist Kooperationspartner in der Entwicklung eines komplett neuen Speicherstandards. Und auch dort steckt so ziemlich die gesamte Industrie gemeinsam mit drin, da gibt es weitreichende Verträge. Es kann sich niemand leisten einen neuen Standard zu entwicklen welcher sich nicht durchsetzt - das hat nicht umsonst Rambus gezeigt.
Die romantische Wildwestentwicklung ist in der IT was Hardware angeht schon lange vorbei, da bastelt niemand was im Hinterzimmer. Neue Technolgie ist eine Milliardeninvestition, die fangen erst an zu entwickeln wenn die Verträge dafür schon fix sind. GPUs und CPUs sind da schon fast die Ausnahme mit ihre Duopolen, gerade weil diese Duopole einen gewissen Absatz garantieren. Und dennoch hat AMD arge Probleme. ARM hat genau aus zwei Gründen funktioniert: zum einen weil sie einen geringen finanziellen Einsatz hatten - sie haben keine Chips verkauft sondern Patente lizenziert - und weil sich keiner der "großen" für diesen Sektor interessiert hat welcher zu boomen anfing. Nichtmal IBM oder TI, welche ja sonst die Nischen bedienen.
 
Zurück
Oben