Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsHPE The Machine: Künftig dreht sich alles um den Speicher, nicht die CPU
Hewlett Packard Enterprise (HPE) macht Fortschritte beim Forschungsprojekt The Machine. Auf den funktionalen Prototyp folgen weitere Pläne. Ziel ist es, eine neue Computer-Architektur mit einem gemeinsam genutzten einheitlichen Universalspeicher zu schaffen und den Flaschenhals der Speicherhierarchie zu eliminieren.
Seit vielen Jahren erzählen mir die HP Jungs immer mal wieder was von The Machine, aber überzeugt, dass das jemals in Gänze oder auch nur teilweise was wird, bin ich immer noch nicht. Ich sehe nicht so richtig wo die damit hin wollen und ich glaube HP weiß das selber auch immer noch nicht.
Das ist auch gar nicht so wichtig, wenn man die Technik erst mal hat werden sich automatisch Anwendungen dafür finden. War bei den ersten konventionellen Computern ja nicht anders, riesige Rechenmonster mit (aus heutiger Sicht) wenig Leistung, bei der sich niemand vorstellen konnte, dass der Nutzerkreis mal mehr oder weniger die ganze Welt sein würde. Selbst bei der Vorstellung des IPhones war nicht abzusehen, dass sich damit der Medienkonsum und der Zugang zum Internet derart radikal verändern würde.
Das Konzept wirkt in meinen Augen aber "nur" wie eine große RAM-Disk, mit der ich den "Flaschenhals SSD" umgehe. In wie fern ist das jetzt Memory-Driven? Werde da aus dem Artikel und dem Video nicht so ganz schlau.
PS.: @Rickmer: Guck dir "Person of Interest" an, eine gut geschriebene KI kann auch gut für die Menschheit sein.
Das Konzept wirkt in meinen Augen aber "nur" wie eine große RAM-Disk, mit der ich den "Flaschenhals SSD" umgehe. In wie fern ist das jetzt Memory-Driven? Werde da aus dem Artikel und dem Video nicht so ganz schlau.
Indem es tatsächlich keinen Unterschied zwischen RAM und anderen Speicher gibt. Anstatt bei der Ausführung eines Programmes dieses in den (Arbeits-)Speicher zu laden - selbst von einer RAM-Disk wird dies in den Arbeitsspeicher kopiert - wird der Maschinencode direkt vom Speicher, also Befehl für Befehl gelesen und ausgeführt.
Da dies auch essentielle Aufgaben eines Betriebssystems sind, muss entsprechend auch sämtlicher dort auftretender Overhead eingestellt werden - und genau den will man mit dieser Architektur sparen, was bei großen Programmen sogar sehr viel Sinn machen kann, wenn deutlich mehr Code geladen wird, als später überhaupt durchlaufen wird.
Memory-Driven... und die Intelligenz ist wo? Na klar! In der CPU.
Was die gemacht haben ist lediglich einen "Unversalspeicher" anstatt der herkömlichen Architektur zu verwenden.
Was soll da jetzt so cool sein?
Die Computer sind ja bis jetzt in einer Architektur "gefangen" - daher auch die Flaschnhälse.
Na was liegt näher, als selbige zu ändern, wenns schneller gehn muß?
Die Idee hatte ich schon in den 90ern, als die HDDs noch saulangsam waren. Damals dachte ich mir, dass ein nichtflüchtiger RAM-ähnlicher Speicher her müsste...
20 Jahre Später kommen die HPler auch schon drauf, dass das längst geändert werden müsste - na Super!
Braves HP - bekommst a Keksi!
Du hast mit IT im Unternehmensbereich nichts zu tun, oder? Da gibt's teilweise arge Probleme, bei denen sich die Server- und Storage-Abteilung bekämpfen, weil irgendwelche Datenbanken zu langsam reagieren, und jeder schiebt's auf den anderen. Prinzipiell ist sowas also schon verdammt cool, aber es gibt ganz andere Baustellen, die man erstmal beseitigen sollte.
Da die Controller im Storage der Flaschenhals sind, und nicht die SSDs, bringt das alles erstmal gar nix... und dann wären da noch die Themen mit der Software, sowie dem Betriebssystem. In Zeiten von Datacenter-Umgebungen, bei welchen die Software alles übernimmt (verteilte Filesysteme etc.), und die Hardware einfach nur dummes Blech sein soll, wird man mit komplizierten Hard- und Software-Produkten nicht sonderlich weit kommen.
Es gibt ja jetzt schon hoch interessante Ansätze den Daten- vom Computepfad zu trennen, und das funktioniert teilweise auch sehr gut. In vielen Fällen sind tatsächlich die CPUs der Flaschenhals, und nicht die Datenträger.
Kann mir mal jemand erklären was daran jetzt neu/besser sein soll? Die haben DRAM direkt an die CPU gebunden. Toll. Den L1-L3-Cache gestrichen?
Ich verstehe schon, dass die Verschmelzung vom Haupt- und Massenspeicher einen enermoen Boost ergibt. Aber dazu sollte doch der Massenspeicher auf Arbeitsspeicher- beschleunigt werden, und nicht der Arbeitsspeicher ausgebremst. Ich hätte da eher sowas wie 1TB L1-Cache erwartet(schon klar, dass das aktuell unmöglich ist).
Eine aktuelle 64Bit CPU soll doch schon bis zu 16 Exabyte adressieren können, dann ist der Vorteil von the machine 'nur noch' der besonders schnelle und nicht volatile Speicher? Das man allein durch weglassen des Overheads zum laden von Programmcode von einem Speichertyp in einen anderen wesentliche Verbesserungen erreicht, das glaube ich frühestens wenn ich es sehe.
Da musste ich sofort nach dem Clip an Die Maschine aus der Serie Person of Interest denken das geilste in Staffel 5 wo sie PS3 Konsolen nutzten um die Maschine wieder aktiv zu machen...
PS.: @Rickmer: Guck dir "Person of Interest" an, eine gut geschriebene KI kann auch gut für die Menschheit sein.
Eine aktuelle 64Bit CPU soll doch schon bis zu 16 Exabyte adressieren können, dann ist der Vorteil von the machine 'nur noch' der besonders schnelle und nicht volatile Speicher? Das man allein durch weglassen des Overheads zum laden von Programmcode von einem Speichertyp in einen anderen wesentliche Verbesserungen erreicht, das glaube ich frühestens wenn ich es sehe.
Am einfachsten sieht man es bei Spielen: Daten aus dem Massenspeicher müssen in den RAM geladen werden. Da die Spiele wesentlich größer als der RAM sind muss ständig anderer Code geladen werden. Allein dieses Management kostet Rechenzeit, von der Ladezeit ganz abgesehen. Wenn du aber per Assembler einfach jedes Bit in deinem Rechner direkt ansprechen kannst, ohne dass es erst in den RAM deiner SSD, von dort in deinen RAM, von dort in deinen L3-Cache, dann in deinen L2-Cache und dann in deinen L1 Cache, oder zwischendurch noch durch die Cache-level deiner GPU wandern muss. Wenn alles eins ist, die CPU z.B. direkt auf den Cache der GPU zugreifen könnte (oder andersrum) gäbe das einen enormen Boost durch die engere Verzahnung der Rechenwerke. Man könnte beliebige DSPs zustecken ohne dass diese in der CPU/SOC integriert sein müssten.
Dafür stellt sich mir immer noch meine Frage von oben:
Wie soll dieses Konzept das eben erwähnte realisieren?
Es bringt doch nichts, wenn der Speicher extrem schnell ist, aber die CPU trotzdem alle Daten dreimal rumschieben muss.
So habe ich das zumindest jetzt verstanden.
Ansonsten ist das Ding halt schon Jahre in der Entwicklung. Das es nicht mit herkömmlicher Software funktioniert wird die Entwicklung nicht beschleunigen. Für mich hängt zwischen Hard- und Software so ein Henne-Ei Problem, wo sich im Consumerbereich zum Beispiel AMD verkeilt hat.
Klingt nach Bullshit.
Die eleminieren nicht den (wohl eh vernachlässigbaren) CPU-Overhead beim Kopieren vom langsamen Medium auf das schnellere, die packen einfach nur sehr viel schnellen Speicher auf ein Board drauf.
Mehrere Speicherstufen ist kein Bug sondern ein Feature.
Was bringt mir das z.B. wenn ich Code von nem langsamen Speichermedium direkt ausführe?
Ab dem 2. Aufruf des Codes vervielfacht sich die Ausführungsdauer weil etwas von HDD/SSD geladen werden muss statt aus dem CPU-Cache.
@marco_f:
Juhu, nach deiner Logik wärs ein Fortschritt wenn Spiel xy die Texturen nicht mehr in den Ram und von da in den Grafikspeicher kopiert, sondern direkt von der Festplatte bezieht.
Dqas Ergebnis wäre dann: 0,001 Frames pro Sekunde.
Das soll ja auch irgendwann so sein. Nur weil man einen solchen Speicher heute noch nicht zur Verfügung hat, heißt das nicht, dass man die Architektur und ein lauffähiges OS dafür nicht bereits entwickeln kann. HP hat eigentlichh Memristoren als Speicher angedacht, die Entwicklung kommt da aber zu langsam voran. Trotzdem kann man die Architektur heute schon entwerfen und mit DRAM echt simulieren, samt passend dazu entwickeltem OS.
Die heute in unseren Computern verwendete Architektur wurde von Von Neumann in den Vierzigern des letzten Jahrhunderts veröffentlicht, und Alan Turing war in den Dreißigern froh, dass er überhaupt Strom hatte.
Selbst wenn das nächstes Jahr Hardware-mäßig umgesetzt wäre, würde es locker zehn bis 15 Jahre dauern bis es beim Endkunden angekommen ist. Im Serverbereich vielleicht früher, zumidnest da wo das Geld locker sitzt.
Wenn Arbeitsspeicher und Festplatte eins werden, müssten Programme nicht nur überarbeitet werden. Komplette Programmiersprachen müssten überarbeitet werden, denn es würde eine Architektur über den Haufen geworfen die Seit der ersten Rechner existiert. Speicherverwaltung würde vielen teilen komplett wegfallen.
Dann müssen noch Sicherheitsrisiken bedacht werden.
Das Speichern bei PC-Spielen könnte man eventuell weglassen.
Erstmal müssen die Betriebssysteme und Sprachen damit klarkommen, dann die Programme überarbeitet werden. Wenn man sich jetzt ankuckt wie viele Programme immer noch keine Multi-Core-Unterstützung haben, zehn Jahre nach deren Einführung, da können wir noch einige Zeit warten bis der RAM abgeschafft wird.