News NVDIMM: HPE nimmt nicht-flüchtigen Arbeitsspeicher ins Programm

Auch das hier ist kein Scherz, darauf könnt ihr Gift nehmen. Wurde die Tage vorgestellt, zusammen mit 128 GB LRDIMM, die auch kein Scherz sind, auch ein paar anderen Sachen wie den Broadwell-EP.

Wenn der Saft weg ist wird Energie aus dem Puffer genommen um die Daten in den Flash zu schreiben. Und beim nächsten Start werden die Daten zurück geholt.
 
Zuletzt bearbeitet:
mad232 schrieb:
Wie oben geschrieben wurde laufen Server standing und sowieso an einer USV. Wieso muss man da den RAM als extra Speicher haben?

In den Rechenzentren laufen Server selten mit einer eigenen USV. Sowas wird dann zentral über das Rechenzentrum geregelt, was passiert aber wenn das Netzteil oder der Stromverteiler im RZ ausfällt?

Es gibt diverse Möglichkeiten mit denen man Server absichern kann und unzählige Möglichkeiten wie es doch zu einem Knall kommen kann.
 
Shoryuken94 schrieb:
Wozu brauchst du im Standby denn einen nicht-flüchtigen Speicher? Im Standymodus hat der Ram trotzdem spannung und kann die Daten halten. Bringt also nur bei einem richtigen Shutdown etwas. Die meisten leute haben aber eh so wenig daten im RAM, dass sich im Normalfall eh kaum bemerkbar machen würde. In Zeiten von NVME SSDs noch weniger. Da würde niemand soviel extra zahlen.
Klar, mir geht es ja gerade darum, dass man eine Art Standy-Modus schaffen könnte, bei dem der RAM nicht auf Spannung gehalten werden muss. Der Rechner ist vollständig aus und man kann trotzdem in 2 Sekunden da weiterarbeiten wo man aufgehört hat.

Wobei eine Art Ruhezustand sowas ja ermöglicht, wenn man M.2 SSDs im Rechner hat über PCIe die 2GB/s umherschieben, braucht es auch nur 2-3 Sekunden, den RAM auf die SSD zu kopieren und wieder auszulesen, wäre vielleicht tätsichlich erst mal sinnvoller.
 
Vergesst mal eure Ruhezustand Szenarien und co. doch mal und denkt etwas größer.
Wie schon angedeutet: SAP HANA ist ein sehr gutes Anwendungsbeispiel.

Kurze und grobe Erklärung zur SAP HANA: SAP Datenbank mit horizontaler, statt vertikaler Datenstruktur, die KOMPLETT InMemory läuft. Die komplette Datenbank liegt im RAM, du brauchst dafür keine HDs mehr. Transaktionen, Logs, alles liegt im stets im Speicher. Deswegen gibt es auch schon seit einigen Jahren Server, die eben sehr viel mehr Speicher haben, als das was Intel als HighEnd verkauft.
Die oft gehörte Frage: Was passiert mit den Daten, wenn ein Stromausfall passiert? Die Datenbank schreibt jede Änderung als Sicherung kontinuierlich auf Festplatten, weil das aber eine scheiß Performance hat, kam vor einigen Jahren erste NVRAM Lösungen.

Die hier aufgeführte Lösung von HPE ist nur ein eigenes Produkt im endlich was von dem Kuchen ab haben zu können, den sie die letzten Jahre verteufelt haben, weil ihre SAN Storages doch super elitär und 1337 sind.
NVRAM entspringt aus den feuchten Träumen jedes SAP Admins. Die InMemory Datenbank wird also Live in den NVRAM gesichert und von dann auf HDs, SSDs, oder Bänder.
Somit hast du eine nahezu Echtzeit Sicherung des Speichers, der nach kurzer Pufferzeit dann in das Storage, oder gleich in die Sicherung geschrieben wird.

Ich hoffe ich konnte hier einigen endlich mal ein wenig näher bringen, warum aktuelle HighEnd Technik keine Aprilscherze sind.
 
Marcel55 schrieb:
Wobei eine Art Ruhezustand sowas ja ermöglicht, wenn man M.2 SSDs im Rechner hat über PCIe die 2GB/s umherschieben, braucht es auch nur 2-3 Sekunden, den RAM auf die SSD zu kopieren und wieder auszulesen, wäre vielleicht tätsichlich erst mal sinnvoller.

Und nun denke nochmal nach und schaue dir einen anderen heutigen Artikel von Computerbase an.
https://www.computerbase.de/2016-04/intel-xeon-e5-2600-v4-ddr4/

Wie sicherst du mal eben schnell ein paar Terabyte?

Das ganze ist wie schon weiter oben geschrieben für Server gedacht. Ein Anwendungsfall ist die Absicherung gegen den Stromausfall. Man sollte aber den Stromsparaspekt nicht außer acht lassen.

Große Serverfarmen können schon lange je nach Auslastung einzelne Server herunter und wieder hochfahren. Mit NVRAM kann man gesamte Systeme stromsparend Schlafen schicken und bei Bedarf ohne das System neu initialisieren zu müssen wieder zuschalten. Mit der entsprechenden Systemunterstützung wird gewährleistet, dass sich die Systemkomponenten und Arbeitsdaten in den entsprechenden Speicherbereichen befinden.

Die Zukunft ist nun mal die Cloud und mit immer größeren Rechenzentren ergeben sich hier auch immense Sparmöglichkeiten. Nicht umsonst setzt man stellenweise auch diverse andere Techniken wie Hochtemperatur Rechenzentren ein.
http://www.geek.com/chips/googles-most-efficient-data-center-runs-at-95-degrees-1478473/

Nicht flüchtiger Speicher spart letztlich aber auch schon durch die Technik Strom ein da man für diese Speichermodule keinen Refresh benötigt. Nicht umsonst wurde auch hier in letzter Zeit oft LRDIMMs eingesetzt.
 
Zuletzt bearbeitet:
Wow.... jetzt wo ich mir diese ganzen Anwendungsszenarien vorstellen kann, finde ich bemerkenswert, dass mir so eine Technik nicht bekannt war. Zu meiner Verteidigung muss ich aber auch sagen, dass ich mich nur Hobby-mäßig mit der IT auseinander sezte und daher auch nicht so im Profisegment informiert bin.

Eine Frage bleibt jedoch:
Wieso sitzen die dinger auf dem Ram? Eine aufrüstbare Lösung scheint mir hier sinvoller...
 
Aus meiner Sicht würde sagen: Warum soll das denn nicht aufrüstbar sein?
Wenn man mehr braucht, schiebt man halt noch ein Modul NVRAM ins Rack ;)
 
textract schrieb:
Wie schon gesagt: IBM verbaut in ihren Power Systemen schon lange mehr RAM und auch der Preis ist nicht ungewöhnlich.
Ich wiederhole es gerne hier noch einmal: Wir haben hier aktuell 4 ENTRY LEVEL (!) Systeme mit jeweils 1 TB Speicher und 24 Cores mit jeweils 8 Threads. Die schnellsten Power Systeme von IBM bieten im maximalen Ausbau 32 TB Speicher mit 192 Cores mit jeweils 8 Threads.
Ein Gerät, also ein System (Board)? Also 1536 SMT Cores!?

Mir war nicht klar dass, wie du sagst, Intel so weit zurück liegt.
 
Wenn man vernünftig plant, dann muss man Server nicht aufrüsten. Die meisten gehen in Betrieb und laufen bis entweder die Anwendung, die bereitgestellt wird, nicht mehr benötigt wird oder die Maschine wegen Alter abgelöst werden muss. Was auch immer zuerst passiert.

Aber grundsätzlich ist Erweiterung wohl nicht so das Problem, aber ich glaube auch Floxxwhite will eher auf Austausch als Erweiterung hinaus. Austausch bei Defekt oder bei Ersatz durch größere Module, wenn man nicht mehr in die Breite, sondern nur noch in die Höhe skalieren kann. Da braucht man dann extra Konzepte für, das geht natürlich nicht ohne weiteres.

cirrussc schrieb:
Mir war nicht klar dass, wie du sagst, Intel so weit zurück liegt.

Intel liegt nicht unbedingt zurück, wobei IBM durchaus Vorreiter für Intel ist was Fertigung angeht, zum Beispiel. Aber das ist eine Frage des Marktes und der Zielgruppe. So wie die meisten anderen Architekturen fristet POWER auch seit Ewigkeiten ein Nischendasein, es fällt den Firmen aber immer schwer sich von sowas zu trennen. Wird aber passieren, früher oder später. Fast alles was nicht x86 ist stirbt gerade einen Tod auf Raten, da das noch nicht jeder erkannt hat (oder bereit ist es zu akzeptieren).
 
Zuletzt bearbeitet:
Chicken-Nugget schrieb:
Edit: Die Produktseiten argumentieren mit schnellerer Verfügbarkeit nach Stromausfällen, wie sinnvoll die Umsetzung ist kann ich aber nicht beurteilen.
Ich kann mir zwar vorstellen, dass man den Rechner theoretisch an der unterbrochenen Position weiterlaufen lassen kann (passiert ja ähnlich auch bei VMWare wenn man da ne VM pausiert).
Was ich mich dabei aber frage:
Was passiert mit den Daten im Cache der CPU und was passiert mit den Daten, die gerade berechnet werden?
Solange die flüchtig sind, nützen die Daten im Ram imho doch absolut gar nichts.
 
textract schrieb:
...

Ich hoffe ich konnte hier einigen endlich mal ein wenig näher bringen, warum aktuelle HighEnd Technik keine Aprilscherze sind.

Also einiges was Du da so schreibst, klingt für mich wie ein Aprilscherz.

IBM Power und alle anderen Eigenentwicklungen (wie bi HPE -> HP Itanium/PA-Risc usw.) befinden sich auf einem aussterbenden Ast der IT-Evolution und bedienen nur noch einen Nischenmarkt.

Das Intel hinter her ist, kann man auch nicht wirklich sagen. Eine Superdome X von HPE bietet aktuell 288 Xeon Cores. Mehr in Zukunft.
Speicherausbau momentan maximal 24TB bald 48TB mit dem 128GB DIMMs. Die es wohl ab Juni gibt.

Zu Thema SAP HANA - Die SAP HANA Verkäufe von HPE hätte IBM gerne.

Und was HPE da über Jahre verpasst haben soll ist mir auch unklar??? Die SAP HANA Systeme von HPE werden seit Jahren mit Accelerator (PCIe SSDs) geliefert.

RAID-Ctrl. ohne Battery-Backed oder Flash-Backed Write Cache gibts es schon seit Jahrzehnten nicht mehr im Serverbereich.

Zum Thema: NVDIMMs werden nur in sehr speziellen Umgebungen zum Einsatz kommen. Den Aufpreis nimmt man nur in Kauf, wenn diese hohe Datenintegrität auch wirklich benötigt wird. SAP HANA wird wohl nicht dazu gehören. Da braucht man SPEICHER, SPEICHER und noch mal SPEICHER aber nun wirklich nicht den letzten Funken Sicherheit durch NVDIMMs. Ich denke interessant wird das eher für Transaktions Software. Sowas wie NON-Stop Systeme.

Und weit vom Thema weg:
Ist auch das Ende der x86 CPU gekommen. Noch ein paar Jahre, dann ist man am Ende der Fahnenstange.
Nicht umsonst sind alle Großen bei der Erforschung ganz neuer Technologien z.B HPE -> "The Machine"
 
Was HPE seit einigen Jahren verpasst hat, ist, dass NVRAM nunmal in HighEnd Systemen gefragt ist und HPE bzw. vor kurzem noch HP hatte stets gegen diese Technik beworben. Sei zu unausgereift, will keiner, viel zu teuer etc. waren die Argumente.
NVRAM Lösungen werden für HighEnd Systeme schon Jahre verwendet, weil I/O IMMER der Flaschenhals eines HighEnd Systems ist. Die Storages sind einfach zu langsam.

Wenn du damit noch keine Erfahrung hast, dann ist das nicht mein Problem.

Kannst dir gerne die Spezifikationen der Power 880 von IBM anschauen.
http://www-03.ibm.com/systems/power/hardware/e880/specs.html

Und das Ende der Fahnenstange ist damit nicht erreicht. Das Topmodell jeder Serie endet stets auf 95. Das 895 wurde aber noch nicht vorgestellt.
Und was man auch immer im Hinterkopf behalten sollte, ist, dass IBMs Power Architektur nicht ihre Speerspitze der Leistung ist. Das sind die Mainframes.
Laut Aussage von Enrico Mölders, seines Zeichens unser Ansprechpartner, wenn wir mit IBM Kommunikation wünschen, ist die Power und die Mainframe Architektur verwand, trotzdem liegt die Power Architektur stets 1 bis 2 Produktzyklen hinter dem Mainframe Chip.

Und ja, auch Mainframe werden noch verwendet. Sogar mehr, als so mancher ahnt.
Ausnahmslos jede deutsche Großbank setzt beispielsweise noch Mainframe ein.

Was aber richtig ist, ist dass wenig SAP HANA Systeme auf IBM Hardware laufen, ich habe aber auch nie das Gegenteil behauptet.
Dass das so ist, hat aber auch einen Grund: SAP HANA wird nicht für AIX Entwickelt, lediglich für Linux und mit Linux auf Power arbeiten nur sehr wenige Firmen.
Wobei IBM aktuell versucht dagegen zu steuern, indem sie Power Hardware mit teilweise 80% verkauft, sofern nur Linux auf der Hardware eingesetzt wird.
 
Ich könnte mir gut vorstellen, dass die Fertigung/Herstellung solch extrem schnellen NICHT-flüchtigen Speicher möglich ist. Der Speicher an sich, ist ja mitterweile sehr sehr flott und das ganze kombiniert in Form von RAM-Speicher und SSD in Form des SO-DIMM´s als Sockel bzw. Steckkartenvariante in diesem Tempo!!!.... das müsste eigentlich alles schon machbar sein. Das wäre absolut der Knüller! SSD´s via PCI-E sind der richtige Schritt in die richtige Richtung. Das dürfte in naher Zukunft so weit sein. Die Verschmelzung 2 verschd. Komponenten ist im gange... :freaky:
 
Zuletzt bearbeitet:
Zurück
Oben