Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News IDF 2015: Wo SSDs schwächeln, soll Intels 3D XPoint punkten
- Ersteller MichaG
- Erstellt am
- Zur News: IDF 2015: Wo SSDs schwächeln, soll Intels 3D XPoint punkten
strex schrieb:Nicht wirklich, da würde ein DRAM + End-to-End Protection (als Stützkondensatoren) reichen. Bandbreite hoch, keine Probleme mit der Endurance und DRAM reicht hier von der Kapazität vollständig aus. Sieht ma ja auf den Folien, DRAM als write cache.
Naja, ganz dumm ist die Idee trotzdem nicht. Sofern die Angaben korrekt sind, hat 3D XPoint eine Haltbarkeit von 10^7 P/E-Zyklen.
Das würde bei einem 1 TB großen Cache immerhin 10 EB written bedeuten, was auch für Verhältnisse im Enterprise-Segment schon sehr sehr ordentlich ist. Bei einer Lebensdauer von 5 Jahren müssten also etwa 64 GB pro Sekunde geschrieben werden. Das wiederum erfordert grob 64 x 10 Gbit/s Ethernet-Schnittstellen, um das Volumen auch durch irgendwelche Netzwerke zu pressen. Damit kann man schon was anfangen.
An der Lebensdauer scheitert es hier eher nicht...
@Simon
Geht ja nicht direkt darum was per Ethernet oder anderer Schnittstelle reinkommt, sondern da reicht schon eine Änderung eines Strings oder bearbeiten eines Arrays - eben alle Änderungen im System Memory. Da kommt bei Datenanalysen und Bearbeiten von großen Daten schon etwas zusammen. Statt im DRAM werden dann die Änderungen ja auf XPoint gespeichert. Da sind die Zyklen von DRAM noch weit höher, die liegen bei >10^15.
Quelle: http://www.flashmemorysummit.com/English/Collaterals/Proceedings/2010/20100817_F1A_Klein.pdf
Geht ja nicht direkt darum was per Ethernet oder anderer Schnittstelle reinkommt, sondern da reicht schon eine Änderung eines Strings oder bearbeiten eines Arrays - eben alle Änderungen im System Memory. Da kommt bei Datenanalysen und Bearbeiten von großen Daten schon etwas zusammen. Statt im DRAM werden dann die Änderungen ja auf XPoint gespeichert. Da sind die Zyklen von DRAM noch weit höher, die liegen bei >10^15.
Quelle: http://www.flashmemorysummit.com/English/Collaterals/Proceedings/2010/20100817_F1A_Klein.pdf
Wenn man es genau nimmt ist der L1 Cache an der Spitze, dann der L2, der L3 und das DRAM wird dann als L4 eingesetzt, ggf. als L5 wenn ein eDRAM die Funktion des L4 einnimmt.bensen schrieb:Die Pyramide heißt auch plötzlich "Storage Hierarchy" und nicht mehr "Storage and Memory Hierarchy". Und DRAM steht ja quasi noch auf der Spitze.
Heutige RAM Controller dürfte alleine an der Kapazität scheitern, aber andererseits hat AMD ja noch keinen DDR4 RAM Controller auf dem Markt, oder? Die kommen als im wesentlichen von Intel und muss man eben schauen auf welche Kapazitäten pro Modul und insgesamt Intel die bisherigen der Haswell-E/EP/EX, Broadwell und Skykake ausgelegt hat. Vermutlich nur auf so viel, wie mit DRAM realisierbar ist bzw. in absehbarer Zeit realisierbar sein wird, damit die Leute zu den XPoint DIMMs dann auch die neuen Server kaufen (müssen), aber wer so viel RAM braucht, der hat meist auch das Budget dafür.bensen schrieb:Was die Hardware angeht hat er aber recht. "DDR4 electrical & physical compatible" heißt erstmal nur, dass du die Module in einen klassischen DDR4-DIMM-Slot reinstecken kannst. Ob der Controller was damit anfangen kann steht auf einem anderen Blatt. (dunkle Wolken am Horizont für AMD?)
Die Software die auf solchen Rechner läuft die heute schon Hunderte GB RAM haben, dürfte auch mit einigen TB RAM keine Probleme machen und das ist eben auch das Haupanwendungsgebiet für diese XPoint DIMMs.bensen schrieb:Software profitiert sicher sofort davon, kann aber sicher noch deutlich optimiert werden. Denn bisher ist die so programmiert worden um mit einer begrenzten Menge "Systemspeicher" auskommen zu müssen, der wird ja nun erheblich größer.
Wobei der Sinn dahinter auch sein wird, die XPoint DIMMs vor zu viele Schreibzugriffen zu schonen, denn wenn da eine Schleife läuft die ständig in einem relativ geringen RAM Bereich Daten schreibt, dann kann dies somit alleine im DRAM passieren und erst später wird dann der Speicherstand auf die XPoint DIMMs übertragen, es ist ja von einem Write-Back-Cache die Rede, nicht von einem Write-Through.bensen schrieb:Ja, das ist der klassische Storage-Fall, wo eben der DRAM noch als schneller Cache unterstützen kann.
Warum nicht? Genau dafür ist XPoint DIMM doch gedacht, denn was ist heute die Alternative? Da muss man die RAM Inhalte ständig auswechseln und dafür auf vergleichsweise lahme Massenspeicher zugreifen, dagegen dürfte die XPoint DIMMs immer noch sauschnell sein, auch wenn sie eben langsamer als DRAM sind.bensen schrieb:Es gibt auch weiterhin Anwendungen die riesige Mengen schnellen DRAM benötigen, wo XPoint kein Ersaz ist.
Das steht doch in den Folien und die DIMMs werden natürlich nicht über PCIe angebunden, sonst hätten sie ja kein DDR4 Format.bensen schrieb:Oder dann nur die Option über PCIe bleibt, was dann deutlich langsamer wäre.
Genau wie heute auch, da muss eben die Software möglichst aufpassen, dass sie bevorzugt auf Daten zugreift die sie selbst ins lokale RAM der CPU geschrieben hat und sonst werden die Daten von der anderen CPU angefordert und intern übertragen, heute eben noch über QPI, was ja auch abgelöst werden soll. Damit steigt die Latenz, z.B. bei den Xeon5500 war es von 60ns auf 100ns für den Zugriff auf der RAM einer anderen CPU statt dem eigenen.bensen schrieb:Wie sieht es in Multi-CPU Umgebungen aus?
Wenn jemand so viele Dinge so offensichtlich ganz anders darstellt als es auf den Folien zu sehen, muss die Frage nach dem warum doch wohl erlaubt sein. So ungenau finde ich die Folien nämlich nun wirklich nicht.bensen schrieb:Die Spitze hättest du dir sparen können. Was hat das ganze mit lügen oder aus den Fingern saugen zu tun?
Das wäre eine denkbare Variante, in die Richtung hat Intel mit dem eDRAM ja auch etwas gezeigt und HBM wäre letztlich nichts anders als ein sehr großes eDRAM.bensen schrieb:Mit HBM kann eine größere Menge richtig schnellen DRAM direkt auf dem Package integriert werden und über die klassischen DIMM-Slots dann riesige Mengen XPoint. Das ist dann schon fast der heilige Gral in Sachen Speicher.
Ja nun, da Intel es in Partnerschaft mit Micron entwickelt hat, sollte das nicht wundern, Mercedes entwickelt ja auch nicht die Motoren für BMW oder umgekehrt.AP Nova schrieb:Ich hätte erwartet, dass hier viel mehr Gegenwind kommt, weil das scheinbar nur für Intel entwickelt werden soll.
Wozu auch sinnlos bashen? Wer Intel nicht mag und keine Intel Produkte kaufen will, der kauft eben die Produkte anderer Hersteller und muss dann auch mit dem zufrieden sein, was die im Angebot haben, das ist doch ganz einfach und logisch. Wer unbedingt einen Ford fahren will, beschwert sich doch bei der Vorstellung eines neuen SLK oder Z4 zieht auch nicht über den BMW oder Mercedes her, nur weil Ford keinen schicken Roadster mit Klappdach im Angebot hat. Und wenn doch, dann kann jedes Forum auf solche Kindsköpfe auch gut verzichten.AP Nova schrieb:allerdings war die Annahme, dass die Community das insgesamt negativer aufnimmt.
Was für 5 Standards? Verwechselt hier mal wieder jemand Formfaktoren und Schnittstellen?AP Nova schrieb:Sollte nicht gerade hier, wo man auch das Wirrwarr um fünf sich gleichzeitig ankündigende Standards
Das hängt doch davon ab was diese Unternehmen machen und brauchen, deren IT-Entscheider werden dann schon sehen ob es für sie sinnvoll und brauchbar ist oder nicht, wenn es dann die konkreten Produkte damit zu kaufen gibt.King_Rollo schrieb:selbst für kleine und mittelständige Unternehmen völlig unbrauchbar, weil überdimensioniert.
Da die Kapazität bei NANDs nur über viele Dies zu erzielen ist damit die Parallelität zwangsweise hoch ist, bekommt man die Performance praktisch umsonst drauf zu, wenn man eine bestimmte Kapazität realisiert. Der Löwenanteil der Kosten entsteht sowieso durch die NANDs, damit gibt es kein Potential wo man zu Lasen der Performance nennenswert Kosten einsparen kann. Das geht nur beim Controller und bei dessen Cache RAM, aber da ein TB NAND sowieso rund 300€ kostet, kommt es auf ein GB RAM für 5 oder 6€ ja auch nicht wirklich an, oder?King_Rollo schrieb:ieber auf größere Kapazitäten und deutlich besseren Preisen legen würde - meinetwegen sogar auf Kosten der Leistung. Denn lieber habe ich eine schön preiswete 1-TB-SSD mit ca. 200 MB/s und 20.000 IOPS als eine teure 1-TB-SSD mit 600 MB/s und 60.000 IOPS.
Naja, bisher kann man von denen nur nicht booten, mir ist jedenfalls noch kein AMD System mit NVMe im BIOS/UEFI bekannt. Das soll auch erst mit dem AM4 Sockel kommen, aber gerüchteweise bekommen die nur maximal eine PCIe 3.0 x2 Anbindung und müssen wohl auch mit recht wenigen PCIe Lanes auskommen. Hoffentlich überdenkt AMD das noch einmal, wenn sie dann wirklich wieder in höheren Preisbereichen und bei Servern Fuß fassen wollen.Qarrr³ schrieb:Die Festplatten kann man natürlich auch bei AMD Rechnern anschließen.
Die Funktion des Caches übernimmt doch DRAM, das geht doch klar aus den Folien hervor! Ist ja auch sinnvoll um Schreibzugriffe auf das XPoint zu sparen.Simon schrieb:Naja, ganz dumm ist die Idee trotzdem nicht. Sofern die Angaben korrekt sind, hat 3D XPoint eine Haltbarkeit von 10^7 P/E-Zyklen.
Das würde bei einem 1 TB großen Cache immerhin 10 EB written bedeuten
wazzup
Banned
- Registriert
- Apr. 2004
- Beiträge
- 5.994
Qarrr³ schrieb:Das sind ja alles NAND SSDs und die sind gefühlt alle gleich schnell, weil die bei 4k Zugriffen eben tatsächlich gleich schnell sind.
Mit den neuen Platten, starken CPUs und angepasster Software sind Ladezeiten passé. Innerhalb von vielleicht 5 Sekunden vom abgeschalteten Rechner bis zum geladenen Level im Spiel. Video und Bildbearbeitung wird auch sehr profitieren. Wir müssen die Dinger erst einmal einbauen, bevor wir uns den Unterschied vorstellen können.
Nö. Da irrst du dich. Es gibt schon Jahre, ja sogar Jahrzehnte eine Technik die schneller ist als jede SSD: Nennt sich RAM Du kannst schon ewig eine Ramdisk anlegen für maximale Performance. Aber auch da ändert sich an den Ladezeiten nicht mehr viel. Messbar, aber nicht spürbar. Heute in Zeiten von 16 oder gar 32GB RAM ist das ja kein Ding. Innerhalb von 5s wird nichtmal der Rechner starten wenn er nicht im Ruhezustand war. Man bräuchte erstmal Software die soviele Daten auf einmal verarbeiten kann, vorher ist es sinnfrei. Vergleiche dazu beispielsweise die verschiedenen Windows Versionen. Win 2000 braucht 3x so lange zum starten wie XP. Win 7 wiederrum ist mind. doppelt so schnell oben wie XP. Ganz wegbekommen wird man die Ladezeiten aber nicht.
Öhm, also XPoint kann jeder kaufen der das geld hat. DIMM-Module darf auch jeder damit ausrüsten. Den Speichercontroller den die mit der Purley-Plattform entwickeln, wirds natürlich nur von Intel geben.AP Nova schrieb:Ich hätte erwartet, dass hier viel mehr Gegenwind kommt, weil das scheinbar nur für Intel entwickelt werden soll.
Ob da so ohne weiteres einen einfacher offender Standard möglich ist bin ich mir nicht mal sicher. Da sind schon ordentlich Änderungen im Speichercontroller notwendig und die sehen bei Intel und AMD nun mal nicht zwingend gleich aus.
So verwerflich finde ich es auch nicht, dass man eine neue Technik erstmal selber ausnutzen will.
Weiß nicht ob das so auf die Kapazität ankommt. Eher auf die Anzahl zu adressierender Chips. Aber da kann man erst mehr sagen wenn man weiß wie die DIMMs organisiert sind.Holt schrieb:Heutige RAM Controller dürfte alleine an der Kapazität scheitern, aber andererseits hat AMD ja noch keinen DDR4 RAM Controller auf dem Markt, oder?
Weil er nicht schnell genug ist?Warum nicht?
DIMMs übr PCIe? WTF?Das steht doch in den Folien und die DIMMs werden natürlich nicht über PCIe angebunden, sonst hätten sie ja kein DDR4 Format.
Heute gibts keinen XPoint. Es ist schone ein Unterschied ob ich ne symmetrische Speicherbestückung habe oder es Unterschiede in Kapazität und Performance gibt. Das muss ja irgendwie gehändelt werden.Genau wie heute auch
So viele Dinge? Das meiste sind einfach Sachen die unklar sind. Die Präsentation gibt nur einen winzig kleinen Einblick in die Technik und wirft teilweise mehr neue Fragen auf als sie beantwortet.Wenn jemand so viele Dinge so offensichtlich ganz anders darstellt als es auf den Folien zu sehen, muss die Frage nach dem warum doch wohl erlaubt sein. So ungenau finde ich die Folien nämlich nun wirklich nicht.
Mag ja sein, dass für dich ein paar bunte Pyramiden ausreichen um eine komplett neue Technik vollständig darzustellen, aufgrund der hier auftauchenden Fragen ist das allerdings wohl nicht der Fall.
Die Bootzeit wird vor allem von der Zeit für die Initialisierung der HW bestimmt, weniger von der für das Daten der Dateien.wazzup schrieb:Win 2000 braucht 3x so lange zum starten wie XP. Win 7 wiederrum ist mind. doppelt so schnell oben wie XP. Ganz wegbekommen wird man die Ladezeiten aber nicht.
Wo hast Du das gelesen? Ich haben noch keinen Hinweis gelesen, dass die Chips auch lose verkauft werden sollen. Sowas ist nicht selbstverständlich, denn Samsung verkauft ja z.B. auch weder seine TLC noch seine V-NANDs in größeren Mengen, außer vielleicht an Apple, aber sonst nicht.bensen schrieb:Öhm, also XPoint kann jeder kaufen der das geld hat. DIMM-Module darf auch jeder damit ausrüsten.
Diese News verstehe ich so, dass es um die DIMMs geht und diese vorerst nicht von der JEDEC klassifiziert werden sollen:bensen schrieb:Ob da so ohne weiteres einen einfacher offender Standard möglich ist bin ich mir nicht mal sicher.
Eben, das ist überheupt nichts verwerfliches und wäre es verboten, gäbe es keine Innovationen mehr, weil das Geldverdienen die Triebfeder hinter den Innovationen ist, keine Firma würde mehr Geld für Forschung ausgeben, die oft lange braucht, fehlschlägt und in jedem Fall viel Geld kosten wird, wenn es im Erfolgsfall dann nicht möglich wäre viel Geld damit zu verdienen, mehr als man für deren Erforschung und auch allen fehlgeschlagenen Forschungsprojekte, ausgegeben hat.bensen schrieb:So verwerflich finde ich es auch nicht, dass man eine neue Technik erstmal selber ausnutzen will.
Du meinst also, das jeder Speichercontroller im Prinzip beliebig große Speicher ansprechen könnte, interessante Ansichtbensen schrieb:Weiß nicht ob das so auf die Kapazität ankommt.
Wie können sie wohl organisiert sein, wenn sie laut Intel "DDR4 electrical & physical compatible" sind?bensen schrieb:Eher auf die Anzahl zu adressierender Chips. Aber da kann man erst mehr sagen wenn man weiß wie die DIMMs organisiert sind.
DRAM ist schneller, aber was die Alternative? Wie bisher die Daten erst aus einem noch viel langsameren Massenspeicher ins RAM zu laden? Zumindest schneit das nicht als vorteilhafter anzusehen, sonst wäre das Konzept nicht so wie sie es vorgestellt haben.bensen schrieb:Weil er nicht schnell genug ist?
Wer redet den von DIMMs über PCIe? Ich nicht, wie selbst darüber zitiert hast: "die DIMMs werden natürlich nicht über PCIe angebunden, sonst hätten sie ja kein DDR4 Format."bensen schrieb:DIMMs übr PCIe? WTF?
Erstens ist es egal ob es heute XPoint gibt oder nicht wenn es als Ersatz für DRAM verwendet wird und dabei ist es auch egal ob ihm DRAM als Cache zur Seite stehen und Multi-CPU Konfigurationen gibt es heute schon die muss SW heute schon handeln, da ändert sich also absolut nichts durch XPoint DIMMs. Es wird nur viel mehr RAM gehen und das ist dann eben ein wenig langsamer, was den Programmen egal sein kann. Die müssen sich ja heute auch nicht darum kümmern ob eine CPU einen L3 Cache oder gar das eDRAM als L4 Cache hat und wie schnell das RAM des Rechners ist. Programmierer können das berücksichtigen, wenn gut optimieren wolle, laufen tun die Programme aber so oder so und ob das RAM welches sie ansprechen gewöhnliches DRAM oder XPoint ist, spielt überhaupt keine Rolle. Wegen mit einer CPU noch bei Multi-CPU Konfigurationen.bensen schrieb:Heute gibts keinen XPoint. Es ist schone ein Unterschied ob ich ne symmetrische Speicherbestückung habe oder es Unterschiede in Kapazität und Performance gibt.
Die Details sind unklar, aber das Konzept ist für mich sonnenklar zu erkennen und jetzt schon genaue Details zu erwarten wäre auch noch total verführt. Was mich wirklich interessieren würde ich, wie genau das XPoint funktioniert. Das einzige was ich dazu gelesen habe deutet an, dass es ähnlich wie ein mechanischer Umschalter arbeitet und beim Auslesen auf den "Eingang" Spannung gegeben wird, die dann je nach "Schalterstellung" auf einem der beiden Ausgänge anliegt, was dann eben als 0 oder 1 interpretierbar ist. Nur woraus besteht dieser "Schalter" und wie wird er umgelegt? Was passiert das er irgendwann kaputt gehen und eben nur so 10^7 Schaltvorgänge verträgt? Und was passiert im Laufe der Zeit während es altert? Wird XPoint wie ein mechanischer Umschalter von Anfang an bis zum Ende gleich funktionieren und eines Tages will man umschalten aber irgendwas bricht darinnen ab und es geht einfach nicht mehr. Oder ist es wie NAND, dass im Laufe der Nutzung immer schlechter wird, weil man dort beim Schreiben und Löschen die Elektronen mit Gewalt (hoher Spannung) durch die Isolation prügelt und dabei immer beschädigt wird und irgendwann die Elektronen nicht mehr ordentlich halten kann, mit der Nutzung also immer schlechtere Eigenschaften erhält bis es irgendwann nicht mehr zu gebrauchen ist?bensen schrieb:Das meiste sind einfach Sachen die unklar sind.
Das sind Fragen die jetzt interessieren, aber nicht solche wie die maximale Größe eines DIMM Moduls, wie es genau adressiert wird, welche Timmings oder Transferraten möglich sind, das spielt doch derzeit keine Rolle. Was ändert es ob es DIMMs mit 256GB oder 512GB geben wird und die nun 100, 150 oder 200ns Latenz haben? Es wird größer und langsamer als DRAM, bekommt aber DRAM als Cache zur Seite gestellt, das ist die wichtige Information und es wird am Ende schneller sein als wenn man wie bisher Daten von einem Massenspeicher in DRAM lädt, außer natürlich hat genau DRAM um die Daten dort halten zu können, aber dann braucht man ja auch keine XPoint DIMMs, die sind ja für Anwendungen wo das bisher nicht möglich ist. Weil so DRAM entweder zu teuer ist oder die HW es gar nicht unterstützt.
Zuletzt bearbeitet:
Holt schrieb:Was mich wirklich interessieren würde ich, wie genau das XPoint funktioniert. Das einzige was ich dazu gelesen habe deutet an, dass es ähnlich wie ein mechanischer Umschalter arbeitet und beim Auslesen auf den "Eingang" Spannung gegeben wird, die dann je nach "Schalterstellung" auf einem der beiden Ausgänge anliegt, was dann eben als 0 oder 1 interpretierbar ist. Nur woraus besteht dieser "Schalter" und wie wird er umgelegt?
Memristor
Belege? Ich finde nur das Meldungen was es nicht ist und da wird auch Memristor aufgeführt, also abgestritten:
Zuletzt bearbeitet:
Ich tippe eher auf PCM bzw. PCMS:
http://www.sematech.org/meetings/archives/fep/9064/Pres/22 D Kau.pdf
http://www.dailytech.com/Exclusive+...emory+Boy+Did+They+Patent+It/article37451.htm
Die Folien von Intel 2010 beschreiben ja schon alles. Auch die angepeilte Mitte zwischen NAND und DRAM
http://www.sematech.org/meetings/archives/fep/9064/Pres/22 D Kau.pdf
http://www.dailytech.com/Exclusive+...emory+Boy+Did+They+Patent+It/article37451.htm
Die Folien von Intel 2010 beschreiben ja schon alles. Auch die angepeilte Mitte zwischen NAND und DRAM
Zuletzt bearbeitet:
Ich gehe mal davon aus, dass die die größtmögliche Menge absetzen wollen. Vielleicht nicht direkt zu Anfang, aber später sicherlich.Holt schrieb:Wo hast Du das gelesen? Ich haben noch keinen Hinweis gelesen, dass die Chips auch lose verkauft werden sollen.
Ja, das ist ja der Stand den hier alle haben. Deswegen ja die Aufregung Intel würde nur für sich entwickeln.Diese News verstehe ich so, dass es um die DIMMs geht und diese vorerst nicht von der JEDEC klassifiziert werden sollen:
Achso, dann ist ja alles klar.Wie können sie wohl organisiert sein, wenn sie laut Intel "DDR4 electrical & physical compatible" sind?
Dir ist glaub ich nicht klar was kompatibel bedeutet und was für Möglichkeiten Intel da noch bleiben. Es ist auf jeden falll überhaupt nicht geklärt wieviel da nun adressiert werden kann, nur weil es DDR4-kompatibel ist.
Was soll das? Als nächstes schreibe ich, DIMMs sind nicht über USB angebunden, du fragst nach und ich sag dann "Wer redet denn davon? Hab nur gesagt dass es nicht so ist". Hab ich schon mal gesagt, du musst nicht jeden einzelnen Satz von mir zitieren und was drunter schreiben. Vor allem wenn du dazu nichts zu sagen willst und irgend nen Unsinn absonderst.Wer redet den von DIMMs über PCIe? Ich nicht, wie selbst darüber zitiert hast: "die DIMMs werden natürlich nicht über PCIe angebunden, sonst hätten sie ja kein DDR4 Format."
Wenn nicht ausschließlich XPoint verwendet wird, dann macht das durchaus einen Unterschied. Und laufen ist keine Option. Das ganze muss optimal laufen, sonst kann man sich das ganze auch sparen.Erstens ist es egal ob es heute XPoint gibt oder nicht wenn es als Ersatz für DRAM verwendet wird...
Die müssen sich ja heute auch nicht darum kümmern ob eine CPU einen L3 Cache oder gar das eDRAM als L4 Cache hat und wie schnell das RAM des Rechners ist.
Das Konzept ist skizziert, mehr nicht. Da bleiben viele offene Fragen, die erst im Laufe der nächsten 2 Jahre geklärt werden. Und dementsprechend tauchen auch nun mal Fragen auf, die man nicht klar beantworten kann. Auch wenn manche meinen schon alles zu wissen.Die Details sind unklar, aber das Konzept ist für mich sonnenklar zu erkennen und jetzt schon genaue Details zu erwarten wäre auch noch total verführt.
Ist wirklich interessant. Ich habe 2 Artikel gelesen, die sich damit beschäftigen welche Art von NV-Memory das nun sein könnte. Anhand der wenigen Architekturdetails die bisher bekannt sind, Angaben von Performance, Kapazität und Haltbarkeit und Aufgrund von Patenten. Beide Artikel kamen zu einem ganz anderen Ergebnis.Was mich wirklich interessieren würde ich, wie genau das XPoint funktioniert. Das einzige was ich dazu gelesen habe deutet an, dass es ähnlich wie ein mechanischer Umschalter arbeitet und beim Auslesen auf den "Eingang" Spannung gegeben wird, die dann je nach "Schalterstellung" auf einem der beiden Ausgänge anliegt, was dann eben als 0 oder 1 interpretierbar ist. Nur woraus besteht dieser "Schalter" und wie wird er umgelegt?
Da wurde dann einmal PCM direkt ausgeschlossen und einemal direkt Memristor.
Im Grunde wissen wir da wirklich fast gar nichts.
Mich interessiert das schon. Es ändert am Konzept nichts, aber lässt doch abschätzen wieviel mehr das ganze bringen kann und wie groß die Nachteile sein können.Das sind Fragen die jetzt interessieren, aber nicht solche wie die maximale Größe eines DIMM Moduls, wie es genau adressiert wird, welche Timmings oder Transferraten möglich sind, das spielt doch derzeit keine Rolle. Was ändert es ob es DIMMs mit 256GB oder 512GB geben wird und die nun 100, 150 oder 200ns Latenz haben?
Zuletzt bearbeitet:
Genau das denke ich nicht, die Tendenz geht bei den Anbietern dahin statt der Chips die Endprodukte zu verkaufen, weil da mehr Wertschöpfung drin steckt. Die wollen nicht wieder wie bei RAM am Ende anderen einen guten Teil davon überlassen. Intel verkauft sicher keine NANDs mehr in größeren Menge, die kaufen ja schon bei Hynix zu weil sie selbst nicht genug haben. Micron geht über Crucial mit aggressiven Preisen bei SSDs und RAM Riegeln selbst in den Markt und auch Samsung bietet seine aktuellen NANDs den anderen SSD Herstellern nicht an, oder wann hast Du zuletzt eine SSD mit Samsung NAND gesehen, die nicht von Samsung war?bensen schrieb:Ich gehe mal davon aus, dass die die größtmögliche Menge absetzen wollen. Vielleicht nicht direkt zu Anfang, aber später sicherlich.
Wenn der Speicherkontroller das DRAM als Cache selbst verwaltet und das ist bei den ganze bisherigen Caches (L1 bis L4) ja auch der Fall, dann ist es eben kein Unterschied, dem Programm steht ein linearer Adressraum zur Verfügung und der wird eben dann von der HW so verwaltet, dass es auf die Daten zugreifen kann. Dann braucht es nicht zu wissen wo die stehen, das spielt dann keine Rolle und worauf häufiger zugegriffen wird, steht in einer höheren Cacheebene, genau wie es schon heute ist.bensen schrieb:Wenn nicht ausschließlich XPoint verwendet wird, dann macht das durchaus einen Unterschied.
Nochmal: Die Alternative ist weniger RAM zu haben, das ist dann zwar das noch immer etwas schnellere DRAM, aber dann muss man Teile immer wieder von einem Massenspeicher laden, aber der ist in jedem Fall noch um einiges langsamer.bensen schrieb:Und laufen ist keine Option. Das ganze muss optimal laufen, sonst kann man sich das ganze auch sparen.
Die Kapazitäten werden ja offenbar um einiges größer als heute sein:
2Tbit in einem Chip, sind 2TiB in einem Modul und doppelseitig bestückt, 4TiB. Heute bekommt man mit Mühe 1.5TB RAM auf ein Serverboard, wenn man ein Dual-CPU S.2011-3 mit 24 RAM Slots mit 64GB LRDIMM Modulen bestückt, die es noch gar nicht gibt.
Ja leider!bensen schrieb:Im Grunde wissen wir da wirklich fast gar nichts.
bensen schrieb:Mich interessiert das schon. Es ändert am Konzept nichts, aber lässt doch abschätzen wieviel mehr das ganze bringen kann und wie groß die Nachteile sein können.
Ähnliche Themen
- Antworten
- 12
- Aufrufe
- 2.816
- Antworten
- 18
- Aufrufe
- 6.382
- Antworten
- 37
- Aufrufe
- 8.369