Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsPhasenwechselspeicher: Micron beendet das Kapitel 3D XPoint
Das ist aber vor allem ein Marketing-Problem. Wer erreicht denn diese 3000+ MB/s Lesewerte bei NAND-SSDs außer bei Benchmarks? Selbst mit H2testw, was sich ja eigentlich besonders gut dafür eignen müsste, bekomme ich in der Praxis diese extrem hohen sequenziellen Leseraten der Benchmarkprogramme mit einem 5950x und einer 970 Evo Plus 2TB nicht nachgestellt, sondern Pi mal Dauem den halben sequenziellen Wert aus AS SSD.
Teralios schrieb:
Naja, "Klein" sind die durchaus. Bei Spiele-Assetts bewegen wir uns in einem "gemischten" Workload, so dass IOPS als auch die Sequenzielle-Transferraten wichtig sind.
Irgendwann habe ich irgendwo mal eine Untersuchung gelesen, dass Spiele hauptsächlich in 32 KB-Blöcken auf die SSD zugreifen. Deswegen schaue ich ja inzwischen so stark auf die 4 KB Q1T1 Werte bei Benchmarks...
Da liegt das Problem.
Bei SSDs war es pauschal so, solange nicht mehr als 1-2TB gebraucht werden, hol ne SSD.
Aber wen kann man schon sagen, für dein Szenario zahl das 6fache und hol dir ne XPoint SSD um dann überhaupt spürbar schneller zu sein. Fast niemanden.
Irgendwann habe ich irgendwo mal eine Untersuchung gelesen, dass Spiele hauptsächlich in 32 KB-Blöcken auf die SSD zugreifen. Deswegen schaue ich ja inzwischen so stark auf die 4 KB Q1T1 Werte bei Benchmarks...
Da der Zugriff auf die SSD per Dateisystem erfolgt, greift man immer mit den dortigen Clustergrößen auf eine SSD/HDD usw. zu. Bei NTFS sind das zwischen 4 KiB pro Cluster bis zu 64 KiB pro Cluster. NTFS verwendet in der Regel immer 4 KiB, deswegen ist der 4 KiB-Random-Read/Write Test auch so "beliebt".
Da alle "Programme" mit 4 KiB - 64 KiB Blöcken auf eine SSD oder HDD zugreifen, sagt das nicht unbedingt etwas aus, wie wichtig jetzt die 4K Q1T1-Preformance ist. Die 4K Q1T1-Preformane ist in dem Fall nur für den ersten "Zugriff" wichtig, danach aber vollkommen "uninteressant".
Wenn eine Textur ca. 10 MiB hat - das wären bei NTFS 2560 4K Blöcke. Die Q1T1 wäre in dem Fall entscheidend für den ersten Block, wenn man genau diese Datei braucht, die SSD kann danach die weiteren angeforderen Blöcke sogar sehr schnell zusammen suchen, puffern und raus geben.
Bei Spielen werden auf der einen Seite "viele" Dateien abgefragt, gleichzeitig sind es aber eben nicht nur kleine Dateien, sondern auch Dateien, die sch gut Puffern lassen von der SSD dann.
Der Workload bei Spielen ist daher in der Regel ein gemischter, zumal sich gerade bei Spielen auch das Laden von Texturen und Assets optimieren lässt, da zum Teil Planbar.
Bleibt die Erkenntnis, dass sich neues nur dann durchsetzen kann, wenn es billiger ist, nicht wenn es besser ist. Zumindest bei 3D Xpoint scheinen die Vorteile und die Perspektive aus wirtschaftlicher Sicht wohl ziemlich mau zu sein.
Genau so sieht es aus und nicht nur bei der IT entweder es ist billig oder einfach so viel besser das die Vorteile die !wenigen! Nachteile überwiegen. SSDs haben sich ja auch durchgesetzt obwohl sie zum Anfang viel zu teuer für Normalos waren. Waren aber halt schon immer für bestimmte Szenarien einen riesigen Faktor besser. Für viele hier ist es aber z.B. egal ob eine NVMe oder eine gute SATA SSD im Rechner steckt da macht es dann auch wieder der Preis bzw. der Bedarf. Nur für Prestige schmeißen halt nicht alle ihr Geld raus. Wenn etwas den gleichen Zweck erfüllt und dabei genausogut und auch noch billiger ist lässt sich das halt viel leichter an die Menschen bringen.
Die Erfindung an sich ist ja deshalb nicht gänzlich verloren. Evtl. bekommt der Speicher ja später nochmal ne zweite Chance, wenn andere Parameter eher stimmen.
Kommt selten vor. Konkurrierende Technologie (NAND, DRAM) schlaeft ja nicht, und wenn's dort schneller weitergeht und deswegen mehr Geld investiert wird, geht's dort noch schneller weiter. Es gab ja schon jede Menge vielversprechende Technologien, die als Zukunftstechnologie hochgejubelt wurden, und dann nicht das hielten, was man sich von ihnen erhofft hatte: Wankelmotor, Bubble Memory, Josephson Junctions, Prolog, schnelle Brueter, Kernfusion, usw. Und viele von diesen Technologien haben eine treue Fangemeinde, die immer noch glaubt, dass das irgendwann etwas wird.
Sind halt andere Materialien und die Anwendung ist zu speziell. Jetzt wird mit DDR5 der DRAM nochmal vervierfacht da gibt's auch als Level 2 Puffer keine Anwendung Mehr.
Metallchalkogenide werden sonst nur noch in Spezialgläsern verwendet welche in IR Optiken zum Einsatz kommen, da diese hervorragende Transmissionswerte erzielen. Aber als PCM schwindet ihr Einsatz zunehmend.
Schade schade. Klang von der Haltbarkeit her ja sehr gut im Vergleich zu normalem NAND und zumindest das Lesen der technischen Artikel zu der Technologie haben mich doch sehr unterhalten.
Wo bleiben eigentlich jetzt die holografischen Speichermedien, hm! Alle paar Jahrtausende hört man mal was davon und freut sich und dann passiert doch nichts~
Die 4kB QD=1 Performance ist ein Test für die Latenz einer SSD bzw. der worst case für den Durchsatz. Das hat wenig mit der Blockgröße vom Dateisystem zu tun, da davon die SSD sowieso keine Ahnung hat. Die SSD bekommt einen NVMe read command. Wobei zwischen 1 und 2^16 Blöcke (logische Blöcke der SSD) auf einen Schlag angefragt werden können.[2]
Und buffern muss eine SSD eigentlich auch nicht bei solchen Zugriffen, die Blockgröße die SSD nach außen kommunizieren hat nicht mehr viel mit der Größe der eigentlichen Blöcke zu tun die SSD intern lesen müssen.[1]
Und in Spielen werden zwardurchaus viele Zugriffe gestartet, nur sind die aller meisten Assets heute deutlich größer als 4kB.
[1] NVMe 1.4 hilft da etwas, da kann die SSD dem Betriebssystem gegenüber transparent machen wie groß read, write und erease Blöcke intern sind.
[2] Selbst bei 512bit logischer Blockgöße sind das also bis zu 32MB Requests auf einen Schlag.
Dass die SSD bei Consumer floppt, war klar. Die meisten haben das Geld nicht.
Also hätte es der Enterprise Markt richten können, aber da geht es erst recht nach dem Preis und wenn SSds alle 4 Jahre ausgetauscht werden, kann man keine Technologie brauchen, die dann nur eine Bruchteil ihrer Lebensdauer hinter sich hat, weil bei einem Wechsel auch neuen Technologien eingeführt werden und die Kompatibilität hat man mit den alten Optane Teilen lange vor ihrem Lebensende nicht mehr, die dann doch vorzeitig ausgetauscht werden müssen. Die Entwicklung von 3D XPoint muss ja auch Schritt halten können mit PCIe 4.0 und 5.0. Und das ist ein Fass ohne Boden ohne entsprechenden Absatz.
Man zieht jetzt die Reißleine, wie bei jeder Sache, die keinen Aussicht auf Erfolg hat.
Hat sich da der Wind gedreht? Bis vor ca. einem Jahr hat doch gefühlt jeder Forenbenutzer noch gesagt, dass sich schon SSDs nicht für Spiele lohnen¹. Jetzt ist's auf einmal soweit, dass SSDs schon limitieren?
Klar kann man Asset Loading in Spielen richtig schlecht umsetzen (ineffizient kann man immer programmieren, siehe die aktuelle Story um GTA). Ein Asset-System, das seinen Namen verdient, wird aber linear aus einem komprimierten Archiv lesen und dann erst im RAM die Assets auseinandersortieren. Z.B. im Blog zu "The Witness" kann man dazu einiges lesen, oder auch im Zusammenhang mit APKs unter Android, wenn es um optimierten "wahlfreien" Zugriff innerhalb eines Archivs geht.
¹ Das war so pauschal natürlich immer schon Unsinn, aber es kommt halt drauf an.
Richtig, die SSD hat davon keine Ahnung ... du solltest dennoch auf den Kontext achten:
Der SSD ist es vollkommen egal, ob das Betriebssystem mit 4, 8, 16, 32 oder 64 KiB-Clustern arbeitet oder nicht, sondern die organisiert sich so, wie es der Controller für richtig hält. Ändert aber nichts an der Tatsache, dass WIR von außen, wenn wir uns ansehen, wie Spiele ihre Daten abfragen, die Ebene des Dateisystems sehen und wie dieses die Daten zurück liefert und dort bekommt man eben die 4, 8, 16, 32 oder 64er Blöcke zurück. Deswegen auch der Hinweis: Richtig und Falsch zu gleich.
Piktogramm schrieb:
Die SSD bekommt einen NVMe read command. Wobei zwischen 1 und 2^16 Blöcke (logische Blöcke der SSD) auf einen Schlag angefragt werden können.[2]
Japp, ändert weiterhin nichts daran dass die Anfrage vom Dateisystem kommt und der Entwickler und User in der Regel nicht das sieht, was die SSD intern macht, sondern das, was das Dateisystem dann bekommt und was hier relativ wichtig ist.
Piktogramm schrieb:
Und buffern muss eine SSD eigentlich auch nicht bei solchen Zugriffen, die Blockgröße die SSD nach außen kommunizieren hat nicht mehr viel mit der Größe der eigentlichen Blöcke zu tun die SSD intern lesen müssen.[1]
Jaha, da hab ich zu stark vereinfacht. Hätte ich das Puffern mal in Anführungszeichen gesetzt. Im Endeffekt geht es aber genau darum: Das Dateisystem fordert eine Datei an und sagt der SSD welche Blöcke sie möchte, die SSD kann dann entsprechend die Daten holen und zurück geben.
Die 4K-Performance ist dabei relevant, bis die erste Antwort kommt, aber nicht darüber hinaus.
Piktogramm schrieb:
Und in Spielen werden zwardurchaus viele Zugriffe gestartet, nur sind die aller meisten Assets heute deutlich größer als 4kB.
Alles ist größer als 4 KiB. Da sind wir uns ja einig.
Deswegen ist es auch kein reiner Random-Workload, aber eben auch kein reiner sequenezieller Workload, dass ist das entscheidende.
Ergänzung ()
GrumpyCat schrieb:
Ein Asset-System, das seinen Namen verdient, wird aber linear aus einem komprimierten Archiv lesen und dann erst im RAM die Assets auseinandersortieren
Was da nun genau auf uns zu kommt, wird sich jetzt zeigen.
DirectStorage - groß als "RTX I/O" von NVIDIA angekündigt - kommt jetzt und soll das Laden von Daten an der CPU und dem RAM vorbei direkt von "SSD" in den VRAM ermöglichen. Vor allem da die Assets und Texturen heute auch immer größer werden und der System RAM da als Zwischenspeicher eventuell auch nicht reicht.
Vor allem auch mit den "Mesh-Shadern" gibt es aktuell wohl so einige interessante Entwicklungen, dass man nun wirklich nur noch ein Asset mit liefert usw.
Es wird sich zeigen, was hier jetzt wie mit der Zeit relevant wird.
Also erstmal keine KI-Computer die immer an sind, auch wenn sie aus sind. Dabei hat sich das vor Jahren mal richtig gut angehört. So gut, dass eine Freundin (Bankerin) in Aktien investierte und dabei gut Kohle machte.
Der Vergleich mit Rambus gefällt mir daher.
Ach, was solls, es kommt eh immer alles anders als geplant. Das Leben und die Computerwelt bleibt weiter spannend!
Anm.: Da gerade ein Bot durchs Forum wütet und lange Zitate löscht gibt es jetzt multiple Zitate! Extra unübersichtlich, extra hässlich und mehr Bildschirmfläche einnehmend als ein einzelnes, eingeklapptes Zitat. Ein super Beispiel wieso automatisierte Filtermechanismen ein klein wenig Gaga sind -.-
Teralios schrieb:
Richtig, die SSD hat davon keine Ahnung ... du solltest dennoch auf den Kontext achten:
Der SSD ist es vollkommen egal, ob das Betriebssystem mit 4, 8, 16, 32 oder 64 KiB-Clustern arbeitet oder nicht, sondern die organisiert sich so, wie es der Controller für richtig hält. Ändert aber nichts an der Tatsache, dass WIR von außen, wenn wir uns ansehen, wie Spiele ihre Daten abfragen, die Ebene des Dateisystems sehen und wie dieses die Daten zurück liefert und dort bekommt man eben die 4, 8, 16, 32 oder 64er Blöcke zurück. Deswegen auch der Hinweis: Richtig und Falsch zu gleich.
Für die Performance einer SSD ist es aber egal wie Spiel und Betriebssystem interagieren. Es ist nur die Ebene BS - SSD interessant und die an der Stelle verwendeten Blockgrößen.
Und es stimmt mit den neueren NVMe Protokollversionen auch nicht mehr, dass der Controller unabhängig vom Betriebssystem organisiert. Da sind mittlerweile detailliertere Abstufungen möglich.
Japp, ändert weiterhin nichts daran dass die Anfrage vom Dateisystem kommt und der Entwickler und User in der Regel nicht das sieht, was die SSD intern macht, sondern das, was das Dateisystem dann bekommt und was hier relativ wichtig ist.
Dateisysteme sollten an der Stelle komplett transparent sein. Was für den Durchsatz einer SSD relevant ist, ist allein was an Befehlen via NVMe ankommt. Und das sind Requests der Größe $logicalBlocksize bis 2^16 * $logicalBlocksize.
Auf das Dateisystem greifen Entwickler von Sofftware, die im userspace läuft, zudem auch nicht zu, das sind genauso abstrahierte Zugriffe der Art "Betriebssystem, blende mal Datei xyz in den Speicher ein und gibt mir die StartAdresse sowie Größe".
Jaha, da hab ich zu stark vereinfacht. Hätte ich das Puffern mal in Anführungszeichen gesetzt. Im Endeffekt geht es aber genau darum: Das Dateisystem fordert eine Datei an und sagt der SSD welche Blöcke sie möchte, die SSD kann dann entsprechend die Daten holen und zurück geben.
Das Dateisystem fordert gar nix an! Dateisysteme ist eine Verwaltungsstruktur. Wenn fordert das Betriebssystem Daten mittels des NVMe (oder AHCI) Protokolls von der SSD an. In multiplen Größen von "logical Block size"
Deswegen ist es auch kein reiner Random-Workload, aber eben auch kein reiner sequenezieller Workload, dass ist das entscheidende.
Das was moderne Spiele fordern, ist aber bei weitem nicht so klein und "random", dass XPoint irgendwas bringen würde. Zumindest unter der Annahme, dass das arme Betriebssystem genügend Ram hat und nicht auslagern muss.
Schade eigentlich, aber ist ja wie mit VHS damals gewesen. War der Schlechtere Standard im Gegensatz zu Betamax und Video 2000. Genauso HBM, toller Ansatz, aber teuer, da ist ja AMD auch im Consumer Bereich zurückgerudert...
Naja, man bekommt noch keine vernünftigen Datendichte hin. Die ist kaum größer als bei DRAM. Deswegen ist der zu teuer und auch der Kapazitätsunterschied zu gering. Doppelte Speichermenge ist nett, aber da lässt niemand alles für liegen. Wenn das 4 oder 8x so viel wäre, wäre das ein ganz anderer Erfolg.
Und Herstellungskosten sind das eine, noch viel schlimmer sind ja die Kosten für die Entwicklung. Gerade am Anfang müssen da ja Unsummen investiert werden um vorwärts zu kommen. Wenn dann die Umsatzaussichten eher dürftig sind, ist klar das micron aussteigt.
Intels Interesse daran ist natürlich größer. Aber wenn da nicht ein großer Sprung kommt, machen die das auch dicht.
Aber schade ist es schon, dass gerade bei Speichertechnologien, die so häufig der Flaschenhals sind, monokultur herrscht und innovationen kaum Fuss fassen können.
Bleibt die Erkenntnis, dass sich neues nur dann durchsetzen kann, wenn es billiger ist, nicht wenn es besser ist. Zumindest bei 3D Xpoint scheinen die Vorteile und die Perspektive aus wirtschaftlicher Sicht wohl ziemlich mau zu sein.
Das sehe ich nicht so. Wo ist die Speichertechnologie aktuell ein Flaschenhals?
Bei standard PCs reichen S-ATA SSDs schon aus. Was mehr kann ist nur noch mess- aber seltenst spürbar.
Oft ist die CPU dann der neue Flaschenhals, da die Daten auch verarbeitet werden müssen.
Auch im Serverbreich ist der Speicher nur bedingt ein Flaschenhals. Speicherbusse/-netzwerke müssen auch mithalten und neben Durchsatz ist dann auch Kapazität schnell ein Thema.
Innovationen müssen natürlich das Potential haben sich durchzusetzen, wofür es grundsätzlich 2 Gründe gibt:
Es ist bei gleicher Leistung billiger oder bei gleichem Preis leistungsfähiger.
Eine weitere ist: Sie löst Probleme und ist ihr Geld wert. Xpoint ist nett, aber es gab kein Problem, dass damit gelöst wurde. NAND-Flash reicht für viele schlichtweg aus und dass die volle Leistung erst mit parallelen Zugriffen erreicht wird, ist dahingehend kein Problem, dass einzelne Kerne eh nicht in der Lage sind genug Rechenleistung zu liefern.
Ich habe Everspin Aktien, mal schauen wie da die Zukunft verläuft. Aber auch das ist nur ein kleiner Markt - weil die Technologie nur ein Nischenproblem abdeckt und preislich für die Masse uninteressant ist.
Um dem vorwegzugreifen: Die Technologien sind nunmal viel komplizierter und daher teurer - das lässt sich auch mit Massenproduktion nicht grundlegend lösen. Wenn du für den die gleiche Kapazität mehr Chipfläche belegst...
Ergänzung ()
Bob.Dig schrieb:
Zu teuer zu produzieren, warum eigentlich? Oder wurde man sich nur nicht mit intel einig, die ja zugerne den Preis hochhalten.
Im Internet (und IIRC auch hier in älteren Artikeln) gibt es Informationen dazu, wie Flash und Xpoint funktionieren und aufgebaut sind, das beantwortet deine Fragen. ;-)
Ergänzung ()
horror schrieb:
Also erstmal keine KI-Computer die immer an sind, auch wenn sie aus sind.
Nachvollziehbarer Schritt, aber trotzdem schade. Heute übliche Beamer, mit Mikrospiegelaktoren in MEMS-Technik, gäbe es gar nicht, ohne die sicher extrem teure Forschungs- und Entwicklungsarbeit von Texas Instruments, die sich für sie bestimmt auch nie so wirklich ausgezahlt hat.
Man kann noch so viele Flash-Chips parallel schalten, wesentliche Fortschritte bei den Latenzen dürften ohne große Innovationen kaum machbar sein und 3D XPoint ist eine mögliche Option.