Ob zur Steigerung der Schreibleistung ein SLC-Cache genutzt wird, gilt es noch zu erfahren.
Das könnt ihr als sicher annehmen, denn keine 250GB SSD mit TLC NAND würde auch nur die Hälfte ohne Pseudo-SLC Schreibcache schaffen. So bringt es die 860 Evo 250GB bei vollem Pseudo-SLC Schreibcache gerade noch auf 300MB/s schreibend und die dürfte da schon zu den schnellsten der aktuellen Generation gehören.
Keinen DRAM Cache zu haben, disqualifiziert diese SSD und das Host Memory Buffer (HMB) kann dies auch keineswegs kompensieren. Wobei es wirklich komplett idiotisch ist, dann nur eine Anbindung mit 2 PCIe Lanes zu machen, wenn man über diese ja auch noch den Zugriff auf diesen HMB machen muss.
Anandtech hat HMB hier am Beispiel einer Toshiba RC100 getestet und wenn man sich die Werte beim
AnandTech Storage Bench - Light ansieht, kommt die RC100 480GB leer mit HMB auf 670,6MB/s, etwas mehr als die 649,6MB/s ohne, aber voll dreht sich das Bild komplett um, da hat sie mit HMB nur noch 139,6MB/s, ohne HMB mit 307,3MB/s über Doppelt so viel! Das ist Blendwerk vom feinsten um bei den meisten Reviews, wo ja nur auf der leeren SSD gebencht wird oder auch wie hier bei CB allenfalls ein einfacher Benchmark wie AS-SSD läuft der nur über wenige GB Adressraum hinweg Zugriffe macht, gut abzuschneiden.
Das liegt daran das die Controller die Mappingtabelle also den Flash Translation Layer (FTL) und eben nicht Userdaten im DRAM Cache ablegen, also die Information wo die Daten im NAND stehen und wo NAND frei ist um dort schreiben zu können. Die ohne DRAM Cache halten dann immer einen kleinen Teil der Mappingtabelle im interen SRAM des Controller, genug um gut in den Benchmarks abzuschneiden die ja nur über ein oder weniger GB Adressraum benchen und daher tolle Werte ins Datenblatt schreiben zu können. Aber im Alltag muss der Controller dann ständig erstmal wieder den passenden Teil aus dem NAND nachladen, sobald die Zugriffe über einen größeren Adressraum erfolgen, was in der Praxis bei einer vollen SSDs eigentlich immer der Fall sein wird. Logisch das dies viel länger als ein DRAM Zugriff dauert und die Performance ist dann eben unerwartet mies und HMB scheint dies auch nicht zu verbessern, eher zu verschlimmern, weil der Aufwand für die Verwaltung einfach noch höher wird und statt gleich den Teil der Mappingtabelle aus dem NAND zu lesen, erst noch geschaut wird ob der nicht im HMB gecacht wurde.