Also ich beneide den Jan da nicht, denn es ist immer schwerer die Spreu vom Weizen zu trennen, da die Hersteller immer mehr Technologien einsetzen um in den einfachen Benchmarks gut abzuschneiden. Dabei will ist es bewusst offen lassen, ob man das eine oder andere als Benchmarks Trickserei bezeichnen könnte oder es wirklich im Alltag Vorteile bringt, da man wohl beides oft auch gar nicht trennen kann.
Die Pseudo-SLC Schreibcaches sind ohne Zweifel für Consumer SSDs auch im Alltag sinnvoll, da bei meisten Schreibzugriffe bei Heimanwendern nicht länger die einige GB sind und damit deutlich schneller erfolgen, bei der
Intel 660p 1TB mit 1,8GB/s statt rund 100MB/s bei vollem Pseudo-SLC Cache, aber natürlich stehen dann die 1800MB/s im Datenblatt und in den Preisvergleichen. Auch die dynamischen Pseudo-SLC Caches, wo bei "leerer" SSDs normale NAND Bereich nur mit einer Bit beschrieben werden, während anfangs nur ein fester NAND Bereich als Pseudo-SLC genutzt wurde und dessen Größe daher unabhängig vom Füllstand war, machen ja durchaus Sinn, wenn man Anfangs große Datenmengen auf die SSD schreibt geht dies damit schneller, hilft aber in Benchmarks die mehr GB schreiben, natürlich auch zu besseren Ergebnissen.
Dann kommt, wie im letzten Beitrag schon erwähnt dazu, dass man zumindest bei QLC (keine Ahnung wie weit dies auch bei TLC der Fall sein kann) aus dem Pseudo-SLC auch schneller lesen kann und bei der Crucial P1 und wohl auch Intel 660p die Daten bewusst länger als sonst üblich im Pseudo-SLC Cache gehalten werden, sonst werden die Daten ja im Idle sofort in den normalen NAND Bereich geschrieben um den Pseudo-SLC Cache wieder frei zu bekommen. Hilft halt in den allermeisten Benchmarks gewaltig, man bencht ja praktisch nur im Pseudo-SLC Cache, aber auch hier kann man natürlich argumentieren, dass viele Dateien gleicht nach dem Schreiben wieder gelesen werden, z.B. wenn man etwa ein Update runterlädt, die Datei dann entpackt und danach installiert wird. Da bleiben dann weder das runtergeladene Archiv noch die entpackten Installationsdateien wirklich lange auf der SSD und müssen auch nicht unbedingt in den normale QLC NAND Bereich kopiert werden, was auch den NAND Verschleiß mindert.
Den Herstellern ist es sicher recht, dass Technologien die für eine bessere Alltagsperformance eingeführt werden, in den Benchmarks dann zu viel besseren Ergebnissen führen, wie etwas große dynamische Pseudo-SLC Caches die dann auch einen ganze PCMark aufnehmen können und nicht nur die paar GB die z.B. AS-SSD schreibt. Was von beiden nun jeweils der Treiber für die Entwicklung / Auslegung war, kann man wohl nur selten so sagen wie beim SM2262EN, bei dem es klar die Benchmarkperformance bei leerer SSD gewesen zu sein scheint:
Denn zu große dynamische Pseudo-SLC Cache haben eben auch Nachteile:
Wie sollte nun aber ein guter Benchmark / Review aussehen, damit er auch die Realität wiedergilbt? Erstmal sollte die SSD nicht zu leer sein, denn auch wenn ich dazu bisher keine Statistik gelesen haben, so würde ich vermuten das die meisten SSDs bei Heimanwendern nach einiger Zeit irgendwo zwischen 80 und 90% gefüllt sein dürften, die meisten dürften nach einiger Zeit der Nutzung eher zu wenig als zu viel Platz frei auf ihrer SSD haben. Dann sollte es eine ordentliche Verteilung über den Adressraum geben, denn
Consumer SSD nutzen auch Technologien wie Read Ahead Caching, wenn die Daten des Benchmarks dann also schön hintereinander stehen, dann hilft sowas gewaltig und auch DRAM less SSDs haben dann unrealistisch oft den passenden Bereich der Mappingtabelle im internen SRAM. Außer beim Lesen großer Dateien ist es aber viel realistischer, dass auf Dateien zugegriffen wird, die über den gesamten belegten Adressraum verteilt sind und außerdem sind die meisten Dateien die gelesen werden, kaum gerade erst geschrieben worden, sondern dürften schon vor alnge Zeit mal geschrieben worden sein und daher eben nicht mehr im Pseudo-SLC Cache stehen. Welcher Benchmarks dies Out-of-the-Box erfüllen kann, weiß ich aber auch nicht und ich weiß nicht einmal, ob es so einen gibt. Anandtech verwendet eigenen Benchmarks und scheint damit ganz nicht so schlecht zu liegen, sondern vielleicht eher zu streng zu sein?