craxity schrieb:
Leider ist mir keine Dokumentation bekannt, die das Verhalten der SSD-Firmware auch nur ansatzweise darlegt.
Die wird man auch kaum finden, die Hersteller halten sich da alle sehr bedeckt.
craxity schrieb:
Deswegen weiß ich nicht: Wie lange dranlassen? Bring Dranlassen überhaupt was?
Du wirst doch Deine Backup auch mal prüfen, vor allem wenn es inkrementelle Backups sind, oder? Spätestens dabei sollte dann der Controller merken ob die Date noch gut lesbar sind oder refresht werden müssen.
bensen schrieb:
Aber zumindest sollte man sich dessen dann auch bewusst sein. Die Fazit hören sich immer so an, als wäre alles glasklar und man könne die Performance einwandfrei beurteilen.
Da gebe ich Dir Recht, mehr Selbstkritik und das Eingestehen der Limit der Aussagekraft der Tests die man in seinem Review gemacht hat, würden fast allen Reviewern gut zu Gesicht stehen.
proko85 schrieb:
Was genau macht denn nun diese SSD für ~100€ mehr besser, als eine 970er Evo plus
Welche konkrete SSD meist Du denn? Wenn Du bei 100€ als einer 970 Evo Plus an eine 970 Pro denkst, so kann diese eben wie gesagt die angegebene Schreibgeschwindigkeit über die ganze Kapazität halten, also nicht nur über einige GB eines Schreibcaches, vorausgesetzt natürlich, dass die Blöcke vorher auch gelöscht werden.
bensen schrieb:
Hohe durchgängige Schreibgeschwindigkeit gibt's nur mit MLC oder Samsungs Z-NAND.
Und bei den Intel Optane, aber bei MLC auch nicht bei allen SSDs. Zumindest einige von Toshiba, OCZ und auch die MX200 (in einigen Versionen) von Crucial hatte einen Pseudo-SLC Schreibmodus bei dem in freien Pages erstmal nur ein Bit geschrieben wurden, genau wie es es bei den dynamischen Pseudo-SLC Schreibcaches üblich ist. Im Gegensatz dazu hatte die SSDs mit TLC anfangs nur einen festen Pseudo-SLC Schreibcache, also einen ausgewählten Bereich in dem die Zellen immer nur mit einem Bit beschrieben wurden und die Daren dann in die anderen Zelle kopiert wurden, bei denen alle 3 Bits geschrieben werden.
Inzwischen haben immer mehr SSDs beiden, also neben dem statischen auch einen dynamischen Pseudo-SLC Cache und während die Größe des statischen Bereiches fix ist, hängt die des dynamischen eben davon ab wie voll die SSD ist. Bei der Intel 660p gelten folgende Größen:
duskstalker schrieb:
Meine ssds mach ich grundsätzlich nicht voller als 75%
Was bei der Intel 660p bedeuten würde, dass nur noch der vergleichsweise sehr kleine statische Pseudo-SLC Cache zur Verfügung steht, während der dynamische Teil nur bis 25% Füllstand die maximale Kapazität hat und diese bis 75% auf 0 fällt. Wie es genau bei den anderen SSDs aussieht, erfährt man leider nicht, aber so viel anderes dürfte es dort auch nicht sein.
whiskascat schrieb:
Eine schnelle NVMe SSD bringt in Spielen nicht mehr als eine 2,5 SSD,
Es gibt auch NVMe SSDs im 2.5" Formfaktor, vor allem Enterprise SSDs aber auch die Intel 750, Optane 900P und 950P Consumer SSDs.
Hallo32 schrieb:
Die Werte sinken beim 2 TB Modell
Das ist normal und hat vor allem diese beiden Gründe:
1.) Ist die Verwaltung der Mappingtabelle natürlich aufwendiger, wenn diese größer ist und erst recht, sofern kein oder nicht genug (wie bei der Intel 660p, die immer nur 256MB hat) DRAM Cache vorhanden ist.
2.) Je größer die Kapazität ist, umso mehr NAND Dies gibt es i.d.R. auch und da die Controller nur eine bestimmte Anzahl an Kanälen haben, müssen dann mehr Dies pro Channel im Interleave. Die Daten werden ja auf dem Die adressiert und während der Controller auf sie warten, adressiert er schon mal die Daten des nächsten Dies an dem Channel bzw. muss beim Schreiben jeweils warten bis das Die seinen Puffer geleert und die Daten wirklich geschrieben hat. Ist der Channel aber gerade beschäftigt, so können eben keine Daten auf einem anderen schon mal adressiert werden und je mehr Dies vorhanden sind, umso wahrscheinlicher gibt es auch mehr Dies pro Channel und umso wahrscheinlicher geht auch mal einer der zufälligen Zugriffe auf Dies am gleichen Channel, weshalb die Taktraten der NAND Interfaces ja auch ständig erhöht werden. Bei nur einem Die pro Channel ist dieser ja immer für die Zugriffe auf dieses eine Die frei.
Es ist also nicht ungewöhnlich und kann durch Effekte wie unterschiedliche Controller bei unterschiedlichen Kapazitäten oder unterschiedliche Diesizes, verzerrt werden.