Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel: PCIe- und SATA-SSDs mit 3D-NAND in neun Varianten
Bitte einen Link zu einer günstigen 2TB+ SSD. Wenn die ja schon so billig zu haben sind nehm ich vielleicht auch zwei.
Übrigens, bei den Preisen die ich gefunden habe sind 512GB mein Limit, nicht das ich diese Infos schon ein paar mal erwähnt hätte
Wieso 2TB? Du wolltest doch im #50 noch mit einer 256-512GB SSD cachen, also solltest Du auch nicht auf mehr als 256 bzw. 512GB regelmäßig zugreifen müssen, damit das was bringen kann und daher brauchst Du den Rest nicht auf eine SSD zu packen, sondern kannst das auf der HDD lagern. Wenn Du halt keine gute Cache Lösung findest, musst Du eben von Hand an und zu die jeweils häufig genutzten Dinge auf die SSD schieben und die nicht mehr so oft verwendeten dann auf die HDD zurückschieben.
Ich dachte an 2TB+ als reine SSD Lösung ohne Cache. Das bräuchte ich mindestens um die aktuelle HD zu ersetzen.
Mit der zu cachenden Datenmenge stimmt nicht ganz, etwas Reserve darf ich einplanen ? Ich würde sagen, so das 1/3 der SSD leer bleiben und der Kontroller Platz zum arbeiten hat. Meine Schmerzgrenze Budget/Wunsch würde aktuell bei einer 512er aufhören, daher der Wunsch diesen Platz effektiver (Cache) zu nutzen.
Der Hyperduo fängt bei ca. 50€ an (Karte mit PCIe 2.0 und mindestens 4x Sata III), ist erstmal kein echtes Schnäppchen für die Nachteile die man damit hat. Unter Win10 scheint er prinzipiell zu laufen, auch wenn in diversen Foren über die Software gemeckert wird.
Wenn man das Teile im SafeMode laufen lässt, bricht die Schreibrate ein, auf HD Geschwindigkeit? Im CapacityMode ist die Performance besser, aber das Risiko bei einem Ausfall steigt.
1/3 ist viel, 10 bis 20% reichen auch, je nach SSD, locker aus und Du solltest eben nicht im Auge haben die ganzen Daten von der HDD auf eine SSD verlagern zu wollen, sondern nur was wirklich viel gebraucht wird und wovon Du also erwartest, dass es dann im Cache landet sollte. Wenn das die ganzen 2TB sind, dann wäre ein Cache sowieso sinnlos, weil sich die Daten dann ständig gegenseitig verdrängen und nur die P/E Zyklen der NANDs fressen, aber nicht viel bringen weil sie wieder verdrängt sind bevor sie erneut benötigt werden. Viele Cachelösungen können außerdem vermutlich gar nicht so viel Cache verwalten, bei HyperDuo habe ich dazu keine Aussage gefunden, aber Intels RST nutzt meine ich maximal 64GB der SSD als Cache. Je größer der Cache wird, umso aufwendiger ist dessen Verwaltung und umso länger dauert es alleine um festzustellen welche Daten gecacht sind, also mindert dies dann auch den Vorteil des Caches.
Hi, da du ja immer mal wieder den Marvell HyperDuo empfiehlst, wenn es um Cache Kontroller geht, hier ein paar Infos die ich mir mit so einem Kontroller erarbeitet habe.
Prinzipiell funktionieren Kontroller und Software (Win10 x64). Der 'Raid' Kontroller läuft auch vollständig ohne Software, nur per BIOS Konfiguration. Die Marvell Software macht keinen besonders durchdachten Eindruck und scheint (unter Win10) nicht wirklich ihren Zweck zu erfüllen.
Zum Beispiel muss man, um überhaupt einstellen zu können welche Ordner gecached werden sollen, erst eine Datei patchen. Andernfalls verschwindet der Tab mit den Einstellungen auf mysteriöse Weise. Leider funktioniert dieser Patch nur mit der vorletzten Version der Software. Die Software selbst ist uralt (2013) und wird offenbar nicht mehr weiterentwickelt.
Da du auch häufig den Overhead des Caching erwähntest, sowie die unbekannten Algorithmen, hier meine Erfahrungen.
Ich würde sagen die Kontroller Logik ist bestechend simpel und hat kaum Overhead, dafür ist es als konfigurierbarer Cache in der Praxis nur mit spezieller Software nutzbar. Die Marvell Software ist leider unbrauchbar.
Modi
1-3 SSD 1 HDD
Für gewöhnlich wird eine SSD angeschlossen, die als Cache für eine angeschlossene HDD dient. Wenn man mehrere SSD anschliesst, so war mein Eindruck, das die SSDs als Raid0 laufen. Das habe ich nicht weiter untersucht, da ich nur eine SSD als Cache verwenden wollte. Man sollte nicht zwei SSD unterschiedlicher Größe verwenden.
SafeMode
Da ich diesen Modus verwenden wollte, habe ich hiermit auch am längsten experimentiert.
Eine SSD cacht die Lesezugriffe auf eine HDD, Schreibzugriffe werden nicht gecacht (HD Geschwindigkeit!).
Laut der Marvell Software kann man festlegen welcher Ordner gecacht wird und welcher nicht. Nach einem Test kann ich sagen, das ist Blödsinn bzw. die Software funktioniert nicht wie beschrieben.
Um es simpel zu erklären, bei einer 500GB SSD und einer 5TB HDD legt der Kontroller den Cache über die Anfangssektoren, d.h. die ersten 500GB der HDD werden gecacht. Nun müsste die Software das Dateilayout auf der Platte so verschieben, das die häufig benutzen Daten innerhalb der ersten 500GB liegen, das bekommt die Marvell Software aber nicht hin. Mit h2testw habe ich diverse Tests gemacht die genau das belegt haben. Ordner die laut Marvel im Cache sind waren lahm, andere ohne Cache waren schnell.
Das Gute ist, für so eine simple Lösung dürfte es kaum Overhead beim Zugriff geben und es müsste mit jedem Dateisystem und Betriebssystem funktionieren.
Das Schlechte, ich kenne keine Software die zuverlässig bestimmte Ordner/Dateien im Dateisystem anordnen kann.
CapacityMode
Dieser Modus legt einfach die 500GB der SSD an den Anfang der virtuellem Festplatte und dahinter die 5TB der normalen HDD.
Auch hier steht und fällt die Funktionalität des Caches mit der Kontrolle über das Datei Layout auf der virtuellen Platte.
Wenn ich eine Messung der Transferleistung über die gesamte Kapazität mache, dann wird die Funktionsweise des Cache sofort sichtbar. Am Anfang volle SSD Geschwindigkeit, nach den xGB der SSD geht die Geschwindigkeit steil nach unten auf HDD Geschwindigkeit. Völlig unabhängig von Dateien, nur durch Sektorzugriffe.
Du kennst nicht zufällig eine Software die auf einer NTFS Partition festlegt wo welcher Ordner angelegt wird?
Defrag Programme können das prinzipiell, aber die absolute Kontrolle was wo gespeichert wird hat man mit aktuellen Defraggern leider nicht. So etwas wie ein Prioritätsystem für bestimmte Ordner/Dateien wäre toll. Müsste man per Schedule immer mal laufen lassen
P.S. Eine so gecachte HDD in mehrere Partitionen zu unterteilen wäre eine ganz schlechte Idee.
Ergänzung ()
Um auch noch ein Fazit zum Hyperduo zu ziehen. Eine SSD Cache Lösung sieht anders aus, intelligentere Software und vor allem etwas was sich transparent im Hintergrund um die gerade zu bearbeitenden Daten kümmert.
Der Hyperduo ist eine Schimäre aus Hardware (Raid Kontroller) und einem IMO mißlungenen Defrag Programm, nicht zu vergessen das den Verbraucher täuschende Marketing dieses Produkts durch Marvell.
Das war mir bei auch schon aufgefallen, die SW ist allenfalls zur Überwachung nötig und wie ich es verstanden hatte um den Cache zu optimieren. Die Controller kennen ja weder Partitionen noch Verzeichnisse oder Dateien, sondern sehen nur Lese- und Schreibzugriffe auf bestimmte Adressbereiche der Platte, was da steht wissen sie aber eben nicht selbst.
vander schrieb:
Da du auch häufig den Overhead des Caching erwähntest, sowie die unbekannten Algorithmen, hier meine Erfahrungen.
Der Marvell 9230 ist mit 1W TDP angegeben, da kann man für die Cache-Logik keine großen Resourcen verwenden und daher auch keine ausgeklügelten Algorithmen erwarten.
vander schrieb:
Eine SSD cacht die Lesezugriffe auf eine HDD, Schreibzugriffe werden nicht gecacht (HD Geschwindigkeit!).
So ist es ja auch beschrieben, daher auch der Name Safe-Mode, denn die Daten landen alle direkt auf der HDD, ein Ausfall der SSD führt dabei zu keinem Datenverlust.
vander schrieb:
Laut der Marvell Software kann man festlegen welcher Ordner gecacht wird und welcher nicht. Nach einem Test kann ich sagen, das ist Blödsinn bzw. die Software funktioniert nicht wie beschrieben.
Um es simpel zu erklären, bei einer 500GB SSD und einer 5TB HDD legt der Kontroller den Cache über die Anfangssektoren, d.h. die ersten 500GB der HDD werden gecacht.
Immer? Dann ist der Algorithmus aber sehr simple bzw. funktioniert ohne die SW die ihm sagen soll was er zu cachen gar nicht.
vander schrieb:
Nun müsste die Software das Dateilayout auf der Platte so verschieben, das die häufig benutzen Daten innerhalb der ersten 500GB liegen, das bekommt die Marvell Software aber nicht hin.
vander schrieb:
Wenn die SW eigentlich die Daten so umsortieren sollte, dass die zu cachenden Dateien eben am Anfang der Platte landen, also auf den Adressen die gecacht werden und das nicht schafft, ist das ganze HyperDuo natürlich unbrauchbar. Man könnte es vielleicht mit MyDefrag probieren, dem kann man mit einem Script recht gut sagen wo es was anordnen soll.
vander schrieb:
Mit h2testw habe ich diverse Tests gemacht die genau das belegt haben. Ordner die laut Marvel im Cache sind waren lahm, andere ohne Cache waren schnell.
Die wirken halt auch nur auf die Dateien die schon drauf sind, wo die neuen landen, entscheidet Windows alleine.
vander schrieb:
Um auch noch ein Fazit zum Hyperduo zu ziehen. Eine SSD Cache Lösung sieht anders aus, intelligentere Software und vor allem etwas was sich transparent im Hintergrund um die gerade zu bearbeitenden Daten kümmert.
Der Hyperduo ist eine Schimäre aus Hardware (Raid Kontroller) und einem IMO mißlungenen Defrag Programm, nicht zu vergessen das den Verbraucher täuschende Marketing dieses Produkts durch Marvell.
So sieht es wohl aus. Danke für die Tests, ich werde HyperDuo dann nicht mehr als Alternaitve zu anderen Cachelösungen erwähnen. Wobei ich diese ganzen Cachelösungen nicht empfehlen kann, die sind auch einfach widersinnig, denn entweder ist der Cache wie bei den SSHDs in aller Regel zu klein und bringt damit nur ins Ausnahmefällen etwas, nimmt man einen große Cache, so kann man auch gleich eine normale SSD und eine HDD nehmen und selbst die Daten so aufteilen, dass die häufig genutzten auf der SSD liegen. Das scheint Marvell bei HyperDuo ja versucht zu haben, aber gelungen ist es eben offenbar nicht, zumindest nicht unter Win 10, vielleicht klappt es bei älteren Windows Versionen ja besser, die SW ist ja noch aus der Zeit bevor Win 10 erschienen ist.
Vielleicht hat die Software vor 3 Jahren mit Win7 bzw. XP besser funktioniert, es gibt keine Version und Treiber für Win10.
Könnte auch sein das meine Installation irgendein Treiber oder sonstiges Problem hat. Es müsste mal jemand gegentesten bei dem es 'funktioniert'.
Wenn ich viel Langeweile hab, mach ich vielleicht selber nen Gegentest mit ner alten Platte und Win7 oder XP. Wäre es nur eine Software, dann könnte ich den ganzen Kram zum testen schnell mal in eine VM stecken.
Dieses MyDefrag werd ich mir mal ansehen, Scripting Support klingt erstmal gut.
Nach einigen Experimenten mit MyDefrag muss ich sagen, nicht schlecht, hätte ich schon früher mal bemerken sollen was damit möglich ist. Als Ersatz für die HyperDuo Software fehlt aber noch die ein oder andere Funktion. Vielleicht komme ich ja noch dahinter, das Skripting ist wirklich mächtig.
Das Marvell entschieden hat den vorderen Bereich der HDD zu cachen erscheint mir dafür ziemlich unglücklich. Damit wird praktisch der schnellste Bereich der HDD ausgeblendet und bei defragmentieren landen die nicht zu cachenden Dateien in den langsameren Bereichen. Zumindest dann, wenn man eine Zone für den gesamten vorderen Bereich (SSD) einrichtet.
Dazu kommt, das man nicht verhindern kann, das Windows in dieses Gap hineinschreibt.
Eigentlich kommt man, für eine sinnvolle Nutzung, nicht um eine richtige Cache Software herum. Damit wäre ich wieder beim Lizensierungsproblem von Readycache für größere SSDs :-(.