Notiz In eigener Sache: Aktuelle Vorschläge für SSD-Praxistests gesucht

Testet unter Linux. ;) Dort gibt es (so gut wie) keine Anwendungen, die sich beim Starten mit dem Netz verbinden um nach Updates zu suchen oder die irgendwas beim Start vorladen. Zudem ist die Messung der Startzeit mit einem vorangestellten "time" Befehl recht exakt.
 
https://youtu.be/ggIjr5Z0N10?t=372
Houdini Rendering oder etwas ähnliches. Das zeigt in der Praxis einen echten Unterschied zwischen verschieden schnellen Datenträgern, wenn der RAM nicht mehr reicht. Sollte nur nicht auf HDDs ausgeführt werden.
 
Zuletzt bearbeitet:
Für mich persönlich wären gerade bei SSD die "Datenbankfähigkeit" interessant. Also wie schnell z.B. gewisse SQL Query bei großen Datenbanken abgearbeitet werden.
Als Tool zum benchmarken kann man HammerDB nutzen. Und die Datenbank kann MS SQL oder MySql oder eine andere sein.
Das Interesse liegt hier mehr im Business- und Serverbereich, dafür liefert ein Datenbankbenchmark immer solide Ergebnisse und selbst kleine Performencevorteile werden sofort sichtbar.
 
Mit dem Tool "O&O ShutUp10" kann man zuverlässig alle Updates abschalten, damit könnte man Windows auch zur Ruhe bringen. Ok ihr sagt der Rechner muss offline sein, auch eine Lösung.

Das ermitteln der Bootzeit geht dann über den Rechner-Neustart von Hand. Das geht wohl nur mit Stoppuhr.

Das Ende kann man aber leicht definieren. Windows soll nach dem Start sofort ein Screenshot von sich selber machen, einfach über "Druck", dann soll es Paint, alternativ Paint.NET öffnen und diesen speichern, dann hat dieser Screenshot nämlich auch ein Zeitstempel! Das ist der technische Nachweis, dass Windows wirklich zu sehen war.

Das geht mit Tools wie GhostMouse, besser wäre aber wahrscheinlich ein .BAT-Datei Script das nur im Autostart von Windows liegt. Vielleicht kann das ja jemand noch schreiben?
 
Zuletzt bearbeitet:
Bootzeit: Die startenden Prozesse sollten definierbar sein und es gibt ja auch (irgendwo) eine Lohndatei.

Öffnen einer großen Lightroom-Bibliothek (o.ä.): Wenn der Dienst vorher inaktiv ist, müsste ein Preload auch auszuschließen sein, oder?

Kopieren einer definierten Dateimenge: Keine Ahnung, inwiefern da andere Limits greifen. Ggf. müsste man das Quellmedium im Laufe der Zeit erneuern, sofern die Schreibleistung des zu testenden Mediums die Leseleistung der Quelle übersteigt (Ramdisk?).

Das sind recht spontane Ideen, die die geforderten Kriterien evtl. nicht (ganz) erfüllen aber dadurch wird für mich die Alltagsleistung eines neuen Laufwerks definiert.

/raus/laufen😉
 
Die reale Leistungsaufnahme würde mich interessieren (auch für m.2).
 
Ich fände ja auch trace-benchrs interessant, so wie sie zB anandtech durchführt. Die sind zwar eher Semi-Praktisch, aber sind eben perfekt reproduzierbar und testen die SSD mit vielen verschiedenen Zugriffsmustern, Dateigrößen und vor allem auch Schreib- und Lesezugriffe gleichzeitig und alles durcheinander.
Zudem werten die nicht nur die Transferrate aus, sondern auch die Zugriffszeit, inkl. das langsamste Perzentil. Eigentlich ist das imho der perfekte SSD Benchmark.

Desweiteren ist euer theoretischer Benchteil ziemlich oberflächlich. Es fehlen da sequentielle Transferraten bei niedrigerer Queuedepth und kleinerer Dateigröße. Da brechen viele SSDs extrem ein. Das was cdm da ausspuckt ist ja eher nen Idealwert ohne praktischer Relevanz.

Auch wäre es beim Schreiben schön, einen kurzen und einen langen Test zu haben. So dass einmal der slc-cache getestet wird und einmal die Dauertransferrate.

Euer Lese-, Schreib- und Kopiertest ist gut. Würde ich vielleicht noch etwas erweitern und die Angabe in MB/s hin und nicht in sec. Dann kann man die Werte viel besser mit den theoretischen Werten vergleichen. Oder macht nen Toggle-Switch him, dann hat man beides.

Aber schön, dass ihr den Text verbessern wollt. Der alte Parcours war schon nicht wirklich gut, das machen viele andere Seiten besser. So wie es momentan ist lese ich den Test erst gar nicht, da er kein Stück bei einer etwaigen Entscheidung weiterhilft.
 
Haha. :d

Edit: da ist das Zitat nicht mitgekommen, war auf unter Linux laden Programme keine Updates nach bezogen :-)
Selbst Shutter prüft gerne Mal auf Plugin Updates, die Vivado Suite, Steam, etc. laden natürlich auch beim Start erstmal Sachen herunter bzw. hoch.

Aber insgesamt ist es unter Linux wahrscheinlich besser.
 
Zuletzt bearbeitet:
ich starte meinen Flugsimulator (Prepar 3D x64) von der Samsung M2 960 Pro. Das Laden der Scenerie dauert endlos lang aufgrund der kleinen Dateien. Ich verwende hierbei zusätzlich die HTC Vive. Auch hier wären Testberichte interessant in bezug auch auf frames.... CPU: Threadripper 1900
 
Inaiah: Shutter prüft allerdings nicht im Netz sondern scannt das Dateisystem nach neuen Plugin-Dateien. ;) Vivado und Steam sind proprietäre Software, die gehören zu den Ausnahmen, die es tatsächlich gibt. Aber du hast recht, es gibt auch freie Software, die so etwas macht, zum Beispiel TexStudio (wobei es dort afaik kaum Auswirkungen auf die Ladezeit hat).
 
Sehr gute Idee diesen Thread zu starten!

Mein Vorschlag:
Kompilieren eines großen C++ Projektes z.B. Linux-Kernel. Bei tausenden von Dateien kommt es hier auf Zugriffszeiten und die Lesegeschwindigkeit bei kleinen Dateien an. Mit so vielen Kernen wie möglich kompilieren um mehr Last auf der SSD zu erzeugen.


eremit007 schrieb:
Die reale Leistungsaufnahme würde mich interessieren (auch für m.2).
Mich auch. ;)
 
Zuletzt bearbeitet:
Ein Test unter GPU Last wäre eigentlich ganz nett, wenn man Praxiswerte möchte.

Denn auf so gut wie allen Boards liegt der NVMe m2 Slot unter dem 16x slot der für die Graka bestimmt ist. Da NVMe SSDs häufig zu sehr hohen Temps neigen, wäre es interessant zu Wissen wie sich die Performance unter Gaminglast verhält, während sie unter einer heißen Graka sitzen.

Also GPU Benchmark (nicht umbedingt furmark, weil der ist schon unrealistisch heiß) an und gleichzeitig einen Crystaldisk laufen lassen.
 
avey schrieb:
Ein Test unter GPU Last wäre eigentlich ganz nett, wenn man Praxiswerte möchte.

Damit testet man aber eher die Gehäuselüftung als die SSD als solches. Bei mir wird die 960 Evo nie wärmer als 45°C und das obwohl meine GTX 1080 eine offene Kühlung hat. Die wärme wird also nicht nach außen abgeführt.
 
Photon schrieb:
Inaiah: Shutter prüft allerdings nicht im Netz sondern scannt das Dateisystem nach neuen Plugin-Dateien. ;)

Ha, das ist mir dann tatsaechlich entgangen! Danke fuer die Aufklaerung :cool_alt:
 
Was mich abgesehen von der Leistung nochmal in den Wahnsinn treibt:

Selbstverschlüsselung basierend auf OPAL/eDrive. Damit sehen leere Sektoren so aus als wären sie mit Zufallszahlen beschrieben. Gerade bei Crucial kommt das dauernd vor...

Im Alltag nervt das bei vielen Sachen enorm, z.B. wenn man ein Image erstellen will oder das Laufwerk sektorweise kopieren will oder wenn man einfach nur ein Programm nutzen möchte das SATA-Low-Level-Befehle nutzt. Mit brutalen Low-Level-Tools kann man das zwar zurücksetzen oder während der Windows-Installation dauerhaft ausschalten aber ein klares "hat OPAL" wäre toll dann meide ich das Teil.
 
Ich hätte ein paar Vorschläge:

- Windows Boot Zeit messen mit xbootmgr aus dem Microsoft Performance Toolkit. Das lässt sich autonatisieren und die Resultate (XML Format) einfach auslesen.

Dazu würde ich ein eher aufgeblasenes W10 verwenden mit Skype, Antivirus Suite, Steam und diversen Tools die im Autostart sind ubd der reale Benutzer öfters verwendet.

- SQL Datenbanken auf der SSD einrichten und wie schon vorgeschlagen mir HammerDB messen.

- Kompilieren grosser Software oder z.B eines kompletten Linux Kernels mit einem guten Compiler

Das sind zusamme gefasst sicher sinnvolle, nicht synthetische Benchmarks.

Bei DBs kann man noch gut IOPS messen. Die sind auch interessant. Fast jede Software nutzt irgend eine Datenbank, auch wenn es oft "nur" SQLite ist.
 
Wir brauchen Games!

Ich kenne nur kein Game mit hohen Ladezeiten, denn mit M.2 und 5 Ghz auf dem ersten Kern ohne Stromsparfunktionen lädt alles instant.
 
Ich wäre eher für VMs! Spielt einige virtuelle Maschinen auf die SSD, die alle mit sehr viel Zugriffen aufwarten - zB virtualisierte DB-Server.
 
Zurück
Oben