Wie stelle ich iometer für SSD Cache test ein oder alternative?

raychan

Lieutenant
Registriert
Jan. 2013
Beiträge
561
Ich wollte Fragen ob sich jemand mit iometer auskennt? Oder ein alternatives Tool kennt?

Ich würde gerne einige SSDs testen und zwar ab wievel GB die Schreibrate einbricht. Habe gesehen Toms Hardware nutzt iometer, aber ich weiß nicht wie ich es configuieren soll damit es die SSD voll schreibt.
 
Nur mal rein aus Interesse. Was bringt es dir dann, wenn du die Daten hast? Du schreibst die SSD voll und sorgst damit auch für eine Reduzierung der Lebensdauer.
 
Firefly2023 schrieb:
Nur mal rein aus Interesse. Was bringt es dir dann, wenn du die Daten hast? Du schreibst die SSD voll und sorgst damit auch für eine Reduzierung der Lebensdauer.
Für mich als Interesse und damit ich weiß welche SSD ich eher auf Reisen nehme. Für mich als Fotograf ist das ziemlich wichtig, da ich die oft voll knalle. Lebensdauer wird bei einmaligen vollschreiben kaum reduziert. 🧐

F1database schrieb:
Leider ist das Handbuch für mich wenig hilfsreich, da ich von den Technischen Daten da kaum Ahnung habe. Dachte jemand nutzt das Programm und kennt sich da aus.
 
Ok. halte ich für Zeitverschwendung, aber gut. Nutze einfach die SSD und gut ist. Ändern kannst du daran so oder so nichts.
 
Firefly2023 schrieb:
Ok. halte ich für Zeitverschwendung, aber gut.
Ja okay? Merkwürdige Antwort die ich je erhalten habe. Wenn dus genau nimmst ist das ganze Internet Zeitverschwendung, aber gut.

Firefly2023 schrieb:
Nutze einfach die SSD und gut ist. Ändern kannst du daran so oder so nichts.
Es macht schon ein großen Unterschied von den zig SSD die ich habe, und ich würde es gerne genau wissen, weil ich auf Reisen Zeit sparen will.
 
raychan schrieb:
a okay? Merkwürdige Antwort die ich je erhalten habe. Wenn dus genau nimmst ist das ganze Internet Zeitverschwendung, aber gut.
Du sparst aber halt keine Zeit. Es kommt ja auf die Anbindung drauf an. Wenn du PCIe 4.0 hast und eine WD Black SN850X oder eine Samsung 980 Pro als Beispiel, die 7500MB/s schreiben, bei großen Dateien, ist der Einbruch halt irrelevant. Wenn du ne SATA SSD hast die 600MB/s schreibt ebenso.

Daher meine Frage, welchen Mehrwert du aus den Daten ziehst. Wir reden hier um Unterschiede bei den aktuellen NVMEs von wenigen Sekunden. Daher macht es eben keinen großen Unterschied.
 
Orientiere dich doch einfach an Computerbase:

Schreibleistung (SLC-Modus)​

Wie ausdauernd der SLC-Modus ausfällt, testet ComputerBase wie folgt: Eine komprimierte RAR-Datei mit 10 GB Größe wird aus einer RAM-Disk mit fortlaufender Nummer in der Dateibezeichnung so oft ohne Pause auf die leere Test-SSD geschrieben, bis die Kapazitätsgrenze erreicht ist (grün). Für jeden Kopiervorgang wird die erreichte Transferrate protokolliert. Direkt nach dem letzten Transfer werden 50 Prozent der erstellten Dateien gelöscht. Im Anschluss wird der SSD für die interne Speicherverwaltung eine halbe Stunde Ruhe gegönnt. Dann wird sie abermals mit den RAR-Dateien vollgeschrieben (gelb). Der Test soll die Abhängigkeit des SLC-Modus vom Füllgrad der SSD ermitteln beziehungsweise aufzeigen, ob der einmal genutzte SLC-Modus sich nach Ruhephasen erholt.
Wenn du das nicht selbst hinbekommst, schreibste dem Micha Günsch ne PN, der war bisher immer sehr umgänglich.
 
  • Gefällt mir
Reaktionen: raychan und Firefly2023
h00bi schrieb:
Orientiere dich doch einfach an Computerbase:

Wenn du das nicht selbst hinbekommst, schreibste dem Micha Günsch ne PN, der war bisher immer sehr umgänglich.
Danke für den Hinweis.
Firefly2023 schrieb:
Daher meine Frage, welchen Mehrwert du aus den Daten ziehst. Wir reden hier um Unterschiede bei den aktuellen NVMEs von wenigen Sekunden. Daher macht es eben keinen großen Unterschied.
Ja für den normalen Office/Gaming Anwender, aber für ein Foto/Videograf der damit Backups macht auf Reisen ist der Anwendungsfall ein anderer. Ich will wissen ab wieviel GB der Cache aussteigt und wieviele MB/s übrig bleiben und ob es dann stabil bis zu ende durchhält. Ich habe zig SSDs zuhause und mit den Daten und wissen, weiß welche SSD sich für welchen Anwendungsfall sich am besten eignet um Zeit zusparen.
 
Einfach ein "sar -d 5 --dev=sda" mit laufen lassen und die writes/sec Werte aufsummieren.

Hier ein beispielhafter Einzeiler für lesen, bricht ab wenn die Leserate unter 40% des Durchschnitts sinkt:

Code:
sudo sh -c 'dd if=/dev/sda of=/dev/null bs=1M &' ; sar -d 1 --dev=sda | awk '$3 == "sda" { print; gsub(/,/, ".", $5);  sum += + $5;  aver = sum / ++first ; print "Sum: " sum " Aver: " aver; if ($5 < (aver * 0.4) ) { exit }  }'
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: raychan und Piktogramm
@h00bi @foofoobar Vielen Dank euch beiden. Ich habe durch euch und mit der KI ein Ansatz gefunden, Habe es noch nicht durchlaufen lassen sah aber erstmal gut aus.

@Firefly2023 Ständiges kopieren von großen Datenmengen, als Backup für Unterwegs.


Hier mal das Script was funktioniert, falls jemand auch sowas probieren will oder für irgendwas anders braucht.

PowerShell:
param (
    [Parameter(Mandatory=$true)]
    [int]$sizeMB  # Größe der Testdatei in Gigabyte
)

# Pfad zum Zielverzeichnis (Test-SSD)
$destinationDirectory = "K:\"

# Pfad zur vorhandenen ZIP-Datei 
$zipFile = "C:\testfile.zip"

# Pfad und Name der zu erstellenden Datei
$filePath = "C:\testfile.zip"

# Dateigröße in MB vom Nutzer abfragen
#$sizeMB = 1000

# Größe in Bytes umrechnen
$sizeBytes = $sizeMB * 1MB

# Erstellen und Füllen der Datei
$buffer = New-Object byte[] $sizeBytes
[System.IO.File]::WriteAllBytes($filePath, $buffer)

Write-Output "Datei erstellt: $filePath mit einer Größe von $sizeMB MB"

# Überprüfe, ob die ZIP-Datei existiert
if (-Not (Test-Path $zipFile)) {
    Write-Output "Die ZIP-Datei existiert nicht: $zipFile"
    exit
}

# Größe der ZIP-Datei in Bytes
$zipFileSize = (Get-Item $zipFile).Length

# Pfad zur CSV-Datei
$csvFile = "C:\output.csv"

# Initialisiere den Zähler
$counter = 1
$sumTime = 0

# Erstelle oder überschreibe die CSV-Datei mit den Spaltenüberschriften
"Transferrate (MB/s);Größe (GB);Sekunden" | Out-File -FilePath $csvFile -Encoding utf8

# Schleife, um die Datei zu kopieren, bis die Kapazitätsgrenze erreicht ist
while ($true) {
    # Zielpfad mit fortlaufender Nummer
    $destinationFile = [System.IO.Path]::Combine($destinationDirectory, "testfile_$counter.zip")

    # Kopiere die Datei und messe die Zeit
    $startTime = Get-Date
    Copy-Item -Path $zipFile -Destination $destinationFile
    $endTime = Get-Date

    # Berechne die Transferrate in MB/s
    $transferTime = ($endTime - $startTime).TotalSeconds
    $transferRate = ($zipFileSize / 1MB) / $transferTime

    # Runde die Transferrate auf eine Stelle nach dem Komma
    $transferRate = [math]::Round($transferRate, 1)

    # Berechne den verbrauchten Speicherplatz in GB
    $usedSpace = $counter * $sizeMB

    $sumTime = $sumTime + $transferTime
    $sumTime = [math]::Round($sumTime, 0)

    # Schreibe die Transferrate und den verbrauchten Speicherplatz in die CSV-Datei
    "$transferRate;$usedSpace;$sumTime" | Out-File -FilePath $csvFile -Encoding utf8 -Append

    # Erhöhe den Zähler
    $counter++

    # Überprüfe, ob die Kapazitätsgrenze erreicht ist
    $freeSpace = (Get-PSDrive -Name D).Free / 1GB
    if ($freeSpace -lt 10) {
        Write-Output "Kapazitätsgrenze erreicht. Verbleibender Speicherplatz: $freeSpace GB"
        break
    }
}
 
Zuletzt bearbeitet:
BTW I: Enterprise SSDs (Geizhalsfilter: "Powerloss Protection" haben dieses "Feature" normalerweise nicht.
BTW II: Normalerweise würde man die while schleife über den Exit-Code des copys terminieren, KI ist eben dumm wie Brot und "lernt" von dem Anfängercode der im Internet massenhaft rum schwirrt.
 
  • Gefällt mir
Reaktionen: raychan
foofoobar schrieb:
BTW I: Enterprise SSDs (Geizhalsfilter: "Powerloss Protection" haben dieses "Feature" normalerweise nicht
Danke für den Hinweis. Kannte das Feature noch nicht, ist im Prinzip ja nur Kondensator oder? Würde also schützen bei Verbindungsabbruch oder Stromausfall 🤔Nagut sehe ich erstmal nicht so kritisch da ich eh die Fotos/Videodaten mit Hash nach den kopieren nochmal vergleiche.

foofoobar schrieb:
BTW II: Normalerweise würde man die while schleife über den Exit-Code des copys terminieren, KI ist eben dumm wie Brot und "lernt" von dem Anfängercode der im Internet massenhaft rum schwirrt.
Ja das stimmt, gibt halt von den Anfänger- und fehlerhaftencode am meisten im Netz. Aber für schnell mal was zu zusammenschustern bin ich recht überrascht. 🤔 Aber für den Produktiven Einsatz würde ich nichts daraus nehmen. Aber um mal alle Festplatten durchzutesten.

Hab auch schon ein übeltäter gefunden. Curcial X8 500GB die nach 150Sec von 630MB/s auf 50MB/s einbricht und auch so bleibt. Da weiß ich die nehme ich nicht als Backup mit, vielleicht eher als Notfall.
 
Zurück
Oben