Benchmarks von USB-Sticks (schreiben und lesen)

  • Ersteller Ersteller Tankred
  • Erstellt am Erstellt am
DaBzzz schrieb:
der Stick hat sich über Nacht von ähnlicher Performance auf Werksniveau (Leserate 240 MB/s, Schreibraten wie oben) erholt.
Das ist aber doch worauf es ankommt, oder nicht?
DaBzzz schrieb:
Momentan würde ich vermuten, dass hier analog zu SSDs ne Art SLC-Cache verwendet wird
Möglich, aber dies spricht dagegen:
DaBzzz schrieb:
Während dieser Schneckenphase ist der Verbrauch übrigens deutlich niedriger als bei typischem schnellen Schreiben
Denn das Schreiben im Pseudo-SLC Schreibcache geht nicht nur schneller, es braucht auch weniger Strom.
DaBzzz schrieb:
sobald man dessen kritische Größe überschreitet, bricht alles in sich zusammen und der Stick schreibt ganze Blöcke neu, weil er nicht mehr weiß, wohin er es noch cachen soll.
Dies ist bei jeder SSD mit NAND Flash der Fall, nur die Intel Optanes leider nicht unter einem Performanceeinbruch wenn man sie dauerbeschreibt. Dies nennt sich Steady State und der ist eben dann erreicht, wenn der Controller keine freien NAND Pages mehr zur Verfügung hat und sich diese erst während der Schreibvorgängen schaffen muss und bei zufälligen 4k Schreibzugriffen kommt dann noch hinzu, dass dabei in den NAND Blöcken noch besonders viele Pages gültige Daten enthalten die vor den Löschen des Blacks erst noch umkopiert werden müssen, was nicht nur lange dauert, sondern auch dazu führt das mehr Pages des eben erst gelöschten Blocks schon gleich wieder belegt sind, also früh wieder der nächste Blocks gelöscht werden muss und der hat auch wieder viele noch mit gültigen weil noch nicht überschriebenen Daten belegte Pages.

Was willst Du eigentlich erreichen? Das man jeden auf NAND Flash basierenden Speicher in die Knie zwingen kann, ist kein Wunder und normal, kaufe Dir eine Intel Optane wenn Du einen Speicher willst bei dem es nicht so ist. Gerade USB Sticks sind aber für Dauerschreiben sowieso nicht gemacht und wenn sich beim diesem die Performance nach einer Idle-GC wieder erholt, dann spricht dies für und nicht gegen ihn, denn es ist es längst nicht bei jedem Stick so.
 
  • Gefällt mir
Reaktionen: Smartbomb
Holt schrieb:
Das ist aber doch worauf es ankommt, oder nicht?
Wem? Mir nicht. Ich möchte konstante, verlässliche Performance. Ähnlich wie ich eine symmetrische 16k-16k-Leitung einer "bis zu" 50-10er vorziehen würde.

Holt schrieb:
Möglich, aber dies spricht dagegen: Denn das Schreiben im Pseudo-SLC Schreibcache geht nicht nur schneller, es braucht auch weniger Strom.
Jetzt wirds aber interessant. Warum? Es müssen immerhin mehr Zellen dafür beschrieben werden, da ja weniger Daten reinpassen.
Du verstehst das vielleicht falsch, denn wenns schnell geht, braucht das Laufwerk mehr Strom als im Schneckenmodus. Dann müsste der SLC-Modus eben genau mehr brauchen als wenn man sorgfältig mehrere Bits reinstapelt, was erstens meiner Vorstellung entspricht und zweitens eben auch so beobachtbar ist.

Holt schrieb:
Dies ist bei jeder SSD mit NAND Flash der Fall, nur die Intel Optanes leider nicht unter einem Performanceeinbruch wenn man sie dauerbeschreibt. Dies nennt sich Steady State ...
Jajajajaja, nur ist mir der Einbruch um eine Größenordnung (Schreibleistung und Zugriffszeit), dieses abgehackte Schreiben, sowie die fehlende Erholung (ohne eine Nacht am Strom) bisher unbekannt. Ich hab allerdings auch damals die JMicron-Kacke gemieden und bin erst mit ner Samsung 830 in die SSD-Welt eingestiegen.

Holt schrieb:
Was willst Du eigentlich erreichen? Das man jeden auf NAND Flash basierenden Speicher in die Knie zwingen kann, ist kein Wunder und normal, kaufe Dir eine Intel Optane wenn Du einen Speicher willst bei dem es nicht so ist.
Ich brauche einen Stick, der sowohl ein dd-Festplattenimage aufnehmen kann (groß, sequentiell), als auch mal ein größeres git-Repo per Turnschuhnetzwerk von A nach B tragen kann (viele kleine Dateien). Und das bitte in abschätzbarer Zeit, d.h. erstens 4K-Schreibrate im MB/s-Bereich und zweitens konstant, d.h. nicht die ersten 500 Dateien rasend schnell in irgendwelche DRAM-Caches aufnehmen, und sich dann in die Hose pissen, wenn noch 9500 gleichartige nachkommen. Ob das Teil sequentiell mit 200, 500 oder 1000 MB/s schreibt und liest ist mir herzlich egal, so schnell sind meine Quell-/Ziellaufwerke eh nicht, 100MB/s lesend schafft jeder USB3-Stick oberhalb der Werbemüllkategorie, und das reicht. Ich muss auch keine VMs drauf betreiben oder ähnliche Späße, ich suche NUR einen Stick, der ein Fünftel so schnell ist wie eine typische SATA-SSD, von mir aus das gleiche kostet wie eine solche SSD (also pro Speicherplatz sogar deutlich teurer ist), und typische Stickgröße hat um nicht Verlängerungskabel o.ä. zu benötigen. Wie so viele simple Sachen, die ich gerne hätte, ist das offenbar ein Problem, weil ich nämlich total abgefahrene Wünsche habe, die nicht zum billigen (oder teuren), aber dafür masseweise verfügbaren Schund am Markt passen.
 
DaBzzz schrieb:
Ich möchte konstante, verlässliche Performance.
Die haben HDDs ohne SMR, wobei die Performance dann gerade bei kleinen Dateien sehr gering ist oder eben die Intel Optane, aber bei Speichern auf Basis von NAND Flash gibt es keine konstante Schreibperformance, die Technik erlaubt dies einfach nicht, weil man NAND eben pageweise Lesen und Schreiben, aber nur blockweise löschen kann.
DaBzzz schrieb:
Warum? Es müssen immerhin mehr Zellen dafür beschrieben werden
Aber die Elektronen müssen eben nicht so genau dosiert werden. Es gab früher mal den Vergleich von den Elektronen in den Zelle mit Erbsen in einem Glas und bei SLC muss man eben nur zwei Zustände unterscheiden, da muss man nur Erbsen im Geld oder keine Erbsen im Glas unterscheiden, kann also schnell ein paar reinkippen, selbst wenn ein paar Erbsen am Rand kleben geblieben sind, kann man dann schnell unterscheiden ob welches reingekippt wurden oder nicht. Bei dem üblichen TLC NAND muss man aber 2^3 = 8 Ladungzustände und damit der Analogie mit den Erbsen nach unterschiedliche Füllhöhen im Glas unterscheiden, hier muss man also viel genauer arbeiten wenn man die Erbsen einfüllt und die Energie die zum Offenhalten des Deckels des Glases. Damit wird schnell klar wieso das Schreiben im Pseudo-SLC Schreibcache nicht nur schneller geht, sondern auch weniger Energie braucht, denn Deckel des Glases zu Öffnen bedeutet bei NAND Elektronen mit etwa 20V durch die Isolierschicht zu schießen.
DaBzzz schrieb:
Dann müsste der SLC-Modus eben genau mehr brauchen als wenn man sorgfältig mehrere Bits reinstapelt,
Nein umgekehrt, im Pseudo-SLC Schreibmodus wird ja nur ein Bit pro Zelle geschrieben.
DaBzzz schrieb:
Jajajajaja, nur ist mir der Einbruch um eine Größenordnung (Schreibleistung und Zugriffszeit), dieses abgehackte Schreiben, sowie die fehlende Erholung (ohne eine Nacht am Strom) bisher unbekannt.
Dann vergiss nicht das die Controller der Sticks in aller Regel (auch der des SanDisk Cruzer Extreme) keinen DRAM Cache haben und schau Dir mal an wie die BX200 im Performance Consistency bei Anandtech abgeschnitten hat. Obwohl deren Controller noch einen DRAM Cache besitzt, hat sie da im Steady State keine 2000 IOPS mehr geschafft, von den angegebenen 78.000 IOPS schreiben ist also nicht mehr viel übrig geblieben. Dazu kommt bei den Sticks noch die Temperatur die auch noch zur Drosselung der Leistung führen kann, der Controller eines USB Sticks auch noch mit weniger Leistungsaufnahme auskommen als der einer SSD.
DaBzzz schrieb:
Ich brauche einen Stick, der sowohl ein dd-Festplattenimage aufnehmen kann (groß, sequentiell), als auch mal ein größeres git-Repo per Turnschuhnetzwerk von A nach B tragen kann (viele kleine Dateien).
Aber doch nicht beides zeitgleich und so einen gut Download sollte man im Zweifel besser in einem tar-ball auf einen Stick schreiben, damit es eine große Datei wird.
DaBzzz schrieb:
d.h. nicht die ersten 500 Dateien rasend schnell in irgendwelche DRAM-Caches aufnehmen,
Welches Stick hat schon einen DRAM Cache? Ich kennen keinen! Wenn, dann ist es eher der Pseudo-SLC Schreibcache.
DaBzzz schrieb:
typische Stickgröße hat um nicht Verlängerungskabel o.ä. zu benötigen.
Da musst Du einfach Kompromisse machen, die Größe des Sticks oder die Performance der USB SSD, aber beides auf einmal wirst Du nicht bekommen. Die Performance bekommt man nur auf Kosten der Leistungsaufnahme die aber eben auch Abwärme bedeutet und um die abzuführen, muss man die entsprechende Oberfläche haben. Leistung braucht einfach auch genug Raum, schon der Kühlung wegen.

In einem NUC Gehäuse kannst Du auch nicht einen 9900K dauerhaft voll betrieben und diesen womöglich noch silent kühlen wollen. Da sind vielmehr CPUs der U Klasse drin die zwar mal kurz den Turbo kräftig aufdrehen können, aber eben nur kurz und nicht auf Dauer, weil sie dann eben so warm werden, dass sie den Takt wieder drosseln müssen um die Leistungsaufnahme in Grenzen zu halten die die knappe Kühlung noch verkraftet. Das sind eben keine Blades die dauerhaft ihre Maximalperformance liefern, aber hast Du mal gehört wie laut die Lüfter eines Bladecenter werden, wenn man dies macht?
 
  • Gefällt mir
Reaktionen: Smartbomb
Holt schrieb:
Aber die Elektronen müssen eben nicht so genau dosiert werden. Es gab früher mal den Vergleich von den Elektronen in den Zelle mit Erbsen in einem Glas [...] Damit wird schnell klar wieso das Schreiben im Pseudo-SLC Schreibcache nicht nur schneller geht, sondern auch weniger Energie braucht, denn Deckel des Glases zu Öffnen bedeutet bei NAND Elektronen mit etwa 20V durch die Isolierschicht zu schießen.
Danke Holt. Ich hab nen Master in Nanostrukturtechnik und kenn mich mit der Dosiererei von Elektronen in annehmbarem Maß aus. Die Erbsen sind übrigens hellblau. Und SLC-Modus muss nicht "oberstes und unterstes TLC-Niveau" heißen. Solange es einen klaren Threshold gibt, tuts eine beliebige Füllmenge, die aufgrund der Kurzlebigkeit des SLC-Caches prinzipiell auch dem zweiten TLC-Niveau plus Dosierungenauigkeit entsprechen kann.

Holt schrieb:
Nein umgekehrt, im Pseudo-SLC Schreibmodus wird ja nur ein Bit pro Zelle geschrieben.
Ja. Deswegen brauche ich mehr Zellen für die gleiche Informationsmenge. Bei gleicher Energie pro Zellenbefüllung brauche ich mehr Energie pro Informationsmenge, da eben mehr Zellen damit belegt werden. Genau das ist beobachtbar.

Holt schrieb:
Dann vergiss nicht das die Controller der Sticks in aller Regel (auch der des SanDisk Cruzer Extreme) keinen DRAM Cache haben und schau Dir mal an wie die BX200 im Performance Consistency bei Anandtech abgeschnitten hat.
Na das ist doch mal ein brauchbarer Link!


Holt schrieb:
Aber doch nicht beides zeitgleich und so einen gut Download sollte man im Zweifel besser in einem tar-ball auf einen Stick schreiben, damit es eine große Datei wird.
Da tuts mir leid, aber ich kenne schon Leute, die besser wissen, wie ich meine Arbeit am besten, einfachsten und effizientesten erledigen kann. Die nennen sich IT-Abteilung und haben sich dieses Jahr für eine kleine sechsstellige Summe redundanten Performance-Storage auf 2,5"-Flugrostbasis angeschafft. Denn diesem neumodischen SSD-Zeug trauen wir noch nicht über den Weg, das geht auch bestimmt öfter kaputt wenns zehnmal schneller ist, aber gar nicht mehr kostet als erprobte 15k-Laufwerke. Wenn ich deren USB-Sticks verwenden müsste...

Holt schrieb:
Da musst Du einfach Kompromisse machen, die Größe des Sticks oder die Performance der USB SSD, aber beides auf einmal wirst Du nicht bekommen. Die Performance bekommt man nur auf Kosten der Leistungsaufnahme die aber eben auch Abwärme bedeutet und um die abzuführen, muss man die entsprechende Oberfläche haben. Leistung braucht einfach auch genug Raum, schon der Kühlung wegen.
Ich bench die beiden Extreme / Extreme Pro die nächsten Tage mal so übel wie jetzt den Samsung. Die haben schlechtere GC, aber ich glaube (!) die sacken nicht gleich nach einem Prozent der Kapazität um eine Größenordnung ab.
Und nochmal, der Samsung erreicht unter Sequentiell-Volllast bei 0,6W Verbrauch gemessene 43°C bzw. sowas wie 20K über "Raum"temperatur. Wenn der Controller das nicht ohne Drosselung packt, ists eine Fehlkonstruktion.

Holt schrieb:
Das sind eben keine Blades die dauerhaft ihre Maximalperformance liefern, aber hast Du mal gehört wie laut die Lüfter eines Bladecenter werden, wenn man dies macht?
Nö, aber ich hab ein paar Delta TFB0812UHE, die prinzipiell zum Verkauf stehen.
 
Das ist nicht auffällig, sondern normal, denn um die vierfache Kapazität zu bekommen, braucht man auch viermal so viele NAND Dies und damit können über die vierfache Anzahl an NAND Dies verteilt natürlich auch viermal so schnell geschrieben werden, solange es keinen anderen Flaschenhals gibt. Es ist bei Sticks wie bei SSDs, die einzelnen Dies sind recht langsam, die Geschwindigkeit ergibt sich erst aus der Parallelität!
 
Seit wann braucht man einen eigenen Kanal pro Die? Dafür gibt es schon seit langem das Interleaving um mehrere Dies pro Kanal ansprechen und fast genauso viel Performance wie mit einem eigenen Kanal pro Die zu erzielen, zumindest solange es nur um seq. Transfers geht:

NAND interleaving.jpg


(Bildquelle von Anandtech aus 2011!)
 
ich hab eine kingston a2000 250gb in eineb icy box m.2 gehäuse über usb-c 3.2 gen 2 und bring da ca 930 mb/s lesen und schreiben
 
Kingston DataTraveler Max - 256 GB USB-A 3.2 Gen. 2

ATTO Benchmark.png
AS SSD.png
CDM.png

 
  • Gefällt mir
Reaktionen: DrAgOnBaLlOnE und massaker

Ähnliche Themen

T
  • Gesperrt
2 3 4
Antworten
76
Aufrufe
29.801
J
Zurück
Oben