News SSDs mit Phison E18: Zahlreiche Benchmarks geben die Richtung vor

Was limitiert eigentlich stets die Transferrate im Q1T1? Das betrifft durch die Bank alle Massenspeicher, und eben auch SSDs. Wenn man auf die Arbeit mit sehr vielen kleinen Dateien angewiesen ist und sie nicht gerade im RAM halten kann, hat man hier fast immer sehr schwache Performance im Vergleich zum sequenziellen Transfer. Können die Controller oder auch das Betriebssystem hier so schlecht Zugriffe bündeln/parallelisieren?
 
Hab die Sn850 bestellt aber noch nicht geliefert bekommen. Meine jetzige SATA SSD wird manchmal als 100% ausgelastet angezeigt beim installieren von Programmen oder Indizieren von irgendwelchen libraries. Und hoffentlich gibt's nächstes Jahr mit Direct Storage ein paar Vorteile.
 
die restlichen interfaces hinken halt meilenweit hinterher aber schön zu sehen was bei massenspeicher noch so geht

Panoramix schrieb:
Was limitiert eigentlich stets die Transferrate im Q1T1? Das betrifft durch die Bank alle Massenspeicher, und eben auch SSDs. Wenn man auf die Arbeit mit sehr vielen kleinen Dateien angewiesen ist und sie nicht gerade im RAM halten kann, hat man hier fast immer sehr schwache Performance im Vergleich zum sequenziellen Transfer. Können die Controller oder auch das Betriebssystem hier so schlecht Zugriffe bündeln/parallelisieren?

Desto mehr IOPS die SSD hat desto mehr 4kQT1 Performance Geschwindigkeit kann die SSD liefern.
Ist ja nur bei QueueTiefe 1 so, wenn mehr parallel gefordert ist kann die SSD auch mehr liefern.
 
deo schrieb:
Von den Benchmarks sollte man sich nicht blenden lassen. Die praktischen Tests sind mehr wert.
Genauso ist es. 👍 Schon bei den bisherigen NVMe blieb in vielen realen Szenarios von den Traum-Benchmarkwerten wenig übrig. Viel wichtiger als die Geschwindigkeit fänd ich sowieso die Preislagen für große SSDs - 2TB geht grad noch, 4TB sind nachwievor viel zu teuer und darüber ists schon sehr dünne...
 
NJay schrieb:
Ich habe bisher den nutzen solcher schnellen SSDs für viele normale Szenarien noch nicht verstanden.

Eventuell kommt da demnächst was bezüglich Spielen durch die neuen Konsolen, aber aktuell? Wenn man viele VMs betreibt, dann lohnt sich eine NVME SSD, ist aber auch eher was für richtig fette Workstations oder Server, um mal ne VM auf meinem Notebook zu starten tut es auch SATA.

Ansonsten ist doch idR irgendwas anderes der limitierende Faktor, CPU, Netzwerk, etc.
Es gab in einer der letzten PCGH eine lange Testreihe dazu. Deren Ergebnis kurz gefasst: Selbst schnelle HDDs führen zu Framedrops und sind daher für anspruchsvolle Spiele nicht mehr geeignet. Das gilt auch für Anwendungen mit häufigen Datenzugriffen. Selbst eine langsame SATA SSD löst das Problem und die super schnelle PCIE 4.0 SSD spart max. 30% Ladezeit oder halt beim kopieren riesiger Dateien bis es ihr zu warm wird.
Ich habe auch parallel langsame und super schnelle SSDs verbaut, jeweils 2tb und merke dem Unterschied kaum.
Schon aus Prinzip würde ich abee immer das Schnellste kaufen ;)
 
gaelic schrieb:
Naja, alles schön und gut. Aber ich vermute die Leistung wird auch wie bisher schon extrem einbrechen wenn die Platte mal zu mehr als 20 oder 30% gefüllt ist, z.b. hier zu sehen:

https://www.percona.com/blog/2010/07/17/ssd-free-space-and-write-performance/ (alt, aber immer noch der Fall)
Kann ich nicht bestätigen. Von meiner 2 TB m.2 sind nur noch 200 GB frei und ich habe immer noch Lesen 3,4 GB/s und Schreiben 3 GB/s. Gerade getestet und auf meinem Rechner lief nebenbei noch allerhand. Kann also keinen Einbruch trotz 90% Belegung feststellen.
 
  • Gefällt mir
Reaktionen: Mydgard
Panoramix schrieb:
Was limitiert eigentlich stets die Transferrate im Q1T1? Das betrifft durch die Bank alle Massenspeicher, und eben auch SSDs. Wenn man auf die Arbeit mit sehr vielen kleinen Dateien angewiesen ist und sie nicht gerade im RAM halten kann, hat man hier fast immer sehr schwache Performance im Vergleich zum sequenziellen Transfer. Können die Controller oder auch das Betriebssystem hier so schlecht Zugriffe bündeln/parallelisieren?

Bei 4K-Q1T1 wird auf stochastisch verteilte 4K-Pages zugegriffen. Bei diesen Zugriffen fällt, anders als bei seriellen Zugriffen auf mehrere Pages, jeweils die volle Zugriffszeit an. Die Zugriffszeit von SSD ist im wesentlichen durch das NAND-Flash und dessen Funktionsweise bedingt. Gravierende Verbesserungen sind diesbzgl. nicht zu erwarten. Effektiv bündeln lassen sich 4K-Zugriffe lediglich beim Schreiben durch Cache. Wenn Bedarf an hoher Leistung bei kleinen Lesezugriffen besteht, wären SSD mit X-Point-Speicher eine Alternative. Diese kosten aber erheblich mehr als NAND-Flash-SSD.
Ergänzung ()

S.Kara schrieb:
Kann ich nicht bestätigen. Von meiner 2 TB m.2 sind nur noch 200 GB frei und ich habe immer noch Lesen 3,4 GB/s und Schreiben 3 GB/s. Gerade getestet und auf meinem Rechner lief nebenbei noch allerhand. Kann also keinen Einbruch trotz 90% Belegung feststellen.
Bei aktuellen SSD-Designs mit SLC-Cache zeigt sich der Leistungsabfall nicht unmittelbar sondern dadurch, dass das SLC-Cache mit steigender Befüllung immer kleiner wird. Daraus folgt, dass die Datenmenge, welche mit voller Geschwindigkeit geschrieben werden kann, mit zunehmender Befüllung abnimmt. Mit simplen Benchmarkprogrammen wird dieser Effekt zumeist nicht sichtbar, da diese nur eine kleine Menge an Testdaten schreiben, welche immer in den verbleibenden SLC-Cache passt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mydgard und drmaniac
Can't You Drive Any Faster, Klaus?!

:daumen:
 
Feines Stück Technik. Schauen wir mal wenn entsprechende Produkte kommen. Mein Mainboard ist ready.

Aktuell hänge ich noch auf einer 400 GB AIC NX500 mit MLC. Geiles Ding aber leider bisschen klein ^^
 
gaelic schrieb:
Naja, alles schön und gut. Aber ich vermute die Leistung wird auch wie bisher schon extrem einbrechen wenn die Platte mal zu mehr als 20 oder 30% gefüllt ist, z.b. hier zu sehen:

https://www.percona.com/blog/2010/07/17/ssd-free-space-and-write-performance/ (alt, aber immer noch der Fall)
Der SLC-Cache moderner SSDs beträgt in der Regel nicht mehr als 20 bis vielleicht 25% der Kapazität, eher sogar deutlich weniger. Das heißt bei weniger als 75% Auslastung wirst du fast keinen Einbruch der Performance feststellen können. Der verlinkte 10 Jahre alte Artikel dürfte damit nicht mehr so ganz aktuell sein :rolleyes:
 
Der "Test" von the ssdreview ist ein schlechter Scherz - schöne die leere SSD mit minimal großen Testdateien vermessen. Das war bestenfalls ein Test vom SLC-Cache.
 
Es ist schon bemerkenswert, wenn Micron den NAND an die SSD-Hersteller liefert, die den Phison E18 verbauen und selbst verbaut Micron nicht Phision sondern Controller von Silicon Motion.
Die werden schon wissen warum.
 
Das war eigentlich schon beim E12 so das der prima mit WD/Kioxia BICs NAND zurechtkam aber bei Micron irgendwie hakte. Nicht ohne grund warn durch die Bank alle anfänglichen Jubel-Reviews von E12-basierten SSD mit BICs Flash bestückt und später schlichen sich da undokumentiert andere NANDs ein
 
Viel interessanter als die maximalen Transferraten sind am Ende die praxisnahen Werte bei kleinen Dateien, also 4k zB.
Der Explorer in Windows 10 schafft zB. sowieso nur rund 1,8X GB/s beim Kopieren, was den Praxisnutzen von allem darüber auf ein noch kleineres Nutzungsfenster einschränkt.
 
deo schrieb:
Es ist schon bemerkenswert, wenn Micron den NAND an die SSD-Hersteller liefert, die den Phison E18 verbauen und selbst verbaut Micron nicht Phision sondern Controller von Silicon Motion.
Die werden schon wissen warum.
?
Das ist doch immer so.
Micron produziert Speicher für ALLE.

Genauso wie LCD hersteller (z.B. Samsung ) für ALLE herstellen.
Es ist nur EINE Komponente, daher alles wie gehabt.
 
  • Gefällt mir
Reaktionen: Pjack
WeltalsWille schrieb:
Bei aktuellen SSD-Designs mit SLC-Cache zeigt sich der Leistungsabfall nicht unmittelbar sondern dadurch, dass das SLC-Cache mit steigender Befüllung immer kleiner wird.[...]
Das stimmt natürlich. Bei mir bricht der Schreibleistung derzeit nach 8 GiB auf 1,5 GiB/s ein. Habe 200 GiB geschrieben und den Speed hat er bis zu Ende durchgezogen.

So extrem wie auf der verlinkten Seite ist es aber bei weitem nicht.

Pjack schrieb:
Der Explorer in Windows 10 schafft zB. sowieso nur rund 1,8X GB/s beim Kopieren, was den Praxisnutzen von allem darüber auf ein noch kleineres Nutzungsfenster einschränkt.
1605268143064.png


Bei solchen Datenträgern interessiert der Windows Explorer auch eher weniger, Programme sind auf den ja nicht angewiesen.
 
Zuletzt bearbeitet:
Für viele scheint das schon ein Argument zu sein. Aber gut, man hat ja in solchen Threads auch ständig Leute, die anscheinend 20, 50 oder gar 100 GB am Stück schreiben, so dass der SLC-Cache natürlich gar nicht akzeptabel ist.
 
Man will ja auch die reale Leistungsfähigkeit einer SSD sehen und nicht nur die kurzfristig mögliche Spitzenleistung. Zudem je voller desto weniger SLC-Cache und da bricht da schon mal schnell Leistung weg.
 
Zurück
Oben