[Sammelthread] Sind die Werte meiner SSD in Ordnung? (Teil VIII)

Status
Für weitere Antworten geschlossen.
Holt schrieb:
Wenn Du sicher bist das der Luftzug über den Kühlkörper streicht, dann darf die Temperatur nicht so hoch sein, außer Du hast den Kühlkörper nicht ordentlich montiert oder er liegt trotz korrekter Montage nicht korrekt auf.

Da die Temperaturen ohne den Kühlkörper höher sind, denke ich, dass ich den Heat Sink ordentlich angebracht habe.
 
Auch wenn er nicht wirklich ordentlich befestigt ist, kann er ja die Temperaturen etwas senken, nur eben sein volles Potential nicht ausspielen. Wobei eigentlich der Luftstrom alleine reichen sollte, damit die Temperaturen im normalen Bereich bleiben. Keine Ahnung ob da was den Luftstrom stört oder Lüfter einfach nur sehr langsam laufen, denn die Position an der Kante ist ja eigentlich ideal damit ein kühlender Luftstrom vom Frontlüfter über die SSD streichen kann.
 
Zuletzt bearbeitet:
@Holt genau so sehe ich das ja auch. Die Position ist optimal, die Luft kommt dort ungehindert und wunderbar an, alles andere ist auch gut gekühlt und die 970 ist auch noch mit einem extra Heat Sink ausgestattet und wird trotzdem so warm. Die Lüfter laufen mit 7V, in etwa mit 650 RPM, wenn ich die Lüfter auf der max. Drehzahl von 1000 RPM auf 12V laufen lasse, verändert das rein gar nichts an der Temperatur. So langsam bin ich mir sicher, dass was mit der SSD nicht stimmt. Samsung habe ich gerade auch mal angerufen, aber die sind einem auch keine große Hilfe..
 
Liebe Leute,

ich verzweifel noch mit dem Etikettenschwindel, der mit SSDs (neuerdings) betrieben wird! Leider findet man auch immer seltener echte Tests, wohl auch, weil die Flut an Flashspeicherlaufwerken unüberschaubar geworden ist.

Fakt ist, und dafür lege ich meine Hand ins Feuer, auch wenn mir momentan die Möglichkeiten fehlen, es zu beweisen: meine im Jahr 2012 gekaufte 128GB Samsung 830(SATA) war/ist auch heute noch im Alltagsgebrauch ein deutlich besserer Drive, als so viele billige Müllaufwerke(auch von namhaften Herstellern), die momentan so am Markt sind. Sogar die etwa zeitgleich gekaufte und damals schon vergleichsweise billige 120GB ADATA S510 fand/finde ich, im Vergleich zu den zwei erst kürzlich gekauften Müll-SSDs, noch richtig flott. Als Extrembeispiel mag hier die Kingston A400-Baureihe gelten, mit der ich persönlich in der 240GB-Variante(SATA) wirklich außerordentlich schlechte Erfahrungen gemacht habe/mache. Der SSD-Geschwindigkeitsvorteil existiert in meinen Augen praktisch im Vergleich zu aktuellen HDD(Seagate etc.) nicht. Vor Allem nicht bei mehreren HDD/SSD-intensiven Tasks gleichzeitig, denn dann hakelt es richtiggehend(Maus laggt am Bildschirm, alle Eingaben um Sekunden verzögert - Win Neuinstallation hat auch nichts gebracht). Das erinnert von der Arbeitsgeschwindigkeit her an Billigrechner mit 5400er-HDD, zuwenig Speicher und Win95 aus den Neunzigern! Und das, obwohl meine restliche Hardware eigentlich passabel sein sollte(meine ich zumindest).

Ich hatte mit @Holt hierüber schon Diskussionen, dass es womöglich am DRAM-Cache läge, mit denen die SSD-Hersteller offensichtlich die gängigen Testverfahren austricksen...das Ganze kommt mir schon fast wie beim Abgas-Beschiss der Autohersteller vor! "Kauft SSD/Diesel, weil halt!". Dass es unter dem Sammelbegriff "SSD" inzwischen(ich glaube das war früher wirklich nicht so extrem) aber Unterschiede wie Tag und Nacht gibt, davon redet kein Verkäufer/Werbefuzzi. Daher fände ich eine verlässliche Übersicht mal gut, welche Flash-Arten bzw. Controllertypen heutzutage empfehlenswert sind.

Samsung ist in meinen Augen immer noch ungeschlagen, kostet halt aber auch. Intel bin ich fast gewillt, einmal auszuprobieren. Aber auch Crucial und WD scheinen konkurrenzfähige Produkte auf den Markt zu werfen. Da es aber auch dort normalerweise unterschiedliche Produktreihen gibt, bleibt die Frage, was empfehlenswert ist und worauf man achten muss. Denn ich dachte immer, dass es die IOPS sind, aber wenn ich mir die Produktpackung meiner Kingston so ansehe, dann kann es das nicht sein, denn darauf hatte ich schon geachtet...

Wie gesagt, ich finde es eine bodenlose Frechheit, dass Ende 2018 SSDs mit Controllern auf den Markt kommen, die den Controllern von 2011/2012 im Alltagsgebrauch spürbar unterlegen sind - ich meine ich hab die alten SSDs ja in Laptops eingebaut und habe den Vergleich. Leider spiegeln ATTO, AS-SSD(und wie sie nicht alle heißen) den praktisch spürbaren Unterschied nicht wieder, denn hier liegen die Laufwerke in etwa gleichauf. Obwohl auch hier die hohe "Volatilität" der Messungen auffällt. Früher waren das - egal ob billige oder teure Laufwerke - immer konstante Steigerungen in Form einer Hyperbel. Und genauso, wie die Grafik unten aussieht, ist auch das Nutzungserlebnis: mal geht eine Aktion nach Mausklick schnell, mal nicht. Einfach nur eine Frechheit.
Unbenannt.JPG
 
Zuletzt bearbeitet:
Neon-Andre schrieb:
So langsam bin ich mir sicher, dass was mit der SSD nicht stimmt.
Das glaube ich weniger, die haben bzgl. der Leistungsaufnahme (und damit Wärmeentwicklung) je keine nennenswerte Serienstreuung. Schau doch mal mit dem Resourcen Monitor ob die Wärme nicht entsteht, weil ständig irgendwelche Zugriffe erfolgen. Da spricht zwar dagegen das sie im Betrieb noch viel wärmer wird, aber außer wenn es in der Nähe eine anderen Wärmequelle gibt, gehen mir da auch so langsam die Ideen aus.
sidewinderpeter schrieb:
dass es womöglich am DRAM-Cache läge, mit denen die SSD-Hersteller offensichtlich die gängigen Testverfahren austricksen...das Ganze kommt mir schon fast wie beim Abgas-Beschiss der Autohersteller vor!
Gewissen Parallelen gibt es schon, denn in beiden Fällen geht es damit Kosten zu sparen, wie gut man die Abgase einer Dieselmotors säubern kann, zeigen die ja die Testes der neusten Modelle, wo die Stickoxide teils unter der Nachweisgrenze liegen, aber dies ist eben aufwendig und daher teuer. Es gibt aber auch Unterschiede, denn die SSD müssen keine gesetzlichen Vorschrift bzgl. der Performance einhalten. Außerdem sind verwendeten Technologien die eben auch dazu führen das diese SSD in den einfachen Bechmarks wie AS-SSD, ATTO oder CDM ja auch im Alltag nützlich. Der Pseudo-SLC Schreibcache bewirkt ja vor allem, dass eben einige GB schnell geschrieben werden und ohne bei den DRAM less SSDs wenigstens ein internes SRAM, könnte der Controller der SSD gar nicht arbeiten. Dann auch einen Teil der Mappingtabelle dort zu halten, hilft auch der Performance im Alltag. Ist es jetzt Beschiss diese SRAM so groß auszulegen, dass man in den üblichen Benchmarks gute Ergebnisse fürs Datenblatt bekommt?

Bei QLC ist nicht nur die Schreib- sondern auch die Leseperformance im QLC Bereich geringer, bei 4k QD1 Lesend sind es bei der 860 QVO nur 4.400 IOPS statt 7.500 aus dem Pseudo-SLC Bereich, QD32 werden im QLC sogar weniger als halb so viele IOPS lesend wie aus dem Pseudo-SLC erzielt. Anders als die 860 EVO und bei SSDs mit TLC üblich, hält die Crucial P1 die Daten aber extra lange in ihrem, bei leerem Laufwerk üppig dimensionierten (dynamischen Teil des) Pseudo-SLC Schreibcache:
Dies hilft auch im Alltag, wenn eine Datei geschrieben und dann recht bald wieder gelesen wird, was bei temporären Dateien ja auch ständige vorkommt. Mehr noch holft es natürlich bei den Benchmarks die wie PCMark, die vermeintlich den Realbetrieb abbilden sollen, wo aber eben die zeitliche Komponente fehlt, denn die Dateien werden dabei ja in viel kürzerer Zeit nach dem Schreiben wieder gelesen als im Alltag, wo man Programme aufruft die meist schon vor Wochen oder Monaten installiert wurden.

Bei Anandtech sieht man dann übrigens auch anhand der Werte bei voller SSDs recht gut, auf welches Niveau die Leistung dann ggf. abfällt, weil dann gerade bei der P1 und der Intel 660p, die dürfte es ebenso handhaben, hat aber obendrein mit nur 256MB für alle Kapazitäten weniger DRAM Cache (ist also halbwegs DRAM less, weil bei entsprechend voller SSD niemals die ganze Mappingtabelle in den DRAM Cache passen wird), eben nicht nur die Performance des Pseudo-SLC Bereiches gemessen wird. Dies ist gerade bei den SSDs bei den meisten Benchmarks der Fall, aber eben wenig praxisrelevant. Im AnandTech Storage Bench - Light schafft die P1 voll nur 250,1MB/s und die 660p nur 208,6MB/s, also weniger als die MX500 und im AnandTech Storage Bench - Heavy sind es voll nur noch 152MB/s für die P1 und noch 158MB/s für die 660p, die MX500 hat dann mit 235MB/s deutlich mehr und die 970 Evo muss sich mit ihren 637,8MB/s im Testfeld nur der Optane 900P (1136,7MB/s) geschlagen geben.
sidewinderpeter schrieb:
Samsung ist in meinen Augen immer noch ungeschlagen, kostet halt aber auch.
Man zahlt eben dafür wie eine SSD auch dann noch performt wenn sie recht voll ist und die Workloads anspruchsvoller werden, wie es Tweaktown sehr passend im Review der Optane 905P schreibt:
Die Optane sind das Extrembeispiel, aber die Samsung SSDs schlagen sich bei anspruchsvollen Szenarien ja auch sehr gut und dazu muss man eben Aufwand beim Controller und bei den NANDs treiben, der nun einmal nicht umsonst zu haben ist. So bringen kleinere NAND Pages und Blöcke eine bessere Performance bei voller SSD, verringern aber die Datendichte der NANDs und größere Dies bedeuten weniger pro Wafer und damit höhere Kosten.

Die Leute schauen aber vor allem auf den Preis und dann auf die Werte im Datenblatt, da stehen aber eben bei den Consumer SSDs nur die Werte unter Idealbedingungen drin, also bei leerer SSD und nur über wenige GB Adressraum gebencht. Bei Enterprise SSD sind die IOPS Schreibend immerhin im Steady State, also im Worst Case, angegeben. Aber auf Dinge wie z.B. die Performance bei gemischten Lese- und Schreibzugriffen, schauen die wenigsten Käufer.
sidewinderpeter schrieb:
Intel bin ich fast gewillt, einmal auszuprobieren.
Dann schau Dir an welche. Die Consumer SSDs von Intel sind nichts besonderes, ich würde sogar die Crucial P1 der Intel 660p vorziehen, aber deren Consumerversionen von Enterprisemodellen (wie damals die Intel 750 und nun die Optane 900P/905P) sind für Kenner, die eben auch die entsprechenden Anwendungen und das Geld haben, denn die waren nie billig und bei typischen Consumerlasten oft nicht die schnellsten bzw. wie die Optanes eben nur so geringfügig schneller, dass deren Aufpreis sich dafür nicht lohnt.
sidewinderpeter schrieb:
ich finde es eine bodenlose Frechheit, dass Ende 2018 SSDs mit Controllern auf den Markt kommen, die den Controllern von 2011/2012 im Alltagsgebrauch spürbar unterlegen sind
Dafür kosten diese heute aber pro GB auch nur noch einen Bruchteil dessen, was man noch 2011 für eine SSD bezahlt hat. Der Preis ist für die meisten das wichtigste Kriterium und um mehr Kunden ansprechen zu können, müssen die Preise immer weiter fallen, was aber eben auch auf Kosten der Performance geht, auch wenn man dies eben wegen der entsprechenden Technologien im Datenblatt eben nicht sieht.

Datenkompression ist übrigens auch so ein "Trick", den hat Sandforce eingeführt und Deine AData hat aus so einen Sandforce und heute nutzt Phison ebenfalls Datenkompression. Auch hier kann man argumentieren, dass es auch im Alltag etwas bringt, da sich Dateien je nach Typ ja auch mehr oder weniger gut komprimieren lassen.

Wo will man also die Grenze zwischen Beschiss und Techniken ziehen, die SSDs auch im Alltag schneller machen?
 
Holt schrieb:
...Die Leute schauen aber vor allem auf den Preis und dann auf die Werte im Datenblatt...
Also bei mir ist es genau umgekehrt: ich schaue erst auf die Leistungswerte und dann NATÜRLICH auf den Preis. Trotzdem fühle ich mich beschissen! Schließlich kosten HDD heute auch nur noch einen "Bruchteil" von 2011, sind aber dabei nicht schlechter geworden, vielmehr im Gegenteil!

Holt schrieb:
Dafür kosten diese heute aber pro GB auch nur noch einen Bruchteil dessen, was man noch 2011 für eine SSD bezahlt hat.
Jein, also die S510 hat damals 70 Euro für 120GB gekostet - "Bruchteil" fände ich daher übertrieben.

Eine gesetzliche Regelung, wie beim Auto, würde meines Erachtens nach nichts bringen. Tut es dort ja auch nicht.

Ich meine mit Blick auf mein Benchmark musst Du doch zugeben, dass man sich so ein Zufallsgerät auch gut und gerne sparen kann, oder? Ich hatte übrigens während des Benchmarks parallel nix laufen!
 
Zuletzt bearbeitet:
70€ für eine 120GB ergibt 0,58€/GB, da finde ich die ab 0,112€/GB ab der es heutzutage SSDs vom gleichen Hersteller gibt, also weniger als ein Fünftel, nun wirklich einen Bruchteil. Wenn unter 20% des ursprünglichen Wertes nun kein Bruchteil mehr sind, ab wann geht der bei Dir denn dann los? So kleine 120GB SSDs, die damals der Mainstream waren, sind heute natürlich pro GB unverhältnismäßig teuer, denn über die Jahre und mit den fallenden Preisen, sind die Kapazitäten natürlich auch gestiegen, der Platzbedarf ebenso. Dies ist aber normal und auch beim RAM so oder der Leistung von CPUs und Grakas.

Was den Benchmark mit ATTO angeht, so ist der wegen der Datenkompression für Deine alte AData mit ihren Sandforce natürlich optimal. Benche die mal mit dem AS-SSD Benchmark, bei dem sind die Daten nicht komprimierbar (bis auf die 4k Werte, die wohl aufgrund eines Bug nur zu 70% nicht komprimierbar sind), dann bekommst Du bei der auch andere Werte. Das Du nichts im Hintergrund gemacht hat, bedeutet bei einem Systemlaufwerk aber nicht, dass da gar keine Zugriffe im Hintergrund stattfinden, denn irgendein Service im Hintergrund greift immer mal wieder auf das Systemlaufwerk zu und die SSD dürfte wohl das Systemlaufwerk gewesen sein, sehen kann man es ja leider nicht, weil der obere Teil des Fensters im Screenshot fehlt.
 
@Holt, meinetwegen ist es ein Bruchteil - genau wie das Gerät: ein Teil zum Brechen! Wie gesagt, die sollten sich sowas lieber sparen, weil es Kunden, wie mich, nur verleitet, Müll zu kaufen! Ich finde schon, dass eine gesetzliche Pflicht zur Kennzeichnung von Müll ab Verkauf her müsste.
 
Mein Windows 10 Pro auf der SanDisk Plus 480 ist in letzter Zeit ziemlich lahm - mit der SSD ist alles in Ordnung?
 

Anhänge

  • 2019-03-13 20_29_23-Window.png
    2019-03-13 20_29_23-Window.png
    13,1 KB · Aufrufe: 535
  • 2019-03-13 20_29_57-Window.png
    2019-03-13 20_29_57-Window.png
    12,7 KB · Aufrufe: 556
  • 2019-03-13 20_30_25-Window.png
    2019-03-13 20_30_25-Window.png
    15,1 KB · Aufrufe: 535
Hallo,

ich habe mir einne billige Sandisk SSD als Datengrab und für zukünftige grosse Spiele gekauft. Aus Neugier habe ich mal AS SSD drüber laufen lassen und die Ergebnisse kommen mir verdächtig gering vor. Könnt Ihr einen Blick drauf werfen und mir vielleicht einen Tip geben ob ein Fehler vorliegt und wie ich dem auf die Spur kommen kann?

Zusätzlich habe ich auch die alte System SSD getestet.

Grüsse!

763469

763470
 
Was hast Du zu bemängeln? Die Werte sind vollkommen in Ordnung. Du darfst nicht vergessen, daß das Gesamtsystem einen Einfluß auf die Meßwerte haben (OS, Treiber, Mainboard etc..).
 
  • Gefällt mir
Reaktionen: Hexxxer76
Ist es normal das die alte Samsung 840pro bei 4k und 4k64thrd soviel stärker ist? Ist halt der einzige Vergleich den ich momentan habe und fand es schon auffällig.

Gut die sandisk ist billig und tlc, aber halt auch ein paar jahre jünger ;-)
 
Was erwartest Du?
Die Werte der Samsung 840 Pro sind voll ok.

Du hast die Sandisk Plus selbst als günstiges Datengrab bezeichnet.
Im sequentiellen Bereich ist sie mit der Samsung gleichauf am Limit des Sata3-Protokolls.
Einsparungen werden halt im parallelen Zugriff gemacht.
Irgendwo muss sich ja die Preisdifferenz rechtfertigen.
Aber Du hast schon recht. Die Random-Access-Werte sind arg lahm.
Da ist selbst eine alte Kingston HyperX 240GB mit Sandforce besser gewesen.

Ich habe hier ein paar alte Anvil Benchmarks, wo die SSD Plus in etwa im Bereich einer BX200 liegt.

Die 1TB Sandisk kostet so ca. 100 Euro.
Ich hätte 20 Euro draufgelegt und eine MX500 oder eine 860QVO gekauft. Präferenz bei MX500.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: IT_Nerd
wille1277 schrieb:
Gut die sandisk ist billig und tlc, aber halt auch ein paar jahre jünger ;-)

Aber eben nicht besser. Ganz im Gegenteil. Die Hausaufgaben beim Max Transfer hat SanDisk gemacht. Da guckt ja jeder drauf. Willst Du bessere Werte bei den anderen Disziplinen haben, musst Du etwas mehr ausgeben. Aber im Grunde ists egal. Gerade bei einem Datengrab.
 
Zugriffszeit ist schon arg hoch ...

0,5 Sekunden eh was passiert oder sogar fast eine Sekunde ... kein wunder das der Rest auch einfach schlecht ist.

Wer bei so was noch die 10 % sparen will tut sich so etwas an.

Denn ehrlich 105 € für ne Sandisk Plus und 115 € für eine Samsung QVO ... oder 119 € für eine Crucial MX500 ... dann gleich die Crucial die rennt den anderen beiden davon.
 
roterhund07 schrieb:
Das ist eine DRAM less SSD, also eine ohne einen DRAM Cache in dem der Controller seine Verwaltungsdaten halten kann. Die sind lahm und je voller sie sind, umso lahmer werden sie! Das liegt daran das die Controller die Mappingtabelle also den Flash Translation Layer (FTL) und eben nicht Userdaten im DRAM Cache ablegen, also die Information wo die Daten im NAND stehen und wo NAND frei ist um dort schreiben zu können. Die ohne DRAM Cache halten dann immer einen kleinen Teil der Mappingtabelle im interen SRAM des Controller, genug um gut in den Benchmarks abzuschneiden die ja nur über ein oder weniger GB Adressraum benchen und daher tolle Werte ins Datenblatt schreiben zu können. Aber im Alltag muss der Controller dann ständig erstmal wieder den passenden Teil aus dem NAND nachladen, was eben viel länger als ein DRAM Zugriff dauert. Je voller die SSD ist, umso kleiner ist der Teil der Mappingtabelle der ins interne SRAM passt und umso wahrscheinlicher muss der passende Teil aus dem NAND nachgeladen werden.
wille1277 schrieb:
die Ergebnisse kommen mir verdächtig gering vor.
Die sind normal, auf der SSD dürften ja auch schon einige GB gespeichert sein. Fallt nicht immer auf die Werte im Datenblatt rein oder auf die billigen Reviews wo nur einfache Benchmarks auf leere SSD losgelassen werden, da sieht man nämlich nur tolle Werte und daher schicken die Hersteller solche Produkte dann bevorzugt nur an Reviewer die eben nur Tests machen bei denen der Markel nicht auffällt und sie trotzdem noch eine Auszeichnung abbekommen, mit der der Hersteller dann werben kann.

Die Intel 660p ist übrigens eine halbwegs DRAM less SSD, da deren Controller bei allen Kapazitäten nur 256MB DRAM als Cache hat, statt der üblichen und bei der sonst praktisch baugleichen Crucial P1 1GB DRAM pro 1TB Kapazität. Da passt natürlich ein größerer Teil der Mappingtabelle rein, aber eben auch nicht alles, schon gar nicht bei einer 2TB die recht voll ist. Dann ist bei QLC nicht nur die Schreib- sondern auch die Leseperformance im QLC Bereich geringer, bei 4k QD1 Lesend sind es bei der 860 QVO nur 4.400 IOPS statt 7.500 aus dem Pseudo-SLC Bereich, QD32 werden im QLC sogar weniger als halb so viele IOPS lesend wie aus dem Pseudo-SLC erzielt. Anders als die 860 EVO und bei SSDs mit TLC üblich, hält die Crucial P1 die Daten aber extra lange in ihrem, bei leerem Laufwerk üppig dimensionierten Pseudo-SLC Schreibcache:
Die meisten Benchmarks messen daher nur die Performance des Pseudo-SLC Bereiches, was aber wenig praxisrelevant ist Die Intel 660p hat ja die gleichen NANDs und den gleichen Controller, dürfte es also auch so handhaben. Im AnandTech Storage Bench - Light schafft die 660p voll nur auf 208,6MB/s, die Crucial P1 aber auf 250,1MB/s. Was immer etwas weniger ist als die MX500 schafft und im AnandTech Storage Bench - Heavy sind es voll nur noch 158MB/s (die P1 152MB/s), die MX500 hat dann mit 235MB/s deutlich mehr. Seltsamerweise kann die P1 hier den Vorteil des größeren DRAM Caches nicht ausspielen, beide liegen aber deutlich unter dem Wert der MX500, also einer guten SATA SSD!

Die Samsung 970 Evo muss sich mit ihren 637,8MB/s im Testfeld hingegen nur der Optane 900P (1136,7MB/s) geschlagen geben und wäre auch der neuen Evo Plus unterlegen. Aber Konkurrenten mit dem SM2262EN, die ebenfalls extrem große dynamische Pseudo-SLC Schreibcaches verwenden, sind trotz TLC NANDs wenn die gut gefüllt sind, nicht wirklich besser als die beiden mit QLC. So schaffen die DATA XPG SX8200 Pro und die HP EX950 (alle jeweils als 1TB) beim AnandTech Storage Bench - The Destroyer zwar etwa 650MB/s, während die 970 Evo Plus auf über 1100MB/s kommt. Im AnandTech Storage Bench - Heavy sind es für beide leer etwa 906MB/s, während 970 Evo Plus mit 883MB/s sogar leicht zurückhängt, aber bei voller SSDs dreht sich das Bild komplett, da hat die beiden bei 273 bzw 296MB/s, während die 970 Evo Plus mit 746MB/s auf einen mehr als 2,5 mal so hohen Wert kommt!

Nun kann man sagen, man haben keine so anspruchsvollen Lasten, aber auch im AnandTech Storage Bench - Light wird es nur noch schlimmer, da liegt die AData bei 209 und die HP 252MB/s wenn sie voll sind, da ist selbst eine MX500 1TB mit 261MB/s schneller und die 970 Evo Plus ist mit 977MB/s etwa 4x so schnell.

Tweaktown hat im Review der Optane 905P 960GB sehr passend geschrieben, dass man vor allem für die Konsistenz der Performance auch bei anspruchsvolleren Workloads und auch bei voller SSD bezahlt:
Genauso ist es und wer billig kauft, sollte dies nicht vergessen, denn mit dem kleinen SRAM um Controller einer DRAM less SSD und den Pseudo-SLC Schreibcaches (bei QLC auch gerne als Lesecache zu betrachten, wenn der Controller die Daten dort extra lange vorhält), bekommt man bei bei Benchmarks wie CDM oder AS-SSD auf der leeren SSD immer Werte hin die im Datenblatt gut aussehen, bei Phison Controllern gibt es dazu noch wie früher bei Sandforce eine Datenkompression die bei ATTO Wunder wirkt, aber kein Mensch betreibt seine SSD dauerhaft so leer als das diese Mittel die scheinbar tolle Performance aufrecht halten könnten! Da Techniken wie die einen Teil der Mappingtabelle im SRAM zu halten nötig sind bzw. wie der Pseudo-SLC Schreibcache die SSD auch im Alltag schneller machen, wurde ich sie nicht als Tricks und Schummelei abtun, aber Nebeneffekt damit auch gute Benchmarkwerte einzufahren, spielt bei der Auslegung sicher auch eine Rolle und gerade der SM2262EN zeigt im Vergleich zum Vorgänger, dass die einseitige Optimierung auf gute Benchmarkwerte bei leerer SSDs, dann auf Kosten der Performance im vollen Zustand gehen können. Ich möchte auch gar nicht wissen wie viele Leute ihre Meinung wonach NVMe SSDs gegenüber SATA SSDs keinen Vorteil bringen, letztlich aufgrund von Modellen gebildet haben, bei denen die Performance in der untersuchten Situation auch gar nicht besser war.
wille1277 schrieb:
Ist es normal das die alte Samsung 840pro bei 4k und 4k64thrd soviel stärker ist?
Ja, die ist eine tolle Premium SSD mit einem schnellen Controller mit DRAM Cache und schnellen MLC NANDs.
xxMuahdibxx schrieb:
Zugriffszeit ist schon arg hoch ...
Wundert Dich das wirklich? Die Messung der Zugriffszeit ist aber bei AS-SSD sowieso verbuggt, da nicht darauf geachtet wird, ob die gelesenen LBAs auch belegt sind, also in der Mappingtabelle stehen. Der Controller kann aber nur etwas lesen, wenn der LBA auch gültige Daten enthält, sondern steht er nicht in er Mappingtabelle und der Controller liefert irgendwas (meist 00) zurück, ohne überhaupt etwas aus dem NAND zu lesen. Daher wird die Zugriffszeit auch höher, je voller die SSD ist, dann damit steigt die Wahrscheinlichkeit, dass wirklich Daten aus dem NAND gelesen werden und dies dauert eben länger.

Nur haben diese DRAM Less SSD eben das Problem, dass der Controller sobald sie etwas voller sind, erst noch den passenden Teil der Mappingtabelle lesen muss und dann erst wissen kann, ob und wo er ggf. noch etwas aus dem NAND lesen muss, daher sind die Zugriffszeiten lesend bei denen so extrem viel höher, sobald die voller werden, denn dann sind sehr wahrscheinlich immer zwei NAND Zugriffe nötig.
 
Danke für alle Erklärungen! Habe die ssd jetzt mal getestet. Also wenn man etwas raufkopieren will, dann braucht man Geduld. Das kopieren von 10gb (einige ca. 700mbyte große Dateien sieht wie folgt aus. Regelmäßig bricht die ssd auf 3mbyte/s ein.

763508


Als ich mein Backup von einer 2.5 Zoll USB Platte zurückgespielt habe (600gbyte gemischte Dateien) sah es noch schlimmer aus.

Lesegeschwindigkeit ist in Ordnung!
 
roterhund07, die 750 Evo war eine mit planaren TLC NANDs, die hat aber einen DRAM Cache, wenn auch bei der 120GB und der 250GB im Controller-Package und daher auf der Platine nicht sichtbar. Die würde ich jeder DRAM less SSD vorziehen.

wille1277, die Einbrüche können auch von dem Explorer selbst kommen, etwa wenn die Dateien schon vorhanden sind. Es kann aber auch von dem Lesen (das Filesystem muss ja auch schauen wo Platz für die Datei ist) und dem Schreiben der Verwaltungsdaten des Filesystem für die neue Datei kommen, denn die stehen ja woanders und dazu muss so eine DRAM less SSD dann wieder den Teil der Mappingtabelle aus dem NAND nachladen wo steht auf welchen NAND Adressen diese LBAs nun gemappt sind. Wenn die Einbrüche also immer mit dem Wechsel von einer Datei auf die nächste einhergehen, dann ist dies kein Zufall und dürfte den genannten Grund haben.
 
Ich habe zwei Fragen:
Bei meinem Notebook Gigabyte Aero 15wV8 ist eine Crucial SATA SSD verbaut. Die hat folgende Werte:
764580

1. Wenn ich diese gegen eine NVME SSD (Samsung 970 z.B.) tausche, merke ich da beim Arbeiten einen Untschied?

Ich habe als 2. SSD eine Samsung 970 Evo eingebaut. Diese weist folgende Werte auf:
764581

2. Warum sind die Werte beim Lesen so niedrig? Sollte die nicht jenseits der 3000 MB/s sein?
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Antworten
4
Aufrufe
1.011
J
J
Antworten
1.634
Aufrufe
185.136
J
J
Antworten
1.183
Aufrufe
142.293
J
J
Antworten
708
Aufrufe
91.337
J
Zurück
Oben