Bericht Bestenliste 2023: SSD-Kaufberatung für Spieler und Profis mit NVMe & SATA

Auf dem Papier vielleicht. Alle meine Usecases zeigen keinen Unterschied zur SP.
 
Genau, es stimmt was bei mir nicht weil die absolut realitätsnahen Benchmarks nichts aussagen zum Realeinsatz. Ich habe doch beide gehabt. Du kannst dich gerne auf andere verlassen, mir selber traue ich da einfach mehr...
 
  • Gefällt mir
Reaktionen: TexHex
Salamimander schrieb:
Steht der alten 970 EVO in nix nach und wird dabei nur 1/3 so warm.
Ein Drittel so warm? Da habe ich zweifel, dies würde ja bedeuten, dass sie nur 20°C warm wird, wenn die 970 Evo schon 60°C hätte oder eben 30°C zu 90°C, wobei die 970 Evo bei 90° schon massiv throtteln würde und solche Temperaturen wohl nur in einer sehr heißen Umgebung erreicht die deutlich über 30°C liegen und dann kann auch keine andere SSD kälter als diese Umgebungstemperatur bleiben.
 
Das ist das Problem. Stock wurde die Evo schnell 80Grad warm.

2x CrystalDisk Bench auch gerne 100+!

passiv kühler drauf —> nie wieder über 90. Die SP liegt im Idle so bei 25grad unter Last war der Peak bisher 40. Vergleiche beide mit dem selben Kühler.
 
Da scheint es aber noch andere Unterschiede zu geben und die 970 Evo sollte auch bei 83°C schon gethrottelt haben. Irgendwas bzgl. des Luftstroms dürfte hier anderes sein, vielleicht auch nur das Regelverhlaten einer semipassiv gekühlten Graka oder was auch immer.
 
Rückseitig verbaute SSD. Dennoch: Im Vergleich wird die Samsung EXTREM Warm. (Der Controller, der Speicher selbst war vergleichbar)
 
Salamimander schrieb:
Der Controller, der Speicher selbst war vergleichbar
Die 970 Evo haben zwei Temperaturfühler, aber von den SSD mit Phison E12 wäre mir neu das sie auch zwei hätten und wie man sonst die Temperaturen von NAND und Controller bei einer an der Rückseite verbaute SSD sonst genau ermitteln sollte, wüsste ich schon gerne mal.
 
Die 2TB hat vollbestückung auf beiden Seiten und durch den Kühler sind zumindest einseitig RAM/Controller/NAND verbunden.

dennoch: was ist dein Problem? Versuchst du nicht Samsung SSDs SCHLECHT zu reden oder deinen Kauf zu rechtfertigen? Ich sage einfach, dass eine 2TB SSD für 250€ ihren Job kein Stück schlechter macht als ihr 500GB Vorgänger (Evo 970). Und ich zeige auch die Schwachstellen der EVO auf. Hätte es eine EVO für ca 300€ gegeben, hätte ich mir diese vermutlich einfach geholt, aber nicht bei einem Aufpreis von ca 200€. Denn das sind die Balken im Benchmark MIR nicht wert. Denn es bringt MIR garnix.
 
Salamimander schrieb:
was ist dein Problem?
Mein Problem ist diese Aussage von dir:
Salamimander schrieb:
Steht der alten 970 EVO in nix nach und wird dabei nur 1/3 so warm.
Die halte ich so nämlich für unglaubwürdig, da ein 1/3 so warm kaum angehen kann.
 
Und doch ist es so. Glaube was du willst. Für mich ist die Diskussion beendet, denn du weißt alles besser ohne es zu testen.
Ciao
 
Den Temperaturverlauf in kaum zu unterscheidenden Blautönen zu gestalten kann nur einem Farbblinden oder einem geistig Verwirrten einfallen.
 
  • Gefällt mir
Reaktionen: TexHex
Als Farbenblinder kann ich dir versichern, hätte Balkendiagramme verwendet ;)
 
@garfield36 Die einzelnen Kurven lassen sich per Klick auf den Index An-/Ausblenden.

@TexHex Ein Balkendiagramm bei einem Kurvenverlauf? Nicht sehr einfallsreich. ;)
 
  • Gefällt mir
Reaktionen: TexHex und Jan
Die Samsung 860Evo 1TB kratzt bald an der 150€ Marke, so wie die Preise gerade anziehen. Die MX500 ist gut 30€ billiger.
RABO Networks unterbietet zwar immer mal wieder alle anderen deutlich, aber der Händler scheint total überfordert mit dem Kundenansturm zu sein und liefert teils mit Androhung eines Anwalts innerhalb eines Monats.
 
  • Gefällt mir
Reaktionen: medsommer
@MichaG @Jan
Bei den synthetischen CrystalDiskMark Tests gibt es ja fast keine Unterschiede zwischen den SSDs derselben Technologie.
Bei den Kopiertests in der Praxis von euren SSD Tests gibt es aber erhebliche Unterschiede in der Geschwindigkeit, besonders wenn die SSD gleichzeitig lesen und schreiben muss. Könntet ihr diese Kopiertests auch in den SSD-Ratgeber mit einbauen und mit den PCIe 4.0 SSDs durchführen?

Auch wäre es schön, wenn mehr der empfohlenen SSDs in diesen Benchmarks auftauchen würden. Besonders die günstigen NVMe SSDs mit QLC wie die Crucial P1 und die Intel 660p wären da interessant, die bisher in den Benchmarks nirgendwo auftauchen.
 
  • Gefällt mir
Reaktionen: MichaG
Don Sanchez schrieb:
Bei den synthetischen CrystalDiskMark Tests gibt es ja fast keine Unterschiede zwischen den SSDs derselben Technologie.
Die Hersteller haben ja inzwischen auch genug Möglichkeiten das selbst die letzten DRAM less Gurken bei diesen einfachen synthetischen Benchmarks gut aussehen um ihnen dann gute Werte ins Datenblatt schreiben zu können. Die Intel 660p und Crucial P1 sind gute Beispiele, denn bei QLC ist nicht nur die Schreib- sondern auch die Leseperformance im QLC Bereich geringer, bei 4k QD1 Lesend sind es bei der 860 QVO nur 4.400 IOPS statt 7.500 aus dem Pseudo-SLC Bereich, QD32 werden im QLC sogar weniger als halb so viele IOPS lesend wie aus dem Pseudo-SLC erzielt. Anders als die 860 EVO und bei SSDs mit TLC üblich, hält die Crucial P1 die Daten aber extra lange in ihrem, bei leerem Laufwerk üppig dimensionierten Pseudo-SLC Schreibcache:
Die meisten Benchmarks messen daher nur die Performance des Pseudo-SLC Bereiches, was aber wenig praxisrelevant ist Die Intel 660p hat ja die gleichen NANDs und den gleichen Controller, dürfte es also auch so handhaben. Im AnandTech Storage Bench - Light schafft sie voll nur 208,6MB/s (die P1 250,1MB/s), also weniger als die MX500 und im AnandTech Storage Bench - Heavy sind es voll nur noch 158MB/s (die P1 152MB/s), die MX500 hat dann mit 235MB/s deutlich mehr und die 970 Evo muss sich mit ihren 637,8MB/s im Testfeld nur der Optane 900P (1136,7MB/s) geschlagen geben. Tweaktown hat im Review der Optane 905P 960GB sehr passend geschrieben, dass man vor allem für die Konsistenz der Performance auch bei anspruchsvolleren Workloads und auch bei voller SSD bezahlt:
Ein anderer dieser Blender sind die Modelle mit dem SM2262EN der gegenüber dem Vorgänger SM2262 extra auf hohe Performance bei leerer SSD optimiert wurden und dafür bei voller SSD auch oft von guten SATA SSDs geschlagen wird. Wobei es nicht reicht die SSD einfach zu füllen und dann so einen einfachen Benchmark wie AS-SSD oder CrystalDiskMark laufen zu lassen, der dann doch i.d.R. nur über einen Adressraum von 1GB bencht, denn auch das bekommen die Blender inzwischen schon ganz ordentlich hin.
 
  • Gefällt mir
Reaktionen: thrice, Don Sanchez und MichaG
@Don Sanchez Was SSD-Tests angeht, sind wir noch etwas im Umbruch. Ich persönlich mache schon lange keine mehr. @Jan kann dir da vielleicht mehr sagen. Ansonsten hab bitte noch etwas Geduld. In jedem Fall lesen wir hier alles mit und schauen, was sich machen lässt.
 
  • Gefällt mir
Reaktionen: Don Sanchez und Jan
Also ich beneide den Jan da nicht, denn es ist immer schwerer die Spreu vom Weizen zu trennen, da die Hersteller immer mehr Technologien einsetzen um in den einfachen Benchmarks gut abzuschneiden. Dabei will ist es bewusst offen lassen, ob man das eine oder andere als Benchmarks Trickserei bezeichnen könnte oder es wirklich im Alltag Vorteile bringt, da man wohl beides oft auch gar nicht trennen kann.

Die Pseudo-SLC Schreibcaches sind ohne Zweifel für Consumer SSDs auch im Alltag sinnvoll, da bei meisten Schreibzugriffe bei Heimanwendern nicht länger die einige GB sind und damit deutlich schneller erfolgen, bei der Intel 660p 1TB mit 1,8GB/s statt rund 100MB/s bei vollem Pseudo-SLC Cache, aber natürlich stehen dann die 1800MB/s im Datenblatt und in den Preisvergleichen. Auch die dynamischen Pseudo-SLC Caches, wo bei "leerer" SSDs normale NAND Bereich nur mit einer Bit beschrieben werden, während anfangs nur ein fester NAND Bereich als Pseudo-SLC genutzt wurde und dessen Größe daher unabhängig vom Füllstand war, machen ja durchaus Sinn, wenn man Anfangs große Datenmengen auf die SSD schreibt geht dies damit schneller, hilft aber in Benchmarks die mehr GB schreiben, natürlich auch zu besseren Ergebnissen.

Intel_660p_pSLC_Cachesize2.jpg


Dann kommt, wie im letzten Beitrag schon erwähnt dazu, dass man zumindest bei QLC (keine Ahnung wie weit dies auch bei TLC der Fall sein kann) aus dem Pseudo-SLC auch schneller lesen kann und bei der Crucial P1 und wohl auch Intel 660p die Daten bewusst länger als sonst üblich im Pseudo-SLC Cache gehalten werden, sonst werden die Daten ja im Idle sofort in den normalen NAND Bereich geschrieben um den Pseudo-SLC Cache wieder frei zu bekommen. Hilft halt in den allermeisten Benchmarks gewaltig, man bencht ja praktisch nur im Pseudo-SLC Cache, aber auch hier kann man natürlich argumentieren, dass viele Dateien gleicht nach dem Schreiben wieder gelesen werden, z.B. wenn man etwa ein Update runterlädt, die Datei dann entpackt und danach installiert wird. Da bleiben dann weder das runtergeladene Archiv noch die entpackten Installationsdateien wirklich lange auf der SSD und müssen auch nicht unbedingt in den normale QLC NAND Bereich kopiert werden, was auch den NAND Verschleiß mindert.

Den Herstellern ist es sicher recht, dass Technologien die für eine bessere Alltagsperformance eingeführt werden, in den Benchmarks dann zu viel besseren Ergebnissen führen, wie etwas große dynamische Pseudo-SLC Caches die dann auch einen ganze PCMark aufnehmen können und nicht nur die paar GB die z.B. AS-SSD schreibt. Was von beiden nun jeweils der Treiber für die Entwicklung / Auslegung war, kann man wohl nur selten so sagen wie beim SM2262EN, bei dem es klar die Benchmarkperformance bei leerer SSD gewesen zu sein scheint:
Denn zu große dynamische Pseudo-SLC Cache haben eben auch Nachteile:

Wie sollte nun aber ein guter Benchmark / Review aussehen, damit er auch die Realität wiedergilbt? Erstmal sollte die SSD nicht zu leer sein, denn auch wenn ich dazu bisher keine Statistik gelesen haben, so würde ich vermuten das die meisten SSDs bei Heimanwendern nach einiger Zeit irgendwo zwischen 80 und 90% gefüllt sein dürften, die meisten dürften nach einiger Zeit der Nutzung eher zu wenig als zu viel Platz frei auf ihrer SSD haben. Dann sollte es eine ordentliche Verteilung über den Adressraum geben, denn Consumer SSD nutzen auch Technologien wie Read Ahead Caching, wenn die Daten des Benchmarks dann also schön hintereinander stehen, dann hilft sowas gewaltig und auch DRAM less SSDs haben dann unrealistisch oft den passenden Bereich der Mappingtabelle im internen SRAM. Außer beim Lesen großer Dateien ist es aber viel realistischer, dass auf Dateien zugegriffen wird, die über den gesamten belegten Adressraum verteilt sind und außerdem sind die meisten Dateien die gelesen werden, kaum gerade erst geschrieben worden, sondern dürften schon vor alnge Zeit mal geschrieben worden sein und daher eben nicht mehr im Pseudo-SLC Cache stehen. Welcher Benchmarks dies Out-of-the-Box erfüllen kann, weiß ich aber auch nicht und ich weiß nicht einmal, ob es so einen gibt. Anandtech verwendet eigenen Benchmarks und scheint damit ganz nicht so schlecht zu liegen, sondern vielleicht eher zu streng zu sein?
 
  • Gefällt mir
Reaktionen: thrice
Zurück
Oben