Kasmopaya schrieb:
Mich hätte mal interessiert ob bei den M.2 100Grad throttel Geschichten was kaputt geht über einen Zeitraum von 1 Jahr. Gibts da schon Tests?
Die 950 Pro hat die gleichen NANDs der 850 Pro,
schreibt aber zwei- bis dreimal so schnell und hätte damit nach weniger als 6 Monaten die gleichen 9PB geschafft. Richtig heiß werden auch eher die Controller als die NANDs, wobei die NANDs bei höheren Temperaturen sogar mehr P/E Zyklen abkönnen als bei niedrigeren, auch von daher wäre ein kühlender Luftstrom über die SSD in so einem Test also geboten um die Ergebnisse nicht positiv zu verfälschen. Der Nachteil hoher Temperaturen der NANDs, eine geringere Data Retention Time und damit häufigere Refreshs, spielt ja bei solchen Tests kaum eine Rolle bzw. keine Rolle wenn nicht einmal statische Daten auf der SSD liegen, sondern wie wohl bei heise extrem praxisfern die ganze Kapazität überschrieben wird. Die haben von SSDs eben nicht viel Ahnung, über den Rest dort will ich nicht urteilen.
Generell gehört zu einem solche Endurance Test immer auch die Angabe der Durchschnittstemperatur der SSD dazu, damit man damit wirklich was anfangen kann.
Kasmopaya schrieb:
Oder stellen die einfach Ventilatoren auf und künsteln so die Temps runter damit sie halten?
Was heißt künstlich? Nur weil ein HW passiv gekühlt wird, bedeutet es ja nicht automatisch das sie ohne einen kühlenden Luftstrom auskommt und bei Enterprise HW ist es sogar häufig so, dass die HW auf der Platine und auch Steckkarten passiv gekühlt werden und alleine die dicken Lüfter in der Mitte des Gehäuses für den nötigen Luftstrom sorgt. Da steht dann auch meist in der Anleitung wie stark der sein muss, weil HW in Servern eben auch 24/7 Last abkönnen muss. So schreibt Intel bei der DC P3500:
Verzichtet aber bei
der 750 auf diese Angaben, obwohl die 750 die Consumer Version der DC P3500 ist. Bei Consumer HW wird eben auf die Angabe zum nötigen Luftstrom oft verzichtet, Samsung schreibt aber z.B. sowohl
im Datenblatt der 950 Pro als auch in dem
der 960 Pro immerhin: "Proper airflow recommended"
Dies liegt daran, dass solche Consumer HW eben bei typischer Heimanwendernutzung nur kurz belastet wird und immer wieder Zeit hat sich abzukühlen, sollte sie doch länger belastet werden, drosselt sie dann eben notfalls die Performance um nicht zu überhitzen. Wie die Tests in den Reviews zeigen, muss man selbst ohne Lüftung meist zumindest in einem offenen Aufbau ohne großartige Hitzequellen in der Nähe dann auch schon eine ganze Menge Daten übertragen um an diesen Punkt zu kommen. Wer die SSD natürlich in einer Umgebung mit Temperaturen wie in einer Sauna packt, der sollte sich dann über eine früh einsetzende Drosselung nicht wundern. Aber bei ungenügender Kühlung drosseln GPUs und GPUs ja auch, von daher kann ich da nicht mit "künsteln" erkennen, wenn man für die nötige Kühlung sorgt, sonst müsste man auch fordern bei CPU Reviews alle CPUs die vom Hersteller ohne Kühler geliefert werden, diese dann auch so zu testen.
engine schrieb:
Es gibt einen mir bekannten Falle, wo Windows 7 eine SSD nicht als SSD erkannt hat, auch wenn es sich nur um einen Fehler gehandelt hat.
Mit nicht, aber was für eine SSD auf was für einem Board war es denn? Außer wenn das Board das Auslesen der S.M.A.R.T. Werte unterdrückt und dann das BIOS die Device Ident Daten auch noch unkorrekt oder unvollständig wiedergibt, kann ich mit da keine Fall denken wo Windows SSDs nicht als solche erkennt, sofern deren Device Ident Daten stimmte.
Viel wichtiger ist also eher die Frage, woran festgemacht wurde, dass Windows die SSD nicht als solche erkannt haben soll. So einige hier im Forum haben nämlich angenommen die SSD wäre nicht korrekt erkannt worden, weil der Defragmentierdienst so aktiv war. Dies ist aber falsch, denn der läuft auch bei SSDs immer, es könnte ja sein das HDDs im System sind. Der wirft aber eben nach dem Klonen SSDs aus seinem Zeitplan raus, sobald er anläuft, möglicherweise nicht, wenn er schon vorher deaktiviert war, dies habe ich nie ausprobiert, aber dann würde die SSD ja auch nicht automatisch defragmentiert werden.
engine schrieb:
Kontrolle ist allemal besser, egal was die Theorie sagt.
Das ist schon richtig, nur wissen die meisten leider nicht, wo sie wirklich nachsehen müssen und das ist beim Defragmentierdienst eben in dessen Zeitplaner und nicht unter Dienste.
engine schrieb:
Ohne Quelle bezweifle ich aber ein herkömmliches Defragmentieren.
Schau selbst nach, öffne eine Power Shell und führe dort aus:
get-eventLog -logname application -source "microsoft-windows-defrag" | sort timegenerated -desc | fl timegenerated, message
Nun habe ich hier gerade kein deutsches Windows, aber im englischen Windows steht dann in der Ausgabe wann zuletzt ein retrim oder eine defragmentation gelaufen sind und bei findet bei SSDs eben zuweilen beides hintereinander. Dies ist aber wie gesagt kein volles Defragmentieren wie bei HDD, sondern dient nur dazu extreme Fragmentierung zu vermeiden, da diese dann auch bei SSDs für die Performance nachteilig ist und irgendwann auch bzgl. der Metadaten von NTFS zu Problemen führen kann. Ich habe mal eine Platte nicht von FAT32 auf NTFS konvertieren können, weil dort die Fragmentierung zu massiv war und erst nach einer Defragmentierung der HDD ging es dann. Keine Ahnung welches Limits es da gibt, aber Windows macht das nicht zum Spaß oder um den Verkauf von SSD zu fördern, sondern weil es eben schon Sinn macht.
Koto schrieb:
Vor allem ich kann auch alles überteuert verkaufen. Der Preis sagt da gar nix.
Der Mensch denkt zwar wie er selbst ist, aber so doof vorher nicht in einem Preisvergleichsportal die Preise der Produkte bei den namhaften Händlern zu vergleichen und daher dann total überteuerte Preise als Beleg für Qualität zu nehmen, ist hoffentlich keiner. Also unterstelle so einen Mist auch niemandem.
Koto schrieb:
Zu dem Test muss man auch sagen. Die wollten die SSD kaputt machen. In wie weit das auf die Praxis übertragbar ist. Wage ich zu bezweifeln.
Darüber wie weit oder nicht dies in die Praxis übertragbar ist, diskutieren wie doch hier gerade und natürlich ist es der Sinn jedes Haltbarkeitstests ein Produkt bis an seine Grenzen zu belasten und damit letztlich auch meistens zu zerstören, eben um innerhalb möglichst kurzer Zeit zu simulieren was im Alltag viel länger dauern würde. Dies kann eben auch nie 100%ig realistisch den Alltag widerspiegeln, aber sonst hätte man erst Ergebnisse wenn es das Produkt vermutlich längst nicht mehr gibt, wie es ja auch bei der BX200 praktisch der Fall war. Solche Tests sind also zwangsläufig auch fehlerbehaftet, aber wenn eine SSD im Test doppelt so lange durchhält wie eine andere, stehen die Chance gut, dass sie im Mittel über eine größere Population auch im Alltag eben länger hält. Eine 100%ig Übertragbarkeit im Sinne davon das sie auch im Alltag dann genau doppelt so lange hält, sollte man natürlich nicht unbedingt erwarten.
Koto schrieb:
Da kann ich auch sagen. Werfen wir billige und teure HDDs oder SSD an die Wand. Schaun mer mal ob es den Preis wert ist. Wenn Sie das überlebt.
Nein, das ist Quatsch. Hierbei würde man zumindest die HDDs Konditionen deutlich außerhalb ihrer Spezifikationen bzgl. der erlaubten Schocks aussetzen und Rückschlüsse auf das Verhalten bei Einhaltung der Spezifikationen aus dem Verhalten bei deren Verletzung zu ziehen, ist Blödsinn.
Koto schrieb:
Wobei man auch sagen muss so viele Hersteller gibt es gar nicht. In den billigen ist im Grunde auch dasselbe drin. Nur der Marken Aufpreis für den Aufkleber entfällt dann eben.
Das stimmt zwar schon, aber es wollen dann auch mehrere daran verdienen, neben dem NAND Hersteller auch der eigentlich Hersteller der SSD und der Anbieter dessen Name am Ende auf der SSD steht. Dazu werden kommt noch der Hersteller des Controllers und der kassiert dann womöglich auch noch für jedes FW Update extra, weshalb die Kunden solcher Billig Marken dann ohne auskommen müssen. Die Frage ist letztlich, wo die Dinger zusammengelötet werden, was man aber kaum erfahren wird und woher die NANDs kommen, denn wie der
Fall der KingFast bei thessdreview gezeigt hat, kann ja auch durchaus NANDs aus dunklen Kanälen auf den Platinen der SSDs landen. Auch wenn dies Aussage des Herstellers dazu nicht wirklich glaubhaft klingt:
Wer 50.000 SSD im Monat herstellt (bei 5 Tagen pro Woche und 10 Stunden pro Tag also 200 pro Stunde), kauft also bei einem bisher unbekannten (google kannte damals HongWang International auch nicht) Anbieter NAND für 30 SSD, was der Produktion von 9 Minuten entspricht? Also eine absolute Kleinstmenge und dann prüft diese NANDs nicht einmal optisch, aber angeblich jede SSD? Dabei fällt die Fälschung aus dem richtigen Winkel sogar auf den Fotos auf:
Koto schrieb:
Ich halte auch das mit den kaputt Schreiben für ein Märchen in der Praxis.
Es hängt eben von der Qualität der verbauten NANDs ab. Wenn man das Pech hat eine mit solche zu erwischen wie diese KingFast, bei der NANDs drauf sind die selbst OCZ zu mies waren und deren Qualitätsansprüche waren damals den Ausfallraten einiger Serien nach zu urteilen offenbar nicht gerade sehr hoch angesetzt, dann würde ich mich über kaputtgeschriebene NANDs in einer SSD nicht wundern.
Norebo schrieb:
Ich privat hab noch nie eine kaputte HD gehabt und die laufen teilweise 10h und 15h am Tag.
Häufiges Ein- und Ausschalten, Einschaltstrom, Beschleunigen, Abbremsen ist für eine HD schlimmer als häufige Zugriffe.
Auch die allermeisten HDDs haben seit einiger Zeit ein sogenanntes Workload Rating, was von 55TB/Jahr für einfache Desktopplatte bis 550TB/Jahr für 3.5" Enterprise Nearline HDDs reicht. Dabei zählen anderes als bei SSD neben den geschrieben auch gelesenen Datenvolumen zum Workload. Bei der Anzahl der Start-Stopp Zyklen der Spindel sind hingegen ehr die Consumer HDDs im Vorteil, hier sind 10.000 pro Jahr bzw. 50.000 insgesamt die Regel, bei Enterprise HDDs sind zuweilen auch nur 250 im Jahr angegeben oder die Angabe fehlt komplett. Bzgl. der Betriebsstunden sind die ganz einfachen Consumer HDDs ohne Zulassung zum Dauerbetrieb auf maximal 2400 Power-On-Hours pro Jahr ausgelegt und manche gehen bei Dauerbetrieb dann auch schon bald nach den bei diesen HDDs üblichen 2 Jahren Garantiedauer kaputt, haben dann aber auch so viele Stunden runter wie in über 7 Jahren des vorgesehenen Betriebs angefallen wären.
Norebo schrieb:
Es gibt HDs die auch nach 20 Jahren noch funktionieren...
Ausnahmen bestätigen die Regel, aber schon seit einiger Zeit werden HDDs wie übrigens Consumer und auch Server HW generell, nur noch auf eine Nutzungsdauer von 5 Jahren ausgelegt. Praktisch hält die HW aber meist etwas bis deutlich länger, sofern eben die Spezifikationen eingehalten werden, erwarten sollte man es aber nicht.
C4rp3di3m schrieb:
Der Test belegt nur wieder das TLC minderwertig ist.
Nur weil TLC nicht die gleiche Schreibleistung und Haltbarkeit bietet, ist es längst nicht minderwertig. Dafür ist TLC für die Nutzung der allermeisten Heimanwender immer noch mehr als haltbar genug und günstiger, hat also durchaus seine Daseinsberechtigung. Von minderwertigen NANDs redet man nur, wenn die konkreten NANDs nicht die Vorgaben des NAND Herstellers für eine bestimmte Verwendung erreichen.
So gibt z.B.
Micron für die 3D TLC NANDs 1500 P/E Zyklen an, wenn der Controller LDPC unterstützt ("
mit BCH sind es nur 500"), erreichen bestimmte NANDs aus der Fertigung diese Werte nicht und landen trotzdem in SSDs, so hat diese SSD dann minderwertige NANDs verbaut. TLC generell als minderwertig abzutun, ist aber unsinnig. Man tut ja auch nicht die Arbeitskollegen die weniger Leistung bringen aber auch weniger verdienen als minderwertig ab, oder?