News WD Red: Manche Festplatten nutzen SMR ohne Kennzeichnung

Holt schrieb:
Welches sind denn weniger gut umgesetzt?
Naja, es gibt schon Unterschiede. Einige Modelle haben mehr Spare als andere und haben dementsprechend Vorteile bei Wearleveling und der möglichen Cachegröße auch bei hoher Speicherbelegung. Wenn am Ende der Cache nur noch 2GB statt 10GB hat, dann ist das durchaus relevant.
Holt schrieb:
Für die korrekte Kühlung ist der Designer des Rechners zuständig, beim Selbstbau als der Selbstbauer und der hat eben für einen ausreichend starken kühlenden Luftstrom über der SSD zu sorgen. Da manche SSDs mehr Leistungsaufnahme haben und manchen weniger, werden sie eben bei unzureichender Kühlung auch unterschiedlich schnell warm und throtteln, aber wenn dies passiert, dann hat der Designer des Rechners einen Fehler gemacht und nicht der Hersteller der SSD! Daher kann ich auch hier nicht erkennen, wieso manche SSD angeblich ein schlechtes Temperaturmanagement haben sollen.
Ganz so einfach ist es nun auch nicht. Wenn die SSD trotz gutem Airflow im Case bei Dauerlast throttlen muss, dann kann da der Designer des Rechners nichts dafür. Wenn die Abwärme so groß ist, dass ein Kühlkörper nötig ist, dann muss eben auch einer drauf. Wenn eine SSD unter Dauerlast wegen Überhitzung einbricht obwohl alle anderen Komponenten mit dem Flow problemlos laufen, dass ist das Produkt mangelhaft designt und nicht der Rechner.

Und dass man immer Tests braucht wenn man es ganz genau wissen will ist korrekt, aber aus den Datenblättern allein sollte sich bei Dingen wie Kapazität und Transferraten zumindest ein relativ genauer Wert ablesen lassen. Wenn der in der Praxis dann ein paar Prozentpunkte abweicht ist das völlig normal. Aber wenn die Werte nur den Cache beschreiben und ohne den plötzlich weniger als ein Fünftel bleiben, dann ist das in meinen Augen absolut nicht angemessen dokumentiert bzw. deklariert.
 
Moep89 schrieb:
Einige Modelle haben mehr Spare als andere und haben dementsprechend Vorteile bei Wearleveling und der möglichen Cachegröße auch bei hoher Speicherbelegung.
Wenn eine SSD 512GB Nutzkapazität und die andere mit gleich viel NAND nur 480GB, dann kann letztere natürlich mehr festen Pseudo-SLC Schreibcache bieten, aber dafür hat sie auch weniger Nutzkapazität und damit auch einen Nachteil. Wieso nun das eine gut und das andere schlecht umgesetzt sein soll, verstehe ich trotzdem nicht. Es ist unterschiedlich umgesetzt und jede Auslegungen hat Vor- und auch Nachteile.
Moep89 schrieb:
Wenn die SSD trotz gutem Airflow im Case bei Dauerlast throttlen muss, dann kann da der Designer des Rechners nichts dafür.
Der generelle Airflow ist egal, es kommt auf den Luftstrom an der über die SSD streicht, wie viel Luft woanders ankommt, ist für die Temperatur der SSD egal.
Moep89 schrieb:
Wenn eine SSD unter Dauerlast wegen Überhitzung einbricht obwohl alle anderen Komponenten mit dem Flow problemlos laufen, dass ist das Produkt mangelhaft designt und nicht der Rechner.
Doch, s.o.!
Moep89 schrieb:
aber aus den Datenblättern allein sollte sich bei Dingen wie Kapazität und Transferraten zumindest ein relativ genauer Wert ablesen lassen.
Die Kapazität steht immer korrekt in den Datenblättern, Windows zeigt andere Werte an, weil es auf Basis von 2 rechnet, aber statt der Binärprefixe die im Internationalen Einheitensystem (SI) definierten Dezimal-Präfixe anzeigt, die auf 10er Potenzen basieren und auch die Einheit sind in der die SSD (und HDD) Hersteller die Kapazitäten angeben.
Moep89 schrieb:
Aber wenn die Werte nur den Cache beschreiben und ohne den plötzlich weniger als ein Fünftel bleiben, dann ist das in meinen Augen absolut nicht angemessen dokumentiert bzw. deklariert.
Die Schreibraten auch bei vollem Pseudo-SLC Cache anzugeben wäre wünschenswert, aber es ist nicht Pflicht und die Hersteller verschweigen die unangenehmen Werte eben immer lieber als sie anzugeben. Diese muss man eben aus vernünftigen Reviews picken.
 
Naja, letzlich scheint die Lösung zu sein einfach IronWolf statt Reds zu kaufen, da Seagate zumindest bei NAS Drives auf SMR verzichtet. Vote with your money.
 
Holt schrieb:
Wenn eine SSD 512GB Nutzkapazität und die andere mit gleich viel NAND nur 480GB, dann kann letztere natürlich mehr festen Pseudo-SLC Schreibcache bieten, aber dafür hat sie auch weniger Nutzkapazität und damit auch einen Nachteil. Wieso nun das eine gut und das andere schlecht umgesetzt sein soll, verstehe ich trotzdem nicht. Es ist unterschiedlich umgesetzt und jede Auslegungen hat Vor- und auch Nachteile.
Ich hatte schon SSDs vor mir, die anscheinend effektiv mehr Flash hatten als nominell angegeben obwohl sie auf den ersten Blick nicht so aussahen. Also z.B. nicht eine 480GB SSD, die 512 hat und das für Cache und OP verwendet hat. Die hatten nominell 512 und trotzdem noch einen ordentlichen Cache. Hat mich damals sehr verwundert aber ebenfalls positiv überrascht. Ich krieg allerdings nicht mehr zusammen welche Modelle das waren. Crucial lässt da dunkel was klingeln, aber kann auch was völlig anderes gewesen sein.
Holt schrieb:
Der generelle Airflow ist egal, es kommt auf den Luftstrom an der über die SSD streicht, wie viel Luft woanders ankommt, ist für die Temperatur der SSD egal.
Erstens muss eine SSD in einem ordnetlich aufgebauten Case mit gutem Airflow einfach sauber laufen. Wenn der Flow für sämtliche Hardware passt, aber die SSD damit nicht klarkommt, ist das ebenfalls eine Fehlkonstruktion. Oder sollen alle plötzlich völlig unorthodoxe Airflowkonzepte nutzen nur damit eine SSD nicht heißläuft?
Zweitens gab es nun schon einige Kandidaten, die trotz gutem Luftstorm über der SSD das Throttling nicht verhindern konnten.
Holt schrieb:
Die Kapazität steht immer korrekt in den Datenblättern, Windows zeigt andere Werte an, weil es auf Basis von 2 rechnet, aber statt der Binärprefixe die im Internationalen Einheitensystem (SI) definierten Dezimal-Präfixe anzeigt, die auf 10er Potenzen basieren und auch die Einheit sind in der die SSD (und HDD) Hersteller die Kapazitäten angeben.
Ich wollte damit auch nicht implizieren, dass die Kapazität falsch angegeben wird (von irgendwelchen Fake USB Sticks usw. mal abgesehen). Das war nur der Vollständigkeit halber, um die wichtigsten Merkmale zu nennen. Auf diese Diskussion bezogen sind natürlich die Transferraten relevant.
Holt schrieb:
Die Schreibraten auch bei vollem Pseudo-SLC Cache anzugeben wäre wünschenswert, aber es ist nicht Pflicht und die Hersteller verschweigen die unangenehmen Werte eben immer lieber als sie anzugeben. Diese muss man eben aus vernünftigen Reviews picken.
Und genau das ist Stein des Anstoßes für mich. Wichtige Daten verschweigen oder gar extrem schönen um Kunden etwas besseres vorzutäuschen. So sehr ich Tests und Reviews auch schätze und sehr gerne lese, sollten diese nicht eine saubere Dokumentation bzw. vollständige Spec Sheets ersetzen. Aber da kann man den Firmen nur bedingt einen Vorwurf machen. Die Macht dies zu ändern hat hier die Politik, die aber leider kein Interesse daran hat. Die Thematik ist aber nicht HDD exklusiv, ja nicht mal auf den Elektronikmarkt beschränkt. Überall sind laxe Vorgaben zu Lasten der Verbraucher vorhanden.
 
Moep89 schrieb:
Ich hatte schon SSDs vor mir, die anscheinend effektiv mehr Flash hatten als nominell angegeben
Das hat jede SSD, denn NAND wird in Gbit angegeben und daraus ergibt sich, dass eine SSD mit 512GB Nutzkapazität immer 512GiB NAND Kapazität hat, wobei es natürlich wegen ab Werk defekter NAND Blöcke weniger sein kann. Es gibt also immer so 5 bis 7% mehr NAND- als Nutzkapazität und einen Teil davon wird für Dinge wie die FW und Verwaltungsdaten wie eben die Mappingtabelle benötigt. Kann es sein, dass du einfach viel zu wenig Ahnung von SSDs hast?
Moep89 schrieb:
Erstens muss eine SSD in einem ordnetlich aufgebauten Case mit gutem Airflow einfach sauber laufen. Wenn der Flow für sämtliche Hardware passt, aber die SSD damit nicht klarkommt, ist das ebenfalls eine Fehlkonstruktion.
Nochmal: Der generelle Airflow ist egal, es kommt nur auf den Luftstrom an der wirklich über die SSD streicht und der ist nicht automatisch ausreichend, nur weil andere Komponenten nicht überhitzen. Komponenten die wirklich viel Wärme abgeben wie die CPU und GPU, haben ja auch eigene Kühler und bei Consumer PC i.d.R. solche mit eigenen Lüftern.
Moep89 schrieb:
Zweitens gab es nun schon einige Kandidaten, die trotz gutem Luftstorm über der SSD das Throttling nicht verhindern konnten.
Welche und aufgrund welchen Tests kann man sicher sein, dass die wirklich trotz guten Luftstrom über der SSD throtteln? Die Anzahl der Lüfter im Gehäuse alleine belegt dies nämlich nicht. M.2 ist nicht der passende Formfaktor für den Desktop, er war ja auch nie für den Desktop gedacht, sondern für keine Gehäuse wie Notebooks oder sowas wie die NUCs. Für den Desktop war SATA Express gedacht, was aber schon wegen der Beschränkung auf nur 2 PCIe Lanes eine Totgeburt war und für Server war U.2 gedacht und hat sich leider auch außerhalb der Serverecke nie populär geworden. Es gab nur von Intel U.2 Consumer SSDs auf Basis von Enterprise SSDs, nämlich die 750 und die Optane 900P/905P. Es wäre Zeit das sich endlich eine sinnvolle Alternative zur Anbindung von PCIe SSDs im 2.5" Formfaktor findet, wie z.B. OCuLink, aber M.2 ist inzwischen so verbreitet, dass es schwer werden dürfte im Consumersegment eine Alternative zu etablieren und die Hersteller können mit M.2 den Desktop- und den Notebookmarkt bedienen, werden also auch kaum Interessen ab sinnvolleren Alterativen haben.
Moep89 schrieb:
Wichtige Daten verschweigen
Das wird aber immer mehr zum Standard, man schaue sich an was so mancher SSD Hersteller in die Datenblätter schreibt, da steht schon fast nichts mehr drin und die Kunden kaufen trotzdem. Wenn man Informationen verlangt, dürfte man bei HDDs schon lange nur noch solche von Seagate kaufen, da nur Seagate in Form der Product Manuals überhaupt ausführliche technische Daten veröffentlicht, während WD und Toshiba da mauern und auch so blödsinnige und in die Irre leitende Angaben wie eine UBER von 10:10^15 machen, dabei ist dies 1:10^14, sieht aber auf den ersten Blick leicht wie 1:10^15 aus.
 
askling schrieb:
MountWalker : SATA Stecker sind aber nur auf 50 Steckvorgänge ausgelegt. ...
Wird hier im Forum oft behauptet und soll bei einem Hersteller mal in einem Datenblatt gestanden haben, deckt sich aber nicht mit meiner Erfahrung. Und wenn einem wirklich mal eine Buchse ausleiern sollte, ist die Buchse im billigen Teil, dem Kabel. Ein- und Ausbau ist auch nicht kompliziert, solange man kein Terrorhaustier hat, das einem sofort in den Rechner springt, wenn man im Betrieb die Seitenwand öffnet. Und da ich seit nun 20 Jahren treuer Nutzer der Vibe-Fixer bin, die hier im Forum auch mit dem Schauermärchen des Plattenzerstörgens belegt sind, brauche ich auch nicht schrauben. Die meisten aktuellen PC-Gehäuse haben ohnehin Steckschienen für die Festplatten, sodass auch das recht fix gehen sollte - benutzt sich dann schon fast wie ein Wechselrahmen. Interne SATA-Stecker und SATA-Stromstecker sind für HotPlugging entworfen.
 
Holt schrieb:
Das hat jede SSD, denn NAND wird in Gbit angegeben und daraus ergibt sich, dass eine SSD mit 512GB Nutzkapazität immer 512GiB NAND Kapazität hat, wobei es natürlich wegen ab Werk defekter NAND Blöcke weniger sein kann. Es gibt also immer so 5 bis 7% mehr NAND- als Nutzkapazität und einen Teil davon wird für Dinge wie die FW und Verwaltungsdaten wie eben die Mappingtabelle benötigt. Kann es sein, dass du einfach viel zu wenig Ahnung von SSDs hast?
Der zusätzliche NAND ist schon klar, aber der ist eben in der Regel für bestimmte Dinge reserviert und wird z.B. nicht voll genutzt um den Cache bis zuletzt ordentlich zu dimensionieren. Die besagte SSD war nahezu vollständig gefüllt, es waren nur noch knapp 7 GB frei (was ich zuerst übersehen hatte) und ich habe gut 6GB Daten zu Diagnosezwecken auf die SSD geschoben. Die wurden bis zum letzten Bit mit voller Geschwindigkeit geschrieben. Als ich dann sah, dass die SSD eigtl. randvoll ist, war ich verwundert und habe im Zuge der weiteren Diagnose die SSD eh plattgemacht und weitere Kopiertests gemacht. Und siehe da, bei leerer SSD war irgendwann ab knapp 10 GB der Cache anscheinend zuende und die Geschwindigkeit nahm messbar ab.
Ich hatte aber auch eine Menge SSDs, deren Cache bei starker Füllung weit früher gekappt wurde. Da waren noch 20GB und mehr frei aber trotzdem war nur knapp 1 GB Cache nutzbar.
Das meinte ich mit Management. Dass der physische NAND weitestgehend gleich ist, aber die Reservierung und Nutzung für Cache, Wearleveling, FW etc. bei einigen besser und bei anderen schlechter oder zumindest unflexibler ist. Bei guten SSDs kann man das OP ja beispielsweise auch selber nach den eigenen Wünschen in dazugehörigen Tools einstellen. Bei anderen geht das nicht.
Holt schrieb:
Nochmal: Der generelle Airflow ist egal, es kommt nur auf den Luftstrom an der wirklich über die SSD streicht und der ist nicht automatisch ausreichend, nur weil andere Komponenten nicht überhitzen. Komponenten die wirklich viel Wärme abgeben wie die CPU und GPU, haben ja auch eigene Kühler und bei Consumer PC i.d.R. solche mit eigenen Lüftern.
Das habe ich schon verstanden. Ich wollte damit sagen, dass man sein eigtl. ordentliches Kühlkonzept nicht wegen der SSD komplett umstellt. Wenn z.B. für die SSD extra Lüfter an merkwürdigen Stellen installiert werden müssen oder man die Drehzahlen der Casefans deutlich anheben muss, dann ist das in meinen Augen ein Fehler der SSD. Dann gehört da ein Kühlkörper drauf, der bei normalem Flow ausreichend Wärme an die Luft abgibt und keinen "eigenen" verstärkten Luftstrom braucht. Dass M.2 eigtl. nicht für Desktops gedacht war ist zwar richtig, aber nicht mehr relevant, weil es jetzt nunmal neben SATA der neue Standard auch dort ist. Und es gibt ja mittlerweile auch genug SSDs, die extra damit bewoben werden (Gaminggedöns usw.).
Holt schrieb:
Das wird aber immer mehr zum Standard, man schaue sich an was so mancher SSD Hersteller in die Datenblätter schreibt, da steht schon fast nichts mehr drin und die Kunden kaufen trotzdem. Wenn man Informationen verlangt, dürfte man bei HDDs schon lange nur noch solche von Seagate kaufen, da nur Seagate in Form der Product Manuals überhaupt ausführliche technische Daten veröffentlicht, während WD und Toshiba da mauern und auch so blödsinnige und in die Irre leitende Angaben wie eine UBER von 10:10^15 machen, dabei ist dies 1:10^14, sieht aber auf den ersten Blick leicht wie 1:10^15 aus.
Ja leider. Aber das ist ja genau das Problem. Für mich ein absolutes Unding. Seriöse Firmen zeichnen sich für mich dadurch aus, dass sie vollständig und ehrlich alle relevanten Daten zu Produkten offenlegen.

P.S.: Ich glaube wenn wir hier noch lange weitermachen greift irgenejemand ein :evillol: Wir sind uns eigtl. gar nicht so uneinig. Es gibt bessere und es gibt schlechtere Speichermedien. Und gerade letztere versuchen diesen Umstand durch kreative Gestaltung der Datenblätter zu verschleiern. Dass eine deutlich umfangreichere Dokumentation dem Nutzer sehr helfen würde steht ebenfalls außer Frage. Aber so lange der Gesetzgeber da keinen Grund sieht etwas zu ändern, werden Dinge wie das SMR Thema immer wieder auftauchen.
 
Zuletzt bearbeitet:
MountWalker schrieb:
Wird hier im Forum oft behauptet und soll bei einem Hersteller mal in einem Datenblatt gestanden haben
Mal paar Datenblätter von Molex:
https://www.molex.com/pdm_docs/ps/PS-67490-002-001.pdf (Strombuchse für Kabelmontage) -> 50 Zyklen
https://www.molex.com/pdm_docs/ps/PS-87713-016-001.pdf (Kombibuchse für Backplanes) -> 500 Zyklen bei Einsatz auf Backplane
Bedeutet natürlich nicht, dass die Buchse beim 51. / 501. Zyklus kaputtgeht, sondern es ist die ausgelegte Mindestlebensdauer.

Leider geht die Seite (und viele andere) mit der Übersicht der Kombistecker auf Leiterplattenmontage (-> Festplatte) nicht.
Bezeichnung "Stecker" und "Buchse" scheinen auf den ersten Blick umgangssprachlich "vertauscht" zu sein, aber am Kabel (bzw. auf der Backplane) ist die Buchse (weiblich) und am Datenträger der Stecker (männlich)
 
Zuletzt bearbeitet:
@ Vindoriel

Wie gesagt, es deckt sich nicht mit meiner Erfahrung, es ist letztlich nur eine Mindestanforderung für den Standard, die auch deutlich überboiten werden darf. Und wenn die Buchse im Kabel mal kaputt geht, dann siehe Preislvergleich. Für die Stromkabel ist die Suchergebnisliste im Preisvergleich nicht so hübsch, weil man die spezifisch vom Netzteilhersteller kauft, aber die gibts auch, bspw. für beQuiet Das sind Preise, bei denen ich halt sage, ich nutze das, was SATA gegenüber IDE mehr kann. Ich fahr auch Handschaltwagen ohne Doppelkuppeln und und verschleiße damit die Synchronringe des Getriebes.
 
Moep89 schrieb:
Die wurden bis zum letzten Bit mit voller Geschwindigkeit geschrieben.
Von welcher SSD reden wir? Du hast eine 960 Pro in der Signatur stehen und die hat MLC NAND und gar keinen Pseudo-SLC Cache.
Moep89 schrieb:
Bei guten SSDs kann man das OP ja beispielsweise auch selber nach den eigenen Wünschen in dazugehörigen Tools einstellen. Bei anderen geht das nicht.
OP braucht man nicht wenn TRIM funktioniert, dann reicht es einfach mal aufzuräumen und Platz zu schaffen, dank TRIM weiß dann der Controller das die Daten ungültig geworden sind und er wieder mehr Free Area hat. Wenn kein TRIM funktioniert und man OP einrichten möchte, sollte man dies sofort machen indem man einen Bereich unpartitioniert lässt, dafür braucht man keine Toolboxen.
Moep89 schrieb:
Wenn z.B. für die SSD extra Lüfter an merkwürdigen Stellen installiert werden müssen oder man die Drehzahlen der Casefans deutlich anheben muss, dann ist das in meinen Augen ein Fehler der SSD.
Mit der Meinung dürftest du weitgehend alleine dastehen, denn ich sehe den SSD Hersteller nicht in der Verantwortung für eine ordentliche Kühlung zu sorgen, allenfalls sollte es Vorgaben machen wie stark der kühlende Luftstrom sein soll. Dies ist aber nur bei Enterprise SSDs (wie generell bei Enterprise Hardware) üblich und da die SSD durch Throtteln ja Schäden vermeiden, ist es auch nicht so schlimm wenn es bei Consumer SSDs z.B. nur den Hinweis gibt auf ausreichende Kühlung zu achten, was selbstverständlich sein sollte. Passiv gekühlt bedeutet ja nur, dass eine Komponente keinen eigenen Lüfter hat, nicht das sie ohne kühlenden Luftstrom auskommt.

Wenn man deiner Meinung folgen würde, dann müsste ja jede M.2 NVMe SSDs ab Werk mit einem Kühlkörper versehen werden, den alle die sie in ein Notebook einbauen erst abnehmen müssten und mancher könnte sie auch nicht mehr unter der Graka verbauen oder in den Slots von Boards die selbst schon Kühlkörper für die M.2 SSDs haben etc. Dann geht am Ende noch Garantie flöten wenn man den Kühler abnimmt und damit wäre niemanden gedient, da ist es doch besser wenn jeder der dies braucht, sich einen Aftermarket M.2 SSD Kühler verbaut.
Vindoriel schrieb:
Bedeutet natürlich nicht, dass die Buchse beim 51. / 501. Zyklus kaputtgeht, sondern es ist die ausgelegte Mindestlebensdauer.
Eben, leider gibt es immer wieder Leute die meinen, Spezifikationen wäre total daneben, nur weil ihr Exemplar darüber hinaus auch noch funktioniert. Dem ist aber nicht so.
MountWalker schrieb:
Wie gesagt, es deckt sich nicht mit meiner Erfahrung, es ist letztlich nur eine Mindestanforderung für den Standard, die auch deutlich überboiten werden darf.
Es ist bei allen solchen Spezifikationen so, dass dies nur Mindestangaben sind und damit möglichst alle Exemplare diese auch erreichen, selbst wenn sie unter schwierigen Bedingungen eingesetzt werden, dürften die allermeisten sie auch überbieten können und dies teils sehr deutlich.

Das ist wie beim Auto, wenn der Hersteller den Zahnriemenwechsel alle 100.000 km vorschreibt, dann erwartet jeder Kunden selbstverständlich, dass der Zahnriemen nicht schon vorher reißt und würde man bei einer größeren Anzahl der Fahrzeuge auf den Zahnriemenwechsel verzichten, würde der erste vielleicht bei 120.000km reißen und andere vielleicht auch 200.000 durchhalten, aber der Hersteller muss natürlich die Angaben so machen, dass er auf der sicheren Seite ist.
 
Holt schrieb:
Von welcher SSD reden wir? Du hast eine 960 Pro in der Signatur stehen und die hat MLC NAND und gar keinen Pseudo-SLC Cache.
Nee, nicht meine 960 Pro. War irgendeine SATA SSD in einem Kundengerät, ist wie gesagt schon ein paar Jährchen her. Würde meinen es war eine Crucial, aber das ist nur noch dunkle Ahnung. Ist ja auch relativ wurscht. Dass es Unterschiede bei der Ausgestaltung von Cache, Reserve und Co. gibt ist ja nichts neues oder ungewöhnliches.

Holt schrieb:
OP braucht man nicht wenn TRIM funktioniert, dann reicht es einfach mal aufzuräumen und Platz zu schaffen, dank TRIM weiß dann der Controller das die Daten ungültig geworden sind und er wieder mehr Free Area hat. Wenn kein TRIM funktioniert und man OP einrichten möchte, sollte man dies sofort machen indem man einen Bereich unpartitioniert lässt, dafür braucht man keine Toolboxen.
War ja auch nur ein Beispiel dafür, dass einige Hersteller mit dem zusätzlichen NAND flexibler umgehen als andere bzw. es in Teilen sogar dem Nutzer gestatten Änderungen daran vorzunehmen.

Holt schrieb:
Mit der Meinung dürftest du weitgehend alleine dastehen, denn ich sehe den SSD Hersteller nicht in der Verantwortung für eine ordentliche Kühlung zu sorgen, allenfalls sollte es Vorgaben machen wie stark der kühlende Luftstrom sein soll. Dies ist aber nur bei Enterprise SSDs (wie generell bei Enterprise Hardware) üblich und da die SSD durch Throtteln ja Schäden vermeiden, ist es auch nicht so schlimm wenn es bei Consumer SSDs z.B. nur den Hinweis gibt auf ausreichende Kühlung zu achten, was selbstverständlich sein sollte. Passiv gekühlt bedeutet ja nur, dass eine Komponente keinen eigenen Lüfter hat, nicht das sie ohne kühlenden Luftstrom auskommt.
Für die Grundvoraussetzung der Kühlung sehe ich schon den Hersteller in der Verantwortung. Zumindest für Consumer SSDs. Eine Consumergrafikkarte oder -CPU (bis auf Ausnahmen im Extrembreich) kommt auch mit Kühlkonzept. Wenn der Flow im Gehäuse dann akzeptabel ist und man nicht gerade Hochsommer im Dachgeschoss hat, dann gibt es auch kein Throttling. Wenn der klassische Flow im Case ausreicht, dann ist ja alles in Ordnung. Wenn das ohne zusätzlichen Kühlkörper geht, gerne. Ich halte es nur für daneben, wenn der Hersteller erwartet, dass ein besonders kühler bzw. starker Luftstrom direkt über der SSD laufen muss damit sie nicht throttlen muss. In einem solchen Fall ist das Konzept für mich eben fehlerhaft. Dann muss ab Werk eben ein kleiner Kühlkörper drauf, damit es auch in einer normalen und erwartbaren Umgebung läuft. Alternativ müsste, wie du geschrieben hast, auf die genauen Anforderungen an die Kühlung hingewiesen werden.
Und enge Notebooks sind nun auch kein Problem. Entweder es gibt zwei Varianten (mit und ohne Kühler) oder aber er lässt sich einfach abnehmen. Wer eine M.2 einsetzen kann, der kann auch 1-2 Schrauben vorher lösen. NOCH sind wir ja nicht so weit, dass irgendwelche Vaporchambers mit Flüssigmetall auf die SSDs müssen damit sie nicht verglühen ;)
Letztendlich kommen ja beispielsweise von den Boardherstellern schon Hilfen (Kühlbleche) und die meisten Anwender erreichen die Drosselung eh nicht. Dennoch hinterlässt es für mich immer einen faden Beigeschmack wenn der SSD Hersteller das Problem auf andere verschiebt anstatt für 5 Cent selbst ein Kühlblech beizulegen.
 
Zuletzt bearbeitet:
Moep89 schrieb:
ist wie gesagt schon ein paar Jährchen her. Würde meinen es war eine Crucial, aber das ist nur noch dunkle Ahnung. Ist ja auch relativ wurscht. Dass es Unterschiede bei der Ausgestaltung von Cache, Reserve und Co. gibt ist ja nichts neues oder ungewöhnliches.
Dann war es vermutlich eine SSD mit MLC NAND die gar keinen Pseudo-SLC Cache hatte und damit ist es eben nicht egal und belegt dann eben nicht, dass einige Hersteller den Pseudo-SLC Cache besser und andere schlechter implementieren. Um dies aufgrund so einer Erfahrung aussagen zu können, müsste man natürlich sicher sein, dass es eine SSD mit Pseudo-SLC Cache ist.

Aber lassen wir das Thema jetzt hier, auch wenn die SMR Platten ja einem OnDisk Cache haben dessen Zweck der des Pseudo-SLC Schreibcaches von SSDs durchaus sehr ähnlich ist, so ist das Thema hier doch reichlich Off-Topic,
 
@Holt Nope, war definitiv eine TLC SSD mit SLC-Cache. Außerdem gab es den Pseudo-SLC-Cache doch auch schon bei MLC-SSDs. Vom Ergebnis her verhielt die sich wie eine Crucial mit DWA, die aber den Cache noch etwas über die Nutzkapazität hinaus zog.
Und Ansätze verschiedener Konzepte muss man ja auch gar nicht selbst erfahren. Dass z.B. Samung mit TurboWrite ein anderes Konzept hat als Crucial mit DWA ist ja kein Geheimnis. Und auch all die anderen Hersteller kochen da da ihr eigenes Süppchen. Persönlich präferiere ich eher den flexiblen Ansatz a la DWA ggü. (kleinem) statischem Cache.

Aber das wir, denke ich, genug (halb)Off-Topic abgeliefert haben hatte ich ja schon geschrieben :evillol:
 
Samsung hat spätestens mit der 960 Evo neben dem statischen auch einen dynamischen Pseudo-SLC Schreibcache eingeführt:
Die Hersteller geben den Caches eigene Namen, die Funktion ist aber überall praktisch identisch, die haben heute alle einen kleinen statischen Pseudo-SLC Cache und nutzen je nach Füllstand auch noch mehr oder weniger viel des normalen NAND Bereiches ebenfalls im Pseudo-SLC Modus, haben also zusätzlich auch noch einen dynamischen Pseudo-SLC Cache. Da macht Crucial nichts anderes als Samsung und der einzige Unterschied ist allenfalls noch, ob die Daten immer in den Pseudo-SLC Cache geschrieben werden und dieser wenn er voll ist eben während des Schreibvorgangs geleert wird oder ob dann unter Umgehung des Pseudo-SLC Caches direkt alle Bits in die NAND Zellen geschrieben werden. Toshiba hatte zumindest früher mal ersteres gemacht, aber ich denke inzwischen dürfte letzeres Standard sein.
 
es gibt nicht so viele Alternativen. Bei Luftgefüllten NAS-HDD sehe ich nur Seagate IronWolf/Pro und ab den Helium-Modellen kann man zusätzlich zu den IronWolf auch die N300 von Toshiba kaufen.

Die WD Red sind dennoch nicht schlecht. Ab 8 TB gibt es kein SMR und somit auch keinen Grund, weshalb man sie nicht kaufen sollte. Auch die SMR-Modelle haben ihre Daseinsberechtigung bei kleinen langsamen NAS mit wenigen Platten.
 
Firebl schrieb:
Die WD Red sind dennoch nicht schlecht. Ab 8 TB gibt es kein SMR und somit auch keinen Grund, weshalb man sie nicht kaufen sollte.

Naja, die haben nicht mal nen RV-Sensor. Dafür sind die dann doch etwas teuer. Da kriegt man bei der Konkurrenz mehr. Der einzige Vorteil wären die 5400rpm für jemanden, der es ruhig möchte.


Firebl schrieb:
Auch die SMR-Modelle haben ihre Daseinsberechtigung bei kleinen langsamen NAS mit wenigen Platten.

Äh, nein, haben sie nicht! NAS heißt für mich normalerweise RAID. Und RAID und SMR sind keine gute Kombi, wie man gesehen hat.
 
  • Gefällt mir
Reaktionen: usernamehere
The_King schrieb:
Welche Alternativen würdest du empfehlen?

Die Red Pro, zusätzlich zu den von Firebl angesprochenen Modellen.
 
Wer sich (zu recht) über die mangelhafte Informationspolitik von WD aufregt, für den kann die Alternative zur WD Red nur die Seagate IronWolf sein, denn so ausführliche Informationen wie sie Seagate in den Product Manuals über seine Produkte öffentlich preisgibt, sucht man sowohl bei WD als auch bei Toshiba vergebens. Dazu haben die IronWolf in den größeren Kapazitäten die bessere UBER von 1:10^15, während bei WD selbst die Red Pro nur 1:10^14 haben, auch wenn es irreführend als 10:10^15 angegeben wird, was auf den ersten Blick leicht mit 1:10^15 verwechselt wird und genau deswegen werden diese 10:10^15 ja auch da hingeschrieben und sowas findet man bei Toshiba auch, während ich bei Seagate nie 10: bei der UBER gelesen habe.
 
  • Gefällt mir
Reaktionen: Firebl, Banned und fuyuhasugu
Holt schrieb:
Samsung hat spätestens mit der 960 Evo neben dem statischen auch einen dynamischen Pseudo-SLC Schreibcache eingeführt:
Das ging tatsächlich an mir vorüber. Ich war da im Kopf noch auf dem alten Stand mit TurboWrite als statischem Cache aus dem Spare. Dann dürften die Konzepte sich mittlerweile ja alle sehr stark angenähert haben. Ist ja auch sinnvoll es mit festem Cache im Spare + dynamischen nach Füllstand zu machen. Vereint Verlässlichkeit und Flexibilität auf gute Weise. Das entspricht auch exakt dem Verhalten, dass ich damals bei der SSD beobachtet habe. Allerdings war das zu der Zeit noch nicht Standard und hatte mich daher positiv überrascht.
 
Zurück
Oben