Seltsame Meldung von SMART bei SCSI-HDD

badpitt

Cadet 4th Year
Registriert
Dez. 2012
Beiträge
101
Hallo Forum,

Ich bekomme neuerdings beim Hochfahren des Rechners immer eine Fehlermeldung von SCSI-Controller oder Festplatte, dass die HDD bald den Geist aufgibt. Die Meldung lautet ungefähr:

"HDD is predicting a future failure. The sense qualifier is 02h. Press any key to continue". Ich hab natürlich direkt HDDScan angeschmissen, um die Smart-Werte auszulesen und tatsächlich: Die Fehler-Werte sind zu hoch. Soweit sollte der Fall klar sein, aber:

-Das ist jetzt schon die zweite Platte des gleichen Typs wo das innerhalb von 2 Monaten passiert. Die Platte ist eine gebrauchte Maxtor Atlas 15KII (die ist so schnell wie eine SSD).
-Die Platte hat einen SCA-Anschluss und wird per Adapter betrieben
-Während bei der "alten" Platte tatsächlich der Smart-Wert für 02h zu hoch war, ist er bei der neuen Platte bei 03h zu hoch und bei 02h gar nicht vorhanden.
Hier die Entscheidenden Werte beider Platten bei je zwei Messungen der letzten Monate:


Code:
Datum:		02h			    03h
		(Count of LBAs		(Count of LBAs
		 with write 		 with ECC 
		 fault errors):		 detected read
	  				          errors):
Alte Platte:
--------------

24.Nov '13       7804		           488905

5. Dez '13       7804                      500649


Neue Platte:
---------------

12. Dez '13	0			  180

28. Jan '14	0			48580

Es sollte auffallen, dass dieser Wert für 03h bei der neuen Platte zwischen den beiden Messungen sprunghaft anstieg und 02h diesmal gar nicht betroffen ist. Auch bei der alten Platte war 02h zwar erhöht, änderte sich aber offenbar nicht.

Ich liebe diese tolle schnelle Festplatte und will mir nicht schon wieder eine neue kaufen. Zudem hab ich besseres zu tun, als ständig Festplatten zu spiegeln. Meine Frage ist nun: Kann es sein, dass da einfach nur dieser Adapter die Fehlerraten hochtreibt und die Platten eigentlich in Ordnung wären? Meines Wissens gibt es nur zwei Typen SCA-SCSI-Adapter bei Ebay und nur einer von beiden funktioniert. Zudem ist es ein bißchen "Glück", ob die Festplatte den nimmt.

Da diese Fehlermeldung jetzt aber bei jedem Booten kommt, würde ich gerne wissen, ob es nicht irgendein böses Tool gibt, dass diesen Smart-Counter hacken kann. Ich muss diese Warnung ja jedesmal per Tastendruck bestätigen - das nervt!

Google schweigt sich zu dem Thema übrigens aus: Da kommen nur ganz wenige Seiten aus Russland und China zu dem Thema. Die Suchmaschine verrät einem nichtmal was "Count of LBAs with ECC detected read Errors überhaupt bedeutet".

Haltet Ihr meine Platte wirklich für absturzgefährdet?
 
"Anzahl der Sektoren mit Lesefehlern die mittels Fehlerkorrekturcode entdeckt wurden"
Das sagt eigentlich nur aus das die ECC arbeiten mußte, das ist bei modernen SATA
Platten mit Plattern über 500 GiB durchaus normal. Gibts denn gemeldete Lesefehler
oder schwebende Sektoren (pending sectors)?
 
Ich glaub nicht. Den Begriff Pending Sectors kann ich im Smart-Log nicht finden. Die meisten Werte stehen auf null. Hier der aktuelle Smart-Log als Jpeg:

smart-log.jpgsmart-log.jpg
 
Zuletzt bearbeitet: (Bild angehangen)
Hier wird wohl der SCSI Controller oder der SCA Adapter die SMART Anzeige ausfiltern,
siehe: "Accumulated start-stop cycles: 0", die Platten könnten SMART jedenfalls.

Im Übrigen sind diese Platten auch nicht Ansatzweise so schnell wie SSDs.
(Die SCSI Maximum Burst 320 MB/s bzw. SCSI Maximum Host 270 MB/s sind rein
akademische Werte die in der Praxis keine Rolle spielen)
 
Im Übrigen sind diese Platten auch nicht Ansatzweise so schnell wie SSDs.

Doch sind sie. Es geht ja gar nicht um diese maximalen Übertragungswerte, sondern um die mittleren Zugriffszeiten. Die liegen für die Maxtor Atlas bei unter 4ms. Sie ist (oder war) damit die schnellste mechanische Festplatte der Welt. Sorry, ich find gerade den Weblink nicht, aber da gibt's so eine Webseite mit Ranglisten in der Geschwindigkeit von HDDs. Diese tolle Velocy-Raptor, die sich alle bei Ebay holen und die so sauteuer ist, liegt 10-15 Plätze hinter der Maxtor Atlas.

Natürlich sind SSDs noch schneller. Der Punkt aber ist, dass die Atlas tatsächlich in den Bereich der langsamsten SSDs kommt - obwohl da Leseköpfe bewegt werden müssen. Anders als SSDs wird eine HDD außerdem nicht langsamer wenn man sie füllt. Wer sich auf eine 80 GB-SSD ersmal schön Win7 samt Office und ein paar anderen Programmen draufschmeißt, hat bei mindestens 2/3 Speicherplatzbelegung bereits mit starken Geschwindigkeitseinschränkungen zu tun.
Ein Zusatzargument ist der geringere Verschleiß, von dem ich nun aber leider nicht berichten kann :mad:

Wenn ich jedenfalls 'n Ordner mit ein paar tausen Dateien öffne (C:\Windows\System32), dann ist der eben sofort da, egal wie voll die Platte ist. Die ganzen Programme haben super wenig Ladezeit und als Server-Platte sind diese SCSI-Dinger eigentlich auf Langzeitnutzung ausgelegt - sollten also nicht so schnell abrauchen.

Dochdoch, die Atlas ist schon 'ne Ecke geiler. Ich hab 'ne SSD im Laptop - die ist arschlahm seit sie voll ist - und gerade durch die geringe Speichergröße ist das schnell passiert.
 
Zuletzt bearbeitet:
4 ms sind immer noch viel mehr als die Zugriffszeit einer SSD und dann können auch bei der Platte die Köpfe immer nur an einer Stelle sein, so dass parallele Zugriffe nicht parallel abgearbeitet werden können, wie es SSD machen, wenn die Daten auf unterschiedlichen NANDs liegen oder dort geschrieben werden sollen. Daher kommt keine HDD bei den IOPS auch nur in die Nähe einer SSD, HDD kommen allenfalls auf einige Hundert und SSD auf bis zu 100.000!
 
Es sind ja auch weniger als 4ms :-)
Ja klar sind SSDs schneller. Sie sind aber eben auch kleiner, teurer, nutzen sich ab und verlangsamen sich bei Befüllung. Noch gar nicht erwähnt wurden die ganzen Kinderkrankheiten der SSDs. Zum Beispiel, dass es noch keine richtigen Qualitätsstandards gibt (man muss sich genau informieren welche SSDs tatsächlich schnell sind - gerade die älteren sind es nicht!) oder dass man Entwicklermängel per Software nachflashen muss. So etwa die TRIM-Funktion, die erst in neueren SSDs direkt mit dabei ist. Ohne müllt sich das Bauteil mit der Zeit selbst zu und bremst sich so runter. Bezüglich des Wear-Leveling muss man aufpassen, vom OS nicht unnötig Daten schreiben zu lassen. Im Fall eines Defekts sind SSDs nicht mehr zu retten, etc etc.
Ich denke, es gibt doch immernoch gute Gründe für echte Festplatten - und da hab ich eine der Besten!

@Inzersdorfer: Das ist aber komisch mit dem "ausfiltern" der Smart-Werte. Wie kann denn das sein? Die Fehlermeldung beim Booten bezieht sich ja auf einen dieser 0-Werte, also auf 02h. Meinst Du, dass liegt vielleicht am Controller? Dann würde der sich ja über einen Wert beschweren, den er selbst rausfiltert...

Gibt's denn wirklich nicht einfach so ein Smart-Hacking-Tool? An Auto-Tachos kann man doch auch rumdrehen. Ich will vor allem diese nervige Meldung wegkriegen.
 
Zuletzt bearbeitet:
HDDs nutzen auch ab und halten nicht ewig. Im im Dauerschreibtest hat selbst die schlechteste SSD über 100TiB geschrieben, kaum ein Poweruser kommt zuhause auch nur auf 10TiB im Jahr, das ist also kein Argument gegen SSDs, zumal die guten bei entsprechender Kapazität sogar die PB Grenze überschreiten.

Wie viel die SSD mit höherem Füllstand langsamer werden, hängt vom jeweiligen Modell ab und außerdem werden HDD auch langsamer, je voller sie sind. Einmal weil weniger Sektoren auf die inneren Zylinder passen, was i.d.R. dafür sorgt, dass die Transferraten auf den inneren Zylindern nur halb so hoch sind wie auf den äußeren und dann wird die Zugriffszeit umso höher, je weiter die "Wege" werden, denn die 4ms sind auch nur die typische Zugriffszeit und niemals die für Full-Stroke! Selbst eine HDD mit 15.000 rpm braucht ja schon 4ms für eine Umdrehung und damit dauert es statisch immer 2ms bis überhaupt der passende Sektor unter den Köpfen vorbei kommt. Dazu kommt die Zeit für das Positionieren auf die passende Spur, die eben vom "Weg", also dem Abstand von der aktuellen Postion zur Zielposition abhängt.

TRIM haben SSD schon lange, seid Intels Postville unterstützen alle empfehlenwerten SSDs auch TRIM, das ist kein Argument gegen SSDs und das Wear-Leveling beherrschen die auch, da waren allenfalls die der ersten Generation und die mit dem alten Indilinx Barefoot problematisch, aber sowas kauft sich doch schon lange keiner mehr.

Aber bleibe bei Deinen HDDs, denn solange Du keine SSDs kennst, wirst Du sie nicht vermissen!
 
Die Ausgabe kannst du nur durch beseitigen des Fehlers abstellen, sie kommt vom SCSI Device&Controller.
(Schlagworte: Sense Keys, Sense Codes, Additional Sense Code, Additional Sense Code Qualifiers)
 
Einmal weil weniger Sektoren auf die inneren Zylinder passen, was i.d.R. dafür sorgt, dass die Transferraten auf den inneren Zylindern nur halb so hoch sind wie auf den äußeren und dann wird die Zugriffszeit umso höher, je weiter die "Wege" werden, denn die 4ms sind auch nur die typische Zugriffszeit und niemals die für Full-Stroke!

Ja das haben sie ja schon lange behoben. NCQ ist hier das Stichwort. Die Daten werden bei modernen HDDs (und bestimmt auch meiner) nicht mehr stur linear geschrieben, sondern gleichmäßig verteilt. Dadurch ist auch die mittlere Zugriffszeit tatsächlich nahe am Alltagsverhalten. Die Datenhäppchen einer Datei liegen halt nicht mehr zum Beispiel alle im kleinen Ring um die Mitte, sondern sind intelligent über die Oberfläche verteilt. Im Idealfall schwankt die Zugriffszeit während der Nutzung nur leicht - egal wie alt oder neu die Daten sind.


Aber bleibe bei Deinen HDDs, denn solange Du keine SSDs kennst, wirst Du sie nicht vermissen!

Ich kenne ja SSDs. Hab ich schon geschrieben. Das sind auch tolle Dinger. 15K-Festplatten aber halt auch - und die gibt's für Consumer eben gar nicht. Die SSD in meinem Laptop ist jetzt drei Jahre alt - eine Kingston/Intel-SSD. Die hat dieses Trim zum Beispiel noch nicht. Es lässt sich auch per Software nicht nachrüsten. Eine etwas neuere, die ich in 'nem Rechner meiner Eltern verbaut habe ist schön schnell, überhitzt aber schonmal gerne (Corsair, also kein Scheiß). Es kam schon vor, dass sie beim Booten nicht gefunden wurde. Solche Kinderkrankheiten meine ich eben. Da nagelneue SSDs für mich wegen der Preise nicht in Frage kommen, wird es wohl noch 5,6 Jahre dauern, bis ich handfeste HDD-Alternativen erwarten kann. Wie Du ja selbst schriebst, überschreiten nur die "guten bei entsprechender Kapazität sogar die PB Grenze". Mit den Geschwindigkeiten ist das ähnlich. Wenn man was "gutes" will, sollte man viele Produktvergleiche per Google einholen. Die Dinger sind eben noch nicht Standard. In der Qualität gibt es noch große Unterschiede und die Firma mit den besten SSDs - die über Nacht erschienene Firma OCZ - hat inzwischen auch schon wieder dicht gemacht. Kein Grund also, SSDs als Quasi-Standard zu betrachten.
 
"und die Firma mit den besten SSDs - die über Nacht erschienene Firma OCZ.."

125473006928-jpg.394280
 

Anhänge

  • 125473006928.jpg
    125473006928.jpg
    38,8 KB · Aufrufe: 558
badpitt schrieb:
Ja das haben sie ja schon lange behoben. NCQ ist hier das Stichwort.
NCQ ordnet bei HDDs nur die Reihenfolge der Befehle so um, dass die Kopfbewegungen minimiert werden, was realtiv wenig bringt im Vergleich zu der wirklich parallelen Verarbeitung der Befehle bei einer SSD.
badpitt schrieb:
Die Daten werden bei modernen HDDs (und bestimmt auch meiner) nicht mehr stur linear geschrieben, sondern gleichmäßig verteilt. Dadurch ist auch die mittlere Zugriffszeit tatsächlich nahe am Alltagsverhalten. Die Datenhäppchen einer Datei liegen halt nicht mehr zum Beispiel alle im kleinen Ring um die Mitte, sondern sind intelligent über die Oberfläche verteilt. Im Idealfall schwankt die Zugriffszeit während der Nutzung nur leicht - egal wie alt oder neu die Daten sind.
Das wäre mir bei keiner HDD bekannt und würde auch keinen Sinn machen, es klingt eher wie die Beschreibung einer SSD oder dafür wie eine SW die Daten anordnet. Verlink doch bitte mal einen Beleg für diese Aussage!

badpitt schrieb:
Die SSD in meinem Laptop ist jetzt drei Jahre alt - eine Kingston/Intel-SSD. Die hat dieses Trim zum Beispiel noch nicht. Es lässt sich auch per Software nicht nachrüsten.
Doch, mit Tricks kann man die auf der G2 basierten Kingston schon auf Intel FW mit TRIM flashen, aber Du hättest besser das Original von Intel genommen, das wäre die klügere Entscheidung als eine umgelabelte SSD zu nehmen. Immer besser alles aus einer Hand und zwar aus der Hand der Hersteller der möglichst viel selbst macht, also NAND, Controller und FW.
badpitt schrieb:
Eine etwas neuere, die ich in 'nem Rechner meiner Eltern verbaut habe ist schön schnell, überhitzt aber schonmal gerne (Corsair, also kein Scheiß).
Bist Du sicher? Corsair hat damals eine Menge Schrott-SSD verkauft, die mit dem Indilinx Barefoot und dann die mit dem Sandforce 1222, der nicht einmal mit Haswell Chipsätzen funktioniert. Hättest besser da eine Intel Postville oder Crucial C300 nehmen sollen! Später gab es von Corsair mit der Nova auch noch eine total miese Billig-SSD bei der nicht einmal der Controller angeben war, vermutlich ist da der Phison 3015 verbaut.
badpitt schrieb:
Es kam schon vor, dass sie beim Booten nicht gefunden wurde. Solche Kinderkrankheiten meine ich eben.
Wenn der Rechner Deiner Eltern ein Notebook ist und die SSD einen Sandforce Controller hat, wundert mich das gar nicht. Du hast eben bisher kein gutes Händchen bei der Auswahl der SSDs gezeigt, aber inzwischen diese diese Kinderkrankheite bei den meisten SSDs weg und wenn Du Dich an die Empfehlungen im Sammelthread hältst, dann passiert das auch nicht.
badpitt schrieb:
Wie Du ja selbst schriebst, überschreiten nur die "guten bei entsprechender Kapazität sogar die PB
Was machst Du denn mit den Platten, dass Du meinst die müssten PB aushalten können? Ich habe hier die S.M.A.R.T. Werter vieler SSDs gesehen, auch von solchen Powerusern die meinten ihre SSD würde nicht lange halten, weil sie ja auch so viel darauf schreiben. Keiner hatte mehr als 10TiB im Jahr! Das hält jede SSD mehr als 5, 6 Jahre durch!
badpitt schrieb:
Mit den Geschwindigkeiten ist das ähnlich. Wenn man was "gutes" will, sollte man viele Produktvergleiche per Google einholen. Die Dinger sind eben noch nicht Standard.
Was für eine Geschwindigkeit willst Du denn? Normal reicht eine SATA 6Gb/s SSD vollkommen aus, man gewinnt nicht so viel, wenn man die seq. Transferraten noch weiter erhöht, weil eben die meisten Zugriffe gar nicht so lang sind, als dass sie ans Limit stoßen.

TweakTown testet immer auch mal SSD im RAID 0 gegen die SSD einzeln:
5998_32_supersspeed_s301_64gb_raid_0_ssd_report.png

Wie Du siehst gewinnt man damit im Alltag vielleicht 20, 25 bis 30%, erreicht aber keine Verdoppelung der Performance. Eine normale SATA 6Gb/s SSD reicht also vollkommen und sonst halt 2 im RAID 0, wenn man ein aktuelles Intel Board hat, was dann trotzdem noch TRIM unterstützt.
badpitt schrieb:
In der Qualität gibt es noch große Unterschiede und die Firma mit den besten SSDs - die über Nacht erschienene Firma OCZ - hat inzwischen auch schon wieder dicht gemacht. Kein Grund also, SSDs als Quasi-Standard zu betrachten.
OCZ und die besten SSDs? Du hast wirklich ein schlechtes Händchen bei der Auswahl, weil Du offenbar total falsch informiert bist. Schau Dir mal die französiche Ausfallstatistik an:
Höher ist nicht besser, sondern im Gegenteil schlechter und dabei sind da die schlimmsten SSDs schon nicht mehr drin, vorher sah es so aus:
 
Die waren aber weder die besten noch sind die über Nacht aufgetaucht.

Tja die wurden ständig überall gehypt und waren auch immer die teuersten - angeblich weil sie immer sehr viel schneller waren als alle anderen. Als ich mich für die erste SSDs im Internet umgeschaut habe, wurden die immer als DIE Deluxe-Modelle gehandelt (also in Foren und Rankinglisten).
Ich hab dem Braten nicht getraut (waren eh zu teuer) und lieber Intel und Corsair geholt. Ich weiß jetzt nicht mehr was für eine Corsair das war - aber die hatte in irgendeinem PC-Magazin gut abgeschnitten und die gab's gebraucht zum guten Preis.

Über Nacht aufgetaucht ist OCZ aber schon: Laut Wikipedia 2002 auf dem Markt erschienen und 2013 dann pleite. Die haben also grad mal 11 Jahre gemacht - da kann man nicht von einem erfahrenen Produzenten reden.


NCQ ordnet bei HDDs nur die Reihenfolge der Befehle so um, dass die Kopfbewegungen minimiert werden

Hab ich doch geschrieben.

was realtiv wenig bringt im Vergleich zu der wirklich parallelen Verarbeitung der Befehle bei einer SSD.
Hab ich nie bestritten, ist ja auch ein echt blöder Vergleich.

Das wäre mir bei keiner HDD bekannt und würde auch keinen Sinn machen, es klingt eher wie die Beschreibung einer SSD oder dafür wie eine SW die Daten anordnet. Verlink doch bitte mal einen Beleg für diese Aussage!

NCQ-Grafik

Benchmark-Beweise hab ich dafür nicht. Ich glaub das aber trotzdem.

Doch, mit Tricks kann man die auf der G2 basierten Kingston schon auf Intel FW mit TRIM flashen.
Ok, klingt interessant...trotzdem ist das ganz schön schwach, dass ich zum Beheben einer Entwicklungsschwäche jetzt auch noch zu Tricks greifen müssen soll. Außerdem ist die Platte jetzt voll. Du glaubst doch nicht im Ernst, dass ich die jetzt komplett lösche, um da ne neue Firmware draufzuspielen?!

inzwischen diese diese Kinderkrankheite bei den meisten SSDs weg und wenn Du Dich an die Empfehlungen im Sammelthread hältst, dann passiert das auch nicht.

Die Corsair ist gut. Ich bin mir auch gar nicht sicher, ob die von selbst heiß wird - das kann auch am Rechner liegen, den ich hardwaremäßig ziemlich vollgepackt habe. Der Punkt ist, dass die SSD als einzige von vier Festplatten diese Probleme mit Wärme zeigt. Das überrascht mich überhaupt nicht. Aber ja, genau deshabl gibt's halt so viele Sammelthreats, SSD-Beratungsseiten und Tutorials im Netz, weil es da eben noch große Qualitätsunterschiede gibt.

Was für eine Geschwindigkeit willst Du denn? Normal reicht eine SATA 6Gb/s SSD vollkommen aus, man gewinnt nicht so viel, wenn man die seq. Transferraten noch weiter erhöht, weil eben die meisten Zugriffe gar nicht so lang sind, als dass sie ans Limit stoßen.

Du kannst bei SSDs nicht blind in's Regal greifen. Die Geschwindigkeitsunterschiede sind teilweise enorm. Gerade gebraucht gekauft, kannst Du 'ne G2 erwischen, die langsamer ist als HDD - dabei holt man die sich ja gerade wegen der überragenden Geschwindigkeit. Die brandneuen sind finanziell für mich einfach nicht drin.

OCZ und die besten SSDs? Du hast wirklich ein schlechtes Händchen bei der Auswahl, weil Du offenbar total falsch informiert bist. Schau Dir mal die französiche Ausfallstatistik an:

Ha, sowas hatte ich doch im Gefühl! Gut, dass ich nicht auf die ganzen Forenjunkies gehört habe! Die überschlugen sich vor drei Jahren vor lauter Beifall über die "schnellsten SSDs". Ich hatte bis dahin schlicht von der Firma noch nie was gehört.

Was machst Du denn mit den Platten, dass Du meinst die müssten PB aushalten können

Das meine ich gar nicht. Ich meine, dass es da wieder "gute" und "schlechte" gibt.

Das ist wie mit den CD-Brennern vor 15 Jahren: Da gab's dann immer noch schnellere. Heute ist das scheißegal, ob da 24x oder 52x draufsteht. Für das Zusammenstellen einer CD braucht man eh immer mindestens 15 Minuten. Ob der Brenner nun in 5 oder 1,5 Minuten die Scheibe ausspuckt spielt darum keine Rolle. Diese 4x-Brenner, wo das Brennen mindestens 20 Minuten braucht existieren aber schlicht nicht mehr. Dafür muss man selbst bei Ebay suchen. SSDs sind da noch nicht soweit. Ich kann keinem Empfehlen ohne Internet-Anleitung 'ne SSD kaufen zu gehen. Bei Brennern ist das schon lange anders. Solange da irgendein Name draufsteht ist der gut.

Außerdem: 'Ne HDD ist und bleibt stabiler. Wenn die abschmiert, kann man immernoch Daten retten. Bei SSD: Keine Chance. Hat mir mal ein Fachhändler erzählt: Jede kaputte HDD kann man öffnen, die Scheiben auf ein Lesegerät aufspannen und auslesen. Das ist natürlich teuer und lohnt nur bei richtig wichtigen Daten. SSDs hingegen sind halt nur Chips. Da kann kein Rettungsdienst mehr helfen. Ich glaub auch nicht dran, dass die in Servern verbaut werden. Das Risiko geht Niemand ernsthaft ein.
 
badpitt schrieb:
Tja die wurden ständig überall gehypt ... (also in Foren und Rankinglisten).
Ja, die wurden gehypt, aber eben vollkommen zu unrecht. Ich habe das schnell nach dem Kauf einer Vertex2 und einer C300 bemerkt und seidher kritisch gesehen und beantwortet, was mir nicht viele Freunde eingebracht hat. Aber im Internet gibt es keine Freunde, denn ein Klick ist zu wenig um eine Freundschaft zu begründen. Meine Signatur steht aber nicht zufällig da, die solltest Du mal lesen!

badpitt schrieb:
aber die hatte in irgendeinem PC-Magazin gut abgeschnitten
Vergiss die Printmedien, das sind die H*ren der Anzeigenkunden!

badpitt schrieb:
Die haben also grad mal 11 Jahre gemacht - da kann man nicht von einem erfahrenen Produzenten reden.
Das ist doch nicht wenig, im Schnitt leben Firmen nur 30 Jahre!
badpitt schrieb:
Das beschreibt die Optimierung der Zugriffe durch Umsortierung bei NCQ, sagt aber nichts über die Anordnung der Daten auf der HDD aus. Die Full-Stroke Zugriffszeit wird dadurch auch nicht geringer.

badpitt schrieb:
Benchmark-Beweise hab ich dafür nicht. Ich glaub das aber trotzdem.
Glauben musst Du in der Kirche, aber das was Du da meinst, ist komplett aus der Luft gegriffen, sowas gibt es nicht!

badpitt schrieb:
Außerdem ist die Platte jetzt voll. Du glaubst doch nicht im Ernst, dass ich die jetzt komplett lösche, um da ne neue Firmware draufzuspielen?!
Ein Backup sollte schon vorhanden sein, sonst sollte sofort eines angelegt werden. Alle Platten können von jetzt auf sofort ausfallen und SSD gegen wenn, denn i.d.R. keine Vorwarnung und es gibt meist auch kaum noch eine Chance auf Datenrettung. Merke: Alle wichtigen Daten von denen man kein Backup auf einem Medium hat, welches in einem anderen Gehäuse steckt, der wird sie früher oder später verlieren!

badpitt schrieb:
Der Punkt ist, dass die SSD als einzige von vier Festplatten diese Probleme mit Wärme zeigt. Das überrascht mich überhaupt nicht. Aber ja, genau deshabl gibt's halt so viele Sammelthreats, SSD-Beratungsseiten und Tutorials im Netz, weil es da eben noch große Qualitätsunterschiede gibt.
Wieso wird die Corsair so heiß? Das sollte nicht sein, wenn wenn sie nicht von anderen Platten oder anderer HW aufgeheizt wird.

Für den Rest, siehe meine Signatur!
badpitt schrieb:
Du kannst bei SSDs nicht blind in's Regal greifen. Die Geschwindigkeitsunterschiede sind teilweise enorm.
Die Empfehlungen im Sammelthread habe ich schon verlinkt, halte Dich daran.
badpitt schrieb:
Gerade gebraucht gekauft, kannst Du 'ne G2 erwischen, die langsamer ist als HDD
Man kauft keine gebrauchten Datenträger, wenn man nicht eine Menge Kopfschmerzen haben will. Die G2 ist sensibel bzw. TRIM, aber die Intel SSD Toolbox bietet eine entsprechende Funktion um die SSD zu trimmen, selbst unter XP und Vista.
badpitt schrieb:
Die brandneuen sind finanziell für mich einfach nicht drin.
Dann bleiben bei HDDs!


badpitt schrieb:
Ich hatte bis dahin schlicht von der Firma noch nie was gehört.
Wie schon geschrieben: Du bist schlecht informiert, denn OCZ war vorher lange als RAM "Hersteller" bekannt, wobei OCZ nie einen eigenen Wafer gefertigt hat, weil die einfach keine Fabs haben. Die Qualität von deren NANDs ließ aber dann auch massiv nach. Deren damaliger CEO war ein gewöhnlicher Verbrecher.

badpitt schrieb:
Das meine ich gar nicht. Ich meine, dass es da wieder "gute" und "schlechte" gibt.
Die Ausfallstatistik habe ich ja gepostet und die zählt am Ende. Ob eine SSD am Ende 100TiB oder ein PiB aushält ist für Heimanwender egal, die schaffen während der normalen Nutzungsdauer weder das eine noch die andere Datenvolumen.

badpitt schrieb:
Außerdem: 'Ne HDD ist und bleibt stabiler. Wenn die abschmiert, kann man immernoch Daten retten. Bei SSD: Keine Chance. Hat mir mal ein Fachhändler erzählt: Jede kaputte HDD kann man öffnen, die Scheiben auf ein Lesegerät aufspannen und auslesen. Das ist natürlich teuer und lohnt nur bei richtig wichtigen Daten. SSDs hingegen sind halt nur Chips. Da kann kein Rettungsdienst mehr helfen.
Da hat er recht! Deshalb ist Datensicherung bei SSD auch noch wichtiger als bei HDDs! Die Datensicherung betreibt man aber, bevor Probleme auftreten, denn jeder schwebende Sektor bei einer HDD bedeutet auch mindestens eine Datei, die verloren ist und wenn Metadaten des Filesystems oder gar die Partitionstabelle betroffen sind, ist der Schafen meist noch viel größer. Außerdem können auch HDD spontan komplett ausfallen und dann wird es eben teuer. Man muss eben im Grunde immer mindestens die doppelte Kapazität an Platten haben, was man an Daten hat, sonst verliert man die Daten irgendwann.
badpitt schrieb:
Ich glaub auch nicht dran, dass die in Servern verbaut werden. Das Risiko geht Niemand ernsthaft ein.
Oh doch, es gibt Firmen wie FusionIO, die nur Enterprise SSD herstellen und vertreiben, aber Firmen nehmen die Datensicherung auch sehr ernst, anders als Du es offenbar tust. SSD sind übrigens im Entersprisesegment schon viel länger präsent als bei den Heimanwendern.
 
Das bringt nichts...Du bist ja hartnäckiger als jeder Verkäufer. Die SSD-Toolbox hält für meine SSD eben kein Trim bereit - also auch softwaremäßig nicht. Darum ging es in diesem Threat aber eigentlich auch gar nicht!

> Die brandneuen sind finanziell für mich einfach nicht drin.
Dann bleiben bei HDDs!

Danke!

Wie schon geschrieben: Du bist schlecht informiert, denn OCZ war vorher lange als RAM "Hersteller" bekannt,
Das kann überhaupt nicht sein! Die Firma gibt's erst seit 2002. 2011-2002=9 Jahre - das ist nicht lange! MSI gibt's seit 30 Jahren - die dürften Deiner Aussage nach bald pleite sein. Werden sie aber nicht! Denn fast alle großen Computerfirmen haben etwa dieses alter - weil PCs und Apples eben seit Anfang der 80er überhaupt erst gebaut werden. Vorher gab's keine PCs - und eben auch kaum Firmen dafür. OCZ gehört eben eindeutig nicht zu den erfahrenen Firmen! Die wurden über Nacht gegründet und genauso plötzlich sind sie wieder weg!

Die Empfehlungen im Sammelthread habe ich schon verlinkt, halte Dich daran.

Ich hab eine spitzen SCSI-HDD, die mit ihren Geschwindigkeiten in SSD-Bereiche kommt! Ich les' dafür keine SSD-Sammelthreats, denn ich will auch nicht umsteigen!

Das beschreibt die Optimierung der Zugriffe durch Umsortierung bei NCQ, sagt aber nichts über die Anordnung der Daten auf der HDD aus. Die Full-Stroke Zugriffszeit wird dadurch auch nicht geringer.

Tja, da musst Du mir jetzt mal helfen. Ich ging davon aus, dass wenn die Befehle umsortiert werden, auch die Daten in der neuen Reihenfolge geschrieben werden - also so wie auf dem Bild zu sehen. Nach einer gewissen Zeit müssten die Pakete einer Datei entsprechend über die Oberfläche verteilt sein. Das Problem der unterschiedlichen Bahngeschwindigkeiten hielt ich damit für eingegrenzt. Weil sich über die Zeit ein Mittelwert einstellen müsste.

Ja zu all dem andern Quatsch will ich grad nichts mehr schreiben...ja, die SSD wird nicht von selbst heißt, sondern von anderer Hardware - wie beschrieben. Es ist aber ausgerechnet die SSD, die darauf empfindlich reagiert und nicht die billig-Müll-Platten, die direkt naneben eingebaut sind,...gebrauchte Datenträger kauf ich ständig und hab nur selten Probleme...dafür gibt's ja Smart-Werte....und außerdem wiedersprichst Du Dir jetzt selbst, weil SSDs ja angeblich so lange halten,.....die Ausfallstatistik von Dir ist super - es geht aber darum, dass man die überhaupt braucht. Das liegt meiner Meinung daran, dass die Fertigung von SSDs eben noch nicht ausgereift ist....so und jetzt bin ich einfach fertig mit dem Post.
 
Ist ja ein lustiger Thread hier.

Nur noch 2 kleine Anmerkungen. Einmal, egal mit welcher HDD, auch mit Deiner 15K Maxtor, kommst Du nicht Ansatzweise in die Geschwindigkeitsbereiche einer SSD. Nicht annähernd.

Und was das Speichern auf der HDD angeht. Die Firmware der HDD wäre mehr als bekloppt, würde sie die Daten verteilt auf der HDD speichern. Das was richtig Zeit kostet bei der HDD, das ist die Suche des Lesekopfes. Die Suche nach der richtigen Stelle, wo eben die Daten liegen.

Wären die Daten jetzt wild verteilt auf der HDD, dann würde die Geschwindigkeit nicht flotter. Ganz im Gegenteil, sie würde einbrechen.
 
badpitt schrieb:
Das bringt nichts...Du bist ja hartnäckiger als jeder Verkäufer.
Ich will Dir nichts verkaufen, ich will Dich aufklären, aber das ist extrem schwer, weil da zu viele Missverständnisse vorhanden sind und Du Dich einfach weigerst etwas dazuzulernen.
badpitt schrieb:
Die SSD-Toolbox hält für meine SSD eben kein Trim bereit - also auch softwaremäßig nicht. Darum ging es in diesem Threat aber eigentlich auch gar nicht!
Von welcher SSD redest Du? Da steht ja einmal die Kingston (Intel X-25 Klone) und einmal eine nicht näher spezifizierte Corsair im Raum. Das beides unglückliche Kaufentscheidungen waren, habe ich ja schon dargelegt.

badpitt schrieb:
Die Firma gibt's erst seit 2002. 2011-2002=9 Jahre - das ist nicht lange!
Das ist Ansichtssache und alles relativ, im Vergleich zu der Zeit die OCZ SSD gefertigt hat, war sie lange ein RAM Hersteller, denn mit SSDs hat OCZ erst 2008 angefangen und die die erste OCZ SSD war ein Samsung Klone, bzw. eine umgelabelte Samsung, genau wie die Kingston die Du hast eine umgelabtelte Intel ist. Damals war OCZ also schon 6 Jahre alt.
badpitt schrieb:
MSI gibt's seit 30 Jahren - die dürften Deiner Aussage nach bald pleite sein.
Von Statistik keine Ahnung zu haben, ist ja in Deutschland sehr modern, zumal eine 5 in Mathe heute wohl zum guten Ton gehört, aber ich habe nur eine Statistik wiedergegeben, ohne auf eine konkrete Firma oder Branche einzugehen. Außerdem gibt es ja auch genug Computerfirmen, die weit weniger lange existiert haben, was natürlich beutet, dass andere weit älter werden müssen, damit es im Mittel stimmt. Statistiken geben Mittelwerte an, daraus kann man keine Aussagen für Einzelfälle ableiten.
badpitt schrieb:
OCZ gehört eben eindeutig nicht zu den erfahrenen Firmen! Die wurden über Nacht gegründet und genauso plötzlich sind sie wieder weg!
Wie lange die Gründung von OCZ gedauert hat, ist mir nicht bekannt, aber es dürfte nicht viel länger oder kürzer gedauert haben als bei vergleichbaren Firmen am gleichen Standort, denn das ist ein reiner Verwaltungsakt und Du ignoriert immer noch, dass OCZ 6 Jahre lang existiert hat, bevor die Firma die erste SSD vermarktet hat, denn eigentlich haben sie bei dem ersten Modell nur eine OEM SSD von Samsung auf den Retail Markt gebracht.

badpitt schrieb:
Ich hab eine spitzen SCSI-HDD, die mit ihren Geschwindigkeiten in SSD-Bereiche kommt!
Nein hast Du nicht, aber die Augen vor Fakten zu verschließen, hat ja bei Dir Methode und wenn Du Dir sowieso keine SSD leisten kannst, dann ist es sogar auch besser so.
badpitt schrieb:
Ich les' dafür keine SSD-Sammelthreats, denn ich will auch nicht umsteigen!
Dann überliest Du vermutlich die Kommentare der Leute, die gerade auf eine der empfohlenen SSDs umgestiegen sind und damit keine Probleme hatten, sondern von der Geschwindigkeit begeistert sind.

badpitt schrieb:
Tja, da musst Du mir jetzt mal helfen. Ich ging davon aus, dass wenn die Befehle umsortiert werden, auch die Daten in der neuen Reihenfolge geschrieben werden - also so wie auf dem Bild zu sehen.
Natürlich werden auch die Daten dann in einer anderen Reihenfolge auf die Platte geschrieben, wenn die Befehle umsortiert werden, aber das führt ja nicht dazu, dass sie an eine anderen Stelle geschrieben werden, es ändert also nichts an der Position der Daten auf der Platte.
Es steht ja auch unter dem Bild im Artikel über NCQ:
Wobei ich das Beispiel für sehr unrealistisch halte, denn es geht weniger darum die Anzahl der Umdrehungen als die Kopfbewegungen zu minimieren, da die Positionierung im Vergleich zur Umdrehung viel zu lange dauert. Was da von 1 auf 3 gezeigt wird, ist fast ein Full Stroke, der dauert aber viel länger als etwa eine Drittel Umdrehung, zumal die Feinjustierung auf die Spuren bei der heutigen Datendichte schon eine Weile braucht. Bei 15.000 rpm dauert eine Umdrehung 4ms, damit müsste die Köpfe in weniger als 2ms fast einen Fullstroke schaffen, um wie in dem Beispiel arbeiten zu können, dass ist aber komplett unrealistisch.

Es bleibt letztlich dem Controller der HDD überlassen, wie er die Befehle umsortiert um die Abarbeitung zu optimieren, was die einzelnen Controller da mit welche Parametern machen, erfährt man auch nicht.
badpitt schrieb:
Nach einer gewissen Zeit müssten die Pakete einer Datei entsprechend über die Oberfläche verteilt sein.
Die Position der Daten können sie nicht beeinflussen, denn die Adressierung der Daten übernimmt das Dateisystem, das müsste ja sonst erst wieder vom Controller der Platte erfahren, wo die Daten nun liegen. So ist es aber nicht, denn HDDs wie SSDs stellen nur einen großen Adressraum dar, der schon länger nur über eine logische Adresse (LBA) angesteuert wird, statt wie früher direkt über CHS. Die Befehle an die Platten gehen daher auch so, dass diese angewiesen wird, einen bestimmten LBA zu lesen/schreiben bzw. einen LBA und eine bestimmte Anzahl von folgenden LBAs.

Von der CHS Adressierung hat man auf LBAs umgestellt, damit man bei den HDD eben unterschiedlich viele Sektoren auf die Spuren bringen kann, was die Kapazität und die Geschwindigkeit auf den äußeren Zylindern erhöht, weil da ja mehr Spuren Platz haben, da deren Umfang größer ist. HDDs rechnen diese LBAs nun selbst fest auf Kopf, Zylinder und Sektor um und fahren die Position an um die Daten dann auslesen oder zu schreiben. SSDs mappen die LBAs intern auf immer wieder wechselnde Speicherbereiche, deren Controller verwalten also immer eine sogenannte Indirection Table und die liegt optimaler weise komplett im RAM, weshalb die allermeisten SSDs bei größerer Kapazität auch mehr Cache haben. HDDs haben so ein Mapping nur für die wiederzugewiesenen Sektoren, es stellt dort also die Ausnahme ist dar und die Zieladressen, sprich der verwendete Reservesektor ist dann auch fix, ändert sich also allenfalls wieder, wenn er selbst ausfällt.


badpitt schrieb:
Ja zu all dem andern Quatsch will ich grad nichts mehr schreiben.
Das will ich dann zu Deinen komischen Ideen über die Funktionsweise von HDDs und NCQ auch nicht mehr, lies Dir diesen Beitrag durch und verstehe es, Google noch mal woanders danach und dann ist gut.
badpitt schrieb:
außerdem wiedersprichst Du Dir jetzt selbst, weil SSDs ja angeblich so lange halten,.....die Ausfallstatistik von Dir ist super - es geht aber darum, dass man die überhaupt braucht. Das liegt meiner Meinung daran, dass die Fertigung von SSDs eben noch nicht ausgereift ist....so und jetzt bin ich einfach fertig mit dem Post.
Da muss man eben zwischen den Herstellern genau differenzieren und darf eben nicht alle über einen Kamm scheren, es gibt ja auch solche Statistiken über HDDs, die ist jeweils eine Seite vorher:
Die beste HDD hier liegt bei 0,83% und wenn Du das mal vergleichst:
Dann siehst Du, dass die guten SSD Hersteller sogar noch über die ganze Modellplatte darunter liegen, von daher müsste man also eher die Fertigung von HDDs als noch nicht ausgereift bezeichnen!
 
Die wichtigsten Komponenten einer SSD sind zum einen der Controller und zum anderen die Speichereinheiten, auch NAND-Flash Bausteine genannt. Gerade für Hersteller von SSD-Datenträgern stellt dies eine besondere Herausforderung dar, denn es gibt eine Vielzahl verschiedener Anbieter an Herstellern von Controllern, gleiches gilt für die NAND-Bausteine. Problematisch ist dies deshalb, weil unterschiedliche Controller auch unterschiedliche Algorithmen verwenden. So kommt es nicht selten vor, dass SSD-Hersteller bei einem Modell während des Produktionszyklus Controller wie auch Speicherbausteine verschiedener Lieferanten verbauen. Wo gerade bei HDDs die exakt baugleichen Komponenten innerhalb einer Modellreihe ein entscheidender Lösungsansatz zur physikalischen Instandsetzung sind, scheitert dieser Ansatz bei SSDs öfters aufgrund der fehlenden Konsequenz im Einsatz der verbauten Komponenten.

Von hier, ganz neuer Artikel über die Schwächen von SSDs (Dezember 2013).

Der Bericht resümiert mit dem Fazit:
Solange die in den SSD-Controllern verwendeten Algorithmen die bisherige Fehleranfälligkeit besitzen, sollten sich IT-Entscheider genau überlegen, in welchen Szenarien der Umstieg von einer mechanischen Festplatte auf eine SSD sinnvoll ist.

Ich suche gerade den Testbericht zu meiner Atlas, kann ihn aber (noch) nicht finden. Jedenfalls liegt die Zugriffszeit wohl bei nur 3 ms. Das spuckt Google hier ganz oft aus. Den Bericht, den ich Suche, find ich aber schon noch...
 
Zurück
Oben