News Controller von Mtron für SSDs mit 260 MB/s

Erinnere mich noch an Festplatte mit 1GB, 5,25", doppelte Bauhöhe ausgestattet mit einer Montageanleitung welche das Tragen von Schuhen mit Stahlkappen empfahl.

In einigen Jahren werde ich beim Anblick einer Festplatte wohl genauso nostalische Gefühle bekommen wie beim Anblick eines Großraumbüros voller Röhrenmonitore.
 
katanaseiko schrieb:
der speicher wird lange vor dem controller den geist aufgeben. an einem controller gibt es keine elemente, die wie der flash-speicher durch die simple nutzung aufgeben könnten...

@thegreatmm: das stimmt so nicht ganz... flash-speicher ist beim schreiben mechanischen belastungen im mikroskopischen bereich ausgesetzt. nach 2-3 jahren wird er also aufgrund der entsprechenden belastungen sehr wohl den geist aufgeben, wenn er exzessiv beschrieben wird. beim lesen wiederum entstehen keine solchen belastungen. wer weiß, vielleicht kann MS ja irgendwann mal vista beibringen, nicht mehr ständig auf der systemfestplatte herumzuschreiben, wenn es nicht unbedingt nötig ist...

Genau das sind auch meine Bedenken: Moderne Flash-Speicher haben Technologien, die dafür sorgen, dass alle Zellen gleichmässig verwendet werden, aber trotzdem ist nach einer bestimmten Menge Schreibzyklen (Lesen ist da 'unschädlich') Schluss. Das hängt auch noch von der Temparatur ab, bei hohen Temperaturen sind mehr Zyklen möglich.

An sich sind USB-Sticks schon sehr haltbar, aber das kann man mit eienr Festplatte unter einem OS nicht vergleichen. Betriebssysteme schreiben sehr oft, lesen, schreiben wieder, insbesondere einzelne Blöcke (Pagefile!). Das würde sich dann zwar über die ganze Platte verteilen, aber doch einige Belastung sein.

Sehr gut vorstellen kann ich mir solche Medien aber als USB-Speicher (also Ersatz für grosse USB-Platte), oder in speziellen Fileservern, wo man Kontrolle über die Auslastung hat.

Als typische Win-OS oder Linux/FreeBSD usw. Systemplatte würde ich sie eher nicht einsetzen wollen.

DM
 
@Simon
Simon:
Bei solchen Geschwindigkeiten werden auch so langsam aber sicher neue Schnittstellen nötig.
Zumindest wenn man mit größeren RAID-Verbänden in SAN-, NAS- und DAS-Systemen rechnet.
Am optimalsten kommt dabei wohl momentan noch Fibre-Channel mit 8 Gbit/s weg. Da funktioniert auch eine Multi-Path Anbindung ganz gut.

mfg Simon

Zur S-ATA und Bandbreiten-Geschichte mal was: 3 Gbit/s = 375MByte/s man rechne 3000/8=375.
Solange ist das Ende der Fahnenstange der S-ATA und übrigens genau so schnellen SAS-Schnittstelle.
Übrigens die Entwicklung von Serial ATA 3 (S-ATA 3) 600 MByte/s müsste längst schon fertig sein.
Da sind noch genügend Ausbaustufen für die S-ATA und SAS-Schnittstelle vorhanden
Man spricht auch schon von 800 MByte/s oder gar 1200 MByte/s etc...

http://www.elektronik-kompendium.de/sites/com/0808061.htm
http://de.wikipedia.org/wiki/Serial_Attached_SCSI

Fibre Channel ist nur in erster Linie das Protokol der Datenübertragungstechnik von Fibre-Channel, heißt nicht gleich, dass es eine Glasfaser-Lösung ist, kann auch Kupferkabel nutzen.
Die maximale Fibrechannel Bandbreite bei derzeitigen Festplatten ist nur geringfügig schneller als die von der SAS oder S-ATA-Schnittstelle. FC ist und wird nur für längere Kabel als 30m und für viele Hunderte Laufwerke interessant bleiben.


Die HDDs werden auch langsam immer schneller. Zwar wird sich der Bereich noch eher um die 150 MB/s bei S-ATA Laufwerken und anderen Schnittstellen a la FC, SAS, SCSI vorerst noch drehen. Aber da ist noch genug Luft nach oben. Zudem man darf hier nicht vergessen die Festplattenindustrie ist keine schwache Lobby... Und solange die Preise für SSDs noch gesalzen sind und das Volumen/Preis-Verhältniss bei SSDs immer noch exorbitant teuer sind... Wird die HDD erstmal noch nicht abgelöst werden.
Zudem mit Serverplatten mehrere hintereinander geschaltet erreicht man auch solche große Transferraten, zwar latenzträchtig, aber besser als nichts. Schließlich sind die schnellen SSDs auch nichts weiter als mehrere in einen Raid 0 ähnlichen Zustand verbundene Chips.

Eine tolle Kolumne die das HDD vs SSD gut beschreibt:
http://www.speicherguide.de/magazin/kolumnen.asp

@DerMagus da geb ich dir genau Recht, zwar argumentieren viele von hochtheoretischen MTBF-Werten und Rechnungen wie lange eine SSD bzw. Flahs-Speicher durchhält. Aber in den Berechnungen fliesen nicht die tatsächlichen Lese/Schreibzugriffe eines Windows/OS oder sonstigen Zugriffen. Zudem das Fehlermanagement der SSDs muss nicht bei jeder gleich sein. Heißt es wird sicherlich Qualitätsschwankungen geben und die eine oder andere SSD schneller ausfallen. Zudem in Servern und richtigen Rechenzentren mit vielen Hunderten an Laufwerken, rentiert sich kaum noch eine SSD alleine wegen des geringen Speichervolumens bzw. Kosten pro Speicherkapazität. Den auf Geschwindigkeit kommt es da nicht an und selbst wenn mit Raid-Arrays und schnellen Serverplatten oder MS Lastenausgleichssystem bei Windows Server umschifft man solche Performance-Probleme (die es übrigens nicht wirklich im Server-Sektor gibt). Zudem die Oxidschicht von Flashspeicher nutzt sich bei jeden Schreibvorgang ab... Das kann auch das Fehlermangament auf die Dauer nicht mehr umgehen.

Interessant dazu ist dieser Artikel:
http://de.wikipedia.org/wiki/Solid_State_Drive#Flash-Besonderheiten
 
Zuletzt bearbeitet:
Ich wundere mich immer bei Geschwindigkeitsangaben von Festplatten, über die hohen Werte. Ich hab zwei Western Digital-Platten im Rechner (IMO 2 und 4 Jahre alt oder weniger), die beide über 60-80 MB/s schaffen sollen. Wenn ich eine Datei von einer Platte auf die andere kopiere, zeigt mir Total Commander eine Geschwindigkeit von 30-40 MB/s an. Falsch konfiguriert ist nichts. Selbst nach einem kompletten Systemwechsel hat sich daran nichts geändert.

Die Frage ist also: Was leisten die Platten in der Praxis? HD-Bench & Co. interessiert mich wenig ;)
 
Zu Hohe Werte? Betreibst du sie per USB? 30-40 MB/s sieht eher nach USB über Externes-Gehäuse aus oder du schreibst sehr kleine Dateien mit 512 bytes... Da ist die Transferrate eher im 5 MB/s Bereich.. Transferraten sinken je kleiner die Dateien sind bei Magnetfestplatten...

Heutige neue Spitzen-Magnetfestplatten leisten alle ihre 100 MB/s an Transferraten nur eben nicht bei kleinen Files oder falschen Einstellungen. Manche betreiben sogar ihre S-ATA II Festplatten im S-ATA I Modus wegen alten Controller etc..., das ist für die Performance Fatal. Die zu Anfang der S-ATA Zeit waren so schnell wie die IDEs fast noch.

Und nicht vergessen die Angaben beziehen sich auf das LESEN. Schreibangaben gibt's selten von den Festplattenherstellern; oft sind diese um 20 % langsamer auch bei SSDs ist dies der Fall, Beispiel: Eine SAMSUNG SSD mit 100 MB/s lesen schafft nur 80 MB/s schreiben.

Probier bei dir mal aus eine 500 MB Datei oder 1 GB Datei zu kopieren müsste schneller gehen. Ansonsten ist deine Festplatte zu schlecht partitioniert und evtl noch randvoll. Das verringert die Performance einer Festplatte sehr. Wenn ich Beispielsweise bei nur einer Platte mit 3 Partitionen arbeiten würde und Partition D voll wäre... Dann wäre Partition D im lesen viel langsamer, als eine noch nicht randvolle System-Partition C, dies wirkt sich auf einer einzelnen Festplatte schon aus.
 
Zuletzt bearbeitet:
Ja dann warten wir mal ab. 10 Jahre und alles ist gut. Dann haben wir die Festplatten im Chipformat. Die gute alte HD ist halt im Preis und Speicherkapazität unschlagbar bis jetzt. Naja irgendwo habe ich mal gelesen (schon was länger her), dass niemand mehr als 512 MB Ram und 256 MB Grafik brauch. Wo sind wir heute?? Geforce 8 Ultra? Naja so wird es auch mit den Festplatten kommen aber bestimmt nicht morgen.
 
http://www.hartware.de/report_423.html

Ein sehr schöner Test über die Lebensdauer von SSD's

Bei dem Test handelte es sich um eine SSD die wie alle anderen SSD's auch noch in ihren Kinderschuhen steckte.
Also ist noch eine menge Freiraum für Steigerungen gegeben wenn die Entwicklung schnell voranschreitet.
 
Zuletzt bearbeitet:
Trinitron schrieb:
... 30-40 MB/s sieht eher nach USB über Externes-Gehäuse aus oder du schreibst sehr kleine Dateien mit 512 bytes...
Ganz und gar nicht, über USB sind meist 15-20 MiB/s normal, über Firewire im Schnitt 2 MiB/s mehr - mehr nicht. Die 80-100 MiB/s erreichst du 1. nur am äüßeren Rand des platters, 2. nur ohne Dateisystem. Du kannst ja mal die Werte aus meinem Dateisystemschnelltest in MiB/s umrechnen - da dürften der Schnitt mit "nicht kleinen Dateien" bei 20 MiB/s liegen. Die Testplatte ist zwar relativ alt, aber beim Kopieren meiner Musiksammlung auf meine WD2500YS bekam ich bei Reiser3 von Nautilus auch nur knapp über 30 MiB/s angezeigt - das ist völlig normal.
 
Zuletzt bearbeitet:
Bezüglich des Tests auf Chip.de:
Die getestete Transcend Platte hat MLC Speicher, auf der Transcend Hompage werden für OS-Partitionen ausdrücklich SSDs mit SLC Speicher empfohlen.

Im Test hätte noch Mal ausdrücklich darauf hingewiesen werden müssen, dass hier nur von den günstigsten Platten abgeraten werden sollte, falls sich jemand überlegt, für wenig Geld schon auf SSD für's OS umrüsten zu wollen.

Es gibt genug andere Tests, die beweisen, wie sehr (teure) SSDs das OS beschleunigen.
 
xD

Zitat von Hartware.de:

" Zur Verdeutlichung ein kleines Rechenbeispiel: Wir haben eine SSD mit 32 GByte, auf die mit 100 MByte/sec Daten geschrieben werden können. Als echter Poweruser schreiben wir Tag und Nacht Daten auf die SSD. Pro Tag beschreiben wir die SSD also 270 Mal (mit 8,6 Terabyte, wohlgemerkt). Wenn wir von den garantierten 100.000 Zyklen ausgehen, können wir die SSD also 370 Tage (oder etwa ein Jahr) lang dauerbeschreiben und bekommen die ersten Fehler."
...
"Wohlgemerkt würden die ersten Fehler noch keine Beeinträchtigung der Operation darstellen, da ja noch der "Vorrat" an Speicherzellen vorhanden ist, der nun zum Tausch der kaputten Zellen eingesetzt wird. "
...
"Selbst absolute Powernutzer dürften eine SSD während ihres gesamten Lebens nicht kaputt schreiben können."


Vielleicht können wir jetzt endlich mal dieses leidige Thema vom Kaputtschreiben der SSD beenden?
 
Ich wundere mich immer über die Aussagen, dass die SSD in ihren Kinderschuhen etc. pp. steckt. Die Flashtechnologie hat auch schon ihre Dekade(n) hinter sich.
Was neu ist, ist die allmähliche Portierung auf den Massenmarkt und die damit verbundene Anpassung auf suboptimale Dateisysteme wie NTFS, sowie die Erhöhung der Produktionsausbeuten und Erhöhung der Speicherkapazität.
Zum Thema mechanische Beanspruchung: Die SSD wird nicht mechanisch beansprucht. Reibung , Zug- und Scherkräfte, also Kräfte die zur Deformation und Abrasion eines Materials führen, fallen unter diesem Begriff. Mechanik = Bewegung im Größenbereich von Molekülen und aufwärts. Dinge wie Oxidation und Reduktion oder auch elektronische Wechselwirkungen sind chemischer Natur oder durch elektromagnetische Wechselwirkungen erzeugte Vorgänge. Mechanische Beanspruchung entspricht somit einer Einwirkung von kinetischer oder potentieller Energie auf ein Material. Die Teilchengröße ist nicht auf atomarer oder elektronischer Ebene zu suchen. Letztere bedürfen einer rein quantenmechanischen Betrachtungsweise. Die newtonsche Kinetik hebt sich von der Quantenmechanik durch die vereinfachte Betrachtungsweise ab, obwohl sie genau genommen auch quantenmechanisch erklärbar ist.
Es ist ein grundsätzlich verschiedener Vorgang, ob man ein Metallstück durch kontinuierliche Hammerschläge bearbeitet und damit dieses zum Glühen bringt oder ob man es durch Infrarotstrahlung erwärmt. Beides wird zur Materialermüdung führen.

Zum Controller: Genau wie bei jeder Festplatte, kann auch der Controller den Geist aufgeben und dies passiert häufiger als man denkt. Der obligatorische Headcrash ist zwar eine Defektursache aber nicht DIE Ursache eines HDD Schadens. Es ist überhaupt nicht gesagt, ob der Speicher oder der Controller zum Defekt führen.
Bei der SLC SSD sehe ich persönlich den Controller an erster Stelle aller Fehler. SSDs haben den Vorteil, dass zwar die Speichergröße mit der Zeit abnimmt, aber dadurch nicht die Funktionsfähigkeit beeinträchtigt wird und ich die SSD somit auch nicht als Defekt deklarieren kann.
 
TheGreatMM schrieb:
also für 300 Euro gibt es schon super SSD Platten mit 32 Gb zu kaufen...

das reicht für Windows + 1 aktuelles Spiel...

Nicht ganz ;)

AoC hämmert Dir alleine und ohne Patches 26 GB von der Platte :D
 
ScoutX schrieb:
Ich wundere mich immer über die Aussagen, dass die SSD in ihren Kinderschuhen etc. pp. steckt. Die Flashtechnologie hat auch schon ihre Dekade(n) hinter sich.
Kinderschuhe muss ja nicht immer gleich negativ gemeint sein. ;-)

Mit Kinderschuhe meinte ich viel mehr, das diese Technik gerade am Anfang steht im Desktopbereich, vorallem auch deswegen weil die Größen auch noch nicht verfügbar sind auch technischer Sicht.
Ausserdem gibt es immer wieder Möglichkeiten eine Technik zu verbessern, nichts ist perfekt oder noch lange nicht gut genug. ;-)
Und da diese Technik noch nicht so wirklich etabliert ist im Desktopbereich, kann man in einem Atemzug die Kinderschuhe ruhig nennen.
 
Zuletzt bearbeitet:
Trinitron schrieb:
Zu Hohe Werte? Betreibst du sie per USB? 30-40 MB/s sieht eher nach USB über Externes-Gehäuse aus oder du schreibst sehr kleine Dateien mit 512 bytes... Da ist die Transferrate eher im 5 MB/s Bereich.. Transferraten sinken je kleiner die Dateien sind bei Magnetfestplatten...

Heutige neue Spitzen-Magnetfestplatten leisten alle ihre 100 MB/s an Transferraten nur eben nicht bei kleinen Files oder falschen Einstellungen. Manche betreiben sogar ihre S-ATA II Festplatten im S-ATA I Modus wegen alten Controller etc..., das ist für die Performance Fatal. Die zu Anfang der S-ATA Zeit waren so schnell wie die IDEs fast noch.

Und nicht vergessen die Angaben beziehen sich auf das LESEN. Schreibangaben gibt's selten von den Festplattenherstellern; oft sind diese um 20 % langsamer auch bei SSDs ist dies der Fall, Beispiel: Eine SAMSUNG SSD mit 100 MB/s lesen schafft nur 80 MB/s schreiben.

Probier bei dir mal aus eine 500 MB Datei oder 1 GB Datei zu kopieren müsste schneller gehen. Ansonsten ist deine Festplatte zu schlecht partitioniert und evtl noch randvoll. Das verringert die Performance einer Festplatte sehr. Wenn ich Beispielsweise bei nur einer Platte mit 3 Partitionen arbeiten würde und Partition D voll wäre... Dann wäre Partition D im lesen viel langsamer, als eine noch nicht randvolle System-Partition C, dies wirkt sich auf einer einzelnen Festplatte schon aus.

auch wenn deine aussagen zur festplatten performance etwas "grob" sind, so sind sie nicht wirklich falsch.
aber darum geht es mir nicht. du deutest es schon sehr schön an, die werte von festplatten sind, wenn wir es mal realisitisch betrachten, noch mehr geschöhnt, als die verbrauchszahlen eines pkws.
- WENN man grosse dateien bewegt
- WENN die dateien am äusseren festplatten rand liegen
- WENN die festplatte nicht fragmentiert ist
- WENN die festplatte nicht zu voll ist
wenn ich mir aber mal anschaue, wieviele dateien ich nun auf der platte meines bürorechners habe, und wieviel speicherplatz durch diese dateien eingenommen werden, dann kann ich dir sagen, dass die dateien im schnitt noch nicht mal etwa 200kb gross sind (10gb daten bei etwas über 54000 dateien). evtl sieht es bei einigen von uns daheim am rechner nicht so aus, aber diese rechner sind die ausnahme. auch kann ich als anwender regulär nicht so ohne weiteres festlegen, welche daten am rand liegen. die defragmentierung kann man durchführen, aber mal ehrlich, wer defragmentiert schon laufend seine platte (was man theoretisch eigentlich machen müsste). das mit dem füllgrad der platte lässt sich natürlich beeinflussen, bis man zu dem punkt kommt, an dem es heisst, dass die daten wichtig sind und nicht gelöscht werden können, der anwender aber zum dumm ist, diese im netz abzulegen, wo sie zusätzlich noch von der täglichen datensicherung erfasst werden (it sicht aus dem firmennetz, für daheim leider keine lösung)

aber auch, wenn man sich teilweise ausserhalb dieses konstruktes bewegt, ist die festplatte nicht so schnell, wie sie dargestellt wird. wenn ich mir meinen altes scsi system anschaue, ibm platten mit 7.2k umdrehungen, irgendwas um die 70mb/s schreiben und 80mb/s lesen *wenn ich mich recht entsinne*, das ganze an einem u2w controller. wann immer ich dort, mit einem festplatten image program*ghost oder drive image*, ein image von platte zu platte, ohne komprimierung, habe ziehen lassen (baugleiche platten), und es mir dann ausgerechnet habe, mit welcher geschwindigkeit im endeffekt die 9gb übertragen wurden, dann kam da maximal etwa zwei drittel der hersteller angabe bei raus (was ich persönlich schon als einen guten wert erachte)

das sind alles punkte, bei denen wir uns was in die tasche lügen, zeitgleich aber bei der ssd keine rolle spielen. das ist übrigens ein grund dafür, dass eine ssd mit nur 30mb/s schreiben und 40 mb/s lesen, in verbindung mit den praktisch nicht vorhandenen zugriffszeiten *bei festplatten nur ein mittelwert, kann auch mal schlechter ausschauen* von einer durchschnittlich "doppelt so schnellen" festplatte nicht hinter sich gelassen wird
 
@ScoutX

Selten so viel Unsinn auf einmal gehört. Realschüler gewesen?
Chemische Vorgänge sind auch elektrische Vorgänge. In einer SSD finden sehr viele elektrische Vorgänge damit auch chemische Vorgänge vonstatten. Und es gibt in jeder Flashbasierten-Technik eine spezielle Oxidschicht. Die durch ständiges Schreiben sich ablöst. Wird quasi von den Elektronen (chemisches Element) zerschossen (Edit: damit ist dies auch defakto ein kinetischer Vorgang->Mechanik, also ist Verschleiss bei der SSD bzw. Flashspeicher Vorhanden)

Ist diese Schicht des Flashsspeichers ersteinmal in einen Speicherblock ab. Kann man diese nicht mehr nutzen, daher braucht man auch eine gutes Fehlermanagement die die Abnutzung entgegenwirkt indem versucht wird, Schreibaufgaben gleichmäßig auf den Speicher verteilt werden.

Les den Artikel in Wikipedia und du wirst wissen was ich meine. Das gibt nämlich einen schon zu denken.

Die Festplatte mag zwar ihre Daten auch nicht konsistent erhalten könne. Die SSD bzw. Flahsspeicher muss nach 10 Jahren aber auch wieder aufgefrischt werden. Für Langzeitarchivierung ist keine der beiden Techniken geeignet...

PS. Mir kann keiner sagen das elektrischer Strom oder eine Anode und Kathode nichts mit Chemie oder chemischen Vorgängen zu tun hat.

@Fisico geb dir da Recht. Bei SSD ist einfach das Problem noch Firmen wie Mtron werden sich nicht durchsetzen können. Wenn endlich WD, Seagate und die anderen auf den SSD Zug reinspringen würden und alles noch verbessern und in Massenproduktion fertigen, spricht nichts mehr gegen eine SSD, die zudem auch preiswert sein wird wahrscheinlich. Aber so ist das nur ein Hype erstmal. Den für keinen User rentabel ist. Die paar Bootzeiten und die etwas bessere Performance bringen einen auch nicht viel weiter. Flüssiges Arbeiten geht auch mit einer normalen Platte. Große Dateien schreiben ist kein Problem für HDDs. Aber für eine SSD mit der mikrigen Kapazität und den bei billigen SSDs mit nur 40 MB/s schreiben, dagegen schon ein Problem. Bleibt zu hoffen das sich die Qualität + Unterstützung größer wird und der Preis endlich fällt für eine SSD, damit dieser Hype auch eine Chance hat.

@Quotenkiller
Und mit den Festplatten-Angaben übertreibt ihr alle mal freilich. Selbst mit 64 KB-Dateien und dadrunter hat man mit einer Magnetplatte noch hohe Transferraten. Wenn natürlich jemand 10.000 Worddokumente schreibt die nicht mal größer sind als 10 Bytes der braucht sich auch nicht wundern... Warum das kopieren solcher Mengen an kleinen Files länger dauert. Als wenn man große Dateien schreibt. Und wer mit Windows richtig umgeht der defragmentiert regelmäßig und partioniert seine Festplatten richtig, alles andere ist Kindergarten-Chaos.
 
Zuletzt bearbeitet:
Damit triffst Du ins Schwarze, nur bei den SSDs geht die Marketingabteilung ähnlich vor.
Ein Vorteil der SSDs und ein Nachteil für die Werbeagentur ist der weitesgehende Wegfall der ortsabhängigen Komponente. Da gibt es nicht viel zu beschönigen. Als Ersatz kommt dafür das Wearleveling zum Tragen, der die Daten wohlmöglich so stark fragmentiert, dass selbst bei einer guten Zugriffszeit, die Performance einbrechen könnte, da der Controller ständig die optimalen Speicherorte berechnen muss. Bemerkbar wäre dies in erster Linie bei großen Serverfarmen mit hohem Datenaufkommen und schneller einsetzenden Wearleveling bzw. defekten oder nicht zu benutzenden Flashzellen.

Dies ist natürlich nur Spekulation, da ich nicht genau weiß, wie die Controlleralgorythmen arbeiten, um schnelle Lese- und Schreibzyklen zu gewährleisten und dabei mit Wearleveling zurechtkommen müssen. Wie ich vermute, wird der Desktopanwender diesen Phänomen nicht begegnen, da dieser kaum eine SLC SSD kaputtschreiben kann. Vielleicht wird sich dies aber bei MLC Varianten bestätigen bzw. bestätigt sich schon, da diese (auch technisch bedingt) deutlich langsamer operieren als SLCs und mit mehr defekten Zellen zu kämpfen haben. Ein Faktor könnte eben das mit zunehmender Betriebsdauer bzw. Schreibzyklen komplexer zu berechnende Wearleveling sein. Mich würde nicht wundern, wenn Schreiboperationen mit der Zeit nicht langsamer würden.
 
Nun bleibt abzuwarten bis manche Server-Anwender mit SSDs ihre Reklamationen den SSD-Herstellern nach 5 Jahren geben werden... Oder dies nie passieren wird. Man kann trotz all dieser Fehlerkorrektur nicht einfach pauschal sagen die SSD wird mehr als 5 Jahre und sogar 133 Jahre schaffen etc. Alleine der Fakt das diese Technik nicht für den 10 Jahres-Erhalt von Dateien vorgesehen ist...

Und Technik setzt sich erst durch breite Unterstützung durch. Das ist häufig so in der Marktwirtschaft. Innovationen können durch große Unternehmen oder die jeweilige Wirtschafts-Lobby gehemmt werden, die diese technik nicht untersützen wollen (Beispiel: Fuel-Cell, Elektromotor, Wasserstoffmotoren-Technik ->alles gehemmt durch die mächtige Auto/Öl-Lobby, wir betreiben schons eit über 100 jahren den fossilen Brennstoffantrieb und erst jetzt setzt sich die Automobilbranche ernsthaft mit ökologischen und evtl. besseren Alternativtechniken außeinander...).

Solange nicht endlich mal Seagte oder WD auf den Zug der SSDs springt... Wird sich preislich und Verbreitungsmässig die SSD nie Mainstream werden. Zudem muss die breite Masse der großen PC-Lieferanten endlich diese Technik unterstützen. Aber solange die SSDs keine so großen Speicherkapazitäten zu fairen Preisen liefern... Wird das erstmal nichts... Wie jeder weiss hängt der Preis von der Nachfrage ab. Und da besteht leider bei der SSD noch keine Mainstream-fähige Nachfrage. Erst mit gesunder Nachfrage und Massenproduktion seitens vieler großer Hersteller wird der Preis sinken. Und das Produkt für breiter Masse zur Verfügung stehen. Den genau das ist leider mit der SSD noch nicht der Fall. Mainstreamtauglichkeit noch nicht vorhanden.
 
Zuletzt bearbeitet:
@ Trinitron: Wenn Du wüsstest: Ich will mich nicht streiten, welchen Bildungsweg ich gegangen bin. Nur so viel. Es gibt definitionsgemäß Unterschiede in den Begrifflichkeiten.
Jeder Vorgang kann physikalisch betrachtet werden, so wie man auch Vorgänge nur aus der sicht der (puristischen) Chemie beschreiben kann. Dass in der realen Wissenschaft die Übergänge fliessend bzw. in den meisten Fällen es letzten Endes immer auf die Physik hinausläuft, liegt in der Natur der Dinge. Die verschiedenen Naturwissenschaften sind nicht ausgrenzbar aber definierbar.
Wikipedia steht jedem offem: Physik, Chemie , Biologie, klassische Mechanik, Quantenmechanik.
In meinem Beitrag wollte ich einfach auf die (klassische) Mechanik hinaus und was hinter dem Begriff mechanische Beanspruchung steht. Mir ist das Thema der Oxidschicht bekannt und dieser Vorgang fällt nicht unter mechanische Beanspruchung. Im weitesten Sinne ist es eine Strahlenbelastung. (Elektron: Welle und Teilchen). Als Teilchen könnte man natürlich sagen: Elektronen zerschiessen die Oberfläche. Der exakte Vorgang ist aber nur quantenmechanisch beschreibbar und hat mit der klassischen Mechanik nur noch wenig Gemeinsamkeiten. Übrigens ein Ablösen eines Moleküls ist ein rein physikalischer Vorgang. Sollten sich die Verbindungen dabei ändern, wäre dies auch ein chemischer Vorgang.

Ich will es noch einmal an einem Beispiel verdeutlichen: rohes Ei - gekochtes Ei. Die mechanische Belastung des Eies beim Schwimen im kochenden Wasser ist gering (verdampfendes Wasser innerhalb des Eies, wird wohl den größten Druck aufbauen). Nichtdestotrotz ist das Ei ziemlich beansprucht worden. Nun ist einfach die Frage, wie ich die Energie zuführe. Kochendes Wasser, Mikrowelle oder elektrischer Strom/Elektronen. Allle Mittel führen zum selben Prinzip: Energie/Strahlenübergänge auf das rohe Ei. Es hat mit der klassischen Mechanik nichts zu tun. Diese kommt beim Steifschlagen des Eiweißes zum Tragen. Das Endprodukt sind denaturierte Proteine bzw gekochtes Ei, Eischnee. Chemisch gesehen hat sich beim Ei nichts getan. Selbst das Auslösen von Kalk aus der Schale ist kein chemischer Vorgang. (Bei einer kritischen Betrachtung, ist eine Denaturierung von Proteien eine Konformationsänderung und mögliche Änderungen der Disulfidverbrückungen sind dann doch chemische Vorgänge, sei es drum).
Ich war übrigends einer der ersten hier im Forum, der auf die Problematik der "Materialermüdung" bei SSDs in einem früheren Thread eingegangen bin. Diese trägt aber nicht den Stellenwert der konventionellen HDDs. Nach meinen Schätzungen sollten die Flashzellen zumindest über ein Jahrzehnt nicht so stark beeinträchtigt sein, dass die SLC SSD nicht ihrer Arbeit nachgehen könnte. Der Kontroller mit seinen empfindlichen Leiterbahnen und anderen Halbleiterbauelementen könnte beim Dauerbetrieb und der ständig angelegten Spannung eher Ausfallen (ein Defekt = das gesamtes Gerät defekt, keine redundanten Schaltkreise). Bei herkömmliche nHDDs konte der kontroller ausgewechselt werden. Bei SSDs wird dies wohl im begrenzten Umfange auch möglich sein.
Nur eine Datenrettung fällt ungleich schwerer aus.
 
muh2k4 schrieb:
Ich kann mich nicht entsinnen, dass eine PC-Komponente in der letzten Zeit (15 Jahre) innerhalb weniger Monate einen Leistungssprung von Faktor 3 (Leserate) geschweigedenn Faktor 80 bei anderen Eigenschaften gemacht hat, die darüberhinaus verglichen mit anderen Komponenten maßlos überteuert ist und sich in einerm freien Preisfall befindet.
Hauptsache gelabert, was? :freak:
Die von mir zitierte Samsung SSD gibts schon länger zu kaufen!
und bei 200 µs (lesen), 200 µs (schreiben) und 100 MB/s (lesen), 80 MB/s (schreiben) ist nichts um den Faktor 3 gestiegen. Und aus Interesse? Was ist um den Faktor 80 gestiegen?

Außerdem musst du solche Presse Meldungen der Hersteller auch immer marktwirtschaftlich interpretieren. Also überlasse es doch jeden selber wann er umsteigt...

Ich setze lieber jetzt schon auf die neue Technik und bin glücklich.

Gut in einem Jahr gibt es vielleicht 128 GB SDD's mit 100 µs (lesen), 100 µs (schreiben) und 200 MB/s (lesen), 160 MB/s (schreiben) für 200 Euro
Aber bis dahin bin ich auch ein Jahr älter und ärgere mich an den langen Ladezeiten ;)

Beater schrieb:
@TheGreatMM: 300€ für popelige 32GB seh ich aber zu keinem Preis-/Leistungsverhältnis.

Für 300 Okken krieg ich ca 2.5TB an normalem Space. Und lahm sind die auch net. Ich meine halt das "erst" nächstes jahr die 128er Grenze geknackt und bezahlbar sein wird.
Also wie gesagt, ich habe die ja auch nur als Systemplatte und für 1 Spiel, wenn ich mal zocke.

Zudem was es bei mir noch eine Entscheidung aus Geschwindigkeit, Lärm=0, Langlebigkeit*, Stromverbrauch<1Watt (ok letzteres zählt nicht wirklich im Vergleich zu den Watt Zahlen von HDD's), , ...

*Single Level Cell" (SLC) Speicher hat meist eine Garantie von 100.000 Schreibzyklen. Fast alle derzeit auf dem Markt befindlichen SSDs nutzen diese Art von Flash-Speicher. Hartware.net hat auch bei einem USB-Stick mit SLC-Flash eine Zelle "zerschrieben". Dafür waren allerdings 50 Millionen (!) Schreibzyklen notwendig.
aus
http://www.hartware.de/report_423_2.html
 
Zuletzt bearbeitet:
Solange nicht endlich mal Seagte oder WD auf den Zug der SSDs springt...

Oder Intel... Wo ist Intel ? Deren heiße Luft für die im Mai kommende super-duper SSD ist scho lange erkaltet... :lol:

Wohl um sie nur mit Laptop loszuwerden ?
Wenn scho neu dann auch super teuer , da man die platte nur mit laptop kriegt ??
 
Zurück
Oben