d0xs schrieb:
Gibt es sowas auch für die 830 Serie?
Wozu, die ist doch vom dem Problem überhaupt nicht betroffen.
DogsOfWar schrieb:
zur erlärung, der chipsatztreiber von intel bennent ja angeblich nur den sata controller um und enthält informationen für windows wie die ganzen pci und usb controller angesprochen bzw vom windows behandelt und genutzt werden soll.
Eben deswegen sollte man die Chipsatztreiber auch unbedingt immer installieren, womit nicht der Intel RST gemeint ist.
eremit007 schrieb:
Wird es Firmware + Restaurierungstool auch für linux geben?
Die FW hat mit dem Betreibssystem des Rechners nichts zu tun, die wirst Du irgendwann, vermutlich nach dem 27., dann sicher auch als ISO bei den
Samsung SSD Downloads finden und kannst sie dann installieren. Das Magician macht nur zusätzlich ein DiskRefresh, den meisten Effekt hat aber die FW bei der offenbar anderes beim Lesen von Zellen mit gewissem Ladungsverlust vorgegangen wird.
Dilopho schrieb:
Gibts da einen Trick, oder warum können hier manche doch updaten?
Warten bis zum 27.
MXE schrieb:
Die 840/850 Pro bieten womöglich noch böse Überraschungen, deshalb fallen die vorerst raus
Jede SSD bietet womöglich böse Überraschungen, der 5184 Stunden Bug der m4 war auch eine böse Überraschung, davor ist man niemals geschützt und vielleicht gibt es noch einen 51000 Stunden Bug in eines SSD von der noch keiner etwas weiß, weil noch keine so viele Stunden runter hat. Das Problem der 840 Evo haben die Pro Versionen nicht, die 840 Pro ist ja noch älter als die 840 Evo und hat es nicht gezeigt.
h00bi schrieb:
Das Samsung Problem ist aber kein TLC Problem. Die Samsung Enterprise Modelle mit TLC funktionieren einwandfrei, zumindest die PM85x.
Zumindest die PM851 hat aber auch noch das 21nm TLC und nicht das 19nm TLC wie die 840 Evo, da sind die Zellen noch größer und damit gibt es mehr Elektronen.
Sgt.Slaughter schrieb:
Was für einen Mist produziert Samsung in letzter Zeit mit seinen SSDs ?
Das ist ja nicht in letzter, inzwischen ist Samsung ja schon auf 3d NAND umgestiegen.
Sgt.Slaughter schrieb:
Bin mal gespannt ob so ein Desaster mit der neuen BX100 oder MX 200 von Crucial nach einiger Zeit auch auftritt.
Das könnte sogar passieren, deren NANDs sind ja die 16nm NAND mit nochmal kleineren Zellen als bei den 20nm NANDs, aber diese NANDs gibt es ja auch schon in der MX100 und da ist es nicht aufgefallen. Reduziert man die Zellgrößen weiter, ist irgendwann aber auch MLC NAND von dem Problem des Auslesens betroffen.
Sgt.Slaughter schrieb:
Leider kommt in mir immer mehr die Vermutung auf, das zugunsten der Gewinnmaximierung immer billigere Bauteile in SSDs verbaut werden,mit deren Problemen sich anschliesend der Endkunde herumschlagen muss.
NAND wird nun einmal billiger, wenn man die Datendichte steigern kann und das bedeutet kleinere Fertigungsstrukturen und kleinere Zellen zu bauen, aber das dient ja nicht nur der Gewinnmaximierung, wie Kunden haben in Form fallender Preise auch davon profitiert.
3-way schrieb:
Gibts hier keinen Alternativlink für den Magician-Download, den Samsung 99% aller User vorenthält?
Damit es eben wenn es Probleme gibt nur bei 1% und nicht bei 100% der Kunden diese Probleme gibt.
Bärenmarke schrieb:
Auch wenn es für dich als eingefleischter Samsung t..ll wohl sehr schwierig ist, bei den ganzen Lobeshymnen die du hier verbreitest
Weder bin ich ein eigefleischter Samsung noch sonst einer Firma irgendwas, aber eben auch kein Basher der blind draufhaut und diese blinde Draufhaben, das bekämpfe ich hier.
Bärenmarke schrieb:
Fakt ist, samsung hat hier Mist gebaut.
Fakt ist auch, dass andere schon viele mehr und viel schlimmeren Mist gebaut haben als nur nachlassende Leseraten und es wird auch in Zukunft wieder einen Hersteller treffen, da kannst Du sicher sein.
Bärenmarke schrieb:
Sie hatten ne Menge Zeit und es spielt wieder der Käufer den Betatester, anders ist ihr verhalten mit den begrenzten Downloads ja nicht zu erklären.
Dazu habe ich doch schon geschrieben, dass man einmal einfach nicht erwarten kann, dass ein Bug der erst nach Wochen bis Monaten auftritt, innerhalb von Tagen behoben wird und das jeder Kunden immer irgendwie Betatestet ist, weil kein Hersteller die genaue Umgebung jedes Kunden nachbilden und testen kann, sollte auch klar ein. Wer schon einmal in der IT und vor allem in der SW-Entwicklung gearbeitet hat, der weiß das auch ganz genau.
Bärenmarke schrieb:
Und wenn man sich eh schon ne Menge Zeit gelassen hat, kann man das auch anders regeln. Dann testet man halt noch 2 Wochen intern intensiv macht den Kohl auch nicht mehr fett.
Das haben sie mit Sicherheit auch gemacht und zwar mehr als nur 2 Wochen, nach 2 Wochen ist ja auch noch keine Verlangsamung nachweisbar. Das reicht aber nicht um eben bei allen Kunden Probleme vollständig ausschliesen zu können, da würde auch 2 Jahre interner Tests nicht reichen.
Bärenmarke schrieb:
Alles andere ist einfach unprofessionell.
Das es genau das nicht ist, versuche ich ja hier klar zu machen.
Bärenmarke schrieb:
Wenn wir einen Bug in der SW haben wird der auch ordentlich getestetet und da betrifft es noch wesentlich mehr Leute...
Von welcher so massiv verbreiteten SW reden wir hier, bei der es nie ein Bug geschafft hat bis zum Kunden zu kommen? Außer "Hallo World" gibt es wohl kein bugfreies Programm.
Bärenmarke schrieb:
Und dein Vergleich mit der Pharmabranche ist auch einfach nur daneben, nur weil andere es schlecht machen
Wer macht es denn schlecht? Findest Du die Vorschriften wie neue Medikamente eingeführt werden etwa schlecht? Das hat man den Pharmafirman nicht aus Spaß aufs Auge gedrückt, das ist das Ergebnis der schlechten Erfahrungen aus der Vergangenheit und wenn Samsung dieses System die Verbreitung schrittweise zu erhöhen nun kopiert, finde ich das sehr positiv, auch wenn das eben bei der Verteilung von SW über das Internet nicht so einfach zu realisieren ist.
Bärenmarke schrieb:
Da sollte man die Ambition als Marktführer haben es besser zu machen!
Marktführer bei SSDs ist Intel und nicht Samsung und genau diese schrittweise Ausweitung bei der Verbreitung des Update ist ein innovativer Schritt nach vorne. Wie oft gab es schon bei allen möglichen Windows-, Treiber- und FW Updates Probleme? Das waren viele und deswegen installiere ich sowas auch niemals sofort nach deren Erscheinen. Vermutlich werden wir das sogar künftig öfter erleben, dass die Hersteller diesen Schritt gehen.
Bärenmarke schrieb:
Da schreibt man lieber seitenweise Posts und lobt alles in Himmel und versucht noch bei Konkurrenten Probleme zu finden die es angeblich auch nicht besser machen.
Was loben ich hier in den Himmel? Und wenn hier behauptet wird nur eine Hersteller hätte Probleme und andere nicht, dann nehmen ich mit das Recht dies hier klar zu stellen, egal um welchen Hersteller es geht.
Bärenmarke schrieb:
Und das ist mir bei dir schon des öftere negativ aufgefallen, einige Firmen werden mit ihren Produkten in den Himmel gelobt und bei anderen liest man grundsätzlich nur negatives
Mag sein das Du das so sieht, aber eigentlich gebe ich immer eine Begründung warum ist das so sehe.
Bärenmarke schrieb:
Wieso sollte ich eine Firma unterstützen die dankbar mein Geld nimmt, supportseitig aber nichts auf die Reihe bekommt und Fehler ewig lang vor sich hinschiebt.
Hat es jetzt nicht ein Update gegeben? Warum es bei so einem Fehler zwangsläufig keinen schnellen Fix geben, versuchte ich doch schon darzulegen und ebenso warum noch nicht alle diese Fix bekommen. Wo ist jetzt das Problem. Übrigens kaufe ich nie Produkte um eine Firma zu unterstützen, sondern weil deren Produkt bzgl. Preis und Eigenschaften am Besten zu meinen Wünschen bzw. Bedürfnissen passt, keine Einstellung dies als Unterstützung der Firma zu sehen. Ich bin doch kein Wohltäter der mal eben einen Bedürftigen unterstützt indem er ihm ein paar Münzen in den Hut wirft und dann ein untergebenes Danke erwarten. Du würdest aber scheinbar am Liebesten die Münzen wieder aus dem Hut holen, wenn kein Danke kommt.
Bärenmarke schrieb:
es spielen einige wieder Betatester und wenns dumm läuft haben sie u.a. mit einem Datenverlust zu kämpfen.
Aber Dir wäre es ja lieber, dass dann alle damit kämpfen müssten die eine Konstellation haben, die Samsung ausgerechnet nicht getestet hat, weil alle möglichenn Usecases, HW- und SW Umgebungen kann eben einfach niemand testen. Schau nur mal wie viele verschiedene Treiberversionen es alleine von Intel gibt, dazu die ganzen unterschiedlichen ROM Versionen im BIOS und fast jede Kombination dürfte irgendwo auf der Welt irgendwie laufen und sei es, weil einer die inf Datei gemoddet hat.
Linus9000 schrieb:
IMHO gibts in jeder Generation Idioten, die heutigen/jüngeren machen sich nur leichter bemerkbar, "früher" war man ja nur privat blöd, das öffentliche hat sich in Grenzen gehalten
Da hast Du natürlich auch recht und die Idioten die im realen Leben dann gemieden werden, tummeln sich eben besonders häufig im Netz
3-way schrieb:
Und warum limitiert Samsung den Download des Magician-Tools vom 23.04.-27.04.,
Die wahrscheinliches Ursache wurde hier im Thread doch schon oft genannt.
MXE schrieb:
Es gibt Spekulationen über die Ursache, Samsung schweigt über die Ursache.
Zur Ursache findet man genau Hinweise, das liegt am Verlust von Elektronen und daher muss die FW eben in den
LDPC ECC Modus, was bedeutet die Zellen müssen mehrfach ausgelesen werden, daher die Verzögerung. Das ist eben nicht nur bei TLC, auch bei MLC wird man mit kleiner werdenden Zellen dazu übergehen müssen:
MXE schrieb:
Die Ladungszustände der TLC Speicherzellen sind deutlich komplexer als bei MLC
Es sind mehr Ladungszustände zu unterscheiden und diese Unterscheidung wird komplexer.
MXE schrieb:
TLC ist ohne Refresh (automatisch oder nicht) von Haus aus problematischer und das sollte man wissen.
Das hat nicht primär mit TLC oder MLC zu tun, sondern nur damit wie viele Elektronen den Unterschied zwischen zwei Ladungszuständen ausmachen und damit eben dem Verhältnis der Größe der Speicherzelle zu der Anzahl der Bit pro Zelle.
3-way schrieb:
trotzdem ist die frisch Optimierte immer noch langsam:
Mit dem Benchmark oder auch AS-SSD, ATTO, CDM etc. kannst Du doch gar nicht messen worum es bei dem Bug überhaupt geht. Diese Benchmarks schreiben die Daten und lesen sie sofort wieder ein, da altern die Daten gar nicht und daher liegt die Ursache bei Dir woanders im System, aber nicht bei der SSD. Benche mal mit AS-SSD einmal im normalen Modus und einmal im Abgesicherten Modus von Windows.
DogsOfWar schrieb:
also irgw geht bei mir die defragmentierung der Evo höher.
Du meinst die Fragmentierung, aber das ist eine Sache des Filesystem, das verwaltet den Adressraum der SSD, nicht deren Controller und ja, Fragmentierung kostet ab einem bestimmten Punkt auch bei SSD Perfromance.
DogsOfWar schrieb:
nachm update/manu refresh hatte ich nen fragmentierungsgrad von 4% und nun auf einmal 6%. is da die garbage collection am werk?
Nein, die Fragmentierung ist eine logische Ebene über der SSD, die kann nichts daran machen, allen Magician als Tool auf OS Eben könnte da eine Defragmentierung ausführen, was auch Sinn macht, damit ergibt sich ein Refresh und die Zugriffe werden nicht durchd ie Fragmentierung der Dateien immer kürzer.
DogsOfWar schrieb:
durch das anordnen der daten?
Ja, Fragmentierung ist alleine eine Frage der Anordung der Dateien auf dem Adressraum einer Partition.