News Adata XPG SX8000: SSD erhält noch mehr Leistung nur mit Kühlkörper

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
13.387
Die M.2 Anschlüsse auf Mainboards lassen keine Kühlung zu.

Irgendwann werden SSDs nicht mit Kb/s gemessen, sondern mit der Zeit, in der die volle Leistung bestehen bleibt.
 
Ist zwar an sich gute Entwicklung, habe aber das Gefühl dass es wie bei Mobilfunk in die falsche Richtung geht. Bei Mobilfunk sind die Übertragungsraten schon sehr hoch aber das erlaubte Volumen ist winzig.

Die Zugriffszeiten sollen deutlich runtergehen. Wann kommen endlich die Nanosekunden ?!!
Die Zugriffszeiten im Vergleich zu den Festplatten sind zwar geringer geworden, aber in 15 Jahren sind auch die Programme um das Tausendfache gestiegen.

OT: kennt jemand noch als Acronis Backup Progi nur 15mb gross war ? Und Heute ist selbst eine Boot "CD" für Dos fast 1GB gross. Sogar Web Browser bestehen aus mehreren tausend Dateien. :freak:
 
@CB steht bei euch sowas wie ein "M.2 NVMe SSD Spezial" auf dem erweiterten Zeitplan?

Bei den vielen Neuankündigungen kann man schon mal den Überblick verlieren. Samsung, Toshiba, Plextor, Adata, ... inzwischen will ja jeder sein Stück vom Kuchen abbekommen.

Und könnt ihr mehr realitätsnahe Messungen durchführen? Der ganze Bechmark Parkour ist zwar ziemlich imposant und man kann die theoretischen Unterschiede gut herausarbeiten, aber ob das im Alltag noch ankommt, wird zunehmend schwerer zu beurteilen.
 
Realbenchmarks wären bei Games interessant die sehr oft den VRam austauschen und zugleich maximal auslasten, d.h. sollten es 8GB VRAM schon sein. Irgendwelche Konsolengames die zwar 3GBVRam brauchen aber damit alle Levels geladen haben bringt da wenig.
Ebenso gestaffelte Starts. Windows Boot + 5-6 Apps mit aktiven Symbolen unten rechts (AV+Gamingsoftware1+Sound+OneDrive+xxxx+...) + Firefox + 7 Tabs + Outlook.

Benchmarks oder einzelne Programsetups hauen doch kein vom Hocker. Yea, Photoshop braucht 0.3Sek kürzer. Boaa...


Rome1981 schrieb:
Wie kommst du da drauf?

Weil der Platz oft fehlt.
 
Da ich davon ausgehe, dass es bei dem Kühler um einen relativ flachen, auf den Chip geklebten Kühlkörper gehen wird, denke ich nicht das es an Platz mangeln wird... Entweder befindet sich der Anschluss zwischen den Erweiterungskarten, so dass (wenn überhaupt) nur bei CF/SLI ein Problem entstehen könnte oder in der Nähe der CPU, wobei hier der CPU-Lüfter sogar hilfreich sein kann...
Ganz ehrlich, es bringt wenig Sinn ein "Enthusiast"-Produkt auf den Markt zu werfen, wenn dieser zu 99% inkompatibel mit erhältlicher Hardware wäre...
 
5 Jahre Garantie für den Allerwertesten. Nachdem mir bereits zwei M.2 SSDs von Adata nach fast genau einem Jahr Nutzung durchgebrannt sind und Garantie in diesem und warscheinlich auch allen anderen Fällen nur bedeutet, dass man eine Ersatz-SSD erhält und die verlorenen Daten für immer weg sind (Reparatur"versuch" kostet knapp 4000 Euro) kann ich gern darauf verzichten. Sicher M.2 SSDs sind schneller als ihre Sata-Gegenstücke..., wenn das aber bedeutet, dass sie nur den Bruchteil der Lebenserwartung haben, ist das für mich ein absolutes no go. In meinem Rechner steckt seit 5-7 Jahren eine OCZ Agility III, die Primär für Videoschnitt genutzt wird und deshalb terrabyteweise Datentransfers aushalten musste ... läuft wie eine 1!
 
wie kommst du denn drauf das die Garantie auf Datenwiederherstellung geben o_O ?
So ein Support kostet richtig Geld...
 
Wenn eine ganze SSD-Serie so schlecht gebaut/konzipiert ist, dass sie zu geschätzten 90% nach einem knappen Jahr ausfällt und der Hersteller so tut als wenn nie etwas gewesen wäre (die Beschwerdewellen in Foren ect. der betroffenen Nutzer sind nach und nach Alle aus dem Internet verschwunden worden) ... finde ich, sollte man auch das Recht auf Datenwiederherstellung haben. Es kann nicht sein, dass andere Hersteller zu Rückrufaktionen ect. gezwungen werden und im PC-Bereich sowas nach wie vor als Freibrief gehandelt wird, es gibt ja Ersatzgeräte und man könnte ja Backups machen, haha ... sorry, meine Meinung, aber ich verstehe dein Argument durchaus...ich finds einfach nur ärgerlich, dass sie keinerlei Warnung ect. rausgegeben und das Problem totgeschwiegen haben.
 
Fawk schrieb:
5 Jahre Garantie für den Allerwertesten. Nachdem mir bereits zwei M.2 SSDs von Adata nach fast genau einem Jahr Nutzung durchgebrannt sind und Garantie in diesem und warscheinlich auch allen anderen Fällen nur bedeutet, dass man eine Ersatz-SSD erhält und die verlorenen Daten für immer weg sind (Reparatur"versuch" kostet knapp 4000 Euro) kann ich gern darauf verzichten. Sicher M.2 SSDs sind schneller als ihre Sata-Gegenstücke..., wenn das aber bedeutet, dass sie nur den Bruchteil der Lebenserwartung haben, ist das für mich ein absolutes no go. In meinem Rechner steckt seit 5-7 Jahren eine OCZ Agility III, die Primär für Videoschnitt genutzt wird und deshalb terrabyteweise Datentransfers aushalten musste ... läuft wie eine 1!

Wer kein Backup macht ist selber schuld.
 
Ok, aber dann fehlt dir ja nur das Delta zum Backup davor. Ein Datenrecovery wirst du in dem Fall bei keinem Hersteller bekommen.

Klar ist es ärgerlich wenn sich Ausfälle häufen und ich würd von so einem Hersteller auch nix mehr kaufen. Wobei ich bei SSDs eh alle meide die den Flash-Speicher nicht selbst herstellen.
 
Das Problem ist weniger der Flash-Speicher, die Controller-Chips sind da sehr viel Hitze-/Defektanfälliger.
 
Zuletzt bearbeitet:
Die potentiell hohe Langlebigkeit durch MLC-3D-NAND unterstreicht der Hersteller mit einer fünfjährigen Garantie und einer MTBF von zwei Millionen Stunden.
Die MTBF hat nichts mit der Langlebigkeit zu tun, die gibt eine Ausfallwahrscheinlichkeit an und bilt nur während der geplanten Nutzungsdauer, bei Einhaltung der Einsatzbedingungen ist, abzüglich der Anfangsphase in der die Ausfallraten alle technischen Produkte immer besonders hoch sind. Schon wegen der zeitlichen Einschränkung auf die Nutzungsdauer (Service Life) kann also die MTBF niemals in sowas wie eine Lebenserwartung umgerechnet werden und für den Heimanwender mit einer SSD ist der Wert sowieso egal, denn hat man 2 Millionen der Geräte in einem System, kann man jede Stunde einen Fehler / Ausfall erwarten.
Hat man nur 2000 Geräte, so wird etwa alle 1000 Stunden eine Fehler auftreten, also so alle 43 Tage.
Hat man nur eines, wär ein Fehler nach spätestens 2 Millionen Stunden oder 83 Jahren zu erwarten, nur ist dann die Lebensdauer schon lange überschritten und damit ist die MTBF/MTTF bei so wenigen Geräten nicht aussagekräftig und damit irrelevant.
Wieso das so ist? Nun ein durchschnittlicher Mitteleuropäer von 46 Jahren mit einem BMI von 27, Nichtraucher und mäßiger Konsument von Alkohol hat eine statistische Sterberate von 1,8 Todesfällen pro 1000 solcher Personen. Damit rechnen die Versicherungen und daraus ergibt sich eine MTTF von 1000(Personen) * 365 (Tage/Jahr) * 24 (Stunden/Tag) / 1,8 (Personen, die Ausfälle pro Jahr) = 4,867 Millionen Stunden, was 555 Jahren entspricht.
So alt wird aber offensichtlich keiner, die Versicherer rechnen mit 81 Jahren Lebenserwartung, also nur etwa 0,71 Millionen Stunden.

Ansonsten wundert mich, dass hier von einer LDPC Fehlerkorrektur und Pseudo-SLC Schreibcache zu lesen und dann aber trotz MLC von eigentlich sehr bescheidenen Schreibraten, wobei die Schreibraten andererseits schon noch deutlich über denen der Intel 600p liegen, die ja auch den SMI2260 mit dem IMFT 3D NANDs kombiniert, dort aber als TLC. Das 3D NAND von IMFT scheint bzgl. der Performance wirklich sehr schwach zu sein oder so ein Billigcontroller mit wohl gerade mal 2 RAM Kernen schafft es nicht die Leistung zu bringen. Samsung hat bei seinem neusten Polaris PCIe NVMe Controller die Zahl der Kerne von vorher 3 auf 5 angehoben und mit dem Controller noch einmal einen deutlichen Leistungssprung erzielt.
Ergänzung ()

Fawk schrieb:
die Controller-Chips sind da sehr viel Hitze-/Defektanfälliger.
Die brauchen eben einen kühlenden Luftstrom oder throtteln, wenn sie zu lange ohne Pause belastet werden, aber für Dauerlast wäre U.2 der passendere Formfaktor als M.2 und wieso sollte die Controller defektanfälliger sein? Hast Du dafür einen Beleg? Ich fürchte außerdem, die dürften wegen der offenen Bauweise eher anfällig für elektrostatische Entladungen sein und nicht jeder Heimanwender erdet sich ausreichend, während er am Rechner bastelt. Eine 2.5" SSD ist da durch ihr Gehäuse weit besser geschützt als so eine offene Platine einer M.2 SSD.
 
Fawk schrieb:
Wie ich dieses Argument liebe ... nur zur Info, die SSD ist während des/eines Backups ausgefallen!

Na dann ist ja gut das du regelmäßig ein Backup gemacht hast, damit dürfte der Datenausfall ja nur sehr gering und damit unerheblich gewesen sein. :p

PS: bei Alphacool gibts übrigens einen nachrüstkühler für eine M.2 SSD und sogar günstig.
 
Zuletzt bearbeitet:
Also in der theoretischen Geschwindigkeit ist Samsung wohl nicht mehr einzuholen hab ich das Gefühl. Die machen da ne saugute Arbeit derzeit.

SM 961.JPG
 
Willi-Fi schrieb:
Die M.2 Anschlüsse auf Mainboards lassen keine Kühlung zu.
Das lässt der M.2 Anschluss pauschal nicht zu? Oder bezieht sich dass doch eventuell gezielt auf Notebooks? Bei manchen Desktop Mainboards sind die M.2 Slots so platziert, da könnte man sogar wirklich dicke Kühler montieren und es würde nicht stören

Willi-Fi schrieb:
Irgendwann werden SSDs nicht mit Kb/s gemessen, sondern mit der Zeit, in der die volle Leistung bestehen bleibt.
Na Gott sei Dank werden die nicht mehr in Kb/s gemessen...
Bezüglich Zeit hat aber hier Samsung aktuell schon eine Grafik:
IMGP1525_575px.jpg
 
Bei Notebooks hat der Designer dafür zu sorgen, dass z.B. die vom Kühler angesaugte Luft über die SSD strömt um diese zu kühlen und bei selbst zusammengebauten Desktops ist das eben die Aufgabe des Selbstbauers sich darum Gedanken zu machen die Kühlung der M.2 SSD zu gewährleisten, z.B. durch einen passend platzierten Lüfter in der Gehäuseseitenwand.
 
Zurück
Oben