Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Crucials MX100 SSD mit niedrigstem Preis pro Gigabyte
- Ersteller Parwez
- Erstellt am
- Zur News: Crucials MX100 SSD mit niedrigstem Preis pro Gigabyte
Sterntaste
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.338
man darf vor allem eines nicht vergessen, die aktuell genannten Preise sind Preise zum Zeitpunkt der Markteinführung. In drei Monaten wird das Preisniveau den einen oder anderen Euro gesunken sein und dann weiß man auch um eventuelle Kinderkrankheiten der neuen Modelle.
Ja, Sektoren beziehen sich immer auf die Größe der logischen Sektoren, also wie viele Bytes pro LBA adressiert werden. Demnach wurden das 34TiB geschrieben und 58TiB gelesen, wirklich viel in der Zeit.Limit schrieb:Die relevanten SMART-Werte sehen so aus:
9 Power_On_Hours 0x0032 087 087 000 Old_age Always - 11821
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 73531568058
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 125108393993
Ein LBA wird von SMART wohl immer als 512Byte gerechnet, auch bei Festplatten mit 4k Sektoren.
Eigentlich war schon die m500 nach dem Preisrutsch an Januar die bessere Alternative zur Evo, die MX100 setzt nun nur noch mal bei Preis und Leistung Einen drauf. Eine MX100 256GB ist sogar günstiger als eine 840 Pro 128GB, nicht spürbar und kaum messbar langsamer, da fällt es schwer Argumente für andere SSDs zu finden.BlackWidowmaker schrieb:Nun die MX100 ist einfach die passende Antwort auf eine Evo. Nicht ganz so gut, nicht ganz so schnell, aber dafür spürbar billiger. Wem P/L das wichtigste ist kann getrost zugreifen. Aber Samsung hat sicherlich genug Reserven, auch finanzieller Art, um jederzeit kontern zu können.
Samsung kann sicher kontern und wird das wohl auch, wenn die Verkaufszahlen es erfordern. Aber solange die Absatzahlen stimmen, gibt es ja keinen Grund dafür. Wozu eine Firma unnötigerweise auf Gewinne verzichten?
Nein, außerdem ist Intel besser dran als Du es denkst.BlackWidowmaker schrieb:Mittlerweile zeichnst sich bereits ab, daß uns im SSD-Markt, wenn sonst nichts passiert, ebenso wie bei CPUs, GraKas oder HDDs ein Duopol erwart6et. Alles andere als Samsung und Micron spielt im Moment keine gewichtige Rolle. Selbst Intel lebt einzig und allein vom Ruhm vergangener Tage. Alle anderen Marken werden über kurz oder lang so oder so vom Markt verschwinden.
Mit der neuen DC P3500/3600/3700 hat Intel gerade die ersten PCIe 3.0 x4 NMVe SSD in 2.5" mit SFF-8639 oder als Karte vorgestellt. Das ist die SSD für Dich, die gibt es mit bis zu 2TB Kapazität und die schafft zu bis 2.8GB/s lesend und bis 1.9GB/s schreibend! Ok, die kostet wohl zwischen 1.50USD/GB bis 3USD/GB, in Euro also wohl ähnliche Beträge, spätestens wenn Draghi am Donnerstag seinen Hubschrauber starten wird, aber was willst Du? Unvernünftigen Spaß oder Sparen? Die ist sauteuer, sauschnell, total unvernünftig und Du kaum einen Unterschied zur MX100 spüren, aber sei ehrlich: Du willst sie
Im Ernst, Intel hat sich auf die Enterprise SSD und allenfalls noch hochpreisige Enthusiasten SSD konzentriert, da lassen sich noch Margen erwirtschaften wie Intel sie gewohnt ist und das Budget Segment überlässt man anderen, z.B. dem Partner Micron. Das ist ja auch in Ordnung, solange Micron auch von der Chip-Technologie profitiert und das ist offenbar der Fall, wie man auch im Review von Anand nachlesen kann.
Die genannten haben auch keine eigene NAND Fertigung, deren Zukunft sieht daher sicher nicht rosig aus. Aber es gibt noch Toshiba, SanDisk und Hynix, die ja mit LAMD sogar einen SSD Controllerhersteller gekauft haben, auch wenn es immer noch keine Hynix mit dem LAMD gibt. Toshiba hat über OCZ mit dem Indilinx auch einen eigenen Controller, es gibt also noch Wettbewerber. WD und Seagate habe kürzlich erst Zukäufe im SSD Bereich getätigt, die haben zwar lange geschlafen, versuchen aber dem angefahrenen Zug noch nachzulaufen.BlackWidowmaker schrieb:werden Trittbrettfahrer-SSD-Hersteller wie z.B. Corsair, AData, Muskin, Sandisk, Plextor und wie sie alle heißen, früher oder später den Anschluß verlieren.
Da die MX100 eigentlich mit der m550 identisch ist, sogar die gleiche Platine benutzt und sich nur bzgl. der NANDs unterscheidet und die m550 ist nur eine kleiner Weiterentwicklung der m500, die vor allem durch den Marvell 9189 statt des 9187 unterscheiden (und der NANDs der 128+256GB Versionen). Der 9189 ist aber auch nur eine Weiterentwicklung des 9187, vor allem im Hinblick auf die Energieeinsparung. Muster der 16nm NANDs gibt es seid Juli 2013, die sollten also ausgereift genug sein, von daher ist so wenig an der MX100 neu wie bei kaum einer anderen neuen SSD und daher schätze ich das Risiko von Kinderkrankheiten auch als sehr gering sein.Sterntaste schrieb:man darf vor allem eines nicht vergessen, die aktuell genannten Preise sind Preise zum Zeitpunkt der Markteinführung. In drei Monaten wird das Preisniveau den einen oder anderen Euro gesunken sein und dann weiß man auch um eventuelle Kinderkrankheiten der neuen Modelle.
Die jetzt schon so geringen Preise sind in der Tat eine Überraschung, zumal die MX100 sogar schneller als die m500 ist und die Hersteller normalerweise die Kostensenkung durch die geringeren Strukturbreiten erst mit Verzögerung weitergeben, eben wenn die Investitionen eingespielt sind. Umso besser, das Crucial dies sofort macht! Argumente für eine andere SSD zu finden ist wirklich nun nicht leicht!
MagicAndre1981
Admiral
- Registriert
- Feb. 2004
- Beiträge
- 7.463
die scheint gut zu sein um meine Samsung 830er im Laptop zu ersetzen. Die 256GB sind mir mittlerweile zu klein, da kommt diese 512GB Variante der MX100 genau richtig.
Blau&Gruen
Lt. Commander
- Registriert
- Okt. 2008
- Beiträge
- 1.266
Leider vergleicht dier Test in hotware nicht die 512GB Crucial MX100 mit der 500GB Samsung Evo. Man wird annehmen können, daß Samsung dann Crucial immer noch schlägt. Leerlauf 0,1W sind, sofern der Wert stimmt, nicht ohne und in Verbindung mit dem zusätzlichen Speichervolumen durchaus interessant. Ob der niedrige Preis sich so niederschlägt, daß SSDs im allgemeinen billiger werden, wird man vorsichtig bewerten wollen. Einführungspreise bewegen sich eher kurzfristig nach oben, Angebot und Nachfrage folgend. Aber das ist bloss eine subjektive Einschätzung.
Zuletzt bearbeitet:
(gebissen vom Grammatikvogel)
BlackWidowmaker
Banned
- Registriert
- Dez. 2010
- Beiträge
- 4.476
frankkl schrieb:Es gibt ja nicht nur Samsung und Micron
zum beispiel Toshiba/OCZ (mit eigenden Speicher + Conltoler) ist auch noch dabei !
Also Toshiba hat mMn einen kapitalen Bock geschossen, mit der Entscheidung den Markenamen OCZ beizubehalten. Ich denke die Überlegung war den eigenen Enterprise-Markt nicht abzuwerten mit der Einführung neuer Konsumer-Linien. Ich glaube es wäre besser gewesen nur Patente und Technik zu behalten, eventuell ein paar der fähigen OCZ Mitarbeiter aus dem Technik-Bereich, und den Rest der Resteverwertung/Sondermüll zuzuführen. Ich glaube nicht daß der Markennamen OCZ kurzfristig von seinem negativen Image zu befreien ist. Dafür ist das SSD Geschäft viel zu schnell und zu kurzlebig.
Holt schrieb:Im Ernst, Intel hat sich auf die Enterprise SSD und allenfalls noch hochpreisige Enthusiasten SSD konzentriert, da lassen sich noch Margen erwirtschaften wie Intel sie gewohnt ist und das Budget Segment überlässt man anderen, z.B. dem Partner Micron. Das ist ja auch in Ordnung, solange Micron auch von der Chip-Technologie profitiert und das ist offenbar der Fall, wie man auch im Review von Anand nachlesen kann.
Wer aus der Geschichte nichts lernt, der wird genötigt sie zu wiederholen. Die Geschichte in der IT-Branche hat gezeigt, daß die Konzentration auf den Profi-Markt einer Firma oder einem Sektor zum Verhängnis werden kann. Prominente Beispiele: IBM mit ihrem OS/2, jeder "Profi" bescheinigte dem System klar besser und sicherer zu sein. Doch letztendlich liefen keine Spiele drauf und Hersteller von Konsumer-Hardware verweigerten die Unterstützung. Folglich ging OS7" den gleichen Weg wie Novell, nämlich ins selbst gestellte Aus. Egal wie profitabel der Enterprise-Markt auch immer ist, wenn man sich nur darauf konzentriert kann man langfristig trotzdem baden gehen.
Holt schrieb:Die genannten haben auch keine eigene NAND Fertigung, deren Zukunft sieht daher sicher nicht rosig aus. Aber es gibt noch Toshiba, SanDisk und Hynix, die ja mit LAMD sogar einen SSD Controllerhersteller gekauft haben, auch wenn es immer noch keine Hynix mit dem LAMD gibt. Toshiba hat über OCZ mit dem Indilinx auch einen eigenen Controller, es gibt also noch Wettbewerber. WD und Seagate habe kürzlich erst Zukäufe im SSD Bereich getätigt, die haben zwar lange geschlafen, versuchen aber dem angefahrenen Zug noch nachzulaufen.
Genau so wie MS versucht dem Mobilsektor versucht hinterherzuhinken meinst Du? Na wenn mal der Zug nicht abgefahren ist.
Ich denke der SSD-Sektor ist der einzige verbliebene "wichtiger" PC-Sektor wo noch große und bedeutende Entwicklung von statten geht. CPU/GPU Sektor befinden sich z.Z. beide in der Stagnation. Selbst die Zeiten als man noch innerhalb eines Jahres die doppelte Leistung fürs gleiche Geld bekam (oder die gleiche GraKa zum halben Preis) sind vorbei. Heute muß man plötzlich für 20% mehr Leistung den doppelten Preis zahlen. Im SSD Markt hingegen ist die Phase noch nicht eingeläutet wo man nur über den Preis sich differenziert. Dafür stehen zahlreiche Entwicklungen und Neuerungen bevor die das Potential haben den Markt komplett umzukrempeln - SATA-Express (wenn auch eine Totgeburt mMn), M.2, PCIex8 SSDs, usw. Hier können wir in den nächsten Jahren durchaus noch Performancesprünge von 1000% und mehr erwarten.
Meiner Meinung nach hinkt der Vergleich zwischen Betriebssystem und SSD. Die zwei wichtigsten Features eines Betriebssystems sind die Verfügbarkeit von Applikationen und die Hardwareunterstützung. Ein Betriebssystem mag noch so viel schneller, sicherer, schöner und einfacher zu bedienen sein – wenn es für die Plattform keine passenden Applikationen gibt, wird es niemand benutzen. Sofern man die gängigen Anschlüsse verwendet, wird man mit SSDs niemals derartige Probleme haben, da die Unterschiede zwischen Enterprise- und Consumer-SSDs häufig aus nicht mehr als einer anderen Firmware und anderen Garantiebestimmungen bestehen. Bestenfalls werden bei den Enterprise-SSDs noch ein paar höherwertige Flashbausteine verbaut.
MagicAndre1981
Admiral
- Registriert
- Feb. 2004
- Beiträge
- 7.463
Mal ne Frage. Ist die Firmwarequalität von Crucial nun besser geworden? Bei der M4 gab es ja viele Bugs
Die 0.1W dürfte nur mit aktivem LPM (also HIPM und vor allem DIPM) ermittelt worden sein, wobei es da sogar weniger sind. Ohne solche Energiesparmaßnahmen, mit denen auch die m500 unter 0.1W blieb, geht es eher Richtung 1W wie bei der m550 auch, das ist ja die gleiche HW und die NANDs brauchen im Idle keinen Strom. Leider hat Anand auf die Ermittlung bzw. Veröffentlichung der Messung verzichtet.Blau&Gruen schrieb:Leerlauf 0,1W sind, sofern der Wert stimmt, nicht ohne und in Verbindung mit dem zusätzlichen Speichervolumen durchaus interessant.
Je eigenständiger sie OCZ halten, umso einfach kann die Firma wieder abgestoßen (dannn ggf. ohne Indilinx) oder eingestellt werden.BlackWidowmaker schrieb:Also Toshiba hat mMn einen kapitalen Bock geschossen, mit der Entscheidung den Markenamen OCZ beizubehalten. Ich denke die Überlegung war den eigenen Enterprise-Markt nicht abzuwerten mit der Einführung neuer Konsumer-Linien.
Wie Limit schon geschrieben hat, kann man Betriebssystem und SSDs nicht vergleichen, die Betriebssystem brauchen von zu vielen Seiten Unterstützung um erfolgreich zu sein, die SSDs kann man dagegen weitgehend durch einfaches Aus- und Einbau tauschen, auch recht problemlos zwischen verschiedenen Herstellern. Von exotischen PCIe SSD mit RAID Controllern die eigene Treiber brauchen mal abgesehen, aber das wird NVMe ja dann auch überflüssig machen.BlackWidowmaker schrieb:Die Geschichte in der IT-Branche hat gezeigt, daß die Konzentration auf den Profi-Markt einer Firma oder einem Sektor zum Verhängnis werden kann. Prominente Beispiele: IBM mit ihrem OS/2
Ansonsten geht es IBM im Enterprise Geschäft ja nicht so schlecht, die Mainframes sichern ihnen sogar immer noch die Spitzenpositionen bei den Erlösen im Serversegment.
Der Enterprise Markt ist langfristiger, da gibt es immer Erlöse aus dem Supportgeschäft (Wartungsverträge), so gefährlich kurzlebig wie der Markt für Consumerelektronik ist er wohl sicher nicht. Derzeit kommen ja überall die SSD für Data Center in Fahrt, die werden die HDDs in dem Bereich sicher schnell ablösen und damit auch die Cache SSDs, denn bei den viele IOPS die damit möglich sind, besteht meist kein Bedarf mehr noch einen Cache zu verwenden und damit rechnet sich der Umstieg auch schneller.BlackWidowmaker schrieb:Egal wie profitabel der Enterprise-Markt auch immer ist, wenn man sich nur darauf konzentriert kann man langfristig trotzdem baden gehen.
Das ist zwar ein anderes Thema, aber ja, das sehe ich ähnlich. Und wenn MS weiterhin die klassischen Desktopuser vergrault indem ihnen ein Bedinungskonzept aufgezwungen wird welche für diesen Sektor nicht passt, dann kann es ganz bitter für MS werden, aber man rudert ja schon stückweise zurück.BlackWidowmaker schrieb:Genau so wie MS versucht dem Mobilsektor versucht hinterherzuhinken meinst Du? Na wenn mal der Zug nicht abgefahren ist.
So sieht es aus, da ist auch noch das größte Wachstum drin, weshalb jeder versucht einen Stück vom Kuchen abzubekommen.BlackWidowmaker schrieb:Ich denke der SSD-Sektor ist der einzige verbliebene "wichtiger" PC-Sektor wo noch große und bedeutende Entwicklung von statten geht.
Eigentlich ist diese Phase bei den SATA SSD schon erreicht, weshalb man ja gerade die PCIe Anbindung vorantreibt, egal ob über M.2 oder wie auch immer. Aber die 1000% halte ich allenfalls für Benchmarkscores realistisch. Die Intel DC P3x00 haben einen 18 Kanal Controller, da braucht man sehr lange Zugriffe um überhaupt die maximalen Transferraten zu erreichen und sehr viele parallele Zugriffe um mehr IOPS als bei herkömmlichen SATA 6Gb/s SSDs zu erzielen. Das bringt alles im Alltag nichts, wenn man nicht die passenden Anwendungen dafür hat. Das wird natürlich möglichst verschwiegen und es werden Benchmarks gewählt, bei denen man tolle Steigerungen sieht, weil die ganz viel parallel machen, eben den Alltag eines Windows Users komprimiert und ohne Pause abspielen. Der PCMark 8 berücksichtigt auch die Pausen, den findet man nur selten in den Reviews, warum wohl?BlackWidowmaker schrieb:Im SSD Markt hingegen ist die Phase noch nicht eingeläutet wo man nur über den Preis sich differenziert. Dafür stehen zahlreiche Entwicklungen und Neuerungen bevor die das Potential haben den Markt komplett umzukrempeln - SATA-Express (wenn auch eine Totgeburt mMn), M.2, PCIex8 SSDs, usw. Hier können wir in den nächsten Jahren durchaus noch Performancesprünge von 1000% und mehr erwarten.
Außerdem braucht man für diese Boliden echt potente Hardware, schau Dir mal die CPU Auslastung in Anands Review an:
Da sieht man schon, die P3600 lastet alleine für den Benchmark und I/O 3/4 der Leistung der CPU aus und die Micron wird sogar schon limitert, die könnte auf einer schnelleren CPU wahrscheinlich noch IOPS bieten, denn die liefert bei QD 256 noch mehr als bei QD 128, braucht aber ein leistungsstärkeres System. Dabei läuft da nur IOMeter, also eine SW die nur I/O erzeugt, aber die Daten nicht wirklich verarbeiten muss, was nochmal mehr CPU benötigen wurde. Das Potential solche SSDs zu nutzen, dürfte nur den wenigsten Heimanwendern möglich sein, zumal eben die Leistung der CPUs praktisch stagniert.
Auch wenn jetzt M.2 gehypt wird und da die SSD meist mit SATA 6Gb/s und bestenfalls mit PCIe 2.0 x2 angebunden wird, so bleibt erstmal die MX100 in 256GB oder 512GB die sinnvollste SSD für die große Mehrheit der Heimanwender, alleine schon wegen des Preises. Die anderen bieten alle keine Mehrleistung die deren Aufpreise rechtfertigen würde, einfach weil sie nicht spürbar ist.
BlackWidowmaker
Banned
- Registriert
- Dez. 2010
- Beiträge
- 4.476
Holt schrieb:Eigentlich ist diese Phase bei den SATA SSD schon erreicht, weshalb man ja gerade die PCIe Anbindung vorantreibt, egal ob über M.2 oder wie auch immer.
Ich glaube das Problem liegt daran, daß in den Köpfen der Menschen eine SSD auch bloß ein Massenspeicher ist, mit neuer Technik. Dem ist aber nicht so. Vor 30 Jahren, mit meinem ersten Computer, da war der Massenspeicher ein Kassettenlaufwerk. Also ein Motor der ein magnetisches Dingsbums antrieb mit einem Schreiblesekopf der Daten las und schrieb. Dann kam die Diskettenstation, also ein Motor mit einem magnetischem Dingsbums, mit einem Lesekopf..., dann kamen die MFM-/RLL-/IDE-/SCSI-/SATA- Festplatten mit einem magnetischem...
Irgendwie ist ein magnetisches Dingbums-Dingenskirchen in den Köpfe der Leute (Systementwickler) so fest eingebrannt, das es kein Weg da raus zu geben scheint. Der ganze Computer-Scheiß wird selbst im Jahre des Herrn 2014 noch von magnetischen Leseköpfen dominiert, wenn auch nicht physisch, sondern strukturell. Allein das Interface: SATA - das S steht für seriell, das was macht wenn man mit einem magnetischen Dingbums...
Das kommt davon wenn die Entwicklung von Technik allein von wirtschaftlichen Faktoren bestimmt wird. Flash Speicher würde ermöglichen die Leistung von Computern in ungeahnte Performancehöhen zu treiben. Dazu müßte man den Computer lediglich von Grund auf (ohne die Übernahme auch nur eines einzigen Bits) neu kreieren. Nix da mit seriell sondern alles streng parallel. Nix da mit 64-Bit Windows, sondern Hard- und Software mit 1024-Bit aufwärts rechnet. Anstatt Caches und Turbos und schlag-mich-tot Power durch Parallelität. Anstatt SSDs mit 8-Kanal Kontroller, SSDs mit 128-Kanal bauen da dafür auf RAM verzichten.
Ist genauso wie bei Autos: Hubraum statt Spoiler.
Holt schrieb:Auch wenn jetzt M.2 gehypt wird und da die SSD meist mit SATA 6Gb/s und bestenfalls mit PCIe 2.0 x2 angebunden wird,
Einspruch euer Ehren: Asrock Z97 Extreme 6
Den Weg kenne ich, den bin ich auch gegangen, erst eine Datasette am C64, für die gab es zum Glück SW um sie zu beschleunigen, aber lahm war sie trotzdem und es wurden extra kure Kassetten mit 10nim Laufzeit angeboten, deren Bänder sich nicht so leicht verzogen haben. Dann die 5¼ Floppy, wer nie eine hatte versteht nicht warum die so hieß, 3.5" Disketten und dann endlich die erste 20MB MFM 5¼" HDD. Eine Revolution, eine ein ungeahnter Fortschritt auch wenn die noch außen einen Schrittmotor hatte, so dass man zusehen konnte, die wie Köpfe positioniert wurden. Dann SCSI, später IDE und nun SATA. Aber trotzdem liegst Du mit der Aussage falsch:BlackWidowmaker schrieb:Vor 30 Jahren, mit meinem ersten Computer, da war der Massenspeicher ein Kassettenlaufwerk. Also ein Motor der ein magnetisches Dingsbums antrieb mit einem Schreiblesekopf der Daten las und schrieb. Dann kam die Diskettenstation, also ein Motor mit einem magnetischem Dingsbums, mit einem Lesekopf..., dann kamen die MFM-/RLL-/IDE-/SCSI-/SATA- Festplatten mit einem magnetischem...
SSDs sind nur Massenspeicher, die können nichts anders als schon damals die Floppy oder bestenfalls die MFM HDD: Sie speichert Daten! Klar macht sie das schneller und speichert viel mehr Daten, ist leise und wohl deutlich sparsamer, aber sie sie wäscht kein Auto, bügelt keine Wäsche und kocht keine Kaffee. Obendrein sind SSDs ungleich billiger als damals HDDs, meine erste SCSI war eine Quantum mit 50MB, nicht GB und die hat damals, so ungefähr 1990, DM600 oder DM700 gekostet. Der SCSI Controller war auch nicht viel billiger und dabei war ich noch froh, denn ich hatte die 40GB Vorgängerversion bestellt. Der Händler hatte die aber nicht mehr und mit die eigentlich DM100 teurere 50MB für den Preis der 40MB verkauft. Die 50MB war damals die erste 3.5" mit 1" Bauhöhe, die 40MB war noch 1.6" hoch. Damals hat man gestaunt, wie man so viele Daten auf so wenig Platz unterbringen konnte. Heute passen auf so eine HDD 6TB, 120.000 mal so viel und inflationsbereinigt so teuer wie damals die 50MB Quantum.BlackWidowmaker schrieb:Ich glaube das Problem liegt daran, daß in den Köpfen der Menschen eine SSD auch bloß ein Massenspeicher ist, mit neuer Technik. Dem ist aber nicht so.
Für den Preis einer 6TB HDD gibt es auch schon eine 1TB SSD. Ob SSDs teuer sind, hängt also von der Perspektive ab.
PCIe arbeitet auch sequentiell, egal ob als PCIe x1 oder PCIe x16!BlackWidowmaker schrieb:Allein das Interface: SATA - das S steht für seriell, das was macht wenn man mit einem magnetischen Dingbums...
Werden nicht alle technischen Entwicklungen von wirtschaftlichen Faktoren bestimmt?!? Was sich am Markt nicht durchsetzt, kann selbst mit Subventionen meist nur kurz überleben, wie die Solarindustrie gerade zeigt.BlackWidowmaker schrieb:Das kommt davon wenn die Entwicklung von Technik allein von wirtschaftlichen Faktoren bestimmt wird.
Nein, wie denn? Die SSDs sind nur als Massenspeicher schnell, RAM ist ungleich schneller und SSDs können weder rechnen noch Pixel anzeigen.BlackWidowmaker schrieb:Flash Speicher würde ermöglichen die Leistung von Computern in ungeahnte Performancehöhen zu treiben. Dazu müßte man den Computer lediglich von Grund auf (ohne die Übernahme auch nur eines einzigen Bits) neu kreieren
Der Schritt mit der besseren Anbindung über PCIe wird doch gerade gemacht und NVMe löst bald auch AHCI als besseres Protokoll ab. Dann könnte man noch die Verwaltung des Filesystems an den SSD Auslagern, dann gäbe es keine Fragmentierung mehr und schneller wäre es wohl auch. Aber dazu müssten die OS Entwickler (und die BIOS Entwickler, wenn man davon booten können will) das unterstützen und sich am Besten auf ein einheitliches Filesystem einigen, was die Sache wohl extrem schwer umsetzbar machen dürfte.
Parallele Schnittstellen sind ungleich langsamer, weshalb man ja zu sequentielle Schnittstellen gewechselt ist, denn es ist bei hohen Frequenzen extrem schwer die Laufzeiten der Signale aller Leitungen zu synchronisieren.BlackWidowmaker schrieb:Nix da mit seriell sondern alles streng parallel.
Wozu? Damit würden die CPU Kerne ungleich größer werden und die Programme ebenso, sowohl auf der Platte als auch im RAM, weil alle Sprungadressen gewaltig lang wären und dabei reichen 64 Bit für eine solche Menge an RAM, wie man sie zu unseren Lebzeiten vielleicht nie haben wird. Verdoppelt sich der RAM Ausbau auch weiterhin alle 2 Jahre (schwer vorstellbar bei den kleinen Strukturbreiten die wir heute schon haben), dann reichen 64Bit noch für fast 50 Jahre!BlackWidowmaker schrieb:Nix da mit 64-Bit Windows, sondern Hard- und Software mit 1024-Bit aufwärts rechnet.
Die Software kann so viele Kerne meist gar nicht nutzen, jedenfalls wird es nie bei allen Algorithmen möglich sein diese zu parallelisieren. Daher werden bei CPUs ja auch einzelne Kerne höher getaktet um mehr Performance bei solche nicht parallelen Code zu erreichen. Cache braucht man um die großen Geschwindigkeitsunterschiede zu überbrücken, was zumindest klappt wenn öfter auf wenige wiederholt zugegriffen wird. RAM ist schnell, viel schneller als NAND, aber immer noch sehr lahm im Vergleich zu CPU.BlackWidowmaker schrieb:Anstatt Caches und Turbos und schlag-mich-tot Power durch Parallelität.
Blos nicht, denn NAND ist viel, viel langsamer als RAM und dessen Latenzen sind viel höher als die von RAM. Viele Kanäle bringen da auch nicht das Wunder, denn schon die Leistung einer Micron P320h oder P420m mit ihrem 32 Kanal Controller kann kein normaler Heimanwender auch nur ansatzweise ausnutzen. Dazu braucht es extrem lange, sequentielle Zugriffe oder eben sehr, sehr viele (256) parallele Zugriffe.BlackWidowmaker schrieb:Anstatt SSDs mit 8-Kanal Kontroller, SSDs mit 128-Kanal bauen da dafür auf RAM verzichten.
Sorry, dass ich vergessen haben die XP941 als Ausnahme zu erwähnen. Die gibt es aber kaum zu kaufen, nur als OEM und es ist ein Hitzkopf. Wie das bei Montage unter einer schnelle Graka auf dem ASRock bzgl. der Kühlung des Controller aussehen wird, möchte ich mir mal lieber nicht vorstellen. Wohl deshalb verkauft Samsung die nur an OEMs und die wissen wohl um das Problem. Warum hat LaCie der Little Big Disk ThunderBolt 2 wohl außen Kühlrippen und einen Lüfter spendiert?BlackWidowmaker schrieb:Einspruch euer Ehren: Asrock Z97 Extreme 6
Wenn Du Performance willst, nimm die Intel SSD DC P3x00 und das mit einem X99 und 8-Kerner oder besser noch zwei Xeon CPUs mit reichlich Kernen auf einem entsprechende Board, aber vergiss M.2!
Crucial und Samsung geben bei den billigsten SSDs um 100€ (250GB) bis zu 100GB Transfervolumen pro Tag während der Garantiezeit an.
Langt das nicht dann kannst du auch 300€+ für 250GB zahlen und die SSD täglich mit 1TB oder mehr vollschreiben/löschen.
Enterprise ≠ Consumer
Die Zugriffszeit bei SSDs ist bei allen neueren IDENT (egal ob um 1000€ oder um 100€) und nur darauf kommt es an neben einem günstigen Preis pro GB.
Ob das Ding nun 300 MB oder 400 MB / s schafft ... wayne.
Tote Daten wandern sowieso weiterhin auf Festplatten - Wer interessiert sich schon für sequenzielle Datenraten bei SSDs?
Programme, Spiele, Betriebssysteme bestehen nicht aus einem File sondern aus tausenden kleinen.
Die Transferraten sind bestenfalls in TEMP/CACHE Umgebungen (ADOBE) interessant wo sehr große TEMP Dateien entstehen können mit zig GB.
Wer das Geld hat kann seine Videos aber natürlich auch auf einer SSD ablegen... ich finde es total sinnnfrei.
Langt das nicht dann kannst du auch 300€+ für 250GB zahlen und die SSD täglich mit 1TB oder mehr vollschreiben/löschen.
Enterprise ≠ Consumer
Die Zugriffszeit bei SSDs ist bei allen neueren IDENT (egal ob um 1000€ oder um 100€) und nur darauf kommt es an neben einem günstigen Preis pro GB.
Ob das Ding nun 300 MB oder 400 MB / s schafft ... wayne.
Tote Daten wandern sowieso weiterhin auf Festplatten - Wer interessiert sich schon für sequenzielle Datenraten bei SSDs?
Programme, Spiele, Betriebssysteme bestehen nicht aus einem File sondern aus tausenden kleinen.
Die Transferraten sind bestenfalls in TEMP/CACHE Umgebungen (ADOBE) interessant wo sehr große TEMP Dateien entstehen können mit zig GB.
Wer das Geld hat kann seine Videos aber natürlich auch auf einer SSD ablegen... ich finde es total sinnnfrei.
Zuletzt bearbeitet:
Blau&Gruen
Lt. Commander
- Registriert
- Okt. 2008
- Beiträge
- 1.266
@Holt
Danke für den Hinweis auf die Benchmarks auf Anand.
http://www.anandtech.com/bench/product/964?vs=1222
Evo 500GB scheint beim Lesen noch leicht besser, wird aber beim Schreiben von der MX100 512GB regelmässig überholt.
Wenn man eine bereits installierte SSD mit dem OS darauf ergänzen möchte durch eine weitere für Anwendungen, dann könnte man eventuell argumentieren mit 0,32 idle und dem read. Die Preisdifferenz beträgt dann aber doch schon über 30 Euro, was die vorangehende Überlegung doch wieder relativiert. Trotzdem fragt man sich, gibt es irgendwo noch einen Hacken?
Danke für den Hinweis auf die Benchmarks auf Anand.
http://www.anandtech.com/bench/product/964?vs=1222
Evo 500GB scheint beim Lesen noch leicht besser, wird aber beim Schreiben von der MX100 512GB regelmässig überholt.
Wenn man eine bereits installierte SSD mit dem OS darauf ergänzen möchte durch eine weitere für Anwendungen, dann könnte man eventuell argumentieren mit 0,32 idle und dem read. Die Preisdifferenz beträgt dann aber doch schon über 30 Euro, was die vorangehende Überlegung doch wieder relativiert. Trotzdem fragt man sich, gibt es irgendwo noch einen Hacken?
Zuletzt bearbeitet:
(Komma)
C0B, was willst Du uns damit sagen?
Blau&Gruen, die Leistungsaufnahme ist allenfalls bei Notebooks relevant. Die Evo bietet bei kurzen Lesezugriffen immer noch leichte Vorteile, nur ist die Preisdiffenz inzwischen einfach zu groß. Bei Preisgleichheit wäre es schwerer eine eindeutige Empfehlung auszusprechen, aber so ist die MX100 für 99% der User die bessere Wahl. Die anderen sollten besser jede Vernunft über Bord werfen und richtig Kohle für was richtig extreme Ausgeben statt halbe Sache zu machen und für deutlich mehr Geld nur minimale Vorteil zu bekommen. Also entweder die Linie der Vernunft, eine MX100 in 256 oder 512GB oder vielleicht eine 1TB m500/m550/840 Evo oder richtig unvernünftig auf die K*cke hauen und eine Samsung Xp941 oder besser noch Intel DC P3500/3600 nehmen. Aber die klassischen High-End SATA SSD wie die 840 Pro, Netron GTX, M5P oder 730 haben doch ihre Berechtigung verloren, die kosten über 300€ für 480-512GB, bringen praktisch gegenüber der MX100 kaum Mehrleistung und rocken nicht wie die genannten Monsterteile mit PCIe x4 oder gar NVMe und über 1GB/s bzw. über 2GB/s. Also entweder das besten P/L, also MX100 oder die extremsten SSDs die man bekommt und die mit etwa 1€/GB auch nur so teuer sind, wie sich vor nur 2 Jahren viele hier erträumt haben.
Blau&Gruen, die Leistungsaufnahme ist allenfalls bei Notebooks relevant. Die Evo bietet bei kurzen Lesezugriffen immer noch leichte Vorteile, nur ist die Preisdiffenz inzwischen einfach zu groß. Bei Preisgleichheit wäre es schwerer eine eindeutige Empfehlung auszusprechen, aber so ist die MX100 für 99% der User die bessere Wahl. Die anderen sollten besser jede Vernunft über Bord werfen und richtig Kohle für was richtig extreme Ausgeben statt halbe Sache zu machen und für deutlich mehr Geld nur minimale Vorteil zu bekommen. Also entweder die Linie der Vernunft, eine MX100 in 256 oder 512GB oder vielleicht eine 1TB m500/m550/840 Evo oder richtig unvernünftig auf die K*cke hauen und eine Samsung Xp941 oder besser noch Intel DC P3500/3600 nehmen. Aber die klassischen High-End SATA SSD wie die 840 Pro, Netron GTX, M5P oder 730 haben doch ihre Berechtigung verloren, die kosten über 300€ für 480-512GB, bringen praktisch gegenüber der MX100 kaum Mehrleistung und rocken nicht wie die genannten Monsterteile mit PCIe x4 oder gar NVMe und über 1GB/s bzw. über 2GB/s. Also entweder das besten P/L, also MX100 oder die extremsten SSDs die man bekommt und die mit etwa 1€/GB auch nur so teuer sind, wie sich vor nur 2 Jahren viele hier erträumt haben.
frankkl
Vice Admiral
- Registriert
- Feb. 2003
- Beiträge
- 6.554
Doch der neue Massenspeicher SSD ist blos die schnellere und vorallen leisere Nachfolgetechnk zur HDDBlackWidowmaker schrieb:Ich glaube das Problem liegt daran, daß in den Köpfen der Menschen eine SSD auch bloß ein Massenspeicher ist, mit neuer Technik.Dem ist aber nicht so.
und ich hatte nur IDE-,SCSI- und SATA- Festplatten seid Juni 1997
-
Ist durch die vielen preiswerten Konkurenz SSD wie zum beispiel Plextor und OCZ
in den nächsten halben Jahr nicht doch noch ein deutlich Preisrutsch zuerwarten
frankkl
Zuletzt bearbeitet:
BlackWidowmaker
Banned
- Registriert
- Dez. 2010
- Beiträge
- 4.476
frankkl schrieb:Doch der neue Massenspeicher SSD ist blos die schnellere und vorallen leisere Nachfolgetechnk zur HDD
Nein, das stimmt nicht. jeglicher Massenspeicher auf Magnetbasis ist auf serieller Basis aufgebaut. Es kann prinzipiell nur 1 Bit (pro Lesekopf) gleichzeitig ausgelesen/geschrieben werden. Flash Speicher ist dagegen wie RAM prinzipiell beliebig parallelisierbar. Die Einschränkungen diesbezüglich sind eher wirtschaftlicher Natur.
Die einzelnen NAND Pages werden immer noch seriell gelesen und diese zu parallelisieren geht nur bei entsprechend lange Zugriffen oder wenn es halt entsprechend viele parallele Zugriffe gibt. Dann haben solche Monster SSDs auch richtig viel mehr Leistung als normale Cosumer-SSDs, nur wer hat solche Anforderungen schon Zuhause? Deshalb ist das ja auch den dicke Enterprise Bertas vorhalten, für Heimanwender ist das wie mit Kanonen auf Spatzen zu schießen.
frankkl
Vice Admiral
- Registriert
- Feb. 2003
- Beiträge
- 6.554
Doch,BlackWidowmaker schrieb:Nein, das stimmt nicht.
habe meine 250 GB HDD durch eine 240 GB SSD ersetzt haben beide genau die gleichen Aufgaben !
frankkl
BlackWidowmaker
Banned
- Registriert
- Dez. 2010
- Beiträge
- 4.476
Ja natürlich ist der Einsatzzweck der gleiche. Denn bei der Konstruktion von SSDs hat man auf das gleiche altbekannte Schema F gesetzt, wie man es seit Jahrzehnten kannte. Das wovon ich spreche würde bedeuten einen Computer für Flash-Speicher zu bauen, anstatt Flash-Speicher für herkömmliche Computer einzusetzen. Das würde verlangen eine komplett von Grund auf neu konzipierte Hardwarearchitektur, ein auf Grund auf neu entwickeltes BS ohne irgendwelche Legacy-Schranken und entsprechend völlig neue Software die für so einen Computer optimiert wäre.
Ist natürlich logisch, das es so etwas aus wirtschaftlichen Erwägungen heraus Nonsens wäre. Ein privates Unternehmen würde heutzutage nie so ein Wagnis eingehen. Aber technisch wäre das schon länger durchführbar.
Ist natürlich logisch, das es so etwas aus wirtschaftlichen Erwägungen heraus Nonsens wäre. Ein privates Unternehmen würde heutzutage nie so ein Wagnis eingehen. Aber technisch wäre das schon länger durchführbar.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 158
- Aufrufe
- 21.822
- Antworten
- 226
- Aufrufe
- 38.047
- Antworten
- 138
- Aufrufe
- 21.638
- Antworten
- 138
- Aufrufe
- 26.078