News Samsung 850 Evo 1 TB für 500 Dollar gelistet

marc123 schrieb:
warum setzt sich ssd eigentlich nicht einfach als neuer standard durch?
Die Preise verhindern das noch, denn pro GB sind HDDs nun einmal billiger.
marc123 schrieb:
dann kann man auf diese künstlich krankhaft hohen preise verzichten
Wieso krankhaft hoch? Die Herstellungskosten sind ja auch viel höher, da es eine ganz andere Technologie ist. Man kann die Herstellungskosten von Halbleitern nicht mit denen von Magnetscheiben vergleichen.

Ein Die des TLC-V-NANDs dürfte etwa so groß sein wie das Die der 850 Pro, was 95,4mm² und 86Gigabit hat. Mit dem 3. Bit pro Zelle kommt man auf 128Gigabit, also 16GiB pro Die. Davon braucht man dann 64 Dies für eine 1TB SSD, also 6105mm² Diefläche, eher mehr, dann bei TLC ist die Signalaufarbeitung ja auch aufweniger. Ein Haswell-E wie der i7-5820k oder 5930k, die 850 Evo 1TB dürfte preislich zwischen beiden liegen, eher bei dem 5820k, hat gerade mal eine Diefläche von 356mm², bei der SSD bekommst Du für das Geld dann also über 17mal so viel Chipfläche wie bei der CPU, wobei weder der Controller noch das Cache RAM berücksichtigt sind.
Vielleicht ein einseitiges Beispiel, also schauen wir auch mal auf einige CPUs:

i7 5820k 340€, 356mm² = 95,5ct/mm²
AMD FX-8320 120€, 315mm² = 38,1ct/mm²
AMD Athlon X4 740 50€, 246mm² = 20,3ct/mm²

Dagegen SSDs:
Crucial MX100 512GB ab 176€128Gbit + 173mm² pro Die, 32 Dies, also 5536mm² = 3,2ct/mm²
850 Pro 1TB ab 514€, 86Gigabit und 95,4mm², 96Dies, also 9158mm² 5,6ct/mm²
850 Evo nehmen wir 340€ an, 6105mm² = 5,6ct/mm²

Und 340€ sind also ein passender Preis für die 840 Evo 1TB, der dem der 850 Pro entspricht, wenn man die Die Fläche zugrunde legt. Beim Vergleich fällt auf, dass sie MX100 pro mm² günstiger ist, aber das 3d-NAND erfordert ja auch viel mehr Bearbeitungsschritte als 2d NAND und die Entwicklungskosten waren sich auch nicht ohne. Trotzdem sind die Samsung SSDs um den Faktor 3,6 pro mm² günstiger als selbst eine sehr günstige AMD CPU, wobei nur die NAND Fläche berücksichtigt ist. Wo sind die SSDs nun teuer?

Tekpoint schrieb:
Wollte nicht ein Controller Hersteller 16 Kanal Anbindung anbieten jetzt? Hier mal die 4TB 2,5 Zoll SAS SSD von SanDisk Quelle
Das sind Enterprise SSD Controller, der in der Intel PC P3000er Reihe hat 18 Kanäle, der in der Micron P320h sogar 32.
 
Zuletzt bearbeitet:
katzilla schrieb:
was schnell genug ist, ist immer noch subjektiv. da kannst du mir nicht mit diesen ollen kamellen kommen. und die von dir erwähnte p3700 ist auch nix anderes als eine m.2 bezüglich der Schnittstelle. beide fahren mit x4 3.0. soviel zu deinem Hott und dann Hüh!

(erst nein sagen und dann dasselbe behaupten, ich hasse solche neunmalklugen besserwisser!)

Und ich hasse pseudointelligente Dummschwätzer die meinen sie wären die größten.
pmkrefeld hat die Behauptung aufgestellt, dass annähernd 1 von 1 usern die Differenz nicht merkt - womit er recht haben sollte.
Die Differenz zwischen S-ATA II und 6G ist für viele schon kaum zu merken.

Die P3700 unterscheidet sich von schnellen m.2-SSDs darin, dass sie käuflich zu erwerben ist. Er hat also eine kaufbare variante aufgezählt und nicht "erst Hott dann Hüh!" gemacht.

Der Idiot bist du, nicht pmkrefeld.
 
Bei SSDs als Speichersystem zur Archivierung von Daten, wie es viele wollen sehe ich ein Problem. Wie sieht es mit den Datenbestand nach mehreren Jahren aus? Weiter lassen sich die NAND Chips nicht so löschen wie eine Magnetscheibe. Was dazu geführt hatte, dass SSDs bei meinem Arbeitgeber verboten wurden. Jetzt wo die Think Pads ab Werk mit SSD ausgeliefert werden, hat man sich damit arrangiert.
Von der CD hat man anfangs auch behauptet die Daten hielten 500 Jahre, am Ende waren es manchmal keine 5 Jahre.
Die konventionellen HDDs haben dieses Problem nicht, hier stellt eher die Mechanik, die mit der Zeit anfällig wird ein Problem dar, wer schon mal Diskshelves abschalten musste die 4 oder 5 Jahre durchliefen weiß war ich meine. Beim Wiedereinschalten fallen nicht selten ein paar Platten aus. Die Daten selbst auf den Scheiben überdauern hingegen sehr lange Zeiträume, die Technologie ist gut erforscht und bereits seit Anbeginn im Einsatz.

Dennoch bin ich ein Fan der Technologie, schnell, klein, sparsam und leise.
 
Holt schrieb:
Nein, Steckkarten und M.2 sind nicht die Zukunft, zumindest nicht im Desktop. Da wird es auf SFF8639 gehen, da man weder genau M.2 noch PCIe Karten unterbringen kann und auf den kleinen M.2 Karten bekommt man nicht genug Chips für hohe Kapazitäten unter und dann liegt das noch nahe der Platine, ist schlecht belüftet, etc.

So wie ich das sehe, werden sich diese beiden Probleme mit der Zeit von selbst erledigen, indem die Kapazität pro Chip immer größer und der Verbrauch (und damit die Abwärme) immer niedriger wird. Das ist die typische Entwicklung bei Halbleitern/ICs.

Und tatsächlich scheinen diese Probleme ja auch jetzt nicht so dramatisch zu sein. M.2 kommt auf allen neuen Mainboards serienmäßig und in Notebooks sind solche SSDs in kompaktem Kartenformat schon länger üblich. (In meinem Ultrabook stecken gleich zwar davon.)

Der wirkliche Grund, warum man überhaupt erst auf die Idee gekommen ist, SSDs in Laufwerksgehäuse zu packen und per SATA anzuschließen, ist doch auch weder Temperatur noch zu wenig Platz auf der Platine, sondern einfach nur, dass man damit eine direkte Austauschbarkeit mit konventionellen Festplatten und größtmögliche Kompatibilität (z.B. Bootfähigkeit auch auf allen alten Mainboards) gewährleisten wollte.
Das spielt aber immer weniger eine Rolle.

Wie gesagt, der "natürliche Zustand" einer SSD ist eigentlich eine Erweiterungskarte. Sie wie ein mechanisches Laufwerk in ein Gehäuse zu packen und in einen extra Laufwerksschacht zu montieren war nur eine Notlösung für eine Übergangsphase.
In ein paar Jahren wird es ziemlich sicher kaum noch PC-Gehäuse geben, in denen überhaupt Laufwerksschächte vorhanden sind. Der Trend zeichnet sich jetzt schon ab. (Und schon vorher werden sie in Notebooks komplett aussterben.)

Indem man die Laufwerksschächte und die dazugehörige Verkabelung los wird, fallen viele konstruktuive Beschränkungen beim Aufbau der Gehäuse weg. Es werden viel kompaktere PCs möglich und auch ganz neue Konzepte wie z.B. bei den neuen MacPro zu sehen. (Wobei ich es bei den MacPro für eine unglückliche Entscheidung halte, auf klassische interne PCIe-Steckplätze zu verzichten. Schließlich ist das eine Workstation. Bei einem normalen Büro- oder Consumer-PC wäre das schon weniger kritisch.)
 
Holt schrieb:
Das sind Enterprise SSD Controller, der in der Intel PC P3000er Reihe hat 18 Kanäle, der in der Micron P320h sogar 32.

Ok und warum kann man das nicht auf für normal Cosumenten bauen? Was ist dran so schwer?
 
Technologisch wäre das kein Problem, aber die äußerst begrenzte Nachfrage ist m.E. absehbar. Die Controller sind teuer, verbrauchen viel und lediglich bei hochgradig parallelisierbaren Zugriffen, welche im Homeuse eher selten auftreten, schneller als Consumer-SSD. Die Leistung bei kleinen nicht parallelisierbaren Zugriffen, welche im Homeuse häufig stattfinden, ist hingegen nicht besser.
Darüber hinaus liefe man natürlich Gefahr sich sein Enterprise-Portfolio zu kanibalisieren, wenn man solche Controller auf den Consumer-Markt werfen würde.
 
Es ist aber in der Regeln nur eine Frage der Zeit, dass Technologien aus dem Server-/Workstation-Bereich irgendwann ihren Weg in den Consumer-Markt finden.

Im Augenblick mag es noch so sein, dass man als Heimanwender/Spieler keinen Unterschied bemerken würden, ob eine Consumer-SSD (SATA3) im Rechner steckt oder ein PCIe-Enterprise-Modell für eine fünfstellige Summe. (Mal abgesehen von den Kompatibilitäts- und Treiberproblemen, die man mit der Server-SSD wahrscheinlich hätte.)

Irgendwann werden aber auch SSDs, die den heutigen Enterprise-Modellen entsprechen, für ein paar Hunderter an Consumer verkauft werden und man wird die Performance-Unterschiede auch bemerken, durch immer mehr auf Multithreading (und damit auch multiple Dateizugriffe) ausgelegente Consumer-Anwendungen und Spiele und die immer größer werdenden, schieren Datenmengen, die man hin und her schaufelt.
Dann wird man es als selbstverständlich ansehen, dass man z.B. in Sekundenbruchteilen mal eben eine zig TB große Partition auf ein neues Laufwerk spiegelt usw.
 
Dr. MaRV schrieb:
Bei SSDs als Speichersystem zur Archivierung von Daten, wie es viele wollen sehe ich ein Problem.
Solange die SSDs im Rechner laufen und benutzt werden, siehe ich da kein Problem. Die Daten bleiben da erhalten und werden wegen der Wearlevelings auch regelmäßig intern umkopiert, selbst wenn sie ewig nicht verändert wurden. Anders sieht es aus, wenn man die SSDs nur einmal beschreiben und dann jahrelang im Schrank lagern will, aber das möchte wohl noch keiner von uns, dafür sind sie einfach auch zu teuer. Dafür sind aber moderne HDDs auch nicht ideal und das ganze Thema Langszeitspeicherung digitaler Daten gehört hier auch nicht rein, das ist sowieso kompliziert genug und SSDs werden da sicher nicht die Lösung sein.

Dr. MaRV schrieb:
Weiter lassen sich die NAND Chips nicht so löschen wie eine Magnetscheibe. Was dazu geführt hatte, dass SSDs bei meinem Arbeitgeber verboten wurden.
Natürlich kann man die NANDs vernünftig löschen, wo ist das Problem? Probleme gibt es nur, wenn der Controller defekt ist, aber das ist bei HDDs nicht anders und in beiden Fällen wird dann sowieso der Datenträger mechanisch zerstört (geschreddert), was sowieso der normale Entsorgungsweg bei Firmen mit sensiblen Daten sein sollte, für alle ausrangierten Datenträger. Das spricht nicht gegen SSDs, da hat(te) wohl jemand bei Deinem AG falsche Vorstellungen.

Dr. MaRV schrieb:
Jetzt wo die Think Pads ab Werk mit SSD ausgeliefert werden, hat man sich damit arrangiert.
Von der CD hat man anfangs auch behauptet die Daten hielten 500 Jahre, am Ende waren es manchmal keine 5 Jahre.
Langzeitdatenspeicherung ist wie gesagt ein anderes Thema und CD kann man nicht mit SSDs vergleichen, die im Rechner laufen, sondern mit solchen die im Schrank liegen, wofür die aber zumindest für Heimanwender, noch viel zu teuer sind.
Dr. MaRV schrieb:
Die konventionellen HDDs haben dieses Problem nicht, hier stellt eher die Mechanik, die mit der Zeit anfällig wird ein Problem dar, wer schon mal Diskshelves abschalten musste die 4 oder 5 Jahre durchliefen weiß war ich meine. Beim Wiedereinschalten fallen nicht selten ein paar Platten aus. Die Daten selbst auf den Scheiben überdauern hingegen sehr lange Zeiträume, die Technologie ist gut erforscht und bereits seit Anbeginn im Einsatz.
Nur wie kommt man an die Daten ohne einen Spezialisten, der dann wieder ein Sicherheitsrisiko darstellt? Eben dafür hat man dann wieder Backups und in Unternehmen meist auf Bändern, einer noch älteren Technologie.

Herdware schrieb:
So wie ich das sehe, werden sich diese beiden Probleme mit der Zeit von selbst erledigen, indem die Kapazität pro Chip immer größer und der Verbrauch (und damit die Abwärme) immer niedriger wird. Das ist die typische Entwicklung bei Halbleitern/ICs.
Typisch war aber eben bisher, dass die Erhöhung Gesamtleistung die der Effizienz bei weitem überwiegt und am Ende die TDP immer weiter gestiegen ist. Das ist bei den CPU doch auch genau so gelaufen, die ersten 8086, 80286, 80386 hatten keine Kühlkörper, die wurden auch kaum warm. Deren Leistung ist aber für heutige Verhältnisse auch nur mickrig. Bei SSDs und dort vor allem bei den Controllern wird man klar den Kompromiss zwischen Leistung und Wärmeentwicklung gehen müssen, wobei das Ergebnis je nach Einsatzzweck und Bauform unterschiedlich sein wird.

Herdware schrieb:
Und tatsächlich scheinen diese Probleme ja auch jetzt nicht so dramatisch zu sein. M.2 kommt auf allen neuen Mainboards serienmäßig und in Notebooks sind solche SSDs in kompaktem Kartenformat schon länger üblich. (In meinem Ultrabook stecken gleich zwar davon.)
M.2 ist der Nachfolger von mSATA und natürlich für kompakte Gehäuse, also vor allem Note- und Ultrabooks gedacht, das ist logisch und da sind auch Kompromisse bzgl. Leistungsaufnahme und Kapazität einzugehen, zumal die SSDs dort i.d.R. ab Werk verbaut werden und schon die Kosten zu große Kapazitäten bei den SSDs verbieten.

Deshalb bezog ich mich auch auf den klassischen Desktop, da hat man die Wahl zwischen M.2, was ja auf immer mehr Boards vorhanden ist, PCIe Slotkarten und eben SATA Express / SFF-8639, wobei das vor allem über die Workstations und Server Einzug halten wird, weil es erst aber mehreren PCIe angebundenen SSDs interessant wird und so bald noch kaum ein Heimanwender mehrere solcher SSDs verbauen dürfte. Von ein paar Enthusiasten abgesehen, die dann aber auch Enthusiasten Boards (S.2011-3) mit mehreren Slots und mehr als 16 PCIe Lanes von der CPU nutzen werden, also auch 2 oder 3 Slotkarten verbauen können.

Herdware schrieb:
Der wirkliche Grund, warum man überhaupt erst auf die Idee gekommen ist, SSDs in Laufwerksgehäuse zu packen und per SATA anzuschließen, ist doch auch weder Temperatur noch zu wenig Platz auf der Platine,
Natürlich, aber das die Temperaturen ein Problem werden, zeigt sich ja jetzt erst mit den immer schneller werdenden SSDs, die ersten waren noch so lahm, da war das kein Thema, die hatte meist nicht einmal einen Temperatursensor.
Herdware schrieb:
sondern einfach nur, dass man damit eine direkte Austauschbarkeit mit konventionellen Festplatten und größtmögliche Kompatibilität (z.B. Bootfähigkeit auch auf allen alten Mainboards) gewährleisten wollte.
Das spielt aber immer weniger eine Rolle.
Auch das stimmt, mit SATA Express, M.2 und NVMe schaffen es die SSDs als eigene HW Klasse in den Rechner einzuziehen und sind nicht mehr nur durch die Performance und fehlende Angabe einer Drehzahl von HDDs zu unterscheiden. Trotzdem bleibt das Kernproblem, wie man genug davon anbinden und unterbringen kann, wenn diese dann erst einmal preislich so gefallen sind, dass man nicht nur eine oder zwei im Rechner haben möchte, sondern sie die internen HDDs wirklich ablösen. Standard sind bei Desktopchipsätzen heute 6 SATA Ports, aber man wird kaum 6 PCIe Slot alleine für SSDs haben noch 6 M.2 Slots, außer man stellt diese senkrecht. Dann bleibt aber immer noch das Problem, dass die M.2 Karten wenig Platz für NANDs bieten und daher sage ich, dass die Lösung eben 2.5" (oder 3.5") und SFF-8639 Interface sein wird. Nicht heute oder morgen, aber übermorgen.

Herdware schrieb:
Wie gesagt, der "natürliche Zustand" einer SSD ist eigentlich eine Erweiterungskarte. Sie wie ein mechanisches Laufwerk in ein Gehäuse zu packen und in einen extra Laufwerksschacht zu montieren war nur eine Notlösung für eine Übergangsphase.
Das wird aber wieder kommen, eben weil man anders schwer sehr viele PCIe angebundene SSDs unterbringen kann. Das SFF-8639 Kabel verlängert die PCIe Lanes zu den Laufwerken die man dann wieder dort unterbringen kann, wo es passt.
Herdware schrieb:
In ein paar Jahren wird es ziemlich sicher kaum noch PC-Gehäuse geben, in denen überhaupt Laufwerksschächte vorhanden sind.
Wenn man nicht von solche Mini-Gehäuse wie NUC redet, dann sehe ich das nicht. Die Schächte braucht man noch eine Weile für HDDs, die Gehäuse und Netzteile haben ja auch heute noch fast alle eine Einbau- und Anschlussmöglichkeit für Floppylaufwerke, obwohl die Boards dies kaum noch haben und kein Mensch die mehr nutzt. Die 3.5" und 2.5" Einbauplätze werden also so bald auch nicht aus den Gehäusen verschwinden.
Herdware schrieb:
Der Trend zeichnet sich jetzt schon ab. (Und schon vorher werden sie in Notebooks komplett aussterben.)
Wirf nicht Notebook und Desktop durcheinander, das sind HW-mäßig wirklich zwei getrennte Welten. Das man im Notebook mit den HDDs die 2.5" Schächte rauswerfen wird, liegt in der Natur der Sache, denn man will ja meist möglichst kompakte Gehäuse erreichen.

Herdware schrieb:
Indem man die Laufwerksschächte und die dazugehörige Verkabelung los wird, fallen viele konstruktuive Beschränkungen beim Aufbau der Gehäuse weg. Es werden viel kompaktere PCs möglich
Die gibt es ja schon, von NUC über die Mini-ITX, aber nicht jeder will so etwas! Es wird auch weiter die Mini- und Maxi-Tower geben und wer eine potente HW unterbringen will und dazu auch eine größere Menge lokalen Storages, der wird weiterhin zu den größeren Gehäusen greifen (müssen).

Herdware schrieb:
Wobei ich es bei den MacPro für eine unglückliche Entscheidung halte, auf klassische interne PCIe-Steckplätze zu verzichten.
Wie Du sieht, erfordern kleine Größe eben auch Abstriche, die manchmal schmerzlich sind. Es gilt eben immer noch, dass man umso weniger ändern und nachrüsten kann, je kompakter das Gehäuse ist. Das war bei Apple ja nie die Philosophie, die wollen nie offene Systeme schaffen, aber bei normalen PCs gibt es noch genug Kunden, die auch individuelle Aufbauten und Konzepte verfolgen. Deren Anteil dürfte sogar steigen, da die klassischen Noops die einfach einen Fertig-PCs gekauft haben, heute meist auf Notebooks, Tablets oder Smartphones migriert sind.

Tekpoint schrieb:
Ok und warum kann man das nicht auf für normal Cosumenten bauen? Was ist dran so schwer?
WeltalsWille hat es auf den Punkt gebracht, es fehlen nur noch die Punkte Kosten und Leistungsaufnahme.

Herdware schrieb:
Irgendwann werden aber auch SSDs, die den heutigen Enterprise-Modellen entsprechen, für ein paar Hunderter an Consumer verkauft werde
Übrigens unterscheiden sich richtige Enterprise SSDs von Consumer SSDs auch noch durch den Schutz der internen Datenpfade vor Bitfehlern. Es gibt aber auch SSD die als Enterprise SSDs vermarktet werden aber so etwas nicht haben.
 
Voyager10 schrieb:
Für eine Systempartition mit Anwendungen reicht die 90 Euro Crucial 256gb, für alles andere tuts dann eine HDD locker.

Eine HDD gibt immer Geräusche von sich und ist langsam im Zugriff (und zwar je leiser, desto lahmer!)
So ein System komplett ohne HDDs wäre schon was Feines!
 
Dr. MaRV schrieb:
... Weiter lassen sich die NAND Chips nicht so löschen wie eine Magnetscheibe. Was dazu geführt hatte, dass SSDs bei meinem Arbeitgeber verboten wurden...

Hm, also hier steht (mit Hilfe von Linux)...
... Löschen mit Secure Erase¶
Um das Löschen durchführen zu können, darf die SSD nicht eingebunden (siehe mount) sein, weshalb man von einer Live-CD oder einem Live-USB booten muss...
In diesem Artikel zeigen wir wie Sie unter Linux ein Secure Erase einer SSD durchführen.
Sie können damit die Performance vieler gebrauchten SSDs für die künftige Anwendung steigern...
SSD komplett löschen:
Ein Security Erase – häufig auch Secure erase genannt – kann sich tatsächlich positiv auf die Schreibrate einer SSD auswirken.
Beobachtet haben wir diesen Effekt bisher hauptsächlich bei SSDs mit Sandforce-Controller
, wenn sich ihr Kompressionsalgorithmus an nicht komprimierbaren Testdaten verschluckt hatte.
...
Secure Erase bezieht sich immer auf das ganze Laufwerk und nicht etwa nur auf den freien Bereich.
Selbst Datenretter sind nach dem „sicheren Löschen“ machtlos.
 
Zuletzt bearbeitet:
White_Eagle schrieb:
Sie können damit die Performance vieler gebrauchten SSDs für die künftige Anwendung steigern..
Das ist bei den SSDs mit dem Sandforce Controller so, oder wenn sie nie getrimmt wurden, sonst stimmt das nicht wirklich.
 
Mir würden 64GB reichen, 128 ist schon zu viel. Warum soll ich mir da TLC-Probleme freiwillig in's Haus holen? Mein Laptop mit Windows 3.11 hatte 120MB und hat auch gereicht. Schon damals hatte ich befürchtet, dass es in Richtung Bildzeitung gehen wird. Heute haben wir nur noch Katzenvideos mit Werbung davor, nach spätestens 2 Sekunden wird abgeschaltet.
 
Krautmaster schrieb:
weil man MB/s auch so merkt gelle. Ich bin mir sicher dass die Zugriffszeit und IP deutlich mehr ins Gewicht fallen. Dahingehend sollte man SSD optimieren, nicht auf einen Schwanzvergleich auf Basis Sequentiellen Datenraten...

ich gehe bei den von mir genannten Eckdaten von angleichend steigenden anderen Eckdaten aus. schließlich liegt das von mir erwähnte Bauteil sehr wahrscheinlich bisher nur als Sample oder gar Sketch rum. eh es also auf den Markt kommen wird, werden die anderen Eckdaten sicherlich ähnlich stark angestiegen sein. gelle?!
 
katzilla, mein ASRock Z97 Extreme 6 hat schon SATAexpress und viele andere aus, das ist nicht mehr Sample oder Sketch, aber SATA Express hat nur 2 PCIe Lanes und die sind bisher bei allen Boards nur mit PCIe 2.0 Lanes realisiert. Für die von Dir gewünschte Bandbreite braucht es eben SFF-8639 und das ist kein SATA Express mehr. Das hatte ich doch schon geschrieben.
 
@Holt ... wo schreibe ich, daß ich die Bandbreite bei SataExpress will? ich will sowas als m.2! Bitte lies das nochmal sorgfältig.
katzilla schrieb:
aber nicht diese lahme SATA Schnittstelle mit nur 6GBit/s. wenn, dann schon auch via SATAexpress. am liebsten wäre mir ne m.2 mit >=3500MB/s lesen und mindestens 2000MB/s schreiben. das ganze als 2280 mit >=4TB und für nur unter 1k€.

allerdings bitte ohne Kühlkörper! ^^

wo steht da was von SataExpress?


nevermind...

http://www.hardwareluxx.de/index.ph...1-m2-ssd-mit-asrock-z97-extreme6-im-test.html

sata express ist mit 10GBit/s spezifiziert
m.2 ist mit 32GBit/s spezifiziert. und wer sich nur ein Board mit nem m.2 nach B-Kodierung mit 6GBit/s holt ... sorry, aber das ist Pech bis Eigenverschulden. und auf den Z97ern wird auch schon hin und wieder mit x4@3.0 gearbeitet. bei den x99ern haben das Asus x99 Deluxe und auch das x99e-ws x4@3.0. da ginge auch gar nichts mehr mit pcie2.0, da es da bis zu 88 native 3.0er Lanes sind. bei den z97ern gibt's derer leider nur 16 und die werden entweder alle für die Graka verbraucht oder bei MultiGPU x8x8 oder bei zusätzlicher m.2 SSD@x4@3.0 dann nur noch x8x4 für die Grakas.

und hier noch ner schicken Beitrag auf Golem: http://www.golem.de/news/test-m-2-und-samsung-xp941-lauf-ssd-lauf-1405-106279.html
 
Zuletzt bearbeitet:
Hardwareluxx bezieht sich da auf ein konkretes Board, wobei das 10Gb/s für alle aktuellen Boards mit SATA Express Realität sind, aber spezifiziert sind 2 PCIe Lane und die bis maximal PCIe 3.0, also 16Gb/s. Wobei die Gb/s Angeben irreführend sind, da bei 1.0 und 2.0 eine 8b10b Kodierung verwendet wird und bei PCIe 3.0 eine 128b/130b, weshalb der Durchsatz bei PCIe 3.0 praktisch doppelt so hoch ist wie bei PCIe 2.0.
 
dann verstehen wir uns ja. ^^

ich begrüße auch pcie3.0, da durch die neue Kodierung der Verwaltungsoverhead von 20% auf etwa 1,54% sinkt. daran erkennt man den Fortschritt. Optimierung ist das Zauberwort.
 
Außer dem Overhead der Bitkodierung gibt es aber bei PCIe über die höheren Protokollebenen auch noch weiteren Overhead und der macht etwa 20% aus. Man bekommst daher auch bei PCIe 2.0 x2 im besten Fall auf knapp 800MB/s und bei PCIe 3.0 x4 auf gut 3GB/s netto. Das ist leider so, es müssen ja auch Befehle und Prüfsummen übertragen werden, es können also nicht immer nur Nutzdaten über die Leitung kommen.
 
Nur Nutzdaten. Das Optimum! Aber wohl erst mit Cmdr. Data!
 
Zurück
Oben