Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Nach über zwei Jahren hat die Serial ATA International Organization (SATA-IO) eine neue Version der SATA-Spezifikation verabschiedet. SATA 3.2 beinhaltet unter anderem SATA Express, neue Form-Faktoren wie M.2, Verbesserungen bei der Energieverwaltung sowie Optimierungen für SSHDs.
SATA 3.2 ist doch mal ein Argument, um endlich von Sandy / Ivy Bridge auf die neuste Intel Plattform zu wechseln, wenn mangelnde CPU-Leistung kein Anlass dazu war.
Schön, dass sie endlich den Standard fertig gebracht haben.
Allerdings ist die SATA IO irgendwie trotzdem noch immer einen Schritt hinterher.
Kurz nach Verabschiedung von SATA 6Gb/s waren erste SSD vorhanden, welche vom Standard limitiert wurden bzw. diesen ausgereizt haben.
Und nun mit SATA 3.2 wieder ein Standard, welcher schon vor Fertigstellung fast an die Grenzen stößt:
Auf der Computex 2013 hatte Adata zudem eine NGFF/M.2-SSD mit sequenziellen Transferraten von 1.800 MB/s präsentiert.
"Dieser kombiniert die Software-Infrastruktur der SATA-Schnittstelle mit dem deutlich schnelleren PCI-Express-Interface" Was soll der Mist denn wieder? Das bedeutet doch nichts anderes, als dass wieder dieses uralte und die SSDs total ausbremsende AHCI Protokoll verwendet wird und nicht das schnellere NVM Express. Zumindest ist davon keine Rede, dabei war ursprünglich davon die Rede beide Protokolle für SATA Express verwemden zu vollen (so wie IDE und AHCI bei SATA), aber das entsprechende Dokument "AHCI and NVMe as interfaces for SATA Express™ Devices - SATA-IO" ist nicht mehr auf dem Server.
Bringt kaum was. Selbst eine Ramdisk mit über 10GByte/s sequenziell ist nur wenige vernachlässigbare Sekunden scheller bzgl. Ladezeiten als eine flotte SSD per SATA 6G.
Das ist eine SSD mit dem kommenden Sandforce, die erreicht solche Werte doch wieder nur mit extrem komprimierbaren Daten, lasst euch doch nicht immer so grob verschaukeln.
Das ist eine SSD mit dem kommenden Sandforce, die erreicht solche Werte doch wieder nur mit extrem komprimierbaren Daten, lasst euch doch nicht immer so grob verschaukeln.
Auch wenn nur bei sehr gut komprimierbaren Daten solche Datenraten bereits zu erreichen sind, dürfte in kürze trotzdem weit größere Datenraten möglich sein.
Allerdings können dann bei sehr gut komprimierbaren Daten trotzdem keine höheren Datenrate laut Standard erreicht werden.
@Holt: NVMe wird wirklich mit keinem Wort erwähnt. Vielleicht wird das (vorerst) nur im Enterprise-Bereich eingesetzt. Zumindest hat Samsung eine Enterprise-SSD mit NVMe-Support vorgestellt.
Computerbase hat ja noch keinen Vergleichstest zwischen PCI-e und S-ATA SSDs gemacht (wird doch bspw im neuen Mac eingesetzt)?
Kommt da noch was, ist diese Technik überhaupt schon richtig auf dem Markt?
1. Problem ist davon zu booten, das ging ewig lange garnicht und heute bei vielen immer noch nicht (richtig)
2. teuer
3. intern meist als Raid 0 Konfiguriert, was den Totalverlust aller Daten erhöht
usw...
Es gibt nur wenige für den Profibereich die eine Berechtigung haben, den andern Kram kann man vergessen
Was ich an dieser Stelle nicht so richtig verstehe ist: Die Notwendigkeit bei steigenden Datenraten auch entsprechende Schnittstellen (Protokoll, Signalisierung) nachzureichen sehe ich voll und ganz ein, aber mit jedem neuen Standard eine neue Schnittstelle (Hardware) einzuführen empfinde ich mittlerweile als lästig. Ich verwende ja aus Kompatibilitätsgründen noch einen PCI SCSI Controller auf meinem Board. Irgendwo verstehe ich auch die neue Bauform zu miniPCIe nicht so ganz.
Wie gesagt: Wo Fortschritt muss, kann ich das durchaus einsehen, aber jede 3. Woche eine neue Schnittstelle, da kann man sein Board ja nicht nachkaufen. Und Schnittstellen-Controller sind absolut unnötige Hardwarekomponenten. Denn meist liegt man mit Verkauf des alten Systems (wenn es nicht zu alt ist) günstiger bei Neukauf, also entsprechende Controller anzuschaffen.
Erstmal ein Lob an Computerbase, dass ihr euch immer mehr angewöhn Bits und Bytes hervorzuheben.
Hat mir zwar eher wenige Probleme gemacht, hilft aber der Übersichtlichkeit und vermeidet Missverständnisse. Weiter so
Und bezüglich der Fragen "Warum nicht gleich bis PCIe x16?" und "warum veraltete Protokolle?", denke ich folgendes:
Im Computersektor wird jedes Jahr eine neue Sau durchs Dorf getrieben (ähnlich wie in der Bildungspolitik in SPD geführten Ländern). Man möchte wohl schlicht keine Schnittstelle bringen, die viel zu breit dimensioniert ist - dann kann man ja nicht in zwei Jahren etwas neue revolutionäres Anpreisen und verscheuern. Der Kunde wird mit kleinen Evolutionen abgefüttert, damit er immer neu kauft.
Wie bei Intel - die Ivy Bridge Kerne waren im Vergleich zu dem IO Kram und vor allem der GPU geradezu winzig. Es wäre für Intel kein Problem gewesen 6-Kerner mit 95W TDP und ~3,5Ghz im Mainstreamsektor zu bringen. Die Dies wären trotzdem klein geblieben (vermutlich immernoch bedeutend weniger als Orochi vom AMD) und es hätte keinen Aufwand bedeutet.
Aber wer hätte dann Heizwell kaufen sollen? Intel möchte sicherlich einen neuen Q6600 verhindern und bringt keine überdimensionierten Prozessoren für "kleines Geld" mehr raus.
Eben und auf der Seite für SATA Express von sata-io.org https://www.sata-io.org/sata-express fehlen ausgerechnet die Dokumente, die mit NVMe zu tun haben. Die wurde doch wohl mit Absicht entfernt und dann kann es nur daran liegen, dass man NVMe eben nicht in den Standard aufgenommen hat. Das wäre aber gerade sinnvoll, da eben die kurzen Latenzen des Protokolls bei kurzen Zugriffen einen großen Unterschied machen und davon hat man als normaler eben viel mehr als von 1, 2 oder 4GB/s maximaler Transferrate, die man mangels häufiger langer seq. Zugriffe sowieso kaum erreicht.
Das man nun gerade bei SATA, welches sowieso im Enterprisesegment eine Nebenrolle spielt, hier nun einen Cosumer und einen Enterprise Standard machen wird, kann ich mir nicht vorstellen, zumal auch in dieser Vorstellung von 2013 von Client Stoage, Enterprise Connection (die bekommen einen anderen Stecker nach SFF-8639), sowie von AHCI und NVMe für die SW die Rede ist.
Genau deswegen wundert mich das ja auch so. Vielleicht hat Samsung es kommen sehen, dass NVMe es nicht in den Standard schaffen wird und wollte nach mal die Werbetrommel dafür rühren. Die meisten Hersteller werben ja nur mit den maximalen Transferraten und allenfalls noch den IOPS, aber niemand gibt an, wie denn die Performance bei Randomzugriffen und QD1 aussieht.
Ununhex schrieb:
Computerbase hat ja noch keinen Vergleichstest zwischen PCI-e und S-ATA SSDs gemacht (wird doch bspw im neuen Mac eingesetzt)?
Was Du meinst ist wohl eher M.2, genau worum es ja hier geht. Das ist nur noch nicht verfügbar, da es noch kaum Geräte mit der Schnittstelle gibt und wenn, dann nur wenige, ganz neue Notebooks wo es mSATA ablöst und dann i.d.R. auch über die SATA Schnittstelle genutzt wird, die neben den PCIe Lane auch vorhanden ist.
Es gibt auch normale PCIe SSDs und da hat CB mal das OCZ Revo getestet, aber da sitzt bei den Consumer SSDs immer nur ein SATA oder SAS Host- bzw. RAID Controller mit einigen SATA Host Controllern drauf, also nichts was man mit einer normalen PCIe Karte und 2.5" SSD im RAID 0 nicht eigentlich selbst bauen könnte. Die lohnen sich praktisch aber nicht und spielen nur im Enterprise Segment eine Rolle, wo dann aber wieder ganz andere Controller genutzt werden. FusionIO macht nur solche SSDs, aber die kannst und willst Du Dir sicher nicht leisten, denn deren Stärke kommt erst bei Lasten zur Geltung, die man zuhause niemals hat.
Ununhex schrieb:
Kommt da noch was, ist diese Technik überhaupt schon richtig auf dem Markt?
Die M.2 kommen jetzt erst so langsam, denn wie Du siehst ist ja jetzt erst der Standard verabschiedet worden. Was es da schon gibt, dürfte alles noch auf dem Draft beruhen, aber da fehlen leider die Angaben, wie stark das nun von der endgültigen Fassung abweicht. Mit HW die noch auf dem Draft eines Standards beruht, kann man übrigens hinterher böse Kompatibilitätsprobleme bekommen.
GuaRdiaN schrieb:
aber mit jedem neuen Standard eine neue Schnittstelle (Hardware) einzuführen empfinde ich mittlerweile als lästig.
Man kann aber die Technik bestehender Schnittstellen nicht unendlich weit ausdehnen oder eben nur mit einem unverhältnismäßigen Aufwand. Es war ja zuerst ein SATA 12Gb/s angedacht, so wie SAS auf 12Gb/s gegangen ist, aber das sind echt hohe Frequenzen und diese mit billigen Kabeln quer durch eine Computergehäuse zu übertragen ist alles andere als ein Kinderspiel. Es ist noch nicht lange her, da wurden nur Hohlleiter für solche Frequenzen als geeignet angesehen!
SAS für Enterprise, da ist alles sowieso viel turer und spielt es keine Rolle, ob das Kabel nun 30 oder 50€ kostet, aber bei SATA wären Kabel in der Preisklasse nicht durchzusetzen und bei schlechter Qualität gäbe es massive Probleme ebenso wenn die Leute ihre alten Kabel einfach weiter verwenden würden.
Mini-PCIe gibt es schon lange, das hat aber nichts mit SATA zu tu, außer dass der mechanisch gleiche Stecker auch für mSATA verwendet wird! Hier geht es um M.2, das ist was ganz anderes!
Jetzt übertreibe mal nicht, SATA hat PATA vor fast 10 Jahren abgelöst und wird für HDDs auch noch lange erhalten bleiben, denn die profitieren von der Bandbreite des aktuellen SATA 6Gb/s noch immer noch, schaffen doch die schnellsten gerade mal so 200MB/s und das auch nur auf den äußeren Zylindern, innen die Hälfte.
Ergänzung ()
[F]L4SH schrieb:
Und bezüglich der Fragen "Warum nicht gleich bis PCIe x16?" und "warum veraltete Protokolle?"
PCIe x16 verbietet sich ja schon deswegen, weil die akuellen Mainstream Chipsätze alle nur 16 schnelle PCIe Lanes haben und die sind für die Garaka gedacht. Bei Intel muss man zum Sockel 2011 greifen, wenn man mehr will und bei AMD liefert nur der 990FX Chipsatz für den aussterbenden AM3+ Sockel mehr schnelle PCIe Lanes, die dann auch noch nicht einmal Rev. 3.0 sind.
Da überzeuge mal Intel oder AMD nun doppelt so viele Lanes anzubieten um dann einen Massenspeicher mit einer Bandbreite anbinden zu können, die Teils nicht einmal vom RAM bewältigt werden kann!
Das AHCI Protokoll wurde für mechanische Platten entwickelt und optimiert, weil es damals auch noch keine SSDs gab, zumindest keine die man sich in Consumer PCs am SATA Ports vorstellen konnte. Dafür ist das auch in Ordnung, aber für SSDs ist es ein Hemmschuh um nicht zu sagen, der Hemmschuh schlechthin und gehört damit abgelöst.
Wenn man das nur nicht aufgenommen hat, weil es derzeit eben noch kaum möglich wäre davon zu Booten, dann packt man eben den Bootloader auf eine Daten-HDD und lädt dort den Treiber nach, das ist nicht optimal aber immer noch besser als auf NVMe zu verzichten.
[F]L4SH schrieb:
Der Kunde wird mit kleinen Evolutionen abgefüttert, damit er immer neu kauft.
Das ist sicher nicht falsch, aber der Kunde will ja auch immer das neueste haben, wie man bei den Handys sieht, die schon praktisch komplett von den Smartphones verdrängt wurden und wehe jemand hat nicht das Gerät der neuesten Generation in der Tasche, wenn das da überhaupt noch reinpasst
Haswell ist vor allem eine Weiterentwicklung der GPU (wie alle Intel CPUs seid Intel die GPU integriert hat) und auf dem Feld ist Intel noch nicht lange aktiv, muss also noch viel lernen und kann den Rückstand sicher nicht von heute auf morgen aufholen.
PCI-E SSDs gibt es schon seit Jahren.
1. Problem ist davon zu booten, das ging ewig lange garnicht und heute bei vielen immer noch nicht (richtig)
(...)
Wobei ich nicht so ganz nachvollziehn kann warum. Vor vielen Jahren hab ich mir mal nen extra Raid-Controller in den Rechner gesteckt und anschließend problemlos über diesen booten können. Im BIOS tauchte dann halt der Controller als Boot-Device auf, die man wie jede normale Festplatte auswählen konnte.
Scheitert das bei den PCIe-SSDs an den Controllern oder an den Mainboards, dass diese nicht (mehr) mit sowas umgehen können?