News HDDs der Zukunft: Festplatten sollen PCIe und NVMe bekommen

R O G E R schrieb:
Ich dachte HDDs sind tot.
Und als Massengrab reicht doch SATA3 locker

Noch lange nicht im Datacenterumfeld, wenn du mal paar hundert TB günstigen Speicher brauchst,
mein Backup landen sicherlich nicht auf SSDs.
 
Selbst bei aktuellen Mainboards teilen sich mehrere Geräte PCIe Lanes so dass man immer gezwungen ist zu schauen was wirklich geht.

Von daher, solange die Anzahl der Lanes nicht erhöht wird braucht man gar nicht drüber zu philosophieren mehr Geräte darüber anbinden zu wollen.
 
xexex schrieb:
EDIT: Hier sieht man wie sowas aussieht.
Anhang anzeigen 924656
2* Sata gegen 4x PCIe Lanes, schlechter tausch. 2x PCIe Lanes an einem Switch der jedem Gerät nur eine Lane gibt? Last Sata #1 und alle PCIe x1 weg und verbaut einen x4 mit Bitfurcation. Oder sind das wirklich Switches (also nicht geshared)?
 
Zuletzt bearbeitet:
AlphaKaninchen schrieb:
Es ist ein Bus, heißt wenn du z.B. etwas von einer HDD auf eine andere kopierst bremsen sie sich gegenseitig aus
Aber nur, wenn du es wirklich als Bus benutzt. Solange nur eine Platte pro Anschluss benutzt wird ...
AlphaKaninchen schrieb:
außerdem hat USB hohe Latenzen,
HDDs selbst haben aber noch höhere Latenzen.
Deswegen sehe ich im Moment beide Möglichkeiten als etwa gleichwertig an.
PS :
Wie sieht es eigentlich mit maximalen Kabellängen aus ? Ich befürchte das die bei PCIe kürzer sein wird als bei SATA und man da eventuell bei großen Tower-Gehäusen an Grenzen stoßen könnte.
 
mkossmann schrieb:
PS :
Wie sieht es eigentlich mit maximalen Kabellängen aus ? Ich befürchte das die bei PCIe kürzer sein wird als bei SATA und man da eventuell bei großen Tower-Gehäusen an Grenzen stoßen könnte.
Reichen 2m*? Das ist aber das letzte was da gefragt wird, die HDDs kommen im Server eh in eine Backplane. In deinem PC hast du hoffentlich eh nurnoch SSDs bis NVMe HDDs wirklich relevant werden.

*Die maximallänge für Thunderbold 3 Kabel
Ergänzung ()

mkossmann schrieb:
HDDs selbst haben aber noch höhere Latenzen.
Ich hatte hier am Mac mini mal das System auf einer per USB verbunden MX500 (SSD), die Latenz war deutlich zu merken bei allem was man gemacht hat. Um diese Dinge abzufangen benutzt man Caches (sowohl im Ram als auch in der HDD) aber je seltener man diese braucht desto besser, den alles Cachen geht nicht.
Ergänzung ()

mkossmann schrieb:
Aber nur, wenn du es wirklich als Bus benutzt. Solange nur eine Platte pro Anschluss benutzt wird ...
Also genau das was PCIe macht?
PCI hat auch als Bus angefangen, als das nicht mehr gut genug war hat man dann PCIe entwickelt, gleiches Protokoll aber ohne Bus, dafür mit Punkt zu Punkt verbundenen Lanes.
Ergänzung ()

Wenn USB so gut ist dann sag mir doch warum für USB 4, USB intern auch PCIe nutzen wird?
Dann eben über ein USB C Kabel (wie Thunderbold 3).
 
Zuletzt bearbeitet:
AlphaKaninchen schrieb:
2* Sata gegen 4x PCIe Lanes, schlechter tausch.
Bei Asrock gibt es auch ein Board das 4 Leitungen von PCH auf einen Oculink führt und man durch entsprechendes Kabel ( und Einstellung im UEFI ?) die Wahl zwischen 4x SATA oder einmal U2/PCIe x4 hat.

Die Steckverbinder/Kabel dürften mMn ein Knackpunkt sein, wenn man bei HDDs auf PCIe umstellen will. Außer USB-C ist meines Wissens derzeit nichts auf dem Markt, was vergleichbar preiswert wie ein SATA-Stecker/Kabel ist und in der Lage ist PCIe zu führen.

AlphaKaninchen schrieb:
die HDDs kommen im Server eh in eine Backplane.
Auch eine Backplane trägt zur Kabellänge bei. Aber ich habe da eher an Nutzer gedacht, die eine Glasscheibe in der Gehäusewand haben und deswegen das Kabel nicht auf dem direkten Weg , sondern über ein paar Ecken zur Platte führen wollen.
 
mkossmann schrieb:
Bei Asrock gibt es auch ein Board das 4 Leitungen von PCH auf einen Oculink führt und man durch entsprechendes Kabel ( und Einstellung im UEFI ?) die Wahl zwischen 4x SATA oder einmal U2/PCIe x4 hat.
Ich habe dieses Board hier, ist eine Einstellung im UEFI, aber Kabel für Oculink auf Sata zufinden war echt nicht einfach.
 
PS828 schrieb:
Und die derzeitige Stagnation oder gar ansteigen Preise untermauern dies.
Das liegt vor allem am Bedarf. Angebot und Nachfrage. Erst wenn das Angebot deutlich größer als die Nachfrage ist, werden auch die Preise entsprechend sinken.
Auch wenn du mit dem Rest nicht ganz unrecht haben magst. ;)
 
mkossmann schrieb:
Die Steckverbinder/Kabel dürften mMn ein Knackpunkt sein, wenn man bei HDDs auf PCIe umstellen will. Außer USB-C ist meines Wissens derzeit nichts auf dem Markt, was vergleichbar preiswert wie ein SATA-Stecker/Kabel ist und in der Lage ist PCIe zu führen.
Das liegt aber vorallem an der Masse und ein normales USB-C Kabel kann kein PCIe nur ein Thunderbold Kabel kann PCIe. Ja zwei Kabel gleicher Stecker, aber können nicht das gleiche, der sinn dahinter ist das Thunderbold Controller im Kabel braucht...
mkossmann schrieb:
Auch eine Backplane trägt zur Kabellänge bei. Aber ich habe da eher an Nutzer gedacht, die eine Glasscheibe in der Gehäusewand haben und deswegen das Kabel nicht auf dem direkten Weg , sondern über ein paar Ecken zur Platte führen wollen.
Stimmt aber in einer Backplane kann man die Abstände genauer einhalten (länger Strecken mit weniger Paketverlust möglich) außerdem ist die Schirmung mit einem Stück blech erledigt statt super dick isolierten Kabeln.
 
mkossmann schrieb:
Die Steckverbinder/Kabel dürften mMn ein Knackpunkt sein, wenn man bei HDDs auf PCIe umstellen will. Außer USB-C ist meines Wissens derzeit nichts auf dem Markt, was vergleichbar preiswert wie ein SATA-Stecker/Kabel ist und in der Lage ist PCIe zu führen.

Man kennt ja schon die OCuLink Kabel, aber es wurden bereits 2007 externe PCIe Kabel spezifiziert. Man könnte natürlich aber auch einfach bei SATA Steckern bleiben und es so wie bei M.2 lösen.
1590594156182.png


Versucht hatte man das ja bisher mit SATA Express, man hätte aber statt der komischen Stecker, es wie bei USB 3.0 lösen sollen, die Buchse gleich belassen und nur die Anzahl der Kontakte erhöhen.
1590594347787.png

https://en.wikipedia.org/wiki/SATA_Express
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
AlphaKaninchen schrieb:
Ich hatte hier am Mac mini mal das System auf einer per USB verbunden MX500 (SSD), die Latenz war deutlich zu merken bei allem was man gemacht hat.
Ja, bei einer SSD... . Bei einer HDD wirst du im wesentlichen auf Spurwechsel der Leseköpfe warten, die nochmal deutlich länger dauern.

AlphaKaninchen schrieb:
Ja zwei Kabel gleicher Stecker, aber können nicht das gleiche, der sinn dahinter ist das Thunderbold Controller im Kabel braucht...
Aktive Elekronik im Kabel ist aber ein Problem. Weil das dazu führen wird, das ein Kabel nicht wie bisher für unter 10 € zu bekommen ist, sondern teurer deutlich wie bisher wird. Das wird der Markt bei HDDs wohl nicht hergeben.
 
mkossmann schrieb:
Ja, bei einer SSD... . Bei einer HDD wirst du im wesentlichen auf Spurwechsel der Leseköpfe warten, die nochmal deutlich länger dauern.
Natürlich merkt man den unterschied mit einer HDD nicht so krass aber die Latenz ist ja immer noch da und kommt auf die normale Latenz einer HDD oben drauf. Außerdem braucht man dann einen Stecker für HDDs und einen für SSDs...
mkossmann schrieb:
Aktive Elekronik im Kabel ist aber ein Problem. Weil das dazu führen wird, das ein Kabel nicht wie bisher für unter 10 € zu bekommen ist, sondern teurer deutlich wie bisher wird. Das wird der Markt bei HDDs wohl nicht hergeben.
Darauf wollte ich hinaus, ich denke U.2 und OCulink sind am besten, diese haben nämlich eben keine aktiven Komponenten im Kabel. (soweit ich weiß)
 
Zuletzt bearbeitet:
mkossmann schrieb:
Wenn du ein Blockschaltbild für aktuelle Intel Chipsätze anschaust, siehst du, das genau diese "Verschwendung" heute schon stattfindet :

Jain. Unter "natives Interface zur CPU" verstehe ich was anderes als einen IO Hub der eh nur über 4 Lanes mit der CPU angebunden ist. Das Ding dann noch "intelligent" Belegungen managen zu lassen wird dann leicht teurer als die interne Anbindung. SATA Controller hingegen sind centartikel.
Das Problem an der "Lösung" ist im Moment das fehlen eines Problems. Wenn wir die Entwicklung zu ende denken stirbt SATA in den typischen Konsumergeräten eh aus.
 
  • Gefällt mir
Reaktionen: bad_sign
Botcruscher schrieb:
Wenn wir die Entwicklung zu ende denken stirbt SATA in den typischen Konsumergeräten eh aus.
Um die geht es aber nicht, es geht um Server und wenn Sata im Consumer Berecih stirbt wird es dort richtig schön teuer, so wie heute U.2
 
  • Gefällt mir
Reaktionen: xexex
AlphaKaninchen schrieb:
Darauf wollte ich hinaus, ich denke U.2 und OCulink sind am besten, diese haben nämlich eben keine aktiven Komponenten im Kabel. (soweit ich weiß)
Ich meine , da spielt der Stecker nur einen Teilaspekt, es hängt auch von der Kabellänge ab. TB3-Kabel mit USB-C-Stecker können bis 50cm passiv sein, darüber hinaus braucht es aktive Elektronik im Stecker. Ein anderer Stecker mit besseren elektrischen Eigenschaften mag die maximale Länge für passive Kabel etwas verlängern. Wo da die Grenzen bei Oculink oder U2 liegen konnte ich aber bisher nicht herausfinden .
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Für Server ergibt es keinen Sinn. HDDs stopf ich dort nicht einfach über die Anschlüsse des MoBo an eine CPU. Da hängt nicht ohne Grund ein Raid-Controller. Spätestens bei der Verkabelung wird es dann vollkommen absurd. Billigstes SATA3/SAS gegen ein geschirmtes PCIe.
Haleluja Mining war doch irgendwie lustig... aber nicht schnell angebunden.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
yoshi0597 schrieb:
Wenn damit die Latenzen reduziert werden können durch das Wegfallen der Protokollübersetzung, als auch weitere Speicherkontroller wegfallen können, dann kann das Kosten für Server reduzieren.
Auf Intel Servern wird dies aber kaum möglich, da diese nicht so viele PCIe Lanes zur Verfügung stellen im Vergleich zu AMD Epyc.
Die Latenzen entstehen bei mechanischen Festplatten nicht bei der Protokollübersetzung, sondern bauart-bedingt schon bei der Mechanik selbst. Das sind bei SATA/NL-SAS-Festplatten mit 7,2k schon immer rund 10-12 ms. Da ist das Übertragungsprotokoll nicht das Problem.

Man würde sich halt den SATA/SAS-Controller sparen, was aber nur bei Software-Defined-Storage-Lösungen oder JBODs ohne RAID-Logik vorteilhaft ist.

______________

Die Idee finde ich grundsätzlich spannend, hat aber aus meiner Sicht zwei Haken:

a) Ob 2025 wirklich noch so viele HDDs eingesetzt werden, ist fraglich. Die Kapazitätssteigerungen finden dort aktuell auch nur noch mühselig statt und wenn man sich anschaut, wie schwer sich die Hersteller mit Techniken wie HAMR und Co. tun und es immer wieder Verzögerungen gibt, muss da schon noch ein gewaltiger Sprung kommen, damit in fünf Jahren die Dinger wirklich noch flächendeckend eingesetzt werden.

Seagate kalkuliert 2026 mit 50 TB HDDs.

Ich stelle hier mal die Prognose auf, dass SSDs zum gleichen Zeitpunkt bei 256 TB stehen werden, wenn man bis dahin die Verdoppelung alle zwei Jahre durchhält. 2020 stehen wir bei 32 TB, 2022 bei 64 TB, 2024 bei 128 TB und 2016 bei 256 TB.

b) 2025 wird keiner mehr von PCIe 3.0 (1 GB/s pro Lane) sprechen, sondern da ist mindestens PCIe 5.0, wenn nicht gar schon der Nachfolger präsent (Intels Sapphire Rapids soll ja schon 2021/2022 Gen 5 bringen). Eine PCIe-5.0-Lane schafft ja schon 4 GB/s, was für eine müde HDD völliger Overkill ist, da selbst mit Dual-Aktuator kaum mehr als 500 MB/s möglich sind.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Hmm kann man machen, ist aber irgendwie auch Verschwendung: mit den fast 1000 mb/s kann ich via Controller viele sata ports realisieren. Pi Mal Daumen sollten 5-6 hdds nicht wirklich ausgebremst werden (außer burst read). Mit der neuen Variante müsste ich dafür 6 wertvolle PCIe lanes verwenden. Es sei denn ich setze hier auch wieder auf einen PCIe-switch...
 
Zurück
Oben