R O G E R schrieb:Ich dachte HDDs sind tot.
Und als Massengrab reicht doch SATA3 locker
Noch lange nicht im Datacenterumfeld, wenn du mal paar hundert TB günstigen Speicher brauchst,
mein Backup landen sicherlich nicht auf SSDs.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
R O G E R schrieb:Ich dachte HDDs sind tot.
Und als Massengrab reicht doch SATA3 locker
2* Sata gegen 4x PCIe Lanes, schlechter tausch. 2x PCIe Lanes an einem Switch der jedem Gerät nur eine Lane gibt? Last Sata #1 und alle PCIe x1 weg und verbaut einen x4 mit Bitfurcation. Oder sind das wirklich Switches (also nicht geshared)?xexex schrieb:EDIT: Hier sieht man wie sowas aussieht.
Anhang anzeigen 924656
Aber nur, wenn du es wirklich als Bus benutzt. Solange nur eine Platte pro Anschluss benutzt wird ...AlphaKaninchen schrieb:Es ist ein Bus, heißt wenn du z.B. etwas von einer HDD auf eine andere kopierst bremsen sie sich gegenseitig aus
HDDs selbst haben aber noch höhere Latenzen.AlphaKaninchen schrieb:außerdem hat USB hohe Latenzen,
Reichen 2m*? Das ist aber das letzte was da gefragt wird, die HDDs kommen im Server eh in eine Backplane. In deinem PC hast du hoffentlich eh nurnoch SSDs bis NVMe HDDs wirklich relevant werden.mkossmann schrieb:PS :
Wie sieht es eigentlich mit maximalen Kabellängen aus ? Ich befürchte das die bei PCIe kürzer sein wird als bei SATA und man da eventuell bei großen Tower-Gehäusen an Grenzen stoßen könnte.
Ich hatte hier am Mac mini mal das System auf einer per USB verbunden MX500 (SSD), die Latenz war deutlich zu merken bei allem was man gemacht hat. Um diese Dinge abzufangen benutzt man Caches (sowohl im Ram als auch in der HDD) aber je seltener man diese braucht desto besser, den alles Cachen geht nicht.mkossmann schrieb:HDDs selbst haben aber noch höhere Latenzen.
Also genau das was PCIe macht?mkossmann schrieb:Aber nur, wenn du es wirklich als Bus benutzt. Solange nur eine Platte pro Anschluss benutzt wird ...
Bei Asrock gibt es auch ein Board das 4 Leitungen von PCH auf einen Oculink führt und man durch entsprechendes Kabel ( und Einstellung im UEFI ?) die Wahl zwischen 4x SATA oder einmal U2/PCIe x4 hat.AlphaKaninchen schrieb:2* Sata gegen 4x PCIe Lanes, schlechter tausch.
Auch eine Backplane trägt zur Kabellänge bei. Aber ich habe da eher an Nutzer gedacht, die eine Glasscheibe in der Gehäusewand haben und deswegen das Kabel nicht auf dem direkten Weg , sondern über ein paar Ecken zur Platte führen wollen.AlphaKaninchen schrieb:die HDDs kommen im Server eh in eine Backplane.
Ich habe dieses Board hier, ist eine Einstellung im UEFI, aber Kabel für Oculink auf Sata zufinden war echt nicht einfach.mkossmann schrieb:Bei Asrock gibt es auch ein Board das 4 Leitungen von PCH auf einen Oculink führt und man durch entsprechendes Kabel ( und Einstellung im UEFI ?) die Wahl zwischen 4x SATA oder einmal U2/PCIe x4 hat.
Das liegt vor allem am Bedarf. Angebot und Nachfrage. Erst wenn das Angebot deutlich größer als die Nachfrage ist, werden auch die Preise entsprechend sinken.PS828 schrieb:Und die derzeitige Stagnation oder gar ansteigen Preise untermauern dies.
Das liegt aber vorallem an der Masse und ein normales USB-C Kabel kann kein PCIe nur ein Thunderbold Kabel kann PCIe. Ja zwei Kabel gleicher Stecker, aber können nicht das gleiche, der sinn dahinter ist das Thunderbold Controller im Kabel braucht...mkossmann schrieb:Die Steckverbinder/Kabel dürften mMn ein Knackpunkt sein, wenn man bei HDDs auf PCIe umstellen will. Außer USB-C ist meines Wissens derzeit nichts auf dem Markt, was vergleichbar preiswert wie ein SATA-Stecker/Kabel ist und in der Lage ist PCIe zu führen.
Stimmt aber in einer Backplane kann man die Abstände genauer einhalten (länger Strecken mit weniger Paketverlust möglich) außerdem ist die Schirmung mit einem Stück blech erledigt statt super dick isolierten Kabeln.mkossmann schrieb:Auch eine Backplane trägt zur Kabellänge bei. Aber ich habe da eher an Nutzer gedacht, die eine Glasscheibe in der Gehäusewand haben und deswegen das Kabel nicht auf dem direkten Weg , sondern über ein paar Ecken zur Platte führen wollen.
mkossmann schrieb:Die Steckverbinder/Kabel dürften mMn ein Knackpunkt sein, wenn man bei HDDs auf PCIe umstellen will. Außer USB-C ist meines Wissens derzeit nichts auf dem Markt, was vergleichbar preiswert wie ein SATA-Stecker/Kabel ist und in der Lage ist PCIe zu führen.
Ja, bei einer SSD... . Bei einer HDD wirst du im wesentlichen auf Spurwechsel der Leseköpfe warten, die nochmal deutlich länger dauern.AlphaKaninchen schrieb:Ich hatte hier am Mac mini mal das System auf einer per USB verbunden MX500 (SSD), die Latenz war deutlich zu merken bei allem was man gemacht hat.
Aktive Elekronik im Kabel ist aber ein Problem. Weil das dazu führen wird, das ein Kabel nicht wie bisher für unter 10 € zu bekommen ist, sondern teurer deutlich wie bisher wird. Das wird der Markt bei HDDs wohl nicht hergeben.AlphaKaninchen schrieb:Ja zwei Kabel gleicher Stecker, aber können nicht das gleiche, der sinn dahinter ist das Thunderbold Controller im Kabel braucht...
Natürlich merkt man den unterschied mit einer HDD nicht so krass aber die Latenz ist ja immer noch da und kommt auf die normale Latenz einer HDD oben drauf. Außerdem braucht man dann einen Stecker für HDDs und einen für SSDs...mkossmann schrieb:Ja, bei einer SSD... . Bei einer HDD wirst du im wesentlichen auf Spurwechsel der Leseköpfe warten, die nochmal deutlich länger dauern.
Darauf wollte ich hinaus, ich denke U.2 und OCulink sind am besten, diese haben nämlich eben keine aktiven Komponenten im Kabel. (soweit ich weiß)mkossmann schrieb:Aktive Elekronik im Kabel ist aber ein Problem. Weil das dazu führen wird, das ein Kabel nicht wie bisher für unter 10 € zu bekommen ist, sondern teurer deutlich wie bisher wird. Das wird der Markt bei HDDs wohl nicht hergeben.
mkossmann schrieb:Wenn du ein Blockschaltbild für aktuelle Intel Chipsätze anschaust, siehst du, das genau diese "Verschwendung" heute schon stattfindet :
Um die geht es aber nicht, es geht um Server und wenn Sata im Consumer Berecih stirbt wird es dort richtig schön teuer, so wie heute U.2Botcruscher schrieb:Wenn wir die Entwicklung zu ende denken stirbt SATA in den typischen Konsumergeräten eh aus.
Ich meine , da spielt der Stecker nur einen Teilaspekt, es hängt auch von der Kabellänge ab. TB3-Kabel mit USB-C-Stecker können bis 50cm passiv sein, darüber hinaus braucht es aktive Elektronik im Stecker. Ein anderer Stecker mit besseren elektrischen Eigenschaften mag die maximale Länge für passive Kabel etwas verlängern. Wo da die Grenzen bei Oculink oder U2 liegen konnte ich aber bisher nicht herausfinden .AlphaKaninchen schrieb:Darauf wollte ich hinaus, ich denke U.2 und OCulink sind am besten, diese haben nämlich eben keine aktiven Komponenten im Kabel. (soweit ich weiß)
Die Latenzen entstehen bei mechanischen Festplatten nicht bei der Protokollübersetzung, sondern bauart-bedingt schon bei der Mechanik selbst. Das sind bei SATA/NL-SAS-Festplatten mit 7,2k schon immer rund 10-12 ms. Da ist das Übertragungsprotokoll nicht das Problem.yoshi0597 schrieb:Wenn damit die Latenzen reduziert werden können durch das Wegfallen der Protokollübersetzung, als auch weitere Speicherkontroller wegfallen können, dann kann das Kosten für Server reduzieren.
Auf Intel Servern wird dies aber kaum möglich, da diese nicht so viele PCIe Lanes zur Verfügung stellen im Vergleich zu AMD Epyc.
Das dürfte Mircosoft doch bei Azure einsetzen?Simon schrieb:Man würde sich halt den SATA/SAS-Controller sparen, was aber nur bei Software-Defined-Storage-Lösungen oder JBODs ohne RAID-Logik vorteilhaft ist.