News WD_Black P50 Game Drive: Erste externe USB-C-SSD mit USB-3.2-Gen-2x2 für 2 GB/s

MaverickM schrieb:
Erwartest Du ernsthaft, dass USB-A dort verschwindet?
Ja, in Stufen. Stattdessen sind nach 5 Jahren hinten immer noch sowas wie 7x USB-A und 1xUSB-C. Wenn das immer so bleibt, bleiben auch die Geräte immer so. Das ist ein Henne-Ei-Problem.

Daher wäre es meiner Meinung nach besser gewesen, man hätte zum Beispiel im Jahresabstand mit den neuen Generationen Boards mit 2/6-, dann 3/5-, dann 4/4-Aufteilung. Und packt halt am besten noch 1-2 Adapter mit in den Karton. Dann hätten die Hersteller von Peripherie gewusst, dass die Zahl vorhandener USB-C-Anschlüsse immer weiter ansteigt. So ist immer noch alles beim alten, und es ist verlässlicher, ein Peripheriegerät mit USB-A auszuliefern, damit der Nutzer keinen Adapter braucht.

MaverickM schrieb:
Schließlich hat nahezu sämtliche Peripherie immer noch einen USB-A Stecker.
Wovon rede ich denn? Was meinst, du, was der Grund dafür ist, wenn sich 5 Jahre später noch immer nichts getan hat?

MaverickM schrieb:
Und am I/O Panel hinten fummelt man ja ohnehin eher selten rum.
Das ist nicht der Punkt. Willst du wirklich bis in alle Ewigkeit einen Da-fummel-ich-nie-dran-rum-Anschlusstyp (USB-A), einen Das-ist-das-Geräteende-Anschluss (USB-B) und einen Der-ist-für-Mobilgeräte-Anschluss (USB-C)? Nein! Der neue Steckertyp ist ganz offiziell angetreten, alle anderen Steckertypen zu ersetzen.

Im Übrigen wäre gerade hinten am I/O-Panel USB-C ein Segen, weil man da nämlich gerne blind mit dem Stecker rumfummelt, weil man nicht genau gucken kann. Verdrehsicher einstecken wäre da toll.
 
  • Gefällt mir
Reaktionen: Anzony
Nixdorf schrieb:
Im Übrigen wäre gerade hinten am I/O-Panel USB-C ein Segen, weil man da nämlich gerne blind mit dem Stecker rumfummelt, weil man nicht genau gucken kann. Verdrehsicher einstecken wäre da toll.

Das ist glaube ich eher Wunschdenken. Da ist eher das Problem, den Anschluss überhaupt zu finden, als dass die Orientierung das Problem ist.

Und nein, ich hätte nichts dagegen, wenn wir USB-A weiterhin für Peripherie und Co. hätten. Schließlich ist es der deutlich robustere Anschluss. Günstiger zudem auch noch. Abgesehen davon kriegst Du ja eh, was Du willst. Alles ab USB 3.2 Gen 2x2 und aufwärts setzt zwingend den USB-C Stecker voraus. Spätestens ab USB 4.0 wird es also keine USB-A Stecker mehr geben, aller Voraussicht nach.
 
MaverickM schrieb:
Switches, die 10Gbe/5Gbe/2.5Gbe können, scheint es noch gar nicht zu geben!?
Doch, die meisten unterstützen auch NBASE-T, wie man z.B. hier sieht:
ed25519 schrieb:
2,5" mit 5TB? Woher kommen die? Seagate?
Seagate hat zumindest 2.5" HDDs mit 5TB im Programm, aber vergiss nicht: Diese Kapazitäten kann man nicht ohne SMR realisieren.
ed25519 schrieb:
Bei WD ist derzeit bei 2TB mal Schluss
Nur wenn es um interne HDDs geht (wobei ich es krass finde eine 15mm hohe HDD als "Laptop Mainstream Kit 2TB" zu bezeichnen, denn so hohe HDDs passen doch in keinen Laptop). Als 2.5" USB Platte hat WD sei 2016 schon Modelle mit 4TB im Programm. Da diese Kapazitäten nur mit 15mm Bauhöhe machbar sind, ist eine andere Nutzung wie als USB Platte sowieso kaum möglich (es sind ja keine Enterprise- oder NAS Platten). Daher dürfte WD diese Modelle direkt nur mit einer USB Buchse (und dem USB-SATA Bridgechip) auf der Platine bauen und sich eine Version mit SATA Anschluss sparen.
 
Holt schrieb:
Daher dürfte WD diese Modelle direkt nur mit einer USB Buchse (und dem USB-SATA Bridgechip) auf der Platine bauen und sich eine Version mit SATA Anschluss sparen.

Ich meine gelesen zu haben, dass meine 4TB Passport intern durchaus einen SATA Anschluss hat. Ich will die jetzt aber auch nicht aufbrechen, nur um nachzusehen. :D
 
Das eine 2.5" WD Passport mit 4TB intern noch einen SATA Anschluss und damit eine getrennte Platine für den USB-SATA Bridgechip und die USB Buchse hat, bezweifel ich sehr. Deren Controller ist ein SATA Controller, aber die Signale gehen nicht mehr raus, sondern direkt an den USB-SATA Bridgechip der ja auch auf der Platine der HDD sitzt. Dies spart Kosten und wird auch von anderen Herstellern gemacht, bei den 2.5" USB Platten von WD ist es meines Wissens nach inzwischen Standard und man findet kein aktuelles Modell mehr ohne.
 
Es gibt doch praktisch keine Anwendung für so eine 2.5" HDD mit 15mm Bauhöhe, außer als USB Platte. Es sind ja keine Enterprise HDDs, wo dies Format weiter verbreitet ist und in Notebooks bekommt man so hohe HDDs doch schon ewig nicht mehr eingebaut, früher wäre dies ggf. noch in einem Caddy im Schacht des optischen Laufwerks gegangen. Damit dürfte es sich für WD einfach nicht lohnen auch eine Version mit SATA Anschluss aufzulegen.
 
Es wird Zeit, dass die Potentiale von USB c und thunderbolt endlich mal ausgeschöpft werden
 
Der Type C Stecker alleine verschafft USB noch kein weiteres Potential, dies könnte sogar mit USB 2 genutzt werden und alles darüber ist optional. Das ist ja das eigentliche Problem dabei, denn mehr Strom oder auch noch Videosignale, sind eben nur optional und es ist oft kaum bis gar nicht erkennbar, welcher Port was bietet, aber man braucht ja auch für viele Geräte auch nicht mehr. Wozu sollte ein Port an dem eine Maus oder Tastatur hängt, auch noch ein Videosignale verfügbar sein oder mehr Strom? Dies würde alles nur teurer machen.

Für Notebooks die ja heute möglichst flach sein sollen oder Kleinstcomputer wie die NUC, ist es sicher interessant alles mögliche über Type-C Buchsen machen zu können, aber bei Desktops ist es einfach unsinnig ein Videosignal über TypeC (egal ob TB oder USB) zu übertragen, da braucht man nur die hohen Transferraten eben für solche externen SSD. Oder würdest Du eine eGPU per TB betreiben wollen, wenn man auch eine interne Graka verbauen kann? Wohl kaum.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich frage sowas wirklich selten und eigentlich ungern, aber zwecks tatsächlich verstehen worum es geht, könntet ihr von Computerbase die Standards eventuell schlicht USB 3.0, 3.1 und 3.2 nennen? Bitte?
 
  • Gefällt mir
Reaktionen: FantasyCookie17
@Holt Also wir benutzen die gerade eben für Server, da es keine Enterprise-HDDs mit 5TB gibt ;) , allen Unkenrufen zum Trotz sogar im Hardware-RAID.
 
Xpect schrieb:
könntet ihr von Computerbase die Standards eventuell schlicht USB 3.0, 3.1 und 3.2 nennen? Bitte?
Das bringt ja nichts, dann wird die Verwirrung nur noch größer. Es gibt eben für USB3 mit 5Gb/s drei Normen die praktisch identisch sind und sich USB 3.0, USB 3.1 Gen1 und USB 3.2 Gen1 nennen. Es wäre also unsinnig anzunehmen oder so zu tun, dass alles mit USB 3.1 im Namen dann auch 10Gb/s hat und alles mit USB 3.2 20Gb/s. Man findet eben auf den neusten Boards auch schon die neuen Bezeichnungen wie z.B. hier:
Die sind eben 10Gb/s bzw. 5Gb/s, aber eben nicht 20Gb/s und daher bin ich dagegen USB 3.2 einfach pauschal für USB mit 20Gb/s zu verwenden, da man sich damit keinen Gefallen tut.
ed25519 schrieb:
wir benutzen die gerade eben für Server, da es keine Enterprise-HDDs mit 5TB gibt ;) , allen Unkenrufen zum Trotz sogar im Hardware-RAID.
Benutzt ihr ernsthaft die Seagate BarraCuda Compute 5TB, SATA 6Gb/s (ST5000LM000), also eine SMR Desktropplatte an einem HW RAID Controller im RAID im Serverbetrieb? Die haben keine TLER bzw. bei Seagate ERC genannt, also keine einstellbare maximale Antwortzeit und dies ist bei HDDs mit SMR auch gar nicht wirklich möglich, sofern es nicht Host managed ist, da diese beim je nach Last beim Schreiben sehr lange brauchen können, bis sie fertig sind. Die Seagate Archive 8TB hat im Review bei storagereview.com Antwortzeiten über 212s produziert:

(Vergiss nicht das . und , in den USA gegenüber Deutschland vertauscht benutzt werden.)

HDDs mit TLER braucht man an Hardware RAID Controllern, da die Hardware RAID Controller in aller Regel einen Timeout von 8s haben und eine Platte die innerhalb dieser Zeit nicht antworten, dann als defekt aus dem RAID werfen. Wenn Du diesen Timeout nicht entsprechend hoch einstellen kannst, wird Dir irgendwann eine Platte aus dem RAID fliegen und wenn Du dann auf deren S.M.A.R.T. Werte schaust, wirst Du Dich wundern wieso, da dort alles bestens aussieht. Es kann je nach Workload auch gleich mehrere Platten treffen und dann ist das RAID womöglich genau dann degraded wenn es dringend gebraucht wird.

Durch den OnDisk Cache den die Seagate HDDs mit SMR haben, wird dies kaum bei leichten Workloads passieren und beim sequentiellen Schreiben sind sie ja auch recht schnell wie Tests mit h2testw zeigen, die Initialisierung des RAIDs dürften also auch kein Problem gewesen sein, weshalb dann leicht solche Aussagen wie "allen Unkenrufen zum Trotz" entstehen, denn es scheint ja anfangs alles bestens zu funktionieren, obwohl davor gewarnt wurde es zu machen.

Damit es dann aber kein böses Erwachen gibt, stelle den Timeout des RAID Controller hoch, sofern dies möglich ist und beachte, dass natürlich auch Anwendungen ggf. Timeouts haben und zu langen Antwortzeiten ggf. aussteigen. Achte außerdem auf das Workload Rating:
Da bei HDDs das gelesene und das geschriebene Datenvolumen zum Workload zählen, sollte das Scrubbing des RAIDs nicht zu oft erfolgen, bei 5TB wäre schon mit einmal im Monat das Workload Rating überschritten. Was in dem Product Manual fehlt, ist die bei den meisten Barracuda Compute vorhandene Anagbe: "Annualized Failure Rate (AFR) <1.0% based on 2400 POH", die darauf hinweist, dass diese einfachen Desktopplatten eben nur für 2400 Power-On-Hours (POH) pro Jahr sind, die POH werden gar nicht erwähnt, aber daraus würde ich aber nun noch keine Eignung für den Dauerbetrieb ableiten.
 
  • Gefällt mir
Reaktionen: UweW.
@Holt , ja die 5TB als VeeamBackupplatte seit über einem Jahr (müsste ich schauen) wo täglich ca 1.5TB Daten gelöscht und wieder geschrieben werden und 2x2TB an nem Intel Controller https://www.intel.com/content/www/us/en/products/servers/raid/raid-controllers/rsp3dd080f.html . Lustiger Weise gerade deshalb weil die ach so tollen Intel DataCenter SSDs beide innerhalb 48 Stunden gestorben sind und nicht mehr schreibbar waren (Bug in DC4500/4510/4600/4610). Es laufen auch noch 2 alte 500GB Hitachi Notebookplatten (vom Jahre 20xx im RAID1 als Veeam-Scratchdisk, alles seit Anfang des Jahres. Die 2TB beinhalten Backup und den Hypervisor. Rebuilds konnten ohne Probleme getestet werden (Platte rausziehen).

Klar kenn ich die Probleme mit TLER usw auch, hatte ich um die Jahrtausendwende mit Desktopplatten und Promise-Controllern auch. Da fielen die Platten dann auch alle Wochen mal aus dem Raid. Da gabs dann Softwarespiegelung und fertig. Die Barraduca waren anfangs ja auch nur als Scratch/Staging für das dahinterliegende Bandbackup gedacht, haben sich aber so gut geschlagen das sie jetzt auch primär laufen. Die Systeme sind aber auch repliziert, wäre also auch kein Totalausfall wenn mal was grobes passiert.
 
ST2000LM015, also die ganz normalen "Compute". Ja, die 5TB läuft (derzeit) als Einzelplatte, die beiden 2TB als RAID1 wo der Hypervisor läuft, die ist auch SMR, merkt man aber nicht wirklich. Waren auch virtuelle Maschinen mal drauf (da wo die guten SSDs den Geist aufgaben).

814154

Ergänzung ()

Ps. Wir haben auch Server die seit 2014 mit Samsung 840 Pro laufen, die ja auch nicht wirklich dafür gedacht sind. Ich will da jetzt nichts pauschalisieren und sagen das Enterpriseplatten und Nerlineplatten nicht auch ihre berechtigung haben, wollte nur zeigen das man es meist nicht ganz so ernst nehmen muss mit den Specs.

Ich hatte auch Seagate Exos die nach 4 Wochen beide (Raid1) fast gleichzeitig ausfielen und auch immer wieder 15K SAS-Platten die über die Jahre teils häufiger ausfielen als mir lieb war sowie dutzende Datacenter SSDs (ca alle 2 Monate mal) während günstige WD RED oder eben sogar Desktopplatten (Toshiba DT) seit ewegen Zeiten durchlaufen in Hard und Softwareraid. Soll jetzt keine "Empfehlung" sein, nur ein Hinweis.
 

Anhänge

  • 5tb.png
    5tb.png
    237,2 KB · Aufrufe: 399
  • 5tb2.png
    5tb2.png
    224,1 KB · Aufrufe: 398
Zuletzt bearbeitet von einem Moderator:
Wenn Dir vor allem die Enterprise HDDs ausgefallen sind, könnte es vielleicht sein das denen zu warm geworden ist. Die sind dafür gebaut in klimatisierten Rechnerräumen zu arbeiten und da sie meistens auch deutlich mehr Leistungsaufnahme haben, werden sie auch wärmer und könnten einfach zu heiß geworden sein, wenn der Rechner eben nicht in so einem passend klimatisierten Raum steht.

Das Consumer SSDs bzgl. Dauerbetrieb unempfindlicher als HDDs sind, sollte bekannt sein. Hier ist das Problem dann eher die Performance und zwar vor allem die Schreibperformance, denn wenn deren eigener Schreibcache deaktiviert wird, was HW RAID Controller gerne machen wenn sie selbst einen Schreibcache haben, so fallen die IOPS Schreibend bei den meisten Consumer SSD massiv ab. Enterprise SSDs mit Full-Power-Loss Protection interessiert es hingegen nicht, die lassen den Schreibcache immer an, sie können die Daten bei einem plötzlichen Spannungsabfall ja trotzdem noch ins NAND schreiben und performen dann mit der Einstellung um Längen besser als Consumer SSD. Wobei es auch Consumer SSDs gibt die diese Sync-Faking betrieben, obwohl sie keine Full-Power-Loss Protection besitzen.

Wenn auf den beiden 2TB it SMR im RAID1 nur der Hypervisor läuft, dann wird da ja wohl nur selten mal so viel geschrieben, dass deren OnDisk Cache voll wird und schon gar nicht mit vielen parallelen und zufälligen Schreibvorgängen, die dann wirklich so extreme Antwortzeiten erzeugen. Aber wenn dies mal passiert, dann müsste ihr da mit Problemen rechnen.
 
MaverickM schrieb:
Ich glaube, da können sich noch weniger Leute etwas drunter vorstellen. Das einfachste dürfte sein, jedesmal die entsprechende Bandbreite mit anzugeben. Lästig, aber Verwechslungssicher.
Nein, das löst das Problem leider auch nicht!
Die Sache wird ja noch viel absurder als viele hier befürchteten:
Mit USB 3.2 gibt es jetzt auch USB 3.2 Gen 1x2 - also das alte USB mit Nutzung beider Lanes von USB-C.
Ab Gen 2 gibt es die effektivere 128b/132b-Kodierung. Dadurch ist ein USB 3.2 Gen 2x1 (entspricht USB 3.2 Gen 2) gut 20% schneller mit seiner einzelnen Lane als Gen 1x2.

Ich fasse zusammen:

a) am langsamsten, auch per USB-A möglich:
USB 3.0 = USB 3.1 Gen 1 = USB 3.2 Gen 1 = USB 3.2 Gen 1x1

b) neu und noch gar nicht verbreitet und nur für USB-C, alte Kodierung und nur doppelt so schnell wie Gen 1x1:
USB 3.2 Gen 1x2

c) am zweitschnellsten und Maximum für Nutzen von USB-A, nutzt bessere Kodierung:
USB 3.1 Gen 2 = USB 3.2 Gen 2 = USB 3.2 Gen 2x1

d) am schnellsten und nur mit USB-C nutzbar:
USB 3.2 Gen 2x2
 
Die Bandbreite von 1x2 und 2x1 sind aber identisch. Ich bezweifle, dass das in der Praxis so viel Relevanz hat, zumindest für die meisten Nutzer. Offiziell wird 1x2 zudem gar nicht beworben, soweit ich das sehe.
 
Naja, wegen der Kodierung ist Gen 2 schon 20% schneller als Gen 1x2.
Immerhin ein weiterer Grund letzteren Standard gar nicht zu nutzen. Ich hoffe zumindest, dass 1x2 gar nicht genutzt wird, da man dann ja völlig durchdreht. Aber es steht so im Standard. Hoffentlich kommt es nie auf den Markt. Auch nicht, wenn es ggf. billiger ist.
Der Preis ist übrigens wohl der Hauptgrund für diese schnellen USB-Varianten, die Thunderbolt immer noch technisch unterlegen sind. Hoffentlich setzt sich jetzt das lizenzfreie Thunderbolt 3 bzw. USB4 durch.
 
Man kann wohl davon ausgehen, dass billige Geräte aus China (Die billigen NVMe Gehäuse und Adapter von AliExpress bspw.) potentiell mit sowas laufen, wenns billiger is. Wird dann einfach als Gen 2 angegeben, weil Bandbreite ja das gleiche ist...
Mainboards und Notebooks dürften wohl eher nicht damit ausgestattet werden.
 
Zurück
Oben