Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIm Test vor 15 Jahren: eSATA machte USB und FireWire den Garaus
Ist ein Punkt! Allerdings spielte das damals für externe Festplatten keine Rolle, da USB (2.0) nicht genug power lieferte, um die ohne zusätzliches Netzteil zu betreiben.
Der eigentliche Grund war die Universalität von USB. Das konnte fast alles, eSATA konnte nur Festplatten.
Danke für den Hinweis. Hab nochmal auf wiki geschaut. In Zusammenarbeit mit Apple.
Interessant ist aber seit 2019 lizenzfrei und Intel hätte das wohl (zumindest) ursprünglich gern als Nachfolger für USB gesehen. Jetzt arbeiten Sie aber irgendwie mit USB-IF zusammen. Deswegen wohl auch der gleiche Stecker usw. Genaueres weiss ich aber nicht, ausser das unter dem Namen Thunderbolt immer noch mehr Speed als unter dem Namen USB zur Verfügung steht. Wohl um was exklusives für Apple und teure MBs zu haben...
Edit:
Hatte richtig geraten. Gerade Artikel gefunden:Artikel
Zitat:
Bereits vor zwei Jahren hatte Intel angekündigt, Thunderbolt (3) durch die lizenzfreie Herausgabe des Protokolls zum Durchbruch zu verhelfen. Dieser Schritt wird mit USB 4.0 vollzogen, denn USB 4.0 setzt auf Thunderbolt auf.
Mit einem USB-Typ-C-Port mit USB 4.0 wird in Zukunft dennoch nicht immer derselbe Funktionsumfang geboten, denn USB 4.0 wird es sowohl mit maximal 20 Gibt/s als auch maximal 40 Gbit/s und auch ohne Thunderbolt-Funktionalität geben. Thunderbolt 4 ist quasi der Vollausbau von USB 4.0.
Schade das es sich nicht durchgesetzt hat. Nun müssen wir mit dem USB-Müll leben. Sprich keine native Anbindung da immer der USB-Controller dazwischenhängt
Also ich trauere eSATA noch ein bisschen hinterher.
Ich hatte früher viele externe Gehäuse wo der USB-Port oder der Controller abgeschmiert ist und beim Anstecken Windows mir dann angeboten hat die Festplatte zu formatieren oder keine Dateien angezeigt wurden obwohl die Platte voll war oder wo die Platte nicht erkannt wurde.
Bei eSATA hatte ich nie Probleme damit, dass einzige "Problem" war wie hier schon angesprochen wurde die Kabellänge. Das mit dem Strom war nur bei den kleinen 2,5" Platten ein "Problem", die großen HDDs brauchen immer eine zusätzliche Stromquelle. (bei USB-C mit ordentlicher Implementierung hat man die heutzutage zu, Glück nicht mehr von nöten)
Ich habe sogar einmal eine Externe von einem Freund gerettet, in dem ich die Platte über eSATA angeschlossen hatte und so dem "vergesslichen" Controller die Dateitabelle (kA wie das genau heißt) wiederherstellen konnte und die Platte dann wieder normal nutzbar war.
Mit USB 3.0 Geräten hatte ich bisher auch schon das ein oder andere Problem. Z.B. das das Smartphone mitten in der Dateiübertragung einfach auf Standby gegangen ist und der Prozess dann abgebrochen wurde oder das bei den "schnellen" Sticks nach ~500 MB die Geschwindigkeit auf USB 2.0 (max. 35 MB/s) oder noch geringer eingebrochen ist oder das USB 2.0 Geräte (Mäuse, MP3-Player, USB-Sticks) nicht erkannt wurden.
Genaueres weiss ich aber nicht, ausser das unter dem Namen Thunderbolt immer noch mehr Speed als unter dem Namen USB zur Verfügung steht. Wohl um was exklusives für Apple und teure MBs zu haben...
Bei Thubderbolt bekommst du halt ein fest definiertes Festureset. Wenn Thubderbolt drauf steht, dann bekommst du auch die dahinterstehende Geschwindigkeit und Funktionen. USB ist mittlerweile ein Riesen durcheinander wo die gleiche Ausbaustufen verschiedene Namen hat. Ist aber nichts exklusives für Apple. Bekommst du auch im PC auf entsprechend gut ausgestatteten Mainboards.
Firewire war ein sich selbst verwaltendes Protokoll, das universell verwendbar war. Für Massenspeicher, Audio-Videostreams (DV-Standard) und Netzwerk. Wobei Audio/Video automatisch priorisiert waren, also von konkurrierenden Datenströmen nicht kompromittiert wurden. Vereinfacht ausgedrückt hätte man die Geräte einfach nur zusammenstecken müssen, und alles andere hätte sich von selbst organisiert. Es brauchte keinen festen Host wie bei USB, oder Router. Und in der Geschwindigkeit war es dem damals üblichen 100Mbit-LAN überlegen.
Im Heimbereich hätte man also das aus dem Server/Netzwerkbereich kommende LAN gar nicht erst etablieren müssen. Es wurde sogar ein Wireless-Standard entwickelt!
Doch man sieht und merkt es. Es ging z.b. um ein File mit rund 10gb sollte bei über 300mb/sek in rund 30 Sekunden erledigt sein nach etwa einer Minute habe ich abgebrochen Stick abgezogen angesteckt und den Vorgang wiederholt und da waren es die 30 Sekunden.
Ich habe mich damals immer gewundert was ich mit dem eSata machen soll das ich dafür bitte Endgeräte gesehen habe. Aber großartig nach Geräten habe ich auch nicht gesucht. Was mich auch etwas genervt hatte, war das bei der Lektüre der Anleitung zu den Boards immer darauf hingewiesen worde. Das bei Nutzung von eSata einer der internen 4-6 SATA Ports wegfällt.
Ergänzung ()
Schn33mann schrieb:
Erinnere mich noch gut dran, als ein Expert Verkäufer in meinem Beisein einem Freund einen Laptop mit USB 2.0 und eSATA verkaufen wollte, zu Zeiten als USB 3.0 bereits über ein Jahr auf dem Markt war und sich langsam durchsetzte.
Deswegen lasse ich mich nur noch selten von Verkäufern beraten. Da ich meist nach 30 Minuten Recherche im Netz viel besser über ein Produkt oder Produktkategorie Bescheid was als der Verkäufer. Und dann Frage ich mich immer sind die Schulungen so schlecht oder die Verkäufer so blöd. Oder wollen sie den Kunden immer das Produkt mit der besten Marge aufs Auge drücken.
Schlimm finde ich das wenn ich in einer IT Abteilung einen Frage der auch noch wie ein Nerd aussieht der Ahnung haben sollte.
Was ne Zeit, ich hatte eine von diesen ultra lauten IBM Festplatten mit wahnwitzigen 80GB mit IDE Schnittstelle.
Da gab es irgendwie nur popelige USB 2.0 Gehäuse für, keine andere Schnittstelle.
Schreiben konnte die Platte mit irgendwas knapp unter 50MB/s, wird also mit USB 2.0 gut ausgebremst.
Lang gesucht, und ein icybox Ding innen mit IDE auf eSATA gefunden, quasi ein Einhorn.
Das mit der lärmenden Platte und 2m Verlängerung auf einem Block Schaumstoff außen auf dem Fensterbrett war schon gut ertragbar.
Gut erinnere ich mich auch noch an die sehr steife Strippe dafür.
Ganz so experimentierfreudig bin ich dann doch heute nicht mehr 😄
Wenn du z.B. eine SSD hast, die nur "wichtige" Daten mit hohen Geschwindigkeiten anliefern kann und dafür ein System benutzt, welches dir die hohe Geschwindigkeit nur vorgaukelt, dann liegt es an der SSD.
Daher sagte ich: 40+ GB und mindestens 10 mal.
Sonst kannst du nur erkennen, wie deine Hardware die dir verkauften Werte für kleine Zahlen vorgaukelt.
Wenn du Zeit hast, nimm 130+ GB. Da ist dann bei allen die Schummelei vorbei und du siehst die tatsächlichen Geschwindigkeiten.
Gerne reden sich die Hersteller, dann mit "Wärmeentwicklung" heraus, weil sie behaupten, sie müssten die Leistung drosseln, da sonst die Hardware zu warm wird.
Die Zahlen ändern sich aber auch bei -20 Grad Celsius im Kühlhaus nicht, wo die Wärme, ganz sicher nicht das Problem ist.
1x am PC mit ext. Dockingstation // erste Mainboard damals mit USB3 (s.Sig), voellig unzuverlaessig, nicht bootfaehig, langsam...
1x am Mediaplayer (Dune) mit ext. Dockingstation, schneller als USB2
_____
Firewire800 war noch ok (seinerzeit im PC nur mit Extrakarte)
Ich habe lange eSATA genutzt, weil man damit auch Windows von ext. Platten booten konnte. Letztendlich unbrauchbar wurde es für mich, weil das SATA2-Gehäuse das SATA3 neuerer Platten einfach durchgeschleift hat und mit SATA3 keine stabile Verbindung mehr möglich war: Erst nach bis zu zwei Min. wurde auf SATA2 runtergeschaltet und selbst dann funktionierte es nicht mehr zuverlässig.
eSATA wurde durch USB 3.0 obsolet, weil man damit die gleichen Transferraten erreichen konnte und es eh jedes Gerät hat. Dadurch bräuchte man keine zweite Schnittstelle mehr.