News Im Test vor 15 Jahren: Externe Festplattengehäuse mit USB 2.0 und FireWire

Roche schrieb:
Gott sei Dank sind die Zeiten dieser Magnetplatten Rödeldinger vorbei.
Hab zwar noch eine HDD im Desktop, aber nur als selten genutztes Datengrab.

Als Mobilen Speicher hab ich noch ne WD Elements 1TB in 2,5" und das Ding brummt total nervig.
Leider sind externe SSDs einfach noch zu teuer.
Als Back-Up Platte liegt bei mir noch eine externe 2,5 Zoll 3 TB HDD im Schrank. Die hat 80€ gekostet und ist jeden Cent wert. Mag sein das es noch kleiner und noch leiser geht mit noch mehr Speicher für das x-fache vom Preis, aber wozu? Ich fand und finde solch externe Gehäuse schon super praktisch, denn immer wenn ich mir einen Geschwindigkeits- oder Speicherplatz-Wachstum gegönnt habe hatte ich eine externe SSD/HDD mehr. Auf ebay würde ich diese zwar nicht verkaufen aber die nähere Verwandschaft freuts. Glücklicherweise ist USB 2.0 aber mittlerweile mehr oder weniger tot.
 
Ich habe 2 uralte Externe IDE-Festplatten teilweise noch im Einsatz. Sind Uraltsachen (inkl. Win98) aus Sockel A-Zeiten drauf.
 
Ich hatte das Modell von Revoltec, jedoch in der Variante mit zusätzlichem e-SATA, welches ich aufgrund des besonderen Steckers effektiv nur am eigenen Main-PC nutzen konnte. - recht schnell mit 110 MB/s schreibend. Woanders oder am Laptop musste USB herhalten. Hier wurden glaube ich bis zu 40 MB/s schreibend erreicht. Das ist immerhin mehr als doppelt so schnell als mein wesentlich neuerer Kingston USB 3 Stick, für mich also vertretbar.
Leider hat das Ding nach drei Jahren nicht mehr funktioniert. Typisch Revoltec halt.

PS: Habe noch einige, größere HDDs im Einsatz, eine davon sogar noch für Games (WD Black 1,5TB mit 64MB Cache)
 
  • Gefällt mir
Reaktionen: romeon
(2018) Beim Zusammenbau meines PCs mit Erschrecken festgestellt, dass ins DAN A4 v2 meine drei 12 TB-HDDs gar nicht reinpassen :o
Also externe Lösung gesucht & gefunden: Yottamaster-Gehäuse (4 Bay 3.5 Zoll USB3.1 Type C).
Funktioniert seit 'nem Jahr (eigentlich*) problemlos & superschnell im Zugriff & superstabil.

*eigentlich meint hier unter Windows 10

Am allerpeinlichsten ist die Identifizierung der USB-C-HDDs durch UEFI/BIOS, da herrscht offensichtlich technischer (Still-)Stand seit Jahrzehnten.

Die Erkennung dauert beim Booten aus dem ausgeschalteten Zustand bzw. reboot geschlagene 2 (in Worten: zwei) Minuten!!!

Der Übeltäter: ASUS ROG Strix Z390-I (alle -wirklich alle!- UEFI-Einstellungen bzgl. USB-Erkennung durchprobiert, nichts -wirklich nichts!- hilft gegen die Wartezeit ausser Abschaltung der Platten beim Boot bzw. ausschalten des USB-Ports, beides nicht zielführend).

Ergo: mit externen Platte ist man heute offensichtlich wirklich nicht mehr im Zielgruppenfokus, obwohl sich so eine große Festplatten-Box als RBG-Bling-Bling-Spielwiese geradezu aufdrängt!
 
Ich nahm auch nur USB 2.0 in Kombination mit eSATA. War eine tolle Zeit, gerade eSATA lieferte stabil, was selbst in den Anfängen von USB 3 nicht selbstverständlich war.
 
Ja E-Sata hatte schon was. :)
Firewire hab ich nie genutzt, obwohl mein Board einen passenden Anschluss hat (Gigabyte GA-MA-790x-DS4).
War für mich immer so Applezeugs...😒.
 
Wenn man sich jetzt mal vorstellt, dass eine damalige 3.5Zoll HDD ( meine erste hatte 160GB ) jetzt locker auf den kleinen Fingernagel, als Micro SD Platz findet , merke ich , es geht immer schneller voran.

Wie ist das in weiteren 10 Jahren ?
Haben dann die ersten PB SSD's mit 1,5TB Schreibrate und 15 Millionen IOPS :evillol:
 
Ach, der gute alte Firewire Anschluss. Auf dem Schulhof kannte den, außer mir, niemand.:D
 
Roche schrieb:
Leider sind externe SSDs einfach noch zu teuer.

was hindert dich eine günstige ssd mit sata in ein externes gehäuse zu packen? zumal man ja in der regel wenigstens ein externes case da hat.
 
Firewire ging an mir komplett spurlos vorüber 😅
In meinen inzwischen 28 Jahren hab' ich es kein einziges Mal benutzt :heilig:
 
Ja, Firewire.... war eine tolle Technologie! Und dann kam Steve Jobs und hat`s versaut mit seinen Dollarscheinen im Auge....

Hätte sich der Standard damals durchgesetzt, hätten wir heute kein LAN am PC und USB wäre eine exotische Schnittstelle zur Anbindung von alten Mäusen und Tastaturen. Dafür wären wir mit Firewire vernetzt, würden Daten rumschieben, externe Laufwerke und NAS anbinden... alles über diese eine Norm....


Übrigens: Schon 2008 wurde Firewire mit 3,2 GBit/s spezifiziert. Da hatten viele PCs noch 100MBit/s LAN.... und heute ist 1GBit/s Standard.... Aber da war Firewire ja schon klinisch tot....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: konkretor
darthbermel schrieb:
Verstehe ich nicht. Wieso hat SJ Firewire versaut?
Ist ne längere Geschichte....

Im Grunde fing alles mit Apples ADB an. Sieht aus wie PS/2 bzw. S-Video, war aber eine serielle Schnittstelle für Computer-Peripherie. Die wurde von Intel als Vorbild für deren USB-Standard genommen, der dann von Apple gepusht wurde, indem sie bei ihrem iMac komplett auf ältere Standards verzichteten, und ausschließlich USB hatten. Erst später kam Firewire hinzu.

Firewire oder IEEE1394 wurde zwar auch von Appel mitentwickelt, aber es waren auch mehrere andere Firmen aus der IT und der Unterhaltungselektronik daran beteiligt. Darunter wieder Intel, aber zB. auch Sony und andere. Geplant war, die neue Schnittstelle als universelle Norm für Verbindungen mit hohem Datenaufkommen bei strikter Priorisierung für Audio/Video-Signale zu einer Art universellen digitalen Schnittstelle zu machen, die für die gesamte Industrie da sein sollte. Auch zur Heimvernetzung, denn LAN war damals nur im Firmennetzwerken und Servern etabliert. Das war alles noch vor DSL und Routern in Privathaushalten. Die Schnittstelle sollte im Prinzip alles können., was USB wegen der zu geringen Datenrate damals (noch) nicht konnte.

Alles war vorbereitet - und dann kam Steve Jobs zu Apple zurück...

Und auf einmal reklamierte er "Firewire" (das war Apples Markenname für IEEE1394) für Apple, als dessen Eigentum und verlangte irrwitzige Lizensierungskosten von 1 Dollar je verbauter Buchse. Und zwar auch von den Mitentwicklern! Das wären hunderte von Millionen Dollar gewesen. Dem verweigerten sich die anderen Firmen natürlich, und das bewirkte erst mal eine deutliche Verzögerung der Markteinführung.

Vor allem aber spornte es Intel an, USB aufzubohren. Und so kam - völlig unausgereift - USB2.0 auf den Markt, mit einer Datenrate, die Firewire überflüssig machte. Im Ergebnis zahlte niemand Steve Jobs Phantasiepreise, Sony brachte IEEE1394 als "i.Link" in den Digital-Video-Markt, wo es wegen der strikten Audio/Video-Priorisierung noch eine Weile unersetzbar war (die ersten digitalen Camcorder hatten alle Firerwire, bis Flash-Speicher die Bandlaufwerke ablösten, und damit die absolut zeitsynchrone Übertragung an den PC nicht mehr nötig war), fürs schnelle Internet kam LAN - und Apple schaute in die Röhre.

So kann man eine nahezu perfekte Norm auch kaputtmachen! Gier und Kapitalismus...
 
War mir so nicht bekannt. Ich dachte immer IEEE1394 wäre ein allgemeiner Standard, an dem kein einzelnes Unternehmen Rechte hat.
Ich frage mich wirklich, wieso es Gremien wie IEEE/ANSI gibt, wenn dann die Anwendung der Specs doch wieder teuer an ein Unternehmen bezahlt werden muss.
 
Die letzte externe Platte war eine von Western Digital mit 3,5" und 2TB Speicher von 2014 wenn ich mich recht entsinne.. Hab sie dann einem Kumpel vermacht wo sie bis heute an seiner XBox OneX als Speichererweiterung dient und einen sehr guten job macht :D
 
darthbermel schrieb:
War mir so nicht bekannt. Ich dachte immer IEEE1394 wäre ein allgemeiner Standard, an dem kein einzelnes Unternehmen Rechte hat.
Ich frage mich wirklich, wieso es Gremien wie IEEE/ANSI gibt, wenn dann die Anwendung der Specs doch wieder teuer an ein Unternehmen bezahlt werden muss.
Nun, die Standardisierung schließt Lizenzgebühren nicht aus. Sie ist grundsätzlich dafür da, daß überhaupt andere Unternehmen als das entwickelnde, Geräte dafür entwickeln können, die sich untereinander "verstehen". Das Gegenteil davon sind proprietäre Formate/Techniken, die nur auf Geräten eines Herstellers existieren.

Für USB waren übrigens auch mal Lizenzgebühren fällig. Und erst kürzlich hat Intel die Gebühren für Thunderbolt abgeschafft, um den Standard weiter zu verbreiten - sonst droht ihm das gleiche Schicksal wie Firewire.
Aber im Fall IEEE1394/Firewire war Apple einfach zu gierig und nicht kompromißbereit. Was angesichts der Tatsache, daß sie ja gar nicht die alleinigen Entwickler waren, schon krass war. Und im Ergebnis hat es den Standard eben gekillt.
 
Klassikfan schrieb:
Aber im Fall IEEE1394/Firewire war Apple einfach zu gierig und nicht kompromißbereit. Was angesichts der Tatsache, daß sie ja gar nicht die alleinigen Entwickler waren, schon krass war. Und im Ergebnis hat es den Standard eben gekillt.

Es waren aber durchaus andere große Unternehmen mit an Bord, z.B. Sony und Panasonic. Deswegen war Firewire auch realtiv lange Zeit die Standardschnittstelle für digitale Videokameras.

Firewire ist, genauso wie eSATA und viele andere ehemalige Standards, einfach dem Siegeszug von USB zum Opfer gefallen. Das hätte Apple auch mit geschickterer Lizenzpolitik nicht verhindern können.

Letztlich werden alle externen, digitalen Schnittstellen am PC und verwandten Geräten zu einem einzigen Standard verschmelzen. Thunderbolt und demnächst USB 4.0 geht da ja wieder ein ganzes Stück weiter. (Und intern wird halt alles PCIe.)
 
Wie gesagt: USB wurde erst aufgebohrt, nachdem Firewire durch Apples Lizenzpolitik ausgebremst wurde. Daß Firewire in der Video-Branche noch eine Weile wichtiger Standard war, lag an dessen Unverzichtbarkeit. Damals gab es noch Bandlaufwerke, deren Inhalt zur Bearbeitung in Echtzeit auf den Rechner überspielt werden mußte. Hab das selbst oft gemacht. Da durfte es keine Aussetzer geben. Und nur Firewire erlaubte das, weil im Protokoll Audio/Video strikte Vorfahrt hatten. Aber auch das war mit Flash-Speicher, Speicherkarten etc. in den Kameras vorbei.

Das Potenzial von Firewire war riesig. Es hätte DIE Universalschnittstelle im PC-Bereich werden können, mit direkter Anbindung von Audio/Video. Und wer weiß, ob es auch heute noch in Verson X der Standard für alles wäre. Inklusive Vernetzung. Aber so schnell wie sich die Branche entwickelt, kann ein Jahr Verzögerung eben alles zerstören.
 
Zurück
Oben