News Neuer Weltrekord bei Magnetspeicherdichte

2 TB ab 2009, na toll. Das heißt bezahlbar sind die Dinger frühestens 2011, in 5 Jahren. Wie schön waren doch die guten alten Zeiten, in denen sich die Kapazitäten jährlich verdoppelt haben...

Und kann mir mal jemand erklären, wieso sich die Festplatte nicht weiter am Markt halten soll? welche Alternativen gibt es denn? In der News steht ja Flash als großer Konkurrent, nur seh ich nirgends z.Bsp. USB-Sticks die auch nur annähernd mehrere hundert GB erreichen, wie aktuelle Festplatten das tun.
 
Zuletzt bearbeitet:
Endlich :D
Demnächst kann ich dann die vielen Platten aus meinen Rechner ausbauen :cool_alt:. Dann mache ich mir eine große Platte rein und damit hat sich die Sache. Das nenn ich eine tolle Entwicklung
Weiter so !!!
 
Mich machen solche Meldungen auch nicht wirklich an. Ich habe seit zwei Jahren eine 160GB Platte und die war immer mindestens zu 2/3 leer. Dabei nutze ich meinen PC bis zu 16 Stunden am Tag und mache eigentlich alles Mögliche damit. Kann mir kaum vorstellen, dass ich in den nächsten Jahren mehr als 200GB brauchen werde, geschweige denn gigantische TB's.

Wie hier schon richtig gesagt wurde, würde auch mir persönlich eine schnellere Entwicklung bei der Geschwindigkeit eher zusagen.
 
Also einen MP3-Player mit 1" Festplatte und 40 GB könnte ich mir schon vorstellen :)

Sascha
 
für den privatgebrauch gibt es fü so etwas genau eine anwendung: hd-filmmaterial. da geht nämlich jede aktuelle festplatte ein.
 
Wird ja auch Zeit, dass die Platten endlich mal wieder deutlich zulegen. Da kann man in einem einzigen 4HE Server dann bis zu 40TB unterbringen.
 
Das klingt ja wirklich vielversprechend. Allerdings frage ich mich, in welchem Maß der Speicherbedarf von Software,Videos,etc... bis im Jahr 2009 angewachsen ist.
Ich denke, dass v.a. Spiele dann noch mehr Speicherplatz brauchen. Dann wird ein Spiel wahrscheinlich 10-20GB Speicherbedarf benötigen. Auch für die bereits erwähnten Videos ist so eine große HD sicher sinnvoll.
Für MP3s und Text-Dateien brauch man wohl kaum soviel Platz.;)

Aber wie Gauder bereits erwähnt hat, müsste dann ja auch die Transferrate der Festplatte dementsprechend steigen. Wenn nur die Größe stetig erhöht wird, ist das wohl kaum ein Fortschritt.

Aber da ich mich nicht so gut auskenne mit der Funktionsweise von Festplatten, stelle ich jetzt einfach mal die Frage an die Experten hier:
Durch welche Maßnahmen kann man den die Transfergeschwindigkeit einer Festplatte erhöhen? Hilft da z.B. eine höhere Umdrehungszahl, wie es z.B. den Raptor-HDs von WD gemacht wird? Welche technischen Möglichkeiten gibt es dann dafür?
 
Also User wirst Du kaum etwas an der Drehzahl ändern können.

Zur Drehzahl muß die restliche Hardware, wie auch die Firmware passen. Man bekommt die Datenrate schon höher, indem man die Datendichte (wie aber auch Zone Bit Recording) erhöht weil einfach mehr Daten pro Zeiteinheit unter dem Kopf vorbeihuscht, dies wird ja seit Jahren betrieben. Nur man nicht beliebig draran drehen, weil auch die Leseleistung der Köpfe und die Flughöhe eine Rolle spielen. Seagate hatte ja mal den Versuch gemacht mit zwei Kopfsystemen die Leseleistung zu erhöhen, aber diese Drives waren teuer und wurden daher wohl von den Anwendern nicht angenommen. Scsi Platten verwenden zum Teil bessere/ausgefeiltere Cache-Algorithmen die man auch konfigurieren kann (ich habe es zum Teil bei meinen Platten mal testweise gemacht), nur krankt es vielfach am restlichen System, wenn z.B. seit Jahren kaum etwas an den Speichersystemen verbessert (oder nur marginale Verbesserungen) wird. Das wurde hier ja auch schon angesprochen, ich hatte vor vielen Jahren bei Kunden ATM installiert und konnte da schon beobachten, dass die Workstations mit der Datenflut über das Netzwerk überhaupt nicht schritthalten konnte und da hat sich grundsätzlich bis heute kaum etwas getan (und dabei muß man wissen, dass es sich bei den WS um RISC-Systeme drehte).

Einer der Gründe warum die Platten immer größer werden (müssen) sind Techniken wie Data-Warehouse, eine Anwendungs die im überwiegenden Maße von viel Platz profitiert, ja geradezu danach schreit. Allerdings sind moderne Hochsprachen auch nicht gerade zimperlich mit dem Speicherplatz.
 
passt nicht rein ist aber trotzdem interessant was die kapazität angeht!!!!!

Werden Festplatten bald Geschichte sein ?

Posted Image, might have been reduced in size. Click Image to view fullscreen.

Wie ein US-Forschungszentrum heute meldet, planen Wissenschaftler eine
DVD mit einer dünnen Protein-Schicht zu überziehen, welche dann bis zu
50 Terabyte an Daten speichern könnte.

Diese Proteine werden von genetisch veränderten Bakterien produziert.
Den Meldungen zur Folge sollen diese DVDs in naher Zukunft so viele
Informationen speichern können, dass die
heutigen Festplatten überflüssig würden. Dies jedenfalls wird von dem
Biotechnologen Vencatesan Renugopalakrishnan von der Harvard Medical
School auf einer internationalen Konferenz zu Nanotechnologie in Brisbane
behauptet.

Möglich wird dieser Ansatz durch die spezielle Lichtempfindlichkeit des
eingesetzten Proteins mit dem Namen bacteriorhodopsin (bR), das auf der
Membran eines Bakteriums gefunden wurde. Wie in der aktuellen
Computertechnik, wo mit „0“ und „1“, beziehungsweise High und Low
gearbeitet wird, verhält sich auch dieses genetisch veränderte Protein.
Unbehandelt fällt es nach dem Lichteinfall in kurzer Zeit wieder in seinen
Urzustand zurück, doch nach der gentischen Manipulation der DNA des
Bakteriums kann dieser Zustand über mehrere Jahre aufrecht erhalten
werden.

Der Wissenschaftler Vencatesan Renugopalakrishnan hält es für möglich,
auf diesen neuen DVDs eine 20fach höhere Speicherdichte zu erzielen als
auf den aktuellen Blu-ray Disks. Da es sich hier um fortgeschrittene
Nanotechnologie handelt, liegen die verwendeten Eiweiße nur wenige
Nanometer voneinander entfernt auf der DVD und ermöglichen somit die
hohe Speicherdichte.

Das japanische Unternehmen NEC hat schon mit den Forschern aus den
USA einen ersten Prototypen entwickelt. In etwa zwölf Monaten sollen
erste USB Disks in die Produktion gehen. Protein-basierende DVDs sollen
nach den Vorstellungen der Forscher in ca. zwei Jahren auf den Markt
kommen.

Gefördert wurde das Projekt vom US-Militär, der US-Regierung, der
Europäischen Union und anderen wissenschaftlichen Institutionen.
 
da sich die datendichte bei festplatten konstant ist bringt die höhere umdrehungszahl nur gewinn, wenn es beim gleichem radius der patterns bleibt. bei den raptoren sind die patterns im radius (wenn mich nciht alles täuscht) kleiner und bringen daher Einbußen in der Lesegeschwindigkeit. Es ergibt sich demnach nur bei der Zugriffszeit ein wirklicher Vorteil.
Mögliche Optimierungen wären: Höhere Speicherdichte, höhere Drehzahl, mehr Cache, paralleles Schreiben auf mehreren Pattern.
 
@mueli: Ich hab mich etwas unglücklich ausgedrückt. Ich meine natürlich, wie es die Hersteller schaffen können, dass ihre HDS auch schneller werden.

Aber was mich noch interessieren würde:
Wenn die HDs größer sind und auch schneller, werden die dann nicht auch heißer werden als jetztige HDs? Bei höherer Drehzahl werden sie ja schon heißer, aber wie sähe es aus wenn die Geschwindigkeit durch andere Methoden gesteigert werden würde? Muss man damit rechnen, dass zukünftige HDs dann auch in höhere Temperaturregionen vorstoßen?
 
@Bassi85
Naja durch die extrem höhere Datendichte werden die ja aschon automatisch schneller, dazu dann noch neue Techniken wie das Perpendicular-Recording. Die müssen also nicht zwangsläufig schneller drehen. Und eine gute SCSI-Cheetah funzt mit ihren 15000 rpm auch recht cool, wenn auch nicht besonders leise. ;)
Was genau noch alles optimiert wird, weiss heute aber noch keiner 100%. Sind ja noch paar Jährchen.
 
@5

eine festplatt hat eine schreibgeschwindigkeit von 70mb/s --> ca. 600MBit/s
vdsl kommt auf ca. 60Mbit/s (max bestimmt ab 2007)
4g (handystandard) auf ca 100Mbit/s

[wenn ich mich nicht täusche]
 
Relict schrieb:
eine gute SCSI-Cheetah funzt mit ihren 15000 rpm auch recht cool,

Meine Cheetah liegt schon bei etwa 50°C und die anderen 15000'er und 10000'er auch nicht viel darunter und ich treibe schon viel Aufwand bis hin zu Temp.-Sensoren an einigen Disken. Bei einigen Platten ist das Gehäuse der Mechanik schon fast wie ein Kühlkörper aufgebaut.
 
Wo liegt denn der Unterschied zwischen einer SCSI und einer S-ATA oder IDE-Festplatte? Warum können die SCSI-HDs mit 15000RPM laufen, während die normalen S-ATA HDs mit 7200 laufen?
Wie schnell ist denn dann so eine SCSI-HD im Vergleich zu einer normalen HD.
Ist SCSI eher für den Profi-Bereich konzipiert oder könnte man auch also Hime-User seinen Nutzen daraus ziehen (vorrausgesetzt Geld spielt keine Rolle)?
 
Also ob diese Datenmenge wirlich etwas bringt, weis ich nicht. Aber dfen Gedanken von TomTom finde ich sehr interessant.

Da würde ich aber mit der Geschwindigkeit doch zustimmen, WD macht aber super Fortschritte.


Bassi85 schrieb:
Wo liegt denn der Unterschied zwischen einer SCSI und einer S-ATA oder IDE-Festplatte? Warum können die SCSI-HDs mit 15000RPM laufen, während die normalen S-ATA HDs mit 7200 laufen?
Wie schnell ist denn dann so eine SCSI-HD im Vergleich zu einer normalen HD.
Ist SCSI eher für den Profi-Bereich konzipiert oder könnte man auch also Hime-User seinen Nutzen daraus ziehen (vorrausgesetzt Geld spielt keine Rolle)?


Eine SATA Platte hat eine schnellere Datenübertragungsrate der Schnittstelle. Die SATA Platten an sich sind nicht schneller. SCSI laufen über SCSI Controler und sind vor allem deshalb beliebt, weil sie gut für den Bauerbetriebgeeignet sind, kleine Fehlerrten haben und stabil laufen. Aber sie lohnen sich vor allem ab den schnellen Versionen (und teuren -> >10000rpm).
SCSI Festplatten sind durch die schnelle Scvhnittstele der SATA in den Hintergrund geraten und werden beinahe nur noch in Servern verwendet.


Wenn du alels ganz genau haben möchtest guckst du einfach hier.
 
Zuletzt bearbeitet:
Um die Frage zu SCSI und IDE (ATA) und deren Unterschied zu beantworten müßte man eigentlich weit ausholen und auch über Shugart-Bus, ST506 und einige properitäre Schnittstellen schreiben. SCSI war der Ansatz eine Schnittstelle zu schaffen, die mit nahezu allen Arten von Geräten an einem Bus zurecht zu kommen. Da hier ein komplexes Protokoll gefahren wird und auch rel. viel Intelligenz (so kann man mit wenigen Commands das klonen einer Disk auf eine zweite HD anwerfen, ohne weitere Beteiligung der CPU des PCs) in die Peripherie integriert wurde, war es zu teuer für Standard-PCs.
SCSI stellt immer noch die Spitze der Technologie auf dem Sektor der Massenspeicher dar, allerdings kann man erkennen, dass die SATA-Laufwerke immer mehr in die Bereiche der Server vordringen, nicht zuletzt aus dem Grunde, weil Techniken aus dem SCSI-Sektor in die ATA-Technik übernommen wurde. Das kann man sehr schön an den Barracudas von Seagate sehen, die es bereits vor über 15 Jahren als SCSI-Geräte gab (ich habe sogar noch eine 1Gb große davon hier rumfliegen :lol: ).
 
Bassi85 schrieb:
Ist SCSI eher für den Profi-Bereich konzipiert oder könnte man auch also Hime-User seinen Nutzen daraus ziehen (vorrausgesetzt Geld spielt keine Rolle)?

Vereinfacht gesagt brauchste Dir nur eine SCSI-Controller-Karte kaufen (am idealsten gleich PCIe) und dazu ne SCSI-Platte und/ oder was auch immer für LW.
Kleiner Haken, eine schnelle Platte ist ziemlich teuer (300-800 Euro) und das SCSI-Kabel ist nicht gerade schmal, kannste aber bis zu 15 Geräte dranhängen und gibt auch dafür Rundkabel. Dann kannste Dein Windows oder was auch immer analog SATA drauf peppen (Treiber liegen dem Controller bei).

Beachten musste vorallem, dass Controller und Platte möglichst den gleichen SCSI-Standard/ Anschluss unterstützen. Gibt aber auch dafür Adapterstecker. SCSI ist abwärtskompatibel. Dann muss man in der Regel noch die Endgeräte am Strang terminieren. Klingt aber alles schwieriger wie es ist.
Lange Rede kurzer Sinn: Hier findest Du ein paar Grundlagen darüber.

Ob sich das für Dich lohnt und auszahlt ist die andere Sache. Ich glaube für den anspruchsvollen Homeanwender tuts auch eine SATA Raptor. Und selbst wenn man sich mehrere davon kauft und im Raid betreibt fährt man immernoch relativ günstiger, als mit SCSI. Früher war SCSI - wie schon gesagt wurde - unentbehrlich, gab ja keine schnellen Alternativen. Nur bei ner 15000er Platte kommt man soweit ich weiss immernoch nicht drumherum. Vllt. gibts ja auch schon 15000er SATA Platten, wer weiss?


@Mueli
Ja 45-50° sind auch mir nicht unbekannt. Aber ich denke es hält sich damit noch gerade so im Rahmen. Wers kühler will, muss halt das LW selber direkt aktiv und folglich meist mit zus. Geräuschkulisse behaftet kühlen bzw. im Homeinsatz ne evt. vorhandene Wakü anschliessen. Sollte bei den hohen Anschaffungskosten für so ne Platte eher Makulatur sein. ^^
 
Meine ersten Massenspeicher waren IEEE-488 (oder auch HP-IB) auf dem Commodore , danach kam Atari damit war SCSI vorprogrammiert und bin dann beim PC bei SCSI geblieben.
Der IEEE-488 hatte ähnliche Features wie der SCSI, war allerdings eher auf Meßtechnik hin optimiert.
An meinem 'dicksten' PC hängen etwa 25 SCSI-Geräte (inkl. Scanner, MO, DAT, Exabyte, CD, DVD, Brenner und Disken nat.) und sind über zwei Dual-Channel HBAs angeschlossen. Alle meine PCs (und ich habe 8 davon, aber auch eine RISC-WS) haben SCSI, auch wenn bereits ein PC mit fast ausschließlich ATA bestückt ist. Auch wenn hier viele unter Performance-Mangel auf den P-ATAs und S-ATAs 'leiden' weil nur 60MB/s rüberkommt, 'merke' ich meine 'lausigen' 133MB/s (insgesamt über alle Divices) nicht, wobei ich allerdings schon Ausschau nach PCIe Karten für SCSI halte.
Auch wenn man prinzipiell alle SCSI-Geräte (LVD, SE) zusammenhängen kann (Abwärtskompatabilität) muß man wissen, dass dann u.U. nicht alle Modes (z.B. LVD) zur Verfügung stehen. Auch gibt es Geräte, die einen Controller für sich alleine (dedicated) brauchen um die maximale Leistung zu entfalten (DLT geht z.B. vom Streaming Mode in den Start-Stop-Mode, der doch erheblich langsamer ist).
Bei den Steckern muß man darauf achten, dass man nach Möglichkeit keine SCA-Version bekommt, wel man dann auf jeden Fall einen Adapter braucht, es sei denn man hat einen PC mit einer solchen Backplane (Hot Swap, Hot Plug).
Narrow-Geräte (8Bit) 'laufen' auch an Wide, sollten aber besser 'irgendwo' in der Mitte des Busses verbaut werden, da sonst u.U. Terminierugs-Probleme möglich sind.

Aber wer bereits mit ATA, fingertrommelnd auf den Start seines PCs wartet, sollte die Finger lieber von SCSI lassen, der Kaltstart dauert schon erheblich länger durch das abklappern des Busses (liegt bei mir so im Bereich von etwa 2 1/2 bis 3 Min - aber ich kann damit umgehen :lol:).
 
Zuletzt bearbeitet:
Zurück
Oben