Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Hitachi: HDD-Speicherdichte verachtfacht
- Ersteller MichaG
- Erstellt am
- Zur News: Hitachi: HDD-Speicherdichte verachtfacht
~purplet~
Captain
- Registriert
- Feb. 2008
- Beiträge
- 3.902
Hmm cool dann kann man sich noch mehr p0rn und geklautes Zeug auf der Festplatte sichern, tolle Sache für privatnutzer
Die Diskussion mim backup verstehe ich aber nich wirklich, man mcaht backups auf Festplatten, Festplatten werden alle größer=>man braucht immernoch für das Backup einer Platte noch eine PLatte, egal ob da jetzt 5TB oder 25TB drauf sind.
Die Diskussion mim backup verstehe ich aber nich wirklich, man mcaht backups auf Festplatten, Festplatten werden alle größer=>man braucht immernoch für das Backup einer Platte noch eine PLatte, egal ob da jetzt 5TB oder 25TB drauf sind.
Xedos99
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.102
Na mal sehen was da an Preisvostellungen seitens Hitachi besteht - vielleicht schreckt schon der Preis allein bei solchen HDD-Monstern ab. Aber zusammen mit einem schnellen und fetten Datencache - ich denke da so an 128 MB - sollte das Teil ganz gut ab-gehen..
riDDi
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 7.557
Immer die selbe Leier. Ich empfehle den Zweiflern ein oder zwei TV-Karten. Obwohl ich Serienaufnahmen nach einer Woche schon wieder löschen lasse momentan ~250GB und steigend. Bei HD ist das Gigabyte nach 10 Minuten schon voll.~purplet~ schrieb:Hmm cool dann kann man sich noch mehr p0rn und geklautes Zeug auf der Festplatte sichern, tolle Sache für privatnutzer
Ist leider nicht ganz richtig, denn der Datendurchsatz steigt linear zur Speicherdichte, die Speicherkapazität hingegen allerdings quadratisch mit der Speicherdichte.Qwerty08 schrieb:Mit der Speicherdichte steigt auch der Datendurchsatz. Insofern haben wir dann auch irgendwann weit über 1 GB/Sek Datentransferrate. Und damit dauert das Sichern auch nicht so viel länger als damals zu Beginn bei 10-15 MB/Sek und 20 GB Platte.
Bedeutet konkret (Beispiel):
Doppelte Datendichte bedeutet vierfache Speicherkapazität, doppelte Datenrate aber auch die doppelte Zeitdauer in der die Daten komplett gelesen/geschrieben werden können.
Eine 2 TB Festplatte komplett auslesen dauert heute bereits über 5 Stunden!
Bei meiner alten Festplatte mit 20 GB (so vor ca. 10 Jahren) hat sowas weniger als 30 Minuten gedauert.
HighEndKlaus
Lt. Commander
- Registriert
- Okt. 2009
- Beiträge
- 1.956
Ich hoffe das durch die Achtfache Speicherdichte auch die Achtfache Geschwindigkeit erreicht wird ^^
held2000
Lt. Commander
- Registriert
- März 2010
- Beiträge
- 1.105
Ich rechne mit ca 3 mal mehr Daten (Sektoren) pro Spur und ca 2,5 X mehr Spuren (Faktor 7,5 x mehr Speicherdichte)
macht theoretisch ca 500 MByte/SEK bei ca 7200 U/min MFG
Ps Die Geschwindigkeit wird durch die höhere Datendichte in der Spur erreicht, wäre in meinem theoretischem Fall .....Faktor X3
macht theoretisch ca 500 MByte/SEK bei ca 7200 U/min MFG
Ps Die Geschwindigkeit wird durch die höhere Datendichte in der Spur erreicht, wäre in meinem theoretischem Fall .....Faktor X3
Zuletzt bearbeitet:
(MB auf MByte geändert unsicherheit beseitigt dank CB :))
RubyRhod
Commodore
- Registriert
- Jan. 2006
- Beiträge
- 4.305
The_Virus schrieb:24TB auf einer Festplatte. Wenn die dann ausfällt und man kein Backup hat... Horror
Das hat man sich damals mit 512kb Festplatten auch gedacht.
Also: What's your point?
Irgendwie sind solche Meldungen doch in keiner Weise interessant: Es geht immer schneller und größer im Bereich des PCs und wenn man glaub, es sei eine physikalische Grenze erreicht, gibt es doch wieder Tricks, sie zu umgehen.
BIG NEWS!
riDDi
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 7.557
@RubyRhod: Richtig. Wenn die Platten dann bei Elementarmagneten angekommen sind - man also annehmen sollte, dass sie die Bits nicht mehr kleiner kriegen - dann drehen sie die Dinger eben nicht mehr um 180° sondern nur um 90, ganz wie bei Flash. Und wenn dabei dann 90% der gelesenen Daten Fehlerhaft sind, auch egal, packen wir halt einen Haufen Fehlerkorrekturinfo dazu. So arbeiten sie schon heute; einzelne Bits können schon seit langem nicht mehr ausgelesen werden.
Pr0krastinat0r
Lt. Commander
- Registriert
- Feb. 2007
- Beiträge
- 2.034
Eine Revolution auf dem HDD Markt ist mittlerweile auch nötig, denn bald haben wir das Problem das wir das Internet kaum noch speichern können. Seiten wie Youtube benötigen gigantische Mengen an Speicherplatz, und Platz ist nicht unendlich da. Eine verachtfachung der Kapazitäten wäre eine Erleichterung.
Vidy_Z
Lieutenant
- Registriert
- Okt. 2009
- Beiträge
- 851
Eine 8fache Speicherdichte bedeutet, dass 8x soviel Daten pro Zeiteinheit am Lesekopf vorbeigleiten. Wenn also die Umdrehungsgeschwindigkeit nicht aus irgend einem unerfindlichem Grund abnimmt, dann wird solch eine Platte mit ca. 1000 Mb/sec Lesen und schreiben. Soviel zur HilfeIchWerdAltBeimBefüllenPanik. Die Geschwindigkeit ist bisher auch immer brav mitgewachsen. Das einzige was sich über die Erhöhung der Datendichte nicht verbessern lässt, ist die Zugriffszeit. Ich denke bei so einem 20TB Datengrab und im Zeitalter der SSD, kann man damit leben. Ich finde es eine klasse Entwicklung, Glückwunsch. Und keine Sorge, auch so ein Monster wird man in die Knie zwingen. Man braucht einfach nur Filme und Spiele mit 8 facher Graphikqualität, oder extrem weiträumigen Szenarien. Wie währe es mit einem HD Google Earth oder Street View? Mir fällen da so einiges ein.
Zuletzt bearbeitet:
Die Angabe der Speicherdichte bezieht sich auf die Fläche! Warum wird die Speicherdichte bezogen auf inch² oder cm² angegeben? Also meist GBit/inch², also kann 8x soviel Daten pro Zeiteinheit nicht stimmen, da sowohl die Bits pro Umdrehung zunehmen als auch die Anzahl der Spuren.
Weshalb sollte ein Hersteller 8x soviele Daten in eine Spur quetschen aber dann die Anzahl der Spuren selber nicht erhöhen? Das wäre doch ineffizient für den Hersteller.
Die Beispiel-Rechnung von held2000 kann schon stimmen. Das wäre Faktor 3 bei der Geschwindigkeit bei Faktor 8 beim Speicherplatz.
Weshalb sollte ein Hersteller 8x soviele Daten in eine Spur quetschen aber dann die Anzahl der Spuren selber nicht erhöhen? Das wäre doch ineffizient für den Hersteller.
Die Beispiel-Rechnung von held2000 kann schon stimmen. Das wäre Faktor 3 bei der Geschwindigkeit bei Faktor 8 beim Speicherplatz.
Zuletzt bearbeitet:
PC-SCHAMANE
Cadet 3rd Year
- Registriert
- Mai 2009
- Beiträge
- 56
@ Qwerty08
Eine verbesserte echte Hybrid-Pladde wäre wirklich gut, aber dann richtig,
zB.: 64GB SSD gepaart mit 1,5GB herkömmlicher HDD-Technik (2,5") !
Und das alles für max. € 220.- !!!
Die Dinger würden weggehen wie warme Semmeln, oder besser noch - wie Eis in der Wüste.
Zur Windows-Struktur fällt mir nur ein, das doch der Schritt von XP auf Fiesta/W7 gezeigt hat,
wie das alles gnadenlos aufgeblasen werden kann. Eine vollwertige XP Installation lag bei mir
immer so um und bei 3-4GB, und dann kam VISTA und Win7 x64, und schwubs - sind plötzlich
ganze 16GB belegt ! Und er weiß schon, wie sich das mit Windows 8 entwickeln wird.
Immerhin werden die zukünftig ne Menge Spionagesoftware im Gewirr der Bits und Bytes
verstecken wollen><müssen !!
Eine verbesserte echte Hybrid-Pladde wäre wirklich gut, aber dann richtig,
zB.: 64GB SSD gepaart mit 1,5GB herkömmlicher HDD-Technik (2,5") !
Und das alles für max. € 220.- !!!
Die Dinger würden weggehen wie warme Semmeln, oder besser noch - wie Eis in der Wüste.
Zur Windows-Struktur fällt mir nur ein, das doch der Schritt von XP auf Fiesta/W7 gezeigt hat,
wie das alles gnadenlos aufgeblasen werden kann. Eine vollwertige XP Installation lag bei mir
immer so um und bei 3-4GB, und dann kam VISTA und Win7 x64, und schwubs - sind plötzlich
ganze 16GB belegt ! Und er weiß schon, wie sich das mit Windows 8 entwickeln wird.
Immerhin werden die zukünftig ne Menge Spionagesoftware im Gewirr der Bits und Bytes
verstecken wollen><müssen !!
Zuletzt bearbeitet:
O
Onkelhitman
Gast
Wieso so große SSD Bereiche?
Es würde doch schon reichen, wenn wir 10GB oder 20GB als SSD-Bereich hätten und einfach nur mit einer Logik die Dateien, welche kleiner 2MB sind darauf speichern. In großen MB Bereichen kommt auch eine Festplatte hinterher, bei kleinen Dateien geht die SSD ab wie Schmidts Katze. Warum dann nicht einfach einen Controller mit Cache haben, der kleine Datein automatisch auf den SSD Bereich legt? Und nein das gibts so nicht, die Momentus legt im SSD Bereich nur Dinge ab, die ich oft nutze und auch nur dann. Wenn ich also zweimal im Monat Programm X öffne wird das auch nicht beschleunigt.
PS: Auf die Backupgeschichte geh ich gar nicht mal ein.
Es würde doch schon reichen, wenn wir 10GB oder 20GB als SSD-Bereich hätten und einfach nur mit einer Logik die Dateien, welche kleiner 2MB sind darauf speichern. In großen MB Bereichen kommt auch eine Festplatte hinterher, bei kleinen Dateien geht die SSD ab wie Schmidts Katze. Warum dann nicht einfach einen Controller mit Cache haben, der kleine Datein automatisch auf den SSD Bereich legt? Und nein das gibts so nicht, die Momentus legt im SSD Bereich nur Dinge ab, die ich oft nutze und auch nur dann. Wenn ich also zweimal im Monat Programm X öffne wird das auch nicht beschleunigt.
PS: Auf die Backupgeschichte geh ich gar nicht mal ein.
Pana
Lt. Commander
- Registriert
- Dez. 2005
- Beiträge
- 1.531
Ein RAID 1 sichert die Datenverfügbarkeit. Ein Backup ist es nicht. Ein Backup ist auf einem passiven Medium gespeichert und liegt bestenfalls 100 Km vom Server entfernt in einem Bankschliessfach.Gorby schrieb:Edit: @ Tijay
Wieso? es gibt viele RAID-Versionen und er redete von RAID 1, bei dem auf beiden Platten genau das gleiche steht. Was is daran bitte kein Backup?
eikira
Banned
- Registriert
- März 2007
- Beiträge
- 1.070
naja. weiss nicht so recht was ich davon halten sollte. genau so gut behaupte ich mal steigt auch die fehlerquote der daten ins achtfache. bin bei solchen dauershrink methoden sehr skeptisch.
@Pana
ein Backup is schlicht und einfach eine Kopie auf einem anderen medium als der ursprungsort der zu backupenden datei. dabei ist es völlig irrelevant ob auf einer anderen festplatte im gleichen pc oder auf dem mond unter der oberfläche.
@Pana
ein Backup is schlicht und einfach eine Kopie auf einem anderen medium als der ursprungsort der zu backupenden datei. dabei ist es völlig irrelevant ob auf einer anderen festplatte im gleichen pc oder auf dem mond unter der oberfläche.
Klingt für mich nach einer sinnvollen Idee. Allerdings darf das Prinzip dann nicht mit der Cachestrategie des Betriebssystems in Konflikt geraten.Onkelhitman schrieb:Es würde doch schon reichen, wenn wir 10GB oder 20GB als SSD-Bereich hätten und einfach nur mit einer Logik die Dateien, welche kleiner 2MB sind darauf speichern. In großen MB Bereichen kommt auch eine Festplatte hinterher, bei kleinen Dateien geht die SSD ab wie Schmidts Katze. Warum dann nicht einfach einen Controller mit Cache haben, der kleine Datein automatisch auf den SSD Bereich legt?
Ansonsten melde das doch zum Patent an.
digitalangel18
Vice Admiral
- Registriert
- Mai 2005
- Beiträge
- 6.578
So News gibts doch monatlich, es werden ständig neue technologien erforscht, nur wenige davon schaffen es letztendlich aber auch bis zum Endanwender.
Mit der immer weiter steigenden Kapazität der Festplatten wird die Geschwindigkeit selbiger aber immer problematischer. Die steigt nämlich weit weniger schnell als die Kapazität. Eine 2GB Platte konntest du damals in 5 Minuten vollschreiben. Heut brauchts schon mehrere Stunden. Mit nochmals verzehnfachter Kapazität und nur etwa doppelter Geschwindigkeit dauerts dann mehr als 24h(!). Viel Spaß beim Rebuild eines Raids oder beim Backup....das ist irgendwann nichtmehr praktikabel.
Mit der immer weiter steigenden Kapazität der Festplatten wird die Geschwindigkeit selbiger aber immer problematischer. Die steigt nämlich weit weniger schnell als die Kapazität. Eine 2GB Platte konntest du damals in 5 Minuten vollschreiben. Heut brauchts schon mehrere Stunden. Mit nochmals verzehnfachter Kapazität und nur etwa doppelter Geschwindigkeit dauerts dann mehr als 24h(!). Viel Spaß beim Rebuild eines Raids oder beim Backup....das ist irgendwann nichtmehr praktikabel.
O
Onkelhitman
Gast
"Viel Spaß beim Rebuild eines Raids oder beim Backup....das ist irgendwann nichtmehr praktikabel."
Ich weiss ja nicht wie DU deine Backups machst, aber ich fahre die alle paar Tage/Wochen und nicht : Oh meine 2TB sind wieder mal voll, jetzt sicher ich die mal mit 100MB/s.
Denn da brauchst du heute, 100MB/s (Durchschnitt) = 6GB/Min = 334Min.= 5,5Std. Aber wer sichert nur auf einen Schlag komplette Festplatten?
@WinnieW2
Ach auf so Ideen kommen die auch selber. Ich nehm an sowas liegt bei den Mitarbeitern bei Intel oder so in den Notebooks rum zu Testzwecken. Außerdem, hast du mal eben was Geld über fürs Patentamt und dann für die ganze Klagerei wenn es doch irgendwelche Unternehmen einbauen? Was soll man gegen einen Millionen/Milliardenschweren Gegner tun außer verarmen? Hat man doch bei SLI, Crossfire und dem ganzen Quark gesehen.
Ich weiss ja nicht wie DU deine Backups machst, aber ich fahre die alle paar Tage/Wochen und nicht : Oh meine 2TB sind wieder mal voll, jetzt sicher ich die mal mit 100MB/s.
Denn da brauchst du heute, 100MB/s (Durchschnitt) = 6GB/Min = 334Min.= 5,5Std. Aber wer sichert nur auf einen Schlag komplette Festplatten?
@WinnieW2
Ach auf so Ideen kommen die auch selber. Ich nehm an sowas liegt bei den Mitarbeitern bei Intel oder so in den Notebooks rum zu Testzwecken. Außerdem, hast du mal eben was Geld über fürs Patentamt und dann für die ganze Klagerei wenn es doch irgendwelche Unternehmen einbauen? Was soll man gegen einen Millionen/Milliardenschweren Gegner tun außer verarmen? Hat man doch bei SLI, Crossfire und dem ganzen Quark gesehen.
Zuletzt bearbeitet:
Find solche großen Platten vll ganz nett für Server etc, aber welcher Privatuser braucht denn so viel? Da gehts doch nur darum irgendwelche illegalen Downloads zu sichern..
Kann mir gar nicht vorstellen so viel Speicher mit Bildern und den Spieleinstallationen zu füllen. Habe ne 1,5TB externe die werd ich die nächsten 10 Jahre nicht voll kriegen..
Kann mir gar nicht vorstellen so viel Speicher mit Bildern und den Spieleinstallationen zu füllen. Habe ne 1,5TB externe die werd ich die nächsten 10 Jahre nicht voll kriegen..