News Western Digital: Festplatten mit 28 TB ab Dezember erhältlich

quakegott schrieb:
Mich wundert es echt was manche für absurde Datenmengen besitzen.

Haben ist besser als brauchen. Vor allem in Sachen Backup.

In 21 Jahren fallen viele Dateien an und die summieren sich. CD-Rips in FLAC, Blu-ray Sicherheitskopien, original Urlaubsfotos inkl. Full-HD Videos, hochauflösende Scans von privaten Dokumenten, etc.
 
  • Gefällt mir
Reaktionen: Snowi und Player0915
Moritz Velten schrieb:
28 TB ist schon eine Hausnummer.
Ist wohl eher für Unternehmen gedacht, oder?
Was hat es wohl zu bedeuten wenn auf den Aufklebern fett DATA CENTER und ENTERPRISE drauf steht... hmmm ein Fall für Galileo Mystery
 
  • Gefällt mir
Reaktionen: Araska
Purche schrieb:
Secure Erase sollte bei modernen Platten nur wenige Sekunden dauern, da nur der interne Key für die AES Verschlüsselung vernichtet wird...
Ja die Seagate BerraCuda die ich sonst nutze machen das auch so, deshalb habe ich bei der MG07 dann auch Secure Erase genommen und musste mit etwas Verwunderung feststellen das es Tage dauert...
 
quakegott schrieb:
Mich wundert es echt was manche für absurde Datenmengen besitzen.


Ist halt wieder der persönliche Anspruch bzw. Vorlieben. Ich brauche auch nicht solche Datenmengen und mir reicht die Streamingqualität vollkommen aus. Aber manch einer möchte eben wirklich die Blu Ray Qualität haben, unabhängig vom Anbieter sein, hat aber keine Lust auf das Handling physischer Datenträger.

Wenn du das Geld Geld für ein eigenes Heimkino investierst (und ich meine jetzt keinen größeren Fernseher oder 1000€ Beamer mit ner Teufelanlage, sondern schon etwas ernstzunehmendes), dann möchte man auch die bestmögliche Qualität für das Ausgangsmaterial.

Ich kann schon verstehen, warum manche sowas brauchen. Ansonsten auch für Contentcreator interessant, die z.B. Streaming Aufzeichnungen, VODs etc. lokal unabhängig als Backup wollen. Freiberufliche Fotografen und Videografen die Ihre Arbeit sichern wollen, werden auch Verwendung für sowas haben.

Die Hauptabnehmer werden aber Unternehmenskunden sein. Und wenn man genug davon kauft und zusammen betreibt, ist auch die Geschwindigkeit kein so großes Thema mehr.
 
  • Gefällt mir
Reaktionen: ArtVanderlay, Snowi, Corpus Delicti und 2 andere
twixxn schrieb:
Und auch kleinere Größen sollten irgendwann billiger werden.
Bei HDDs ist die Kosten Skalierung mit der Kapazität limitierte, der Unterscheidet zwischen 4TB und 20TB ist eben nur die Menge der Platter und Köpfe der Rest ist gleich. Nach oben hin gibt ihnen das den Preisvorteil gegenüber SSDs welche bei den Kosten nahezu perfekt mit der Kapazität Skalieren. Nach unten Sorgt es aber dafür das die Platten pro TB zu teuer werden.

Vor 5 Jahren waren es 2TB bis 4TB wo SSDs und HDDs zu teuer sind, heute ist es halt genau bei deinen 8TB...
Ergänzung ()

Player0915 schrieb:
Da merkst du einfach einen gewaltigen Unterschied, ob du Stream schaust, oder ob du UHD-Bluray Qualität hast.
Jub deshalb Kauf ich auch vieles auf UHD Bluray, mein Favorit ist Apollo 11 auf dem OLED...

Aber für vieles ist das auch einfach overkill Secret Invasion wird nicht besser mit besserer Bildqualität...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828
Finde ich erstaunlich. wahrscheinlich nutzen die SMR als zusätzliches Level, wo die effektiv miese Schreibgeschwindigkeit bzw. vorübergehende vollständige Arbeitsverweigerung dann zu verschmerzen sind - oder man kann den CMR-Cache als Großabnehmer abschalten.
Ergänzung ()

cruscz schrieb:
Selbst Menschen die früher dachte Film- und Musikbibliotheken gefileshared sicherheitskopiert hat, wird dies als sehr platzsparenden Format getan haben.
Du weißt schon, wie groß so ne BluRay ist? Wenn man die als Ausfallbackup ablegt (und nicht nur als 2-3GB Rip mit dem nötigsten Informationen der Scheibe), dann ist man schnell in solchen Größenordnungen.

Von 4K Hobbyfilmern/Drohnenpiloten mal gar nicht zu reden.
 
AlphaKaninchen schrieb:
Vor 5 Jahren waren es 2TB bis 4TB wo SSDs und HDDs zu teuer sind, heute ist es halt genau bei deinen 8TB...

Es geht.
Vor ein paar Tagen konnte man bei Amazon eine Kingston DC1500M 7.68TB für unter 400 Euro schießen.

Ist in Ehren ergraut, aber immer noch ein feines Datengrab (sofern man U.2 anschließen kann)
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Araska schrieb:
Vor ein paar Tagen konnte man bei Amazon eine Kingston DC1500M 7.68TB für unter 400 Euro schießen.
Ich habe 8TB SSDs gekauft da haben die noch 800€ gekostet, lese aber noch sehr oft das hier geschrieben wird das Leuten die 8TB zu teuer sind... Persönlich würde ich mir 16TB für unter tausend und 32TB für unter zweitausend wünschen. Aktuell kosten die meist knapp drüber und sind mit U.2
 
Zuletzt bearbeitet:
ReactivateMe347 schrieb:
Finde ich erstaunlich. wahrscheinlich nutzen die SMR als zusätzliches Level, wo die effektiv miese Schreibgeschwindigkeit bzw. vorübergehende vollständige Arbeitsverweigerung dann zu verschmerzen sind - oder man kann den CMR-Cache als Großabnehmer abschalten.
SMR ist ja nicht grundsätzlich schlecht. Es muss nur für das Dateisystem transparent sein sodass man auf der Ebene auch weiß wie die Sektoren aufgebaut sind... Die Probleme treten auf weil das Dateisystem SMR Sektoren so behandelt als ob seien es CMR Sektoren.

Und natürlich darf der Kunde beim Preis auch nicht abgezogen werden. SMR in der gleichen Kapazität ist natürlich weniger wert als CMR.

Genauso wie es bei QLC und TLC ist. Diesen Preisvorteil wollen die Kunden eben auch an sich weitergegeben sehen....
 
timebener schrieb:
Aber viel Spaß wer die 28TB mal Formatieren oder verschlüsseln will. Das dauert ja einen Monat 🤣
AlphaKaninchen schrieb:
Bei der 12TB hat der Secure Erase glaub 3 Tage oder so gebraucht... Also eher 1 Woche
Meine NASe hat 4 Mal 6 TB WD Red, Füllstand 80 %. Ein ZFS-Scrub dauert ziemlich genau 10,5 Stunden. Hochgerechnet würde also ein Tag für 12 TB rauskommen.

Ich habe freilich auch DVDs drauf liegen sowie ein Archiv meiner Musik und aller meiner GOG-Installer, Windows- und Linux-ISOs u.s.w. Aber ich habe sowas auch, weil ich gern mit der Technik und mit Serversoftware spiele (es läuft Gentoo Linux drauf). Ich setze RaidZ2 ein, somit habe ich nicht einmal die Hälfte von 28 TB als Nutzkapazität. Leider sind WDs 14- oder 16-TB-Platten immer noch extrem teuer. Würde gern mal aufrüsten.
 
Donnerkind schrieb:
Meine NASe hat 4 Mal 6 TB WD Red, Füllstand 80 %. Ein ZFS-Scrub dauert ziemlich genau 10,5 Stunden. Hochgerechnet würde also ein Tag für 12 TB rauskommen.
Größere Festplatten sind in aller Regel aber auch schneller beim Sequentiellen Lesen.

Ich meine mich erinnern zu können dass es auch schon Festplatten gibt die 400MB/s und mehr schaffen.

Auch beim ZFS Scrubbing gab es vor einiger Zeit ein Update was diesen Prozess beschleunigt hat
 
Für diese Festplatten gibt WD knapp 300MB/s an.
Es gibt aber auch noch diese Technik wo die Schreib/Leseköpfe auf 2 Einheiten aufgeteilt sind und sich unabhängig von einander bewegen können. Damit sollte noch ne Ecke mehr gehen.
 
  • Gefällt mir
Reaktionen: csch92
ReactivateMe347 schrieb:
Du weißt schon, wie groß so ne BluRay ist?
Ja, da sich meine Aussage aber größtenteils auf die Zeiten intensiven, weil nicht juristisch verfolgten Filesharings bezog hier eine kurze geschichtliche Einordnung:
Napster, als erster Filesharing-Hoster, der verklagt und in dieser Form fortan nicht mehr weiterexistierte wurde Mitte 2001 abgeschaltet. Weitere Hoster folgten.
Blu-Ray Discs wurden erst 2002 „erfunden“ bzw. Spezifiziert. Wirklich verkauft wurden Filme erst ab 2006 und Abspielgeräte waren zu Beginn so teuer, dass es sich preislich lohnte eine PlayStation 3 zu kaufen (die mehrere Hundert Euro kostete).
Brenner und beschreibbare Medien kamen noch einmal ein Stück später.

Auf Blu-Rays dürften also nur sehr wenige „Filmarchive“ gelandet sein, vermutlich eher die Sicherungen mehrerer DVDs auf einer Blu-Ray.
Zu Zeiten der Blu-Rays war Filesharing/Raubkopieren längst kein Thema mehr, das waren Zeiten des Filmstreamings von entsprechenden Plattformen das zu Beginn noch als (zumindest für die Konsumenten) legal galt.

Eine derartige Off-Topicdiskussion wollte ich damit aber nicht lostreten.
 
Purche schrieb:
Da ist schon Controller Logik drin, aber die erledigt nicht alles wie gewohnt und stellt den Speicher der Platte auch nicht auf die gewohnte Art und Weise für wahlfreie Zugriffe zur Verfügung.
Okay klingt interessant. Auf der Website steht ja auch kompatibel mit Windows. Das wundert mich dann etwas, da ist ja nicht viel anpassbar. Sonst wird es eine 24TB wenn sie verfügbar sind.
 
BxBender schrieb:
Passt gerade so meine Steam Bibliothek drauf.
Hab warum auch imemr gerade 4,5TB vollgepackt mit den dringlichsten Sachen, die ich noch spielen muss. oh-oh, diese Kauf- udn Sammelwut mit Bundles und Sonderangebote auf Angebote.
Spiele mit 100-150GB sind ja anscheinend schon zum Standard eskaliert.

Vielleicht gibt es ja bald eine "My Book Duo"-Version mit 2 x 28 TB. Eine 44TB-Version mit 2 x 22 TB gibt es ja bereits.

Meine 28er MyBookDuo für Steam-Spiele (2 x 14 TB) wird auch allmählich knapp, ich musste schon auf SSDs auslagern ;-)

mygamesduo.pngsteamlib.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oc3an
AGB-Leser schrieb:
Kann man die auf Festplatten überhaupt dafür nutzen? Die Datenübertragung ist ja sehr langsam
Sicherlich kannst du das, dauert dann halt nur einen kleinen augenblick länger bis die geladen ist, denn die LLM wird ja in den VRAM geladen bzw. RAM oder beides je nachdem wie groß das Model ist das du nutzen willst. Die Responsetime ist bzw. dürfte dadurch nicht eingeschränkt sein. Ich spiele gerade mit 13B Models rum die entweder komplett im RAM laufen oder VRAM+RAM da die 3080 mit 10GB dafür nicht ausreicht. 7B Models werden auch minimal im RAM ausgelagert. 30B und alles darüber tuh ich mir noch nicht an wobei ich da echt bock drauf hab, aber dafür brauch ich erst ne 3090/4090 oder ne A6000 mit 48GB VRAM :D

Kannst es dir ja mal selber ansehen falls du willst, gibt genug Tools dafür wie SillyTavern, Koboldcpp, Llamacpp oder was ich nutze Obaabooga TextUI. Unter Windows alles 1 click installer, lediglich die UI settings sind etwas sehr gewöhnungsbedürftig da es eine menge zum einstellen gibt (Die standardpresets sind aber schon ok). So ist z.b. die zu berücksichtigende Kontextlänge als "n_ctx" definiert. Hab da selber auch erst planlos vorgesessen aber ChatGPT hilft gerne bei der erläuterung der begriffe :D

Hier noch ne super resource für die Models, viele davon auch unzensiert.
https://huggingface.co/TheBloke

Kann man easy über das WebUI integrieren. Also ich habe ca. 2 tage gebraucht um das Grundwissen zu verstehen was die verschiedenen Datasets/Modelendungen angeht wie GGUF, GGML, GTPQ, BIN, AWQ mit ihren vor und nachteilen bzw. den Transformern. Anfangs hat AWQ trotz seiner vorteile bei mir nach jedem ersten normalen Reply immer nur noch Bullshit geschrieben der keinen Sinn ergab. Bin nun bei 8Bit Quant mit GGUF geblieben bzw. GTPQ.
Teste derzeit halt noch rum mit den Models. Zu empfehlen sind auf jeden Mistral und Llama2 da die komplett anders und Profitechnisch trainiert worden sind. Die meisten anderen Models sind meißt nur Merges von vorhandenen anderen Models.
 
Zuletzt bearbeitet:
Danke dir, ich muss mich da komplett reinarbeiten, was überhaupt möglich ist, und was nicht. Meine 6900XT hat zwar 16GiB, aber die sollen bei sowas ja nicht so gut sein
 
Zurück
Oben