Kompatibiität von Festplatten größer 2TB

Wolfgang359

Ensign
Registriert
Nov. 2008
Beiträge
167
Hallo,
seit 20 Jahren stecke ich einfach eine größere Festplatte rein, wenn die Alte zu klein ist. Das war nie ein Problem. Es hat sich zwar die Schnittstelle geändert (IDE, SCSI, SATA) aber man hat auf die Größe der Platte eigentlich nie Rücksicht nehmen brauchen.

Ich hatte bisher noch nicht mit HDDs größer als 2TB zu tun. Irgendwann habe ich mal gehört, dass man über 2TB nicht mehr so einfach eine Platte reinstecken kann, weil das System dafür ausgelegt sein muss. Keine Ahnung ob das stimmt.
Bevor ich einfach auf gut Glück kaufe, kann mir jemand sagen, ob es Kompatibilitätsprobleme gibt, oder ob man statt einer 2TB auch eine 4 oder 6 TB Platte einfach reinstecken kann?

Ich würde die Platte in ein externes USB Gehäuse stecken, wo bisher eine 2TB Platte drin war, sie mit ext3 formatieren und als Platte verwenden die am NAS (Synology, Linux) steckt. Zusätzlich verwenden würde ich sie noch auf einem Mediaplayer (Ellion, Linux) oder mit "Paragon ExtFS for Windows" vom Notebook (Win7) aus zugreifen.

Seht ihr da Probleme, oder ist das, was ich da irgendwann mal gehört habe, sowieso irrelevant.
Ich würde gerne eure Erfahrung abfragen, bevor ich blind bestelle und mit Try and Error dann selbst auf bestimmte Dinge drauf komme.

Danke! Wolfgang
 
Festplatten >2TB müssen eine GPT Partitionstabelle haben. Das ist mit Linux seit Urzeiten und Windows seit ~Vista kein Problem mehr.
Eine Festplatte dauerhaft mit ext4 an Windows zu betreiben: ich hoffe die Daten darauf sind gut gesichert oder völlig unwichtig.
 
Über 2TB in einer Partition geht meines Wissens nur mit MBR-Partitionstabelle nicht, mit GUID (und das kann glaub ich sogar Vista) ist das nicht mehr relevant. Also mit GUID-Partitionstabelle formatieren und passt.
 
Grundsätzlich müssen Platten über 2 TB nicht mehr MBR sondern GPT partitioniert werden. Bei externen Gehäusen muß also der verwendete Bridge Chip Platten dieser Größe unterstützen, und das Betriebssystem muß GPT unterstützen, was glaub ich seit Windows Vista der Fall ist. Zudem muß der AHCI Treiber aktuell sein falls die Platte an SATA oder eSATA betrieben wird, sonst kanns Probleme beim Zugriff geben, auch wenn es scheinbar so aussieht als ob es funktioniert.

Wenn man eine so große Platte intern einbaut, und auch noch davon booten will, dann muß das Mainboard außerdem mit UEFI ausgerüstet sein, ein althergebrachtes BIOS kann davon nicht booten.
 
Wenn Du die Platte immer im gleichen Gehäuse läßt, sollte es kein Problem geben.
Wenn Du sie aber mal ausbauen willst, sollte das Gehäuse eines sein, welches keine 4k Sektoremulation durchführt.

Dann ist das Gehäuse aber nicht XP kompatibel, aber ich glaube, das sollte heutzutage keine Rolle mehr spielen.
 
Also ich schließe mich meinen Vorrednern an.

Ja, Platten (oder SSDs), die mit MBR und 512Byte pro Sektor partitioniert sind, können max. bis 2TB ohne Tricks adressiert werden.
Allerdings kann Win NT auch mit anderen Sektorgrößen arbeiten, sofern die Hardware mitmacht (z.B. manche Raid-Controller). Ob das sinnvoll ist, sei mal dahingestellt.
Mit GPT/GUID ist es aber wohl einfacher und sicherer.
Siehe hier http://wp.xin.at/archives/2581

Interessanterweise kam es auch in frühen DOS-Zeiten schon vor, das manche OEM-Versionen nicht mit 512Byte-Sektoren gearbeitet haben, um größere Partitionen zu erlauben.

Die meisten Festplatten nach 2010 verwenden intern 4K Sektoren, so daß außerdem die Ausrichtung (Alignment) noch eine Rolle spielt. Hier hilft z.B. GParted.
Extern kommunizieren sie dann entweder mit 512Byte-emulation (512e, normal) oder nativ mit 4K Sektoren (4kn, noch selten; Win 8 oder höher).

Beim USB-Gehäuse darauf achten, daß es zur Platte passt (siehe miacs post).
 
Und die größen Probleme gab es auch schon in der guten alten Zeit. Die gibt es nicht erst seit dem Umstand mit der 2 TB Größe und dem MBR Partitionsstil.

Die gab es, als HDDs noch in MB Größen verkauft wurden. Die gab es damals mit HDDs größer 32 GB, mit HDDs größer 138 GB usw.
 
Zuletzt bearbeitet:
Wolfgang359 schrieb:
seit 20 Jahren stecke ich einfach eine größere Festplatte rein, wenn die Alte zu klein ist. Das war nie ein Problem.
Da hat sich aber gerade in den letzten Jahren einiges geändert, nicht nur die Kapazitäten sind größer geworden, die HDDs haben heute auch andere Eigenschaften als früher, die einfachen Modelle könne heute weniger vertragen und dafür gibt es neue Kategorien von HDDs, z.B. NAS Platten für den Dauerbetrieb und den Betrieb mit mehren HDDs in einem Gehäuse, die haben als Sensoren um besser mit den Schwingungen der anderen HDDs umgehen zu können.

Schau Dir z.B. die Entwicklungsgeschichte der Seagate Barracuda Baureihe an: Eine Barracuda 7200.7 hatte keine Einschränkungen der Betriebsstunden im Product Manual stehen und damit Zulassung für den Dauerbetrieb wie es damals üblich war. Außerdem ist die Datendichte bei denen ja auch noch viel geringer, da gab es noch keinen Teilkontaktbetrieb der Köpfe und daher auch kein Workload Rating wie es heutige HDDs haben, weil man nur so die Datendichte in den Bereich von 300Gbit/in² und mehr steigern konnte.

Die ST3160023AS müsste man heute mit Modellen wie der Seagate Enterprise Capacity 3.5" oder wenigstens einer Seagate Enterprise NAS vergleichen, die können zumindest ungefähr noch das, was die alte ST3160023AS konnte. Nur kosten die eben auch einiges mehr als die einfachen Desktop Modelle, die heute so abgespeckt, also kostenoptimiert sind, wie es damals weder üblich noch nötig war. Die Barracuda 7200.7 waren zu der Zeit HDDs für Desktop bis Enty Level Server Nutzung:
Das hat sich bei der Barracuda 7200.9 nicht groß geändert, bis hin zu Low-Cost Servern und Desktop RAIDs wurde die hier auf Seite 2 angepriesen. Die hatte im Product Manual keine Betriebsstundenbeschränkungen und "Warranty: 5 years on distribution units" stehen.

Die Barracuda 7200.10 schmückt sich ebenfalls mit den 5-Year Warranty Logo gleich auf der ersten Seite des Datenblattes und ist für:
Da sind wie man sieht die "Entry-Level ATA Servers, including RAID" und "Near-Line Storage" schon rausgeflogen. Aber weder dort noch im Product Manual gibt es Einschränkungen der Betriebsstunden, sucht man dort nach "hour" findet man nur die Öffnungszeiten des Supports und unter "Reliability" sind auch keine Einschränkungen, die sind also weiterhin im Dauerbetrieb zugelassen, die Datendichte was ja auch nur 128Gbit/in².

Bei der Barracuda 7200.11 fehlt im Datenblatt das 5-Year Warrenty Siegel und "Point-of-sale devices/ATMs" als Anwendungsbereich, die wurde weiter abgespeckt und mit Eco-Friendly weil "Consumes up to 43 percent less power during idle than previous products" beworben. Dabei ist es noch eine mit 7200rpm und im Product Manual steht erstmals die Beschränkung auf 2400 Betriebsstunden im Jahr, die ist also nicht mehr für den Dauerbetrieb gedacht und gemacht:
Die hat sich mit einer Datendichte von 277 Gbits/in² auch schon ganz in die Nähe des Teilkontaktbetriebs begeben oder macht diesen vermutlich sogar schon. Es wird zwar noch kein Workload Rating genannt, aber der Verweis auf "Normal I/O duty cycle for desktop personal Computers" ist schon klar in diese Richtung und besagt, dass die HDD nicht mehr zu viel Workload verträgt. Das ist eben mit dem Betrieb der Köpfe im Teilkontaktbereich und dem damit verbundenen Verschleiß und Ansprüchen an die Oberflächenbeschichtungen verbunden.

Dann gab es vermutlich auch andere Lager um der heiligen Kuh des Energiesparens gegen den CO2 Ausstoß zu huldigen und vermutlich auch Geld zu sparen, daher gibt es eben keine Zulassung für den Dauerbetrieb mehr. Damit sollte klar sein, warum "Point-of-sale devices/ATMs" nicht mehr als Anwendungsbereich genannt wird, denn dort ist der Dauerbetrieb ja nicht unüblich.

Ab der 7200.11 wurden also die Barracuda Modelle also dann zu HDDs nur für den normalen Desktop Betrieb abgespeckt, aber erst die ST3000DM001 wurde von Barracuda (7200.14) kürzlich in Desktop HDD umbenannt. In der Zwischenzeit sind für die anspruchsvolleren Aufgaben die teuren Modellen in die Produktpalette aufgenommen worden, die Kunden haben aber diese Einschränkung der Eigenschaften und damit Nutzungsmöglichkeiten bzw. möglichen Anwendungsgebiete obwohl sie in den Datenblättern stehen offenbar meist gar nicht wahrgenommen und glauben die Barracuda wären noch wie früher, sind sie aber nicht. Die sind in der Hierarchie zwar weiterhin unten, decken aber nach oben eben längst nicht mehr so viel ab wie die alten Barracuda Reihen, die 7200.7 war noch für Entry-Level Server vorgesehen, dafür kann man alle neueren Barracudas spätestens ab der 7200.11 nun wirklich nicht mehr nehmen, dafür gibt es die Enterprise Cloud HDDs und für "Home Media Servers" sind heute die NAS HDDs gedacht.

Die Barracuda 7200.12 war im Datenblatt auch noch für "Network attached storage devices (NAS)" und "Home Servers" ausgewiesen, obwohl die zitierten Aussagen wie "2400 power-on-hours per year" in deren Product Manual mit denen der 7200.11 identisch sind, das NAS oder der Home Server sollten also besser nicht im Dauerbetrieb laufen bzw. erwartete Seagate wohl, dass die nicht so sein würde.

Im Datenblatt der 7200.14 inkl. der ST3000DM01 von Nov. 2011 steht NAS und Homeserver auch noch und erstmals die 2400 Betriebsstunden pro Jahr, die vorher nur im Product Manual standen, aber die liest ja sowieso kaum jemand. Dabei steht dort dann aber auch erstmal der Hinweis auf die 55TB Workload Rating im Jahr:
Also 55TB Workload (Datenvolumen Lesend und Schreibend) pro Jahr, wobei ein Jahr sich auf 8760 Stunden bezieht, die HDD ist aber eben auch nur für 2400 Stunden im Jahr ausgelegt und damit ergibt sich dann nur ein jährlicher Workload von maximal 15TB. Die ST3000DM001 hat übrigens schon eine Datendichte von 625Gb/in².

Damit wird nun hoffentlich klar, warum die Erfahrungen mit alten HDDs auf neue Modelle nicht zu übertragen sind und das diese heutigen HDDs eben ganze andere HDDs als frühere Modelle sind. Ebenso sollte klar sein, warum es heute mehr Modellreihen gibt als früher, wo selbst einfaches Modell eine viel größeres Anwendungsspektrum abgedeckt hat als die heutigen Desktopplatten machen.

Seagate verwende ich übrigens als Beispiel, weil die sehr offen mit den Informationen sind, Hitachi war es auch und hatte immer den Anspruch die besten Platten zu bauen, die waren dann eben auch teurer, aber eben nie so abgespeckt bzw. eben kostenoptimiert wie die HDDs von Seagate und gerade noch genug für den jeweils vorgesehen Einsatz können und dabei gilt, was der HDD Hersteller sich unter diesem Einsatz vorstellt. So hatten bei Hitachi selbst die einfach Deskstar alle eine 24/7 Zulassung und Vibrationssensoren, also was heute meist erst bei HDDs ab den NAS Reihen vorhanden ist. Bei WD kann man ähnliche Entwicklungen wie bei Seagate sehen, die geizen aber mit den Informationen. Da heute praktisch nur noch WD und Seagate den Markt dominieren, war deren Weg die Platten so sehr in den Herstellungskosten zu optimieren das sie gerade noch dafür gut genug sind, offenbar wirtschaftlich der Richtige und Toshiba geht diesen Weg auch sehr konsequent, während HGST innerhalb von WD bei 3.5" HDDs nur die gehobenen Marksegmente abdeckt.


Wolfgang359 schrieb:
Ich würde die Platte in ein externes USB Gehäuse stecken, wo bisher eine 2TB Platte drin war, sie mit ext3 formatieren und als Platte verwenden die am NAS (Synology, Linux) steckt. Zusätzlich verwenden würde ich sie noch auf einem Mediaplayer (Ellion, Linux) oder mit "Paragon ExtFS for Windows" vom Notebook (Win7) aus zugreifen.

Seht ihr da Probleme, oder ist das, was ich da irgendwann mal gehört habe, sowieso irrelevant.
Ja, denn viele alte Gehäuse unterstützen auch keine Platten mit mehr als 2TB Kapazität. Ich würde es also auf jeden Fall testen, also z.B. unter Windows eine große Partition über die ganze Kapazität anlegen und diese dann komplett mit h2testw testen, also Beschreiben und Prüfen. Wähle aber ein paar GB weniger als vorgeschlagen wird, da die Metadateien des Filesystem bei großen Volumen schneller wachsen als heise es erwartet hat und sonst am Ende der Platz ausgeht, was zu einem Fehler am Ende des Schreibvorgangs führt. Der hat dann auch nichts mit der HW zu tun, den kann man dann daher getrost ignorieren und trotzdem die Daten prüfen lassen, was auch ohne Fehler passieren sollte. Wenn es damit keine Fehler gibt, dann unterstützt das Gehäuse die Plattenkapazität auch wirklich.
 
Danke für eure Infos. Manches war leider ein Overkill. Aber danke auf jeden Fall für eure Mühe.
(Hinweis: Windows können wir ausklammern, es geht nur um Linux. Und gebootet wird von der Platte auch nicht.)

Ich habe mir nun eine WD red 4TB Platte bestellt und baue die in das vorhadene eSATA Gehäuse.
Im Synology Forum sagte man mir, dass der Server DS109 (an dem das Gehäuse per eSATA steckt) damit umgehen kann.
Sollte das alte Gehäuse nicht funktionieren, dann nehme ich das hier. www.amazon.de/gp/product/B00I3M72HG (Bei billigeren Gehäusen gibt es anscheinend immer wieder Probleme, dass diese die HDD nicht in den Standby lassen. Das wäre dann ein Lebensdauerproblem. Lieber ein paar Zehner mehr ausgeben und später keinen Ärger.)

Ich denke das müßte so funktionieren.

Danke! Wolfgang
 
Zuletzt bearbeitet:
Über eSATA solltest Du mit dem Standby keine Probleme haben, da dies dann alleine der Host steuert. Bei USB Platten ist der Host der USB-SATA Bridgechip im Gehäuse und der kann die HDDs dann auch in den Standby schicken oder eben auch nicht. Den gibt es aber bei eSATA nicht, also liegt es alleine am Host die Platten Standby zu schicken. Bei Unload ist was anderes, denn das machen die HDDs von sich aus.
 
Okay, danke für die Info.
Dann kann ich vermutlich jedes eSATA Gehäuse nehmen. Es muss also nicht speziell für >2TB ausgelegt sein.
Die Anbindung ist ja eigentlich so, wie wenn ich die Platte an den internen SATA Stecker stecke, oder liege ich da falsch?
 
So sollte es zumindest sein, ob das eine oder andere Gehäuse dann doch eine unschöne Überraschung in Form von Adressierungsfehlern bietet weil der Port nicht einfach durchgeschleift wird, sollte man aber vorher testen. Wenn nur Linux in Frage kommt, wäre F3 - an alternative to h2testw, oder man scheibt sie einfach so durch das Kopieren von Dateien voll und vergleich dann die md5sum der zuerst und zuletzt geschriebenen Dateien mit denen der Originaldateien.
 
Zurück
Oben