NTFS Grundlagenfrage

lordg2009

Lt. Commander
Registriert
Apr. 2009
Beiträge
1.552
Hi, ich bin auf ein grundlegendes Problem gestoßen und aus google leider nicht schlau geworden. Also schon mal im Vornherein sry für diese dumme Frage:
Bei NTFS Platten fällt ja eine ganze Menge Speicherplatz weg. Ich dachte , dass dies für die Adressierung der Blöcke draufgeht. Jetzt habe ich das allerdings mal nachgerechnet und bin bei einer Partition mit 4KB Blockgröße auf eine maximale Große der Adressierung von 8GB gekommen. Eine Adresse wäre in meiner Rechnung 4 Byte groß und könnte so maximal 4TB adressieren. Allerdings fehlen bei meiner Platte über 100GB. Wo liegt also mein Denkfehler?
 
das liegt nicht an NTFS, das liegt an ... 1.000.000MiB vs 1.000.000MB ... hier is ne gute Tabelle http://de.wikipedia.org/wiki/Byte#Vergleich

die einen rechnen halt mit 1000 (und zwar die Festplattenhersteller, weil es sich mehr liest) und die anderen mit 1024
 
Weil die Umrechnung nicht stimmt von den Platten
Nominel /= Effektiv sozusagen, weil 1KB = 1024Byte nicht 1000 (unter anderem)
 
GiB vs. GB höchstwahrscheinlich also 1.073.741.824 Bytes vs. 1.000.000.000 Bytes.
Zudem braucht man man mehr als nur eine einzelne Blocktabelle.
 
4TB <=> 3,638TiB - Windows schreibt zwar TB, aber meint TiB. Falls also "300GB~" fehlen, ist es in Ordnung.
 
Wo fällt da bei dir "eine ganze Menge" Speicherplatz weg? Klar jedes Filesystem hat einen Overhead, aber so gewaltig ist der bei NTFS nicht. Die Clustergröße hat auch nur in sofern Einfluss auf verschwendeten Speicherplatz als das in einem Cluster nur eine Datei stehen kann. Hast du also Dateien mit 1kb belegen die trotzdem einen 4kb Cluster und du hast 3kb verschwendet. Das wirkt sich aber nur dann deutlich aus wenn man sehr viele kleine Dateien auf der Platte liegen hat.

Edit: Ah er meint wohl das GiB/GB Problem... ok soweit hatte ich jetzt gar nicht gedacht.
 
Die Genaue Umrechnung kenne ich auch nicht, aber ich kann dir sagen, dass dir pro GB jeweils immer genau 92 MB fehlen.

Bei einer Festplatte mit 3000 GB sind es dann ca. 270 GB; die verloren gehen.

Das ist normal und OK so.
 
Zuletzt bearbeitet:
Festplattenhersteller:
1 TB -> 1.000 GB -> 1.000.000 MB -> 1.000.000.000 KB -> 1.000.000.000.000 B

Software:
1 TB -> 1.024 GB -> 1.048.576 MB -> 1.073.741.824 KB -> 1.099.511.627.776 B

Oder anders gesagt:

1 TB laut Hersteller sind 931,32 GB laut Software und erst da kommt dann der Overhead vom Dateisystem drauf.

Hoffe mit dieser Auflistung versteht es jeder.

Edit: Liegt übrigens daran das Hersteller mit dem Dezimalsystem rechnen (Basis = 10) und auf Seiten der Software normalerweise mit dem Binär-/Dual-System gerechnet wird (Basis = 2).
 
Zuletzt bearbeitet:
Freak-X schrieb:
Die Genaue Umrechnung kenne ich auch nicht, aber ich kann dir sagen, dass dir pro GB jeweils immer genau 92 MB fehlen.

Bei einer Festplatte mit 3000 GB sind es dann ca. 270 GB; die verloren gehen.

Das ist normal und OK so.

Es geht nichts verloren. Das Problem ist einfach, dass die Festplattenhersteller die richtigen (SI)-Präfixe verwenden. Kilo = 10^3, Mega = 10^6, Giga = 10^9 usw. Windows und nahezu alle Größenangaben bei Downloads schreiben zwar auch Kilo, Mega, Giga etc, meinen aber in Wirklichkeit die Binärpräfixe 2^10, 2^20, 2^30 und so weiter. Korrekt müsste Windows entweder 1000 GB oder 931 GiB schreiben, wenn es von einer 1000 GB Platte redet. Dort zu schreiben, dass es 931 GB wären ist einfach falsch.

Auch wenn man den Speichermedienherstellern unterstellen könnte, sie würden ihre Plattengrößen beschönigen, so ist der Fehler (überraschenderweise) beim am weitesten verbreiteten Betriebssystem (Windows) zu suchen. Anfangs hat man es mit der korrekten Unterscheidung zwischen den SI- und Binärpräfixen wahrscheinlich nicht so genau genommen, da die absoluten Unterschiede relativ egal waren wenn man von 1.4 MB Disketten und 100 MB Festplatten geredet hat. Mittlerweile sind allerdings TB-Platten schon standard und der Unterschied zwischen dem was der Plattenhersteller in GB draufschreibt und dem was das Betriebssystem in GiB (fälschlicherweise als GB bezeichnet) anzeigt deutlich messbar.
 
Zuletzt bearbeitet:
CD schrieb:
Das Problem ist einfach, dass die Festplattenhersteller die richtigen (SI)-Präfixe verwenden.

Ich denke mal, dass wir uns darauf einigen können, dass unsere Binärensysteme auf Zweierpotenzen basieren. Diese mit Zehnerpotenzen (SI-Präfixe) zu vermischen, ist nicht richtig. Deshalb gibt es die Binärpräfixe, die auf Zweierpotenzen basieren.
Bei RAM ist es mehr oder weniger egal. Du kaufst 4GB, aber bekommst 4GiB - System läuft und gut ist. Bei Festplatten kaufst du 4GB, aber bekommst weniger. Das ist eigentlich Betrug, aber weil die Hersteller "1000=1024" drauf schreiben, ist alles gut.

Bei bisherigen Größen ist der Unterschied zu vernachlässigen: 1TB <=> 931GiB. Wenn man jedoch größer denkt, dann steigt nicht nur die absolute Differenz, sondern auch die Prozentuale. 20TB sind nur noch 18,2TiB - hier ist es quasi schon eine HDD die bei der Rechnung verloren geht und die Dimensionen sind noch klein.

Die Hersteller gehen natürlich nicht hin und schenken uns Speicher, sondern behalten ihre Umrechnung.
 
da die absoluten Unterschiede relativ egal waren wenn man von 1.4 MB Disketten und 100 MB Festplatten geredet hat

Der Vorschlag für die SI-Präfixe kam erst 1996 auf, vorher hat man es also eigentlich richtig gemacht. Microsoft hat das nur niemals geändert um die Nutzer nicht zu verwirren (zumindest die offizielle Erklärung)... Wieviele typische Windows User würden wohl die Welt nicht mehr verstehen wenn mit der nächsten Version plötzlich ihre Festplatten alle andere Größen haben...
 
dieser ganze Umrechnungsblödsinn ... es fehlen 100MB bei ihm bei einer 4TB Platte. einer hat ja schon geschrieben, dass 4TB = 3,6...TiB ist, etwas mehr als nur die vermissten 100MB.

... er meint höchstwahrscheinlich die Differenz zu einer anderen Formatierung ... FAT32 oder exFAT ...

das kommt bei NTFS durch die MFT (MasterFileTable) und deren Schatten-Kopie und die damit einhergehende doppelte "Buchführung" für Dateieinträge. ist halt so bei einem Journaling Filesystem wie NTFS. es führt über Dateibewegungen Buch, um bei etwaigen Problemen eingreifen zu können. sowas merkt man spätestens dann, wenn beim Starten das System mal wieder die Integrität eines Datenträgers überprüfen muß, um Indices und Cluster et cetera wieder auf einen Nenner zu bringen.

wenn meine Vermutung bezüglich der verlorenen "100MB" bei ner 4TB Platte nicht stimmt, dann sorry.
 
@CD: Der Fehler ist weder bei Windows noch bei den Plattenherstellern zu suchen. Man hatte einfach keine Norm für 2^10.
Laut JEDEC ist Kilobyte für 2^10 Bytes meines Wissens immer noch korrekt, fragt sich also auch welcher Norm man mehr Gewicht gibt.

Mittlerweile müsste man laut SI in Windows natürlich alles umtaufen, ob das Sinn macht sei dahingestellt.

Edit: @MahatmaPech: Genau lesen hilft... Erstens schreibt der TE nirgendst was von einer 4TB Platte und zweitens redet er von 100GB nicht MB. Er schreibt lediglich das mit einer 4 Byte-Adresse bis zu 4TB adressierbar wären.
 
Zuletzt bearbeitet:
b3nn1 schrieb:
Ich denke mal, dass wir uns darauf einigen können, dass unsere Binärensysteme auf Zweierpotenzen basieren. Diese mit Zehnerpotenzen (SI-Präfixe) zu vermischen, ist nicht richtig. Deshalb gibt es die Binärpräfixe, die auf Zweierpotenzen basieren.
Bei RAM ist es mehr oder weniger egal. Du kaufst 4GB, aber bekommst 4GiB - System läuft und gut ist. Bei Festplatten kaufst du 4GB, aber bekommst weniger. Das ist eigentlich Betrug, aber weil die Hersteller "1000=1024" drauf schreiben, ist alles gut.
(...)
Das mit dem RAM ist ein guter Punkt... eigentlich komisch, dass es dort dann wieder "richtig gemacht wird" ;)


Masamune2 schrieb:
Der Vorschlag für die SI-Präfixe kam erst 1996 auf, vorher hat man es also eigentlich richtig gemacht. Microsoft hat das nur niemals geändert um die Nutzer nicht zu verwirren (zumindest die offizielle Erklärung)... Wieviele typische Windows User würden wohl die Welt nicht mehr verstehen wenn mit der nächsten Version plötzlich ihre Festplatten alle andere Größen haben...
Ok das ist gut zu wissen. Für eine Änderung ist es jetzt auch definitiv zu spät. Leider. Dafür sind Windows und "ich kaufe 1 TB, bekomme aber nur 931 GB" zu weit verbreitet.


TrueAzrael schrieb:
@CD: Der Fehler ist weder bei Windows noch bei den Plattenherstellern zu suchen. Man hatte einfach keine Norm für 2^10.
Laut JEDEC ist Kilobyte für 2^10 Bytes meines Wissens immer noch korrekt, fragt sich also auch welcher Norm man mehr Gewicht gibt.

Mittlerweile müsste man laut SI in Windows natürlich alles umtaufen, ob das Sinn macht sei dahingestellt.
(...)
Mit einem naturwissenschaftlichen Background habe ich eine starke Neigung zu SI-Einheiten ;) Aber stimmt schon, die Umstellung würde über viele Jahre mehr Probleme und Missverständnisse erzeugen als beheben.
 
@ CD

Lass doch einfach mal dieses ganze oberkluge Gerede stecken; ehrlich.

Du magst genau genommen ja recht haben, aber trotzdem bekommt der durchschnittliche User (Windows-User) eben deutlich weniger, als ihm werbewirksam versprochen wird, da der entsprechende Hinweis eben immer nur sehr klein und für den Leien völlig unverständlich irgendwohin gequetscht wird. Das ist auch in meinen Augen ganz einfach eine Form von Betrug, da die Herstellerr ganz genau wissen, dass man mehr erwartet; als man dann am Ende nutzen kann. - Und somit ist der Begriff "fehlen" dann vielleicht nicht wissenschaftlich korrekt; aber in Bezug auf die Werbeversprechen sehr wohl.

Wenn dir jemand ein Auto mit 70 PS verkauft und es hat dann nur 50 "nutzbare" PS; weil die restlichen 20 PS auf irgendeine Weise nicht zur Geltung kommen können, dann fühlst du dich auch verarscht.

Das ist hier nicht anders.
 
sorry TrueAzrael, da hab ich mich vertippt. 100MB wären wohl locker zu verschmerzen.

TrueAzrael schrieb:
...

Oder anders gesagt:

1 TB laut Hersteller sind 931,32 GB laut Software und erst da kommt dann der Overhead vom Dateisystem drauf.

...

pro TB hdd fehlen also 70 GB. dem TE fehlen 100 GB, ergo:

100/(1000GiB-931,32GiB)*1TB = tatsächliche hdd-größe des TE ... 1,45603TB --> HDD size unknown ^^

ich bleibe daher bei meiner vermutung, dass ihm die MFT, auslagerungsdatei, hiberfil.sys sowie der reservierte platz für die systemwiederherstellung die 100GB "klauen". bei RAM-größen von heutzutage 32GB ist das ja nicht so schwer:

- auslagerungsdatei hat M$ mal so angelegt und empfohlen, dass sie 1,5-3fache größe des RAM belegte,
- hiberfil.sys ist 75% des RAM groß (standardmäßig),
- Systemwiederherstellung ist "ab Werk" bei maximal 5% der HDD-/partitions-größe.

alles werte eines Win7x64 unter vielen. bei der krücke hier unter dem tisch (nostalgie 1) siehts also so aus:


4GB RAM und 160GB Samsung SP1604N (eff. 149,05GiB):

- 6GB auslagerung (systemverwaltet empfohlen), minimum 4GB,
- hiberfil.sys = 2,99GiB auf HDD, also 3GiB gerundet
- Systemwiederherstellung maximal 5% von 149,05GiB = 7,45GiB

in Summe: 16,45GiB.

viel vergnügen bei heutigen kapazitäten bzw. größen: übertragen auf meinen daddel 1 aus der sig. bedeutet das:

24GB RAM und die 256er SSD mit eff. etwa 238GiB ...

- 24GB Auslagerungsdatei minimum und nochmal 12 um auf die empfohlenen 1,5x RAM zu kommen = 36GB
- hiberfil.sys = 0,75 * 24GB = 18GiB
- 5% von 238GiB für die systemwiederherstellung: 11,9GiB, rund 12GiB

in Summe: 66GiB. die fehlen mir auch. danke fürs lesen und verstehen meines standpunktes
 
Freak-X schrieb:
@ CD

Lass doch einfach mal dieses ganze oberkluge Gerede stecken; ehrlich.

(...)

Wenn dir jemand ein Auto mit 70 PS verkauft und es hat dann nur 50 "nutzbare" PS; weil die restlichen 20 PS auf irgendeine Weise nicht zur Geltung kommen können, dann fühlst du dich auch verarscht.

Das ist hier nicht anders.

Ja ne bei den Platten wird einfach 2x die selbe Speichermenge mit zwei unterschiedlichen Einheitensystemen (SI mit der Tausender-Basis und Binär mit der 2^10er Basis) gemessen. Beim Auto wären das dann kW und PS. Die Festplattenhersteller wollen verständlicherweise eine möglichst große Zahl dastehen haben und verwenden die Tausender-Basis (PS), während Windows die 2^10er Basis verwendet (kW). Der Fehler der dabei gemacht wird ist die Gleichsetzung von GB und GiB (bzw. die Unterschlagung des 'i').

Das was du mit den 50 nutzbaren PS meinst ist dagegen der Wirkungsgrad, der einen tatsächlichen Verlust beschreibt.

Keine Ahnung ob das jetzt wieder oberklug rüberkam... aber wenn dir Intelligenz Angst macht kannst mich gern auf Ignore setzen. :p
 
Wenn du ein Auto mit 105 PS kaufst , es hat aber dann nur 77kW fühlst du dich auch verarscht?
 
Zurück
Oben