Wie wichtig sind Zugriffszeiten ?

Black 360

Ensign
Registriert
Feb. 2008
Beiträge
146
Eine Frage: Was hat die Zugriffszeit mit der Geschwindigkeit einer Festplatte zu tun ?
Ich meine wenn die Schreib und Lesegeschwindigkeit doch groß ist muss man doch nicht auf die Zugriffszeit achten,oder versteh ich da etwas falsch ?


Würde mich über eine Antwort freuen

mfg Black
 
Die Zugriffszeit entscheidet darüber, wie schnell die Festplatte auf Daten zugreifen kann, die über dei ganze Disk verstreut sind. Je kürzer die Zeit ist desto schneller ist ein Zugriff möglich. Nennenswerte Unterscheide bei der Zugriffszeit wirst du nur bei anderen größen (1,8" | 2,5" | 3,5") oder Umdrehungszahlen ( 5400 | 7200 | 10000| 15000) haben.

Beim Windowboot werden Daten an vielen Stellen gelesen, da bringt eine niedrige Zugriffszeit vorteile.
Beim Rendern von Videos werden Daten (normal) sequenziell gelsen oder geschrieben, da hat die Zugriffszeit weniger Einfluss.
Zur Ergänzung sei gesagt, dass die Zugriffszeiten real bei 12-14ms liegen auch wenn 9ms angegeben sind.
 
ACHSO deshalb gibst die Defragmentierung, sie sammelt die Dateien auf einer Seite.

Und wie ist das bei Partitionen ist das so das z.B. C in der mitte ist und D eher aussen ?
 
Zuletzt bearbeitet:
Die Laufwerksbuchstaben sind eher nebensächlich,
die Partitionen werden von aussen nach innen angelegt.

Noch was zur Zugriffszeit.
Wenn Du Dir mal Dein Windows anschaust siehst Du das es aus über 25.000 Dateien besteht. Stell Dir vor (nur eine Annahme) das 1000 Dateien davon zum Systemstart geladen werden müssen (ich denke es sind weit mehr, aber 1000 lässt sich gut rechnen), dann wartest Du bei einer Zugriffszeit von 12ms ziemlich genau 12 Sekunden auf die Kopfbewegung der Platte. Egal wie viel Dauertransfer sie schafft. Wenn Du eine Platte mit 5ms Zugriffszeit hast wird diese Zeit auf 5 Sekunden gedrückt, und wenn Du eine SSD benutzt dann bleibt davon nur noch 0,1 Sekunde übrig :-)
 
Zu erwähnen sei, dass Zugriffzeit bei SSDs / Flash und vor allem USB-Sticks ÜBERHAUPT keine Aussagekraft zur SCHREIB-Geschwindigkeit hat !!

Sprich, nur weil nen Stick 0,1ms hat laut benchmark1 , wird er in schreibtests eine wesentlich (faktor 100+ oft) schlechtere datenrate haben !!

HDD besitzen im schreiben och ne längere zugriffszeit als im lesen...


@7k 10k 15k
Spielt für ottonormalverbraucher ne untergeordnete rolle. Ob nu 7k mit 13ms oder 15k mit 5ms, fürs normale arbeiten fällt das nicht ins gewicht.
 
die Partitionen werden von aussen nach innen angelegt

Bist Du sicher? Ich dachte die Festplatte wird von innen nach aussen gelesen wie bei einer CD.

Man sagt ja auch, dass der Anfang der Festplatte schneller ist, weil die Cluster von innen enger angelegt sind.
 
festplatten werden von außen nach innen partitioniert und beschrieben, außen ist die übertragungsrate am höchsten, außen ist auch die anzahl der sektoren höher (zbr wird verwendet!).
 
Die Anzahl der Sektoren sind innen und aussen gleich Gross. Innen ist nur die Speicherdichte enger.

Da die Speicherdichte innen enger ist, ist auch die Tranferleistung höher.

Edit: Jetzt habe ich mich mal schlauer gemacht, sorry. Meine Theorie ist wohl veraltet
 
Zuletzt bearbeitet: (Edit:)
unter den sektoren wird vielfach der teil mit den 512byte daten verstanden, jedoch ist ein sektor, je nach sektor-format, etwa 40 - 100 byte größer. der overhead besteht aus gaps, verwaltungsinformation ecc-code und daten zur synchronisation (embedded servocode). außer sektoren mit 512 byte an daten, gibt es auch sektoren mit 1024, 2048 und 4096 bytes daten (größere sektoren findet man besonders bei magneto-opticals, ein mo mit 512 byte großen sektoren hat z.b. eine kapazität von 1.2 gb, mit 1024 byte sektoren aber schon 1.3 gb, also fast 10% mehr fassungsvermögen - eine 36gb scsi disk habe ich mal testweise mit 1024 byte sektoren formatiert, leider hatte windows nt so seine probleme damit, für linux war es hingegen kein hindernis den drive zu nutzen).
 
1.) Eine Festplatte hat im Gegensatz zu einer CD eine fest vorgegebene Anzahl an Bytes pro Umdrehung (da braucht man sich gar nicht mit Blöcken beschäftigen) d.h. innen sind diese dichter beieinander, als außen. Wenn sich eine Festplatte mit 7200 U/min dreht, dann ist die Datenrate, mit der theoretisch gelesen kann immer gleich (bei der CD außen höher). Der Grund, warum die Platten am Anfang schneller sind wird wahrscheinlich daran liegen, dass das auslesen der dichten Informationen schwieriger ist und man deshalb mehrere Umdrehungen braucht.

2.) Nur weil Windows beim Booten auf 1K Dateien zugreift, heißt das noch lange nicht, dass diese auch einzeln gelesen werden. Windows (zumindest XP) hat eine Datei mit dem Namen Layout.ini. Darin wird mitprotokolliert, welche Dateien beim Booten in welcher Reihenfolge abgelegt werden und beim defragmentieren bzw. im Leerlauf wird das optimiert (und ich glaube die wichtigsten Dateien werden schon bei der Installation in der richtigen Reihenfolge abgelegt, weil das ist ja meistens eher fix. Wenn die Dateien hintereinander liegen, so können die in einem Zug gelesen werden. Dasselbe gilt für das Schreiben von Dateien. Die liegen fast immer hintereinander und so kann man durch den Dateicache von Windows wesentlich mehr (bei mir ca. 2K Dateien/s zu je 4KB) erzeugen.

3.) Grundsätzlich spielt die Zugriffszeit bei Festplatten eher mehr im normalen Office Betrieb eine Rolle, während die sequentielle Transferrate eher beim Kopieren eine Rolle spielt. Ich habe jedoch die Erfahrung gemacht, dass man trotz RAID im Schnitt nicht mehr als 100MB/s bekommt, egal was man anstellt. Grundsätzlich ist es aber sinnvoll ein RAID0 für die Daten (Backup nicht vergessen!!!) mit zwei großen billigen Desktopplatten zu machen und für das Windows eine Raptor einzusetzen, wobei das mit der Raptor nicht unbedingt ein muss ist (ich habe auch keine).

4.) Beim Flash ist das so eine Sache. Die Lese Zugriffszeit ist deutlich besser, aber die Zugriffszeit beim Schreiben deutlich schlechter. Deshalb ist der Sinn von Flash momentan noch eher der geringere Energieverbrauch, die höhere Resistenz gegen Stöße etc., während die Performance eher egal ist. Bei der Performance gibt es ganz extreme Qualitätsunterschiede. Es gibt schnelle Flash Speicher, die meistens mit SLC gefertigt sind, die unter Umständen sogar gleich gut sind wie Festplatten, aber auf der anderen Seite auch die billige Massenware, die für den Desktopeinsatz ungeeignet ist, auch bei den SSDs, aber besonders bei den USB Sticks. Was soll ich bitte mit 1-2MB/s Transferrate und 300ms Zugriffszeit beim Schreiben?
Das Problem ist, dass guter Flash nicht viel billiger ist, als billiger RAM, der um Welten schneller ist und nur den Nachteil hat, dass er flüchtig ist. Der einzige Punkt, wo Flash hier auf Dauer bestehen kann ist die bessere Schreib Zugriffszeit, weil einen reinen Lese Cache kann man mit RAM auch machen und wenn einmal der 64Bit Umstieg vorbei ist, dann wird wieder überall so viel RAM verbaut, wie billig rein geht (momentan wären das schon 8GB für normale Rechner bzw. 4GB für Billigrechner). Da kann man in ein paar Jahren schon einmal 1-2GB für den Cache abzweigen, wenn RAM da ist. Bei Datenbanken passiert das eh schon. Da ist der RAM 16GB in jedem neuen Server, die Datenbank vielleicht 20-30GB (im RAM eh weniger) und das einzige, was über die Platte läuft, sind die Schreibzugriffe.
 
andr_gin

Wie kommts das Festplatten dann in den vorderen Sektoren schneller sind als in den hinteren? Du glaubst doch die Theorie von den kleineren Kopfbewegungen nicht? Die Track-to-Track-Seek-Zeit wird in einer Kreisbewegung die die Köpfe ja machen immer gleich sein.

Und ähm... höre Deiner Festplatte beim Windows-Start zu (manchmal glaube ich wirklich ihr seid alle taub), wenn die Dateien hintereinander liegen würde, dann würde man keine Kopfbewegungen hören, aber die Platte raschelt sich einen ab, was Kopfbewegungen bedeutet.

Du könntest Dir auch mal http://referate.mezdata.de/sj2004/festplatte_dominic-dedering/ausarbeitung/2.html das da anschauen .... die gleiche Anzahl von Bytes pro Umdrehung war glaub ich mal vor zig Jahren so.
 
Zuletzt bearbeitet:
Der einzige Punkt, wo Flash hier auf Dauer bestehen kann ist die bessere Schreib Zugriffszeit, weil einen reinen Lese Cache kann man mit RAM auch machen und wenn einmal der 64Bit Umstieg vorbei ist, dann wird wieder überall so viel RAM verbaut, wie billig rein geht (momentan wären das schon 8GB für normale Rechner bzw. 4GB für Billigrechner). Da kann man in ein paar Jahren schon einmal 1-2GB für den Cache abzweigen, wenn RAM da ist. Bei Datenbanken passiert das eh schon. Da ist der RAM 16GB in jedem neuen Server, die Datenbank vielleicht 20-30GB (im RAM eh weniger) und das einzige, was über die Platte läuft, sind die Schreibzugriffe.

Meinst du jetzt das Ram Speicher Abgezapft wird um ihn als Festplatten cache zu benutzen ?
Bring das denn einen großen Vorteil ?


@HisN jo,meine Festplatte macht beim Windows start ne menge Geräusche (hab ne ältere, bei den neuen hört man das ja kaum )
 
@hisn
da sieht man mal wieder, dass man nicht allem im i-net trauen darf .....

LBA steht für "Large Block Access" ....

lba steht immer noch für 'logical block addressing' und das hat nichts mit dem 'zone bit recording' (zbr) zu zu tun, also dem mehr an daten (sektoren) in den äußeren cylindern.
 
Ja ich hab mal über Festplatten und wie sie funktionieren gelesen.

Es ist länger her und vor 2001, denn damals kam LBA raus.

Ich hatte das so in Erinnerung (gleiche Anzahl Sektoren).

Man lernt ja immer was dazu :)
 
@Black
Das mit dem Ram als Festplatten-Cache macht eigentlich jedes OS mehr oder weniger.
Bei Windows kannste einfach mal den Taskmanager aufmachen und lesen was da steht.

So und so viel Ram, so und so viel Benutzt, so und so viel als Datenträgercache in Benutzung.

@Mueli^^

Du hast so recht ...
 
andr_gin schrieb:
1.) Eine Festplatte hat im Gegensatz zu einer CD eine fest vorgegebene Anzahl an Bytes pro Umdrehung (da braucht man sich gar nicht mit Blöcken beschäftigen) d.h. innen sind diese dichter beieinander, als außen. Wenn sich eine Festplatte mit 7200 U/min dreht, dann ist die Datenrate, mit der theoretisch gelesen kann immer gleich (bei der CD außen höher). Der Grund, warum die Platten am Anfang schneller sind wird wahrscheinlich daran liegen, dass das auslesen der dichten Informationen schwieriger ist und man deshalb mehrere Umdrehungen braucht.
Das ist Unsinn. Der Speicherbereich einer Festplatte ist in Zonen aufgeteilt, wovon jede eine andere Sektoranzahl pro Spur bzw. Zylinder hat. Das ist das von Mueli bereits angesprochene "Zone-Bit-Recording". Mit einer höheren Datendichte innen und das dadurch "notwendigerweise" mehrfache Auslesen der Spuren hat das rein gar nichts zu tun.

Nur uralt Festplatten aus der PC-Steinzeit besaßen über den gesamten Speicherbereich die gleiche Sektoranzahl pro Spur.

andr_gin schrieb:
2.) Nur weil Windows beim Booten auf 1K Dateien zugreift, heißt das noch lange nicht, dass diese auch einzeln gelesen werden. Windows (zumindest XP) hat eine Datei mit dem Namen Layout.ini. Darin wird mitprotokolliert, welche Dateien beim Booten in welcher Reihenfolge abgelegt werden und beim defragmentieren bzw. im Leerlauf wird das optimiert (und ich glaube die wichtigsten Dateien werden schon bei der Installation in der richtigen Reihenfolge abgelegt, weil das ist ja meistens eher fix. Wenn die Dateien hintereinander liegen, so können die in einem Zug gelesen werden. Dasselbe gilt für das Schreiben von Dateien. Die liegen fast immer hintereinander und so kann man durch den Dateicache von Windows wesentlich mehr (bei mir ca. 2K Dateien/s zu je 4KB) erzeugen.
Dei c't hat das Zugriffsverhalten von Windows mal untersucht und dabei festgestellt, dass selbst bei gut defragmentierten Festplatten (selbst wenn die Layout.ini bei der Defragmentierung ausgewertet wurde) hauptsächlich Randomzugriffe stattfinden und eher selten sequenzielle. Es ist einfach schlecht möglich alle Daten exakt in der Reihenfolge auf den Datenträger zu schreiben, wie sie beim Lesen benötigt werden. Das Protokollieren der Zugriffsmuster über die Layout.ini und das Anordnen der Daten anhand dieser Liste ist sicherlich eine sehr gute Maßnahme, aber das garantiert noch lange nicht, dass deshalb immer rein sequenzielle gelesen werden kann.

andr_gin schrieb:
3.) Grundsätzlich spielt die Zugriffszeit bei Festplatten eher mehr im normalen Office Betrieb eine Rolle, während die sequentielle Transferrate eher beim Kopieren eine Rolle spielt. Ich habe jedoch die Erfahrung gemacht, dass man trotz RAID im Schnitt nicht mehr als 100MB/s bekommt, egal was man anstellt. Grundsätzlich ist es aber sinnvoll ein RAID0 für die Daten (Backup nicht vergessen!!!) mit zwei großen billigen Desktopplatten zu machen und für das Windows eine Raptor einzusetzen, wobei das mit der Raptor nicht unbedingt ein muss ist (ich habe auch keine).
Gerade beim Kopieren (ich gehe hierbei vom festplatteninternen Kopieren aus) spielen Zugriffszeit und Cache-Algorithmen eine entscheidende Rolle. Die sequenzielle Transferrate hat hierbei keinen besonders großen Einfluss.

Aber selbst wenn von Festplatte zu Festplatten kopiert wird, müssen die Daten in der Regel zusammengesucht werden, da egal wie oft und wie gut defragmentiert wird, sie so gut wie nie in exakt der Reihenfolge auf dem Datenträger gespeichert sind, wie sie benötigt werden. Bei Riesen-Dateien, die in einem Stück auf dem Datenträger liegen, ist das natürlich was anderes. Bei vielen kleinen Dateien aber ist die Zugriffszeit zusammen mit den Cache-Algorithmen entscheidender als die sequenzielle Transferrate.
 
Erstmal VIELEN DANK ihr habt mir wirklich eine große menge über Festplatten beigebracht.

Eine frage bleibt da noch übrig : Was ist denn der große unterschied zwischen Festplatte und CD ?
(Ich habe das da oben nicht so ganz verstanden )

mfg Black
 
Zurück
Oben