Seagate ST2000DM001 nur unterdurchschnittliche Leseraten?

dasforum

Cadet 2nd Year
Registriert
März 2012
Beiträge
23
hi zusammen,

habe zwei identische 2tb festplatten jeweils einzeln an einem asus p8p67 mainboard getestet. bs ist jeweils win7 prof. 64bit.
ob an sata3(blau) oder sata 6(grau), die leseraten sind jeweils immer nur zwischen 74-84mb ! es sind 1,3tb belegt, also noch 500gb frei. verstehe wirklich nicht wieso die leseraten so niedrig sind?
getestet mit crystaldiskmark 3.02 ,,komisch ist auch das dieselben platten, als datenplatten angechlossen,ohne betriebssystem drauf, bei 130-160mb leseraten waren...,,es kommt mir also so vor als ob die platte verlangsamt wird, nur weil sie ein betriebssystem drauf hat? auch eine kürzlich angeschlossenen datenplatte mit 3tb hatte leseraten von 160-180mb. woran liegt das, jemand eine ahnung...?

THXX;)
 
AW: Seagate ST2000DM001 nur unterdurchschnttliche Leseraten...?

Ich denke es liegt an den verschiedenen Anzahl an Plattern. Ggf. hast du viele Platter mit wenig Datendichte, das würde die moderaten Datenraten erklären.
 
AW: Seagate ST2000DM001 nur unterdurchschnttliche Leseraten...?

Nein, ich habe immer nur eine Platte einzeln mit dem Betriebssystem drauf, getestet. Und dazu maximal eine zusätzliche Datenplatte. Die Dichte war immer sehr ähnlich, 50-65% belegt. Gleiche Platte mit gleicher Datendichte hat bis zu 50% unterschiedlich leseraten, wenn sie als Systemplatte oder als reine Slave datenplatte fungiert. Also das darf eigentlich nicht sein...? Das mu ein Problem vorliegen, fragt sich nur welches...?
 
dann wird bald dein MB das zeitliche segnen ;)
leider kein Scherz das MB fällt sehr gerne aus

ist das MB schon ein B3 Mainboard?
 
derChemnitzer schrieb:
dann wird bald dein MB das zeitliche segnen ;)
leider kein Scherz das MB fällt sehr gerne aus

ist das MB schon ein B3 Mainboard?


uuh...:rolleyes:, du willst mir doch nicht etwa die gute weekendstimmung vermiesen...?;)
naa, hatte bisher immer asus mainbards, und bisher ist keins davon vorzeitig ausgefallen...,,liefen immer so 2-3 jahre und 8-16stunden täglich als audio-rechner" also tip-top bisher, kann ich nur sagen,oder denkst das die neuen mainboards anfälliger sind? und wie kann ich den fehler ausmachen bzw. schwarz auf weiss belegen, wenn es überhaupt am maiboard liegt? wo steht das mit dem B3...? ich denke schon das es ein b3 ist, ist nur n paar monate alt...,,vor allem verstehe ich nicht das de slave modus bessere leseraten bringt...
 
Zuletzt bearbeitet:
Heute fliegen die Expertenmeinungen wieder tief...

Die seq. Übertragungsgeschwindigkeit einer HDD ist vom Speicherort abhängig - außen ca. doppelt so hoch wie innen.
Wenn die Platte nur eine Partition hat und die ziemlich voll ist, kann daher ein Benchmark, der im Filesystem Testdaten anlegt und damit arbeitet, natürlich keine berauschenden Werte liefern. Liegt das System auch noch drauf, wird die Messung durch Zugriffe auf Systemdateien natürlich auch noch gestört.

Wenn noch 500GB frei sind, dann liegen diese Dateien ca. 1750GB vom Plattenbeginn außen entfernt, nur mehr 250GB vom langsamsten Innenbereich entfernt. 75-85MB/s sind dann schon im Normalbereich

Wenn Du wissen willst, ob mit der Platte noch alles in Ordnung ist, mach einen Read-Benchmark auf physischer (und nicht logischer Filesystem-)Ebene, zB mit HDTune pro oder HDDScan, um eventuell bestehende Hardwareprobleme zu erkennen, ist ein Blick in die SMART-Werte sicher auch nicht falsch.
 
Ernst@at schrieb:
Heute fliegen die Expertenmeinungen wieder tief...

Die seq. Übertragungsgeschwindigkeit einer HDD ist vom Speicherort abhängig - außen ca. doppelt so hoch wie innen.
Wenn die Platte nur eine Partition hat und die ziemlich voll ist, kann daher ein Benchmark, der im Filesystem Testdaten anlegt und damit arbeitet, natürlich keine berauschenden Werte liefern. Liegt das System auch noch drauf, wird die Messung durch Zugriffe auf Systemdateien natürlich auch noch gestört.

....

Verstehe...,klingt einleuchtend. Es sind noch 500Gb frei, also die Platte ist nicht überfüllt...,,Zudem liegt das Problem doch sicherlich woanders...,wenn die selbe Platta und mit identischer Plattendichte zu 50% uterschiedliche Leseraten bringt, wenn sie als Systemplatte und dann als Datenplatte läuft? So groß dürfen die Uterschiede einfach nicht ausfallen, ist eher unwahrscheinlich....? Die Platten wurden immer wieder getestet und waren 100% OK, mit HDDScan. Also ist es doch das fu** Mainboard das hier offensichtlich Probleme macht...?
Und wenn as alles sow äre wie du schreibst, wieso verarschen uns dann alle Festplattenhersteller mit diesen unrealistischen Lese_Schreibraten...? Bei meiner SSD im Office Rechner scheint das nicht zuzutreffen...,die samsung 830 liefert beste Werte, auch wenn sie fast randvoll ist..., aber ist halt ne andere technik und nicht mechanisch..., das wirds wohl sein.kennst du einen Link oder einen Thread in dem über das Verhältnis von Plattendichte /Leseraten berichtet wird...(bei mechanischen festplatten)?
 
Zuletzt bearbeitet:
wieso verarschen uns dann alle Festplattenhersteller mit diesen unrealistischen Lese_Schreibraten...?
Bitte wo? Da steht "Interface: 3 oder 6Gbit/s. Was für die Übertragungsgeschwindigkeit über das SATA.Kabel auch zutrifft, oder wenn zB Leseoperationen aus dem HDD-Cache bedient werden können.
In jedem Datenblatt/Spezifikationen steht dann aber auch: "max. Medium Transferrate: xxxMByte/s"

wenn die selbe Platta und mit identischer Plattendichte zu 50% uterschiedliche Leseraten bringt, wenn sie als Systemplatte und dann als Datenplatte läuft? So groß dürfen die Uterschiede einfach nicht ausfallen, ist eher unwahrscheinlich....?
Warum nicht? Siehst Du, was das System während des Benchmarks auf der gleichen Platte rumtrottelt(und damit den Benchmark arg ausbremst)? Hast Du eine Ahnung, wie zerfleddert der Benchmarkbereich vielleicht durch Fragmentierung ist?

kennst du einen Link oder einen Thread in dem über das Verhältnis von Plattendichte /Leseraten berichtet wird
Bemühe einfach Google (oder die Forumssuche) nach HDTune, HDD Review, HDD Benchmark und du wirst tausende finden. Mit der genauen Bezeichnung Deiner Festplatten samt Benchmarkdiagrammen, die Du gegen Deine eigenen vergleichen kannst
 
Ernst@at schrieb:
Bitte wo? Da steht "Interface: 3 oder 6Gbit/s. Was für die Übertragungsgeschwindigkeit über das SATA.Kabel auch zutrifft, oder wenn zB Leseoperationen aus dem HDD-Cache bedient werden können.
In jedem Datenblatt/Spezifikationen steht dann aber auch: "max. Medium Transferrate: xxxMByte/s"


Warum nicht? Siehst Du, was das System während des Benchmarks auf der gleichen Platte rumtrottelt(und damit den Benchmark arg ausbremst)? Hast Du eine Ahnung, wie zerfleddert der Benchmarkbereich vielleicht durch Fragmentierung ist?

Bemühe einfach Google (oder die Forumssuche) nach HDTune, HDD Review, HDD Benchmark und du wirst tausende finden. Mit der genauen Bezeichnung Deiner Festplatten samt Benchmarkdiagrammen, die Du gegen Deine eigenen vergleichen kannst



Also die angaben bei dieser platte waren laut hersteller bei 150mb lesen ! wenn die platte zu 65% voll ist dürfte das um max. 20-30mb abfallen, aber nicht um die hälfte ! oder soll man eta große platten kaufen um diese nur zu 20% vollzumache damit sie ihre lesegeschwindigkit beibehalten? und noch was, deine thoerie stimmt leider nicht, denn in meinem älternen sata 3 system hatte ich mit sata2 paltten werte über 100mb lesen...,,also das haut nicht hin.

und zu zweitens;. es gab kaum bei meinem letzten sata2 system minimale unterscheid zu slave/master platten...,bei den leseraten...,,
also ich fasse es nur so zusammen das die neuen system wahrscheinlich anfälliger sind und nicht das halten was sie versprechen...

google bemüht ...und die 75mb leserate die ich jetzt habe wurde immer! überboten..., allesamt übr 100mb/sec

hat alles nichts gebracht ("
trotzdem danke
 
Dann schaff dir eine kleine HDD/SSD nur für Windows und Programme an und verwnde die ST2000 nur als Datenplatte, Problem gelöst.
 
Inzersdorfer schrieb:
Dann schaff dir eine kleine HDD/SSD nur für Windows und Programme an und verwnde die ST2000 nur als Datenplatte, Problem gelöst.

ja,...habe das schon durchgekaut, geht leider nicht aufgrund von spezifischen programmen ud sounddateien...,,die ssd müßte also mind. 2tb groß sein, und die ist natürlich noch schweineteuer...,,ich wäre ja schon happy wenn ich so bei 120-150mb lesen wäre, aber 75 sind mir grad echt zu wenig. das einzige was mich noch motiviert, sind die 4.5ghz meiner i7 2700K...(: aber die ist leider nicht für das lesen zuständig..., schön wärs"
 
Zuletzt bearbeitet:
dasforum schrieb:
wenn die selbe Platta und mit identischer Plattendichte zu 50% uterschiedliche Leseraten bringt, wenn sie als Systemplatte und dann als Datenplatte läuft? So groß dürfen die Uterschiede einfach nicht ausfallen, ist eher unwahrscheinlich....?
Schon seid Jahren werden auf den äußeren Zylindern mehr Sektoren untergebracht als auf den inneren, etwa doppelt so viele. Deswegen werden ja die Platten auch nicht mehr über Kopf/Zylinder/Sektor sondern eine Logische Block Adresse (LBA) angesprochen. Die Hersteller reichen so eine gleichbleibende Datendichte und eben auf den äußeren Zylindern auch eine etwa doppelt so hohe Datentransferrate, da bei einer Umdrehung ja eben etwa doppelt so viele Sektoren unter den Köpfen vorbei fliegen.

Wie Ernst@at schon geschrieben hat, hast Du einen Benchmark genommen, der auf Filesystemebene arbeitet und damit hängt dessen Ergebnis eben vom Filesystem ab und vor allem davon, wo es die Testdatei anlegt. Dann kann es bei einer Systemplatte obendrein zu schlechteren Ergebnisse kommen, wenn ein Systemzugriff während des Benchmarks passiert. Was Ernst@at aber unterschlagen hat, ist noch die Fragmentierung des Filesystems und wenn die zu hoch ist, dann kann es auch noch sein, dass die Testdateien nicht in einem Fragment (Stück) angelegt werden und damit noch zusätzliche Kopfbewegungen nötig sind, die die Performance noch weiter drücken.

dasforum schrieb:
die samsung 830 liefert beste Werte, auch wenn sie fast randvoll ist..., aber ist halt ne andere technik
So ist es, da gibt es keine inneren und äußeren Bereiche mit unterschiedlichen Geschwindigkeit und auch die Fragmentierung des Filesystems spielt bei SSDs praktisch keine Rolle. Dafür gibt es dort aber auch andere Faktoren, die die Performance beeinflussen und auch Hersteller die mit Transferraten werben, die mit realen Daten nie erreicht werden (Sandforce + Datenkomprimierung + ATTO).

dasforum schrieb:
ja,...habe das schon durchgekaut, geht leider nicht aufgrund von spezifischen programmen ud sounddateien...,,die ssd müßte also mind. 2tb groß sein
Das verstehe ich nicht. selbst wenn die spezifischen programme und deren Daten nur auf C: liegen dürfen, so kann man bei NTFS doch auch Platten in die Verzeichnisstruktur einhängen, wie es bei Linux der Fall ist. Damit kannst Du ein C:\ auf einer SSD haben und die Verzeichnisse die große Datenvolumen beinhalten auf einer HDD Partition.

Also selbst ein Programm welches zu blöd ist seine Daten aus einen frei konfigurierbarem Ordner zu lesen ist kein Hindernis das System auf eine SSD und die Daten auf einer HDD abzulegen.
Ergänzung ()

Die ST2000DM001 sollte übrigens zwischen etwa 100MB/s auf den inneren bis etwa 200MB/s auf den äußeren Zylindern gehen.
Ergänzung ()

HDTune_Benchmark_ST2000DM001-9YN164_ON_SATA_600.jpg

Ergänzung ()

Noch was: Achte darauf, ob Du wirklich eines der Rev. 3 mit der B3 Version des P67 hast und nicht noch eines mit dem alten B2, der ja bekanntlich einen Bug hat der die Funktionsweise der SATA 3Gb/s Ports mit der Zeit beeinträchtigt. Dann hat das Board ja:
Intel® P67 chipset :
2 x SATA 6Gb/s port(s), gray
4 x SATA 3Gb/s port(s), blue
Support Raid 0, 1, 5, 10
Marvell® PCIe 9120 controller : *2
2 x SATA 6Gb/s port(s), navy blue
Der Marvell 9120 ist nur über eine PCIe Lane angebunden und schafft damit in der Praxis nur so 360MB/s Durchsatz. Wenn da nun zwei so schnelle HDDs dran hängen, bremsen die sich gegenseitig aus. Wenn Du also zwei HDD mit 7200rpm und 1TB Plattern hast, dann sollte die beiden an den grauen Porte betrieben werden (solange keine SSD vorhanden ist, die wäre auch und bevorzugt an einem grauen Port zu betreiben) und allenfalls eine an dem dunkelblauen Port des Marvell. Die hellblauen würde ich bei einem B2 Chipsatz besser meiden.
 
Manche Leute sind eher beratungsresistent.

habe zwei identische 2tb festplatten
Denkst Du - die ST2000DM001 wurde in 2 verschiedenen Ausführungen gebaut
- mit 3x667GB Platter und 6 KöpfenY0SWu.png
diese schafft zwischen 170MB/s und 80MB/s
- mit 2x1000GB Platter und 4 KöpfenTBuNr.png
und diese zwischen 200MB/s und 100MB/s
je nachdem, wo die Benchmark-Datei liegt, und wird durch zwischenzeitliche I/Os des Systemes noch arg runtergebremst...

Gleiche Platte mit gleicher Datendichte hat bis zu 50% unterschiedlich leseraten, wenn sie als Systemplatte oder als reine Slave datenplatte fungiert.
...
vor allem verstehe ich nicht das de slave modus bessere leseraten bringt...
...
und zu zweitens;. es gab kaum bei meinem letzten sata2 system minimale unterscheid zu slave/master platten...,bei den leseraten...,,
Seit vielen Jahren betreibt man mehrere Platten an Controllern im AHCI Mode, da gibt es keine Master/Slaves mehr. Solltest Du den Controller im IDE Mode konfiguriert haben, dann beeinflussen sich die zusätzlich noch gegenseitig.

google bemüht ...und die 75mb leserate die ich jetzt habe wurde immer! überboten..., allesamt übr 100mb/sec
Steht da auch wo dabei, deren Platte ist 65% voll, damit Du das direkt vergleichen kannst?
Die werden das eher auf einer leeren Platte veranstaltet haben, dort wo man sich gegenseitig mit Benchmarks bewirft.

wenn die platte zu 65% voll ist dürfte das um max. 20-30mb abfallen, aber nicht um die hälfte
Sieh doch selbst an der HDTune-Kurve nach - zu den 65% kommen noch 12,5% die am Anfang für den Index reserviert werden, womit man bei 77,5% oder 1550GB liegt.
Was - je nach Plattenbauart - von 170MB/s auf 120MB/s oder von 200MB/s auf 130MB/s, also eine Reduktion um 50MB/s bzw 70MB/s mit sich bringt.



@Holt:
Holt schrieb:
Was Ernst@at aber unterschlagen hat, ist noch die Fragmentierung des Filesystems und wenn die zu hoch ist, dann kann es auch noch sein, dass die Testdateien nicht in einem Fragment (Stück) angelegt werden und damit noch zusätzliche Kopfbewegungen nötig sind, die die Performance noch weiter drücken.
Hat er nicht. Post#8:
"Hast Du eine Ahnung, wie zerfleddert der Benchmarkbereich vielleicht durch Fragmentierung ist?"

Wenn die Platte erst zu 65% befüllt wurde, aber eher unwahrscheinlich.
 
Zuletzt bearbeitet:
Ernst@at schrieb:
Denkst Du - die ST2000DM001 wurde in 2 verschiedenen Ausführungen gebaut
- mit 3x667GB Platter und 6 Köpfen ... diese schafft zwischen 170MB/s und 80MB/s
- mit 2x1000GB Platter und 4 Köpfen
Das war mir jetzt neu, ich dachte die wäre nur mit TB Plattern zu haben.
Ernst@at schrieb:
Hat er nicht. Post#8:
Sorry, das habe ich doch glatt übersehen, aber dass der Virenscanner ggf. auch bremst, hast Du das erwähnt? Siehst Du, auf der Filesystemeben gibt es eben immer noch was, woran auch ein Festplattenprofi nicht immer denkt :D
Ernst@at schrieb:
Wenn die Platte erst zu 65% befüllt wurde, aber eher unwahrscheinlich.
Nicht wirklich, denn das sie jetzt zu 65% befüllt ist, heißt nicht automatisch, dass sie nicht schon mal sehr voll gewesen sein könnte. Dann wäre die Fragmentierung u.U. schon echt ein Thema. Außerdem wird auf Systemlaufwerken ja alleine schon von Windows laufend geschrieben und gelöscht, was die Fragmentierung auch fördert, zumal Windows die Eigenschaft hat die LBAs gelöschter Dateien möglichst nicht sofort zu überschrieben sondern die Dateien dann über die ganze Kapazität ausbreitet und dabei nur den Bereich ausläßt (soweit möglich), der für den MFT reserviert ist, was normalerweise 12.5% der Kapazität entspricht (kann man in der Registry aber ändern).
 
Zuletzt bearbeitet:
danke vorab für all eure einwürfe und erklärungen. ;)

über die funktionsweise weiss ich aber auch gut bescheid, auch wen man hier und da immer was dazulernt.
fakt bleibt aber, das hier eine anomalie vorliegt die so nicht vorkommen darf. die o.g. 2tb festplatte bringt in jedem fall, und bei tausenden von usern, siehe internetrecherchen und tests, immer ! weit über 100mb im lesen, im durchschnitt 120-140mb, sowohl als sytemplatte als auch als slave/datenplatte. auch bei mir wird dieser wert erreicht, allerdings nur wenn die platte als slave, also datenplatte fungiert. weiteres faktum ist das bei meinem älteren sata II system, dasselbe system auf einer ebnefalls 2tb systempaltte immer über 100mb hatte, und das auf einer gar langsameren hitachi HDS722020ALA330. ich denke also zusammengefasst nachwievor das hier ein unbekannter konflikt zwische systemplatte und motherboard besteht, undzwar nur ! zwische systemplatte und motherboard. slaveplatten brngen die erwartete leistung, ob völlig leer oder auch zu 70% voll, da habe ich abweichungen von max. 10-20mb gemessen. hizufügen möchte ich noch das alle platten mit hd tune auf 100% OK getestet wurden und auch im deskjet sauber optimiert und fragmentiert wurden.

ich sehe keine andere lösung als das system in eine expertenschmiede abzugeben...,,aber im moment nicht, denn die arbeit geht vor und ich habe bereits mehr als genug zeit mit dem fu** problem verloren. schade schade, bin das erste mal richtig enttäuscht von asus. die fetsplatten sind es ja logischerweise nicht, die das problem verursachen.

aktuelle werte beim lesen der o.g. platte sind schwache 65-75mb im lesen, bei gleicher datendichte im slave betrieb 120-140mb im lesen. meine nagelneue 3tb st3000dm001 bringt 180-200mb im lesen, bei 30% datendichte (slave/datenplatte)

mainboard asus p8p67, b3 version, seit gestern aktuellstes bios, chipsatz, sata, usb treiber.
 
Zuletzt bearbeitet:
dasforum schrieb:
danke vorab für all eure einwürfe und erklärungen. ;)
Nur leider hast Du die entweder nicht gelesen oder nicht verstanden.

dasforum schrieb:
slaveplatten brngen die erwartete leistung, ob völlig leer oder auch zu 70% voll, da habe ich abweichungen von max. 10-20mb gemessen.
Wieso die Unterschiede zwischen der Messung auf Filesystemebene (CrystalDiskMark) und direkt auf physischer Ebene (HD Tune) teils gewaltig sein können, haben wir doch erklärt und wenn die Platte massiv fragmentiert ist, dann hast Du u.U. sogar keine 10MB/s auf Filesystemebene obwohl die über 100MB/s auf physischer Ebene schafft.
dasforum schrieb:
hizufügen möchte ich noch das alle platten mit hd tune auf 100% OK getestet wurden und auch im deskjet sauber optimiert und fragmentiert wurden.
Wenn die fragmentiert wurde, dann ist es ja klar :freak:
Du meinste sicher defragmentiert, abr selbst das ist keine Garantie dafür, dass die Testdatei nicht doch fragmentiert angelegt wird, weil zwar alle Dateien auf der Platte schon in einem Fragment abgelegt sind, aber eben zwischen ihnen Lücken bestehen, auf die dann u.U. die Testdatei verteilt wird.

dasforum schrieb:
ich sehe keine andere lösung als das system in eine expertenschmiede abzugeben
Dann mache das, wenn Du dafür bezahlt hast, dann glaubst Du dem vielleicht mehr als uns und der muss ja auch leben.
dasforum schrieb:
bin das erste mal richtig enttäuscht von asus. die fetsplatten sind es ja logischerweise nicht, die das problem verursachen.
Auch ASUS ist da unschuldig, glaube mir. Wenn, dann sei auf Windows sauer, aber mit einem anderen Betriebssystem wäre es auch nicht anders, denn keines schafft auf Filesystemebene die voll Performance der Platte zu erhalten, weil eben immer auch Metadaten verwaltet werden und kein Filesystem 100%ig frei von Fragmentierung sein kann.
 
Holt schrieb:
Nur leider hast Du die entweder nicht gelesen oder nicht verstanden.

Wieso die Unterschiede zwischen der Messung auf Filesystemebene (CrystalDiskMark) und direkt auf physischer Ebene (HD Tune) teils gewaltig sein können, haben wir doch erklärt und wenn die Platte massiv fragmentiert ist, dann hast Du u.U. sogar keine 10MB/s auf Filesystemebene obwohl die über 100MB/s auf physischer Ebene schafft.
Wenn die fragmentiert wurde, dann ist es ja klar :freak:
Du meinste sicher defragmentiert, abr selbst das ist keine Garantie dafür, dass die Testdatei nicht doch fragmentiert angelegt wird, weil zwar alle Dateien auf der Platte schon in einem Fragment abgelegt sind, aber eben zwischen ihnen Lücken bestehen, auf die dann u.U. die Testdatei verteilt wird.

Dann mache das, wenn Du dafür bezahlt hast, dann glaubst Du dem vielleicht mehr als uns und der muss ja auch leben. Auch ASUS ist da unschuldig, glaube mir. Wenn, dann sei auf Windows sauer, aber mit einem anderen Betriebssystem wäre es auch nicht anders, denn keines schafft auf Filesystemebene die voll Performance der Platte zu erhalten, weil eben immer auch Metadaten verwaltet werden und kein Filesystem 100%ig frei von Fragmentierung sein kann.


du nervst...
deine theorie nützt nichts wenn die praxis das gegenteil beweist. du nix verstehn?
das problem ist einzigartig und du scheinst nicht zuverstehen das alle andern user dieser festplatte das problem nicht! haben. du solltest genauer lesen lernen! alle fakten sind aufgezählt und sprechen eine klare sprache.
also go home boy...
 
Zuletzt bearbeitet:
Ja nee is klar, gebe das System in einer Expertenschmiede ab, wähle aber eine teure denn die billigen taugen nix und die Lösen dann das Problem für Dich, garantiert :freak: Weil wir ja nix verstehen :evillol:

Das Thema ist damit dann ja wohl durch, für mich zumindest.
 
Holt schrieb:
Ja nee is klar, gebe das System in einer Expertenschmiede ab, wähle aber eine teure denn die billigen taugen nix und die Lösen dann das Problem für Dich, garantiert :freak: Weil wir ja nix verstehen :evillol:

Das Thema ist damit dann ja wohl durch, für mich zumindest.

Hhm,

ich befürchte du hast den Sinn des Threads nicht ganz verstanden, eventuell auch nicht den allgemeinen Sinn eines Forums? Das wäre sehr schade, zumal du so tust etwas besonderes zu sein, auch in deinem unten eingeblendeten "Dauerspruch-Zitat" sichtbar, aber auf der anderen Seite, mit dem was rüber kommt, einfach nicht auf den Punkt kommst und auch in keiner Weise helfen kannst, bisher jedenfalls nicht. Du hast nur eine Funktionsweise beschrieben die man überall nachschlagen kann und die allgemeingültig ist. Aber was nütz es? Du könntest auch so weitermachen und alle Komponenten definieren und beschreiben...,aber am Ende wäre mir immer noch nicht geholfen. Ist der Groschen nun gefallen...?
Wenn nicht dann vielleicht ein anderes Beispiel: Es ist so als würde ich in einem Auto Forum, darüber berichten das mein Porsche auf einmal bei 180km/h dicht macht, also nicht scheller kann, also im Gegensatz zu 1000.000 anderen Porsche die das Problem nicht haben und locker über 300 Sachen kommen...,,dann würdest du kommen und bis ins letze Detail erklären wie eine elektronische Einspritzung funktioniert. Dabei würdest du glauben das du damit das Problem erkannt hast und mir damit geholfen hättest..." Dabei würdest du auch noch betonen das das normal sei, wie es bei meinem Porsche ist..,,ja aber dann frage ich dich wieso die anderen Porsche im Normalfall alle schneller sind als meiner? Tja, leider wäre das auch in diesem Beispiel nicht so...,,denn auch hier wäre mir mit deiner Definition einer Gleichung nicht geholfen..., denn es gibt möglicherweise mind. 100 andere Fehlerquellen. Also in Zukunft bitte versuchen einfach mehr zu "Verstehen" als nur "Wissen" aufzutischen und andere belehren zu wollen ohne das man wirklich die Sache durchschaut hat. Ich habe in der Zwischenzeit herausgefunden das nicht nur die Datendichte eine Platte so stark verlangsamen kann wie meine. Auch die Anzahl der Dateien spielt eine entscheidende Rolle ! Dies hat hier bisher keiner angesprochen, soll aber natürlich kein Vorwurf sein. Auf meinem System sind über eine Million Dateien !, also darunter sehr viele sehr sehr kleine Dateien. In dieser Richtung wird nun weitergeforscht...

PS: Such dir doch ein anderes Dauer-Zitat..., dieses passt wirklich nicht..."
 
Zuletzt bearbeitet:
Zurück
Oben