Auslagerungsdatei

Status
Für weitere Antworten geschlossen.
.fF schrieb:
Und welche SSD im Jahre 2024 wird nicht getrimmt?
Und wie oft findet ein Trimming statt? Also bei mir wöchentlich.
 
SaschaHa schrieb:
Passt leider echt super :D
 
  • Gefällt mir
Reaktionen: iron_monkey und SaschaHa
Sandolo schrieb:
Und wie oft findet ein Trimming statt? Also bei mir wöchentlich.
ist irrelevant... Genauso wie der Rest. Was denkst du eigentlich hier noch erreichen zu wollen? Du ignorierst lieber Fakten kommt mir vor, anstatt dass du wirklich daran interessiert bist
Ergänzung ()

Sandolo schrieb:
Wie kommst du darauf?
Weil es auf einer SSD keinen Unterschied macht... Das ist eine vollkommen andere Technik als eine mechanische Festplatte mit dadurch verursachten Zugriffszeiten
 
rg88 schrieb:
Du ignorierst lieber Fakten kommt mir vor, anstatt dass du wirklich daran interessiert bist
Welche Fakten? Bisher kamen nicht wirklich welche. Und genau darum geht es mir. Es werden nur Behauptungen aufgestellt, die aber nicht wirklich begründet sind. Es gibt einzelne Erfahrungen, aber keine wirklichen Beweise.
Beweise meiner Theorie habe ich nun auch nicht wirklich, versuche sie aber mit Logik zu untermauern. Was ich bisher gelesen habe, ist aber nicht sehr logisch.

Natürlich kann ich falsch liegen. Um das rauszufinden, habe ich diesen Thread eröffnet. Nur bisher kam nichts, was überzeugend wäre.
Ergänzung ()

rg88 schrieb:
Weil es auf einer SSD keinen Unterschied macht... Das ist eine vollkommen andere Technik als eine mechanische Festplatte mit dadurch verursachten Zugriffszeiten
Diese Aussage ist einfach falsch.

Genauso wie diese.
rg88 schrieb:
ist irrelevant... Genauso wie der Rest.
 
Sandolo schrieb:
Welche Fakten? Bisher kamen nicht wirklich welche. Und genau darum geht es mir. Es werden nur Behauptungen aufgestellt, die aber nicht wirklich begründet sind.
Und Microsoft als Quelle ist dir zu unseriös oder laienhaft? Wenn die es nicht besser wissen, wer dann?
 
  • Gefällt mir
Reaktionen: Sinatra81 und aragorn92
Sandolo schrieb:
Ich selbst habe eine feste Größe eingestellt, weil es etwas mehr Performance bringt, sowie die SSD etwas schonender behandelt. Dazu habe ich eine bei 32 GB RAM eine relativ kleine Größe eingestellt (6144 MB).
Habe ich exakt genau so eingestellt. Und das seit ich Windows XP genutzt habe.
Da ich bis heute keinerlei Probleme mit dieser Einstellung hatte, und mir auch noch nie bewusst der Platz in der Auslagerungsdatei ausgegangen ist glaube ich das es die Perfekte Einstellung ist.
 
  • Gefällt mir
Reaktionen: Sandolo
SaschaHa schrieb:
Und Microsoft als Quelle ist dir zu unseriös oder laienhaft? Wenn die es nicht besser wissen, wer dann?
Klar habe ich das gelesen. Doch steht da nichts davon, dass eine "variable Auslagerungsdatei" besser wäre.

Dort steht, dass verschiedene Server die Auslagerungsdatei benötigen, was hier ja nicht zur Debatte steht und von mir auch nicht bestritten wird.
Weiter steht da, dass eine Auslagerungsdatei für Crush-Dump-Dateien (Systemabsturzabbild) benötigt wird, dies aber nicht zwingend ist.
Für Windows 11 steht dort nur ...
Zitat: "Wenn großer physischer Arbeitsspeicher installiert ist, ist möglicherweise keine Auslagerungsdatei erforderlich, um die Systemcommitgebühren während der Spitzenauslastung zu unterstützen. Beispielsweise unterstützen 64-Bit-Versionen von Windows und Windows Server mehr physischen Arbeitsspeicher (RAM) als 32-Bit-Versionen. Der verfügbare physische Arbeitsspeicher allein kann groß genug sein."

Es steht noch da, dass die maximale Größe das Dreifache des verbauten RAMs betragen darf.

Also, wo sind die Fakten das die "Windowsverwaltung" besser ist?
Oder soll ich jetzt hier auch was von Homer posten?
 
Zuletzt bearbeitet:
Moin,

bei mir passe ich es nur auf die zweite ssd an. Obs was bringt, keine Ahnung. Theoretisch vielleicht, aber vermutlich bei nvme auch eher homöopathisch.
 
Ach, eins stand da auch noch.
Zitat: "Vom System verwaltete Auslagerungsdateien werden automatisch bis zu dreimal so groß wie der physische Arbeitsspeicher oder 4 GB (je nachdem, was größer ist, aber nicht mehr als ein Achtel der Volumegröße), wenn die Gebühr für den Systemcommit 90 Prozent des Systemcommitlimits erreicht. Dies setzt voraus, dass genügend freier Speicherplatz verfügbar ist, um das Wachstum zu bewältigen."

Was soviel bedeutet, dass die variable Auslagerungsdatei bei 1 GB RAM max. 4 GB, bei einer 300 GB Partition (was z.B. meine System-Partition hat) aber auch nur max. 37,5 GB haben darf. Alles darüber führt zu Freezes, Bluescreens oder Abstürzen.

Was mir gerade einiges erklärt und auch für eine feste Größe spricht.
 
Sandolo schrieb:
Die ausgelagerten Daten werden aber in die pagefile.sys geschrieben, die bei einer festen Größe immer am selben Platz sitzt.

Ja, an einem virtuellen "festen" Platz, jedes Mal, wenn etwas geschrieben wird, landet es physikalisch in irgendeiner Speicherzelle und nicht immer wieder in der Gleichen!

Man hat eigentlich die Auslagerungsdatei auf eine andere HDD verschoben, um die parallelen Zugriffe vom Systemlaufwerk weg zu bekommen.

Fest oder dynamisch ist egal, Hauptsache groß genug... gibt halt auch „professionelle“ Anwendungen die z.B. erkennen, dass sie zu klein ist und dann meckern.
 
  • Gefällt mir
Reaktionen: .fF und BarBaer
iron_monkey schrieb:
Ja, an einem virtuellen "festen" Platz, jedes Mal, wenn etwas geschrieben wird, landet es physikalisch in irgendeiner Speicherzelle und nicht immer wieder in der Gleichen!
Das ist falsch. Nach deiner Aussage wird der Platz reserviert, die Daten dann aber irgendwo abgelegt. Die Daten werden in die pagefile.sys geschrieben und die sitzt bereits auf den belegten Chips sofern sie eine feste Größe hat. Variabel ist das wie du sagst und ändert sich erst wieder durch das Trimmen.

iron_monkey schrieb:
Man hat eigentlich die Auslagerungsdatei auf eine andere HDD verschoben, um die parallelen Zugriffe vom Systemlaufwerk weg zu bekommen.
Zu HDD-Zeiten, hat man die Auslagerungsdatei ebenfalls festgeschrieben, wegen der Fragmentierung und dazu möglichst zu Beginn einer Scheibe, also eine andere HDD oder direkt nach einem frisch installiertem und defragmentiertem Windows, da dort die HDD am schnellsten arbeitete.

iron_monkey schrieb:
Fest oder dynamisch ist egal, Hauptsache groß genug... gibt halt auch „professionelle“ Anwendungen die z.B. erkennen, dass sie zu klein ist und dann meckern.
Die Größe der Auslagerungsdatei steht ebenfalls nicht zur Debatte. Ich sagte schon im EP ...
Sandolo schrieb:
Mir ist aber bewusst, dass je Anwendungen auch eine größere Menge erforderlich ist und diese daher nicht auf jeden zutrifft.
 
Zu HDD-Zeiten mit entsprechend langsamen Zugriffszeiten war es bei mir üblich, die Auslagerungsdatei auf eine phys. Festplatte zu legen, auf der weder System, Programme noch Spiele installiert waren. Somit konnten parallel Zugriffe sowohl vom System als auch von Spielen erfolgen, ohne mit der Auslagerungsdatei ins Gehege zu kommen. Gefühlt brachte das bei den damals noch eher geringen RAM-Mengen Leistungsvorteile.

Später dann bei den ersten SSDs wanderte die Auslagerungsdatei auf die Daten-HDD im System. Grund dafür war zum einen, die kleinen Größen (64-128 GB) der SSD, zu Andere der Glaube, dadurch Schreibvorgänge einsparen zu können und die Lebensdauer zu verlängern.

Heute bleibt alles auf Voreinstellungen, Lebensdauer der SSD ist kein Thema mehr, der Platzverbrauch ebenfalls nicht mehr.
 
  • Gefällt mir
Reaktionen: N0Thing, AndyMutz, BarBaer und eine weitere Person
Stellen wir die Frage mal anders rum - welchen Vorteil versprichst du dir von einer festen Größe?

Was läuft "besser" bei dir im direkten Vergleich und hast du Beweise die dafür sprechen? Die verlangst du nämlich auch von anderen die dagegen sprechen ;)
 
  • Gefällt mir
Reaktionen: rg88, Sinatra81, iron_monkey und eine weitere Person
Ich denke, du machst es einfach so, wie du es eben richtig findest.


Seit Jahren wurde immer über die Auslagerungsdatei diskutiert, es wurde dieses und jenes gemeint.
Diese Diskussionen gibt es seit vielen Jahren. Es ist einfach bäh...

Warum kannst du denn nicht das nehmen, was du nun hast? Es ist eben so, wie du meinst. Solange alles gut läuft, ist das doch richtig.

Aber du bist nur hier, um DEINE Meinung zu vertreten. Ich finde das sowas von Jämmerlich !

Du willst eine Diskussion anfangen, aber warum? Wegen der Uhzeit?
 
Das einzige was man heute bemängeln könnte, wäre die Größe der Datei, denn diese hängt vom Arbeitsspeicher ab. Wenn ich mich nicht irre, ist das der Faktor 1.5 x RAM Größe, aber habe ich schon lange nicht mehr überprüft.

Macht auch kein Sinn, da Windows diese perfekt steuert.

Ps: wie schon erwähnt, ist eine HDD langsamer als eine SSD, deswegen lass es so wie es ist. Es gibt heute keinen Vorteil mehr…
 
Sandolo schrieb:
Das ist falsch. Nach deiner Aussage wird der Platz reserviert, die Daten dann aber irgendwo abgelegt. Die Daten werden in die pagefile.sys geschrieben und die sitzt bereits auf den belegten Chips sofern sie eine feste Größe hat. Variabel ist das wie du sagst und ändert sich erst wieder durch das Trimmen.
Gehen wir doch mal davon aus, dass das so sei: dann ändert der SSD-Controller von einer NAND-basierten SSD beim Schreiben in die Auslagerungsdatei Daten in bereits belegten Zellen, muss also diese Zellen erst lesen, die Daten modifizieren, die Speicherzellen dann löschen und die neuen Daten schreiben.

So arbeiten die Contoller in der Regel nicht, sondern: die Daten werden immer in leere oder als leer markierte Zellen (Zellen als leer markieren macht der Controller mithilfe des TRIM-Kommando, das Windows beim löschen einer Datei absendet), weil das einfach schneller ist. Und dann räumt der zwischendurch auch wieder auf, schiebt Daten im NAND hin- und her, refreshed die Zellen. Und allein das wear leveling sorgt schon dafür, das Daten nicht immer in dieselbe Zelle geschrieben werden. Das hält die nämlich nicht lange durch.
 
Sandolo schrieb:
Jetzt würde ich gern mal wissen, wie ihr das handhabt und vor allem warum ihr eure Methode bevorzugt und die andere ablehnt.

ich fummel da nicht dran rum, hab da auch noch nie Probleme gehabt. 🤷🏻‍♂️

Wäre mir die Zeit zu schade, und wie misst man da eigentlich Veränderungen?
 
just_f schrieb:
welchen Vorteil versprichst du dir von einer festen Größe?
Hatte ich zu Beginn schon erwähnt ...
Sandolo schrieb:
weil es etwas mehr Performance bringt, sowie die SSD etwas schonender behandelt.

Dazu hatte ich gerade erst geschrieben, dass bei geringer Partitionsgröße, eine variable Größe zu Abstürzen führt.
Beweis: Die auch von @SaschaHa angeführte Website von Microsoft.

Ich hätte mich gern überzeugen lassen, dass ich falsch liege. Aber das hat niemand wirklich geschafft.
Mir hat dieser Thread aber nun auch gezeigt, dass die meisten hier einfach nur mit der Masse schwimmen, aber selbst nicht wissen, was sie da von sich geben.
Stattdessen kommen dann folgende Argumente...
Humptidumpti schrieb:
Fertig und nicht mehr drüber nachdenken.
Burki73 schrieb:
Ich finde das sowas von Jämmerlich !
... oder irgendwelche "sachdienlichen" Cartoons.

Manch einer versucht noch Fachbegriffe einzubringen, die aber zum Sachverhalt nicht passen.
.fF schrieb:
Wear-Leveling und Over-Provisioing
Over-Provisioning ist einfach nur eine Speicherreserve für defekten/ausfallenden Speicherplatz.
Wear-Leveling dient der Abnutzungsverteilung und damit der Lebensdauer der Chips. Selbstredend sorgt das für einen Random-Zugriff der Auslagerungsdatei, aber halt bei variabler Größe. Bei einer festen Größe wird die Auslagerungsdatei selbst beim Umsetzen in zusammenhängenden Blöcken umgesetzt, was den Zugriff weniger zufällig und damit performanter macht.

Aber nun gut. Jämmerlich muss ich mir nicht zweimal sagen lassen. Daher schließt diesen Thread und ...
schönes Wochenende.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben