Auslagerungsdatei

Status
Für weitere Antworten geschlossen.

Sandolo

Lt. Junior Grade
Registriert
Okt. 2023
Beiträge
319
In einem anderem Thread hatte ich eine Diskussion bezüglich der Auslagerungsdatei. Dies war aber Off-Topic (eigentlich anderes Thema) und deshalb nicht wirklich zu Ende diskutiert.

So gab es einige, die diese unangetastet und von Windows verwalten lassen. Und es gab welche, die diese auf eine feste Größe einstellen.

Ich selbst habe eine feste Größe eingestellt, weil es etwas mehr Performance bringt, sowie die SSD etwas schonender behandelt. Dazu habe ich eine bei 32 GB RAM eine relativ kleine Größe eingestellt (6144 MB). Mir ist aber bewusst, dass je Anwendungen auch eine größere Menge erforderlich ist und diese daher nicht auf jeden zutrifft.

Jetzt würde ich gern mal wissen, wie ihr das handhabt und vor allem warum ihr eure Methode bevorzugt und die andere ablehnt.
 
  • Gefällt mir
Reaktionen: mcbloch und BFF
Das ist eine Frage die sich seit über nem Jahrzehnt nicht mehr stellt. Vielleicht war es bei Win XP noch sinnvoll das was am OS zu tunen, aber heute lässt man die Einstellung einfach auf automatisch. Fertig und nicht mehr drüber nachdenken.
 
  • Gefällt mir
Reaktionen: AndyMutz, LiniXXus, Sinatra81 und 10 andere
Ich zocke ab und an Star Citizen und hier ist einen 32 GB große Auslagerungsdatei förderlich für die Performance man hat einfach etwas bessere Frametimes und weniger "große" Frame-Spikes.
 
Ich lass es einfach so, wie Windows es von selbst verwaltet. Das OS wird sicher am besten wissen, wie es damit umgeht, denke ich mir. Hab damit auch nie Probleme gehabt.

VG
 
  • Gefällt mir
Reaktionen: aragorn92
Auslagerungsdateien in Windows mit großem physischem Arbeitsspeicher
Wenn großer physischer Arbeitsspeicher installiert ist, ist möglicherweise keine Auslagerungsdatei erforderlich, um die Systemcommitgebühren während der Spitzenauslastung zu unterstützen. Beispielsweise unterstützen 64-Bit-Versionen von Windows und Windows Server mehr physischen Arbeitsspeicher (RAM) als 32-Bit-Versionen. Der verfügbare physische Arbeitsspeicher allein kann groß genug sein.

Der Grund für die Konfiguration der Auslagerungsdateigröße hat sich jedoch nicht geändert. Es war immer darum gegangen, ein Systemabsturzabbild zu unterstützen, falls dies erforderlich ist, oder das Limit für Systemcommits zu erweitern, wenn dies erforderlich ist. Wenn beispielsweise viel physischer Arbeitsspeicher installiert ist, ist möglicherweise keine Auslagerungsdatei erforderlich, um die Gebühr für den Systemcommit während der Spitzenauslastung zu sichern. Der verfügbare physische Arbeitsspeicher allein ist möglicherweise groß genug, um dies zu tun. Eine Auslagerungsdatei oder eine dedizierte Speicherabbilddatei ist jedoch möglicherweise weiterhin erforderlich, um ein Systemabbild zu sichern.
Quelle

Bei mir ist sie aus. Habe aber auch genug Reserve, mehr als die meisten.

Gruß Fred.
 
  • Gefällt mir
Reaktionen: SaschaHa und Sandolo
Humptidumpti schrieb:
Fertig und nicht mehr drüber nachdenken.
Streite nicht ab, dass die Verwaltung von Win11 schon ziemlich gut ist. Allerdings ist deine Erklärung dazu etwas mau. Und warum wird dann die feste Größe noch Angeboten und Windows gibt eine empfohlene Größe vor?

MehlstaubtheCat schrieb:
Star Citizen und hier ist einen 32 GB große Auslagerungsdatei
Ist diese bei dir fest oder variable?
Ergänzung ()

@FR3DI Danke, dass du eine Erklärung mitlieferst.
 
  • Gefällt mir
Reaktionen: FR3DI
Bisher hatte ich mich nie mit dem Thema beschäftigt und habe gerade erstmals die entsprechende Einstellung aufgerufen. Bei mir sind standardmäßig 4096 MB eingestellt, bei 64 GB RAM. Ändern werde ich daran nichts, ich sehe da ehrlich gesagt keinen Bedarf für irgendwelche Änderungen.

Auch, wenn Microsoft oft viel Mist baut, dürfte wohl genug Expertise in die entsprechende Mechanik geflossen sein, die bei einem System die optimale Größe der Auslagerungsdatei berechnet.

Und ich tippe mal, dass die Datei bei ausreichend RAM ohnehin nur noch dazu dient, temporäre Daten zwischenzuspeichern, damit diese auch im Falle eines Absturzes nicht zwangsläufig verloren gehen. Und ggf. auch dazu, einen kleinen Puffer zu haben, falls ein Programm dann doch mal den RAM volllaufen lässt. Der bei mir automatisch eingestellte Wert scheint damit also plausibel und angemessen zu sein.

Edit: Deckt sich ja in etwa mit dem, was @FR3DI zitiert hat.
 
  • Gefällt mir
Reaktionen: FR3DI
MehlstaubtheCat schrieb:
Ich zocke ab und an Star Citizen und hier ist einen 32 GB große Auslagerungsdatei förderlich für die Performance man hat einfach etwas bessere Frametimes und weniger "große" Frame-Spikes.
Das fällt dann aber in den Bereich der Esoterik.
Außer die 32GB RAM reichen nicht und dann stellt Windows die Datei selber größer was im WorstCase einmalig kurz dauert, aber niemals dauerhaft das verursacht, was du hier beschreibst.


Sandolo schrieb:
Ich selbst habe eine feste Größe eingestellt, weil es etwas mehr Performance bringt, sowie die SSD etwas schonender behandelt. Dazu habe ich eine bei 32 GB RAM eine relativ kleine Größe eingestellt (6144 MB). Mir ist aber bewusst, dass je Anwendungen auch eine größere Menge erforderlich ist und diese daher nicht auf jeden zutrifft.
Ist einfach Käse. Windows holt sich soviel wie es braucht und gut ists. Wenn zu wenig da ist, dann führts immer wieder mal zu Problemen und unerklärlichem Verhalten. Das zweitschlimmste was einem OS passieren kann ist, dass der RAM ausgeht, das schlimmste, wenn der zusätzliche RAM-Bedarf nicht über die Auslagerungsdatei gedeckt werden kann. Das ist dann der Exodus für die jeweilige Applikation.

Es gibt absolut keinen Grund die Auslagerungsdatei selbst zu verwalten, schon gar nicht mit Minigrößen von wenigen GB. Genauso wenig ist es sinnvoll diese riesig zu machen und dadurch ungenutzt Festspeicher zu blockieren. Windows hat hier eine gute Verwaltung integriert und der einzige Grund daran rumzuschrauben wäre alte inkompatible Software, die mit zu großen Speichermengen nicht umgehen kann, was mir seit 15 Jahren nicht mehr untergekommen ist.
 
  • Gefällt mir
Reaktionen: N0Thing, RegShoe, AndyMutz und 10 andere
Sandolo schrieb:
Jetzt würde ich gern mal wissen, wie ihr das handhabt und vor allem warum ihr eure Methode bevorzugt und die andere ablehnt.

Automatisch durch OS verwaltet. Es gab nur einen Fall wo wir manuell eingestellt haben auf welchem Datentraeger die Auslagerung stattfinden soll. Das war damals (unter XP) als die Systemplatten wirklich zu klein waren und die zweite Platte ueberdimensioniert war (Danke Dell).

Ob Manuell oder Automatisch muss jeder fuer sich rausfinden.
Ich persoenlich hab zuviele Konfigurationen erlebt wo sich unerklaerliche Fehler am Ende als eingeschraenkte Auslagerung entpuppten.

Fuer meine momentanen 64 Gbyte RAM die ich gelegentlich auch ausnutze mit VM legt das W10 unter 10 Gbyte fest.

1726186680643.png


Damit kann ich leben.
Ergänzung ()

FR3DI schrieb:
Auslagerungsdateien in Windows mit großem physischem Arbeitsspeicher

Quelle

Bei mir ist sie aus. Habe aber auch genug Reserve, mehr als die meisten.

Gruß Fred.
Wir hatten mal einen Server mit 768 GByte RAM. Ohne Automatik fuer Auslagerung.
Rate mal welche Meldung der lieferte als eine wild gewordene DB es schaffte den vollzuschaufeln. 😁

Wenn großer physischer Arbeitsspeicher installiert ist, ist möglicherweise keine Auslagerungsdatei erforderlich, um die Systemcommitgebühren während der Spitzenauslastung zu unterstützen. Beispielsweise unterstützen 64-Bit-Versionen von Windows und Windows Server mehr physischen Arbeitsspeicher (RAM) als 32-Bit-Versionen. Der verfügbare physische Arbeitsspeicher allein kann groß genug sein.
MS ist da sehr vorsichtig.

Anyway.
Muss jeder fuer sich selbst entscheiden.
Und dran denken das es durchaus Anwendungen geben kann die ab 4 oder 16 Gbyte generall swappen obwohl weitaus mehr RAM da ist (keine Ahnung was da die Entwickler gelutscht haben). 😁
 
Zuletzt bearbeitet: (Typo)
  • Gefällt mir
Reaktionen: AndyMutz, FR3DI, aragorn92 und 2 andere
Ich hatte über Jahre mal eine feste Auslagerungdatei Größe weil ich mich von den Versprechungen zu mehr Leistung habe verführen lassen....und dann vergessen habe, dass ich das gemacht habe.

Aber ich hatte mit dem System auch immer mal wieder unregelmäßige Abstürze...nicht oft....keine spezielle Situation...auch nicht wenn der RAM sonderlich voll war.

Dann habe ich Anno 1800 ausprobiert und hier wurde der von mir zugewiesene Platz zuverlässig gesprengt und das Spiel stürzte regelmäßig ab. Ich habe dann mein Tun von vor einigen Jahren wieder entdeckt und bin zurück auf "Systemverwaltet". Nicht nur Anno lief dann stabil(wenn auch schlecht)...auch die seltenen sonstigen Abstürze sind verschwunden.

Ich habe auch versucht die oft erwähnten Performancevorteile einer feste Größe zu messen, konnte jedoch absolut nichts finden.

Die Auslagerungsdateimit 64GB RAM aufs Minimum zu stellen, resultiert trozdem in gelegentlichen Abstürzen. Manche Programme schieben scheinbar grundsätzlich manches in die Auslagerungsdatei...egal ob da noch 56 GB an RAM verfügbar sind.

Und selbst eine feste große Größe von 32GB bei einem 64GB RAM System ist nicht 100% stabil. Irgendwas an festen Größen funktioniert meiner Erfahrungnach nicht zuverlässig.

Und abgesehen vom wichtigsten Gegenargument(Stabilität) konnte ich dazu halt keinerlei Leistungsverbesserungen messen.

Gerne teste ich nochmal ein Szenario, wo es etwas bringen soll, aber ich bezweifle, dass ich etwas finde, was reproduzierbar ist und die möglichen Instabilitäten rechtfertigt.

Ich bin(inzwischen) absolut "Team Systemverwaltet"....und sonst bin ich für Systemoptimierung immer zu haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BFF, AndyMutz, Lord B. und 3 andere
Baal Netbeck schrieb:
Ich habe auch versucht die oft erwähnten Performancevorteile einer feste Größe zu messen, konnte jedoch absolut nichts finden.
Das hat man früher auf HDDs gemacht, damit die Datei nicht fragmentiert war. Also Auslagerungsdatei deaktiviert, Festplatte defragmentiert und dann auf eine fixe Größe gestellt. Auf SSDs ist das nicht mehr relevant.
 
  • Gefällt mir
Reaktionen: AndyMutz, BarBaer, iron_monkey und eine weitere Person
.fF schrieb:
Also Auslagerungsdatei deaktiviert, Festplatte defragmentiert und dann auf eine fixe Größe gestellt
Jepp, und die selbsternannten Experten haben den Schritt "Defragmentierung" aber in der Regel nicht gemacht. Bzw festgestellt, dass die Größe doch zu knapp war und wieder hoch und runtergestellt, je nach Plattenspeicher und das Ganze ins Absurde getrieben.
Es gibt heutzutage schlicht keinen sinnvollen Grund, warum man hier rumpfuschen sollte. Diejenigen die es machen, haben in den allermeisten Fällen keinen Schimmer was sie da tun und haben das nur von diesen selbsternannten Profis aufgeschnappt, die selber keine Ahnung haben.
 
  • Gefällt mir
Reaktionen: BarBaer, aragorn92, SaschaHa und 2 andere
Mmh. Vielleicht sollte ich noch erwähnen, dass ich auch schon vorher diese Einstellung verwendete, mein System das letzte Mal vor 20 Monaten neu aufsetzte und nicht einmal ein Problem hatte.

Screenshot (603).png Screenshot (604).png

Auch Anno 1800 lief mit diesen Einstellungen ohne Probleme.

Und weshalb "empfiehlt" Windows (jetzt in meinem Fall) 4980 MB, wenn es damit nicht zurechtkommt?
Ergänzung ()

.fF schrieb:
Auf SSDs ist das nicht mehr relevant.
Das sehe ich nicht so. Eine variable Auslagerungsdatei ist auf einer Festplatte immer verteilt. Insbesondere wenn eine SSD nicht getrimmt ist. Der Leistungseinbruch entspricht dann meiner Meinung nach dem Leseverhalten eines Random-Benchmark.
 
Wer etwas an Windows optimieren möchte, der sollte bei den Hintergrunddiensten/Programmen anfangen...Nein, erst bei den Programmen die manche aktiv nebenbei laufen lassen und dann bei den Hintergrundsachen weitermachen.

Aber auch hier gibt es viel Esoterik und Potential für Probleme. Ich hatte dazu mal Tests gemacht als ich mein damaligen Spiele System mit Win10 neu aufgesetzt hatte.

Es war einige Jahre im Einsatz und es hatte sichviel Müll angesammelt auch wenn ich nichts davon aktiv laufen hatte.
Ich müsste meine Aufzeichnungen wiederfinden, aber je nach Spiel gab es 20% bessere Frametimes durch eine frische Isntallation..und sogar die FPS wurden etwas besser.

Mit den Boardmitteln das Windows zu entschlacken hat dann nochmal leicht etwas an den Frametimes verbessert.(2%??)

Den Windows Defender zu killen hat nochmal was gebracht(0,5%??), aber dann steht man ohne Schutz dar.
Diverse Dienste zu stoppen war dann Esoterik.
Und Guides und beworbene Optimierer haben auch nur eine Verbesserung durch das Killen des Defenders erzielt und waren sonst Esoterik.

Ich kann nicht ausschließen, dass alle paar minuten mal ein Frametimepeak mehr oder weniger auftritt, wenn man extrem an die Sache ran geht, aber das ist praktisch unmöglich zu messen.

Und ich habe da schon je 30 Messungen von 45s bis 2min in CPU limitierten Spielen gemacht....was man da nicht außerhalb der Messunsicherheit findet ist nicht relevant.

Was man machen kann, ist das Datensammeln von WIndows minimieren, Animationen ausschalten, Windows Dienste die dir News, Wetter, sonstwas anbieten deaktivieren und nach Möglichkeit deinstallieren.
Programme die einen auto updateranbieten verbieten mach updates zu suchen und in Autostart, den Diensten und der Aufgabenplanung die Unnachgiebigen deaktivieren....Wechselnde Hintergrundbilder deaktivieren! So wenig wie möglich installieren oder nicht genutztes deinstallieren.

Disclaimer: Am besten sein lassen wenn man es nicht aus Spaß an der Sache macht. Ich habe auch teilweise Dienste, deaktiviert um zu sehen was passiert und danach war mein System viel schlechter in der Leistung oder gar instabil.
Teilweise komplett zerschossen und ich musste wieder mit einer frischen Installation anfangen.
Auch haben sich mehr als ein Programm zum Optimieren, als Virenschleuder herausgestellt....und bei anderen habe ich es vermutlich einfach nicht bemerkt.

Ich benutze für meine genutzte Installation keine Extra Programme und deaktiviere/deinstalleire nur was man relativ normal erreichen kann. Für eine Benchmark-Punktejagd deaktiviere ich auch mal temporär den Windows Defender.
 
Zuletzt bearbeitet:
Sandolo schrieb:
Das sehe ich nicht so. Eine variable Auslagerungsdatei ist auf einer Festplatte immer verteilt. Insbesondere wenn eine SSD nicht getrimmt ist. Der Leistungseinbruch entspricht dann meiner Meinung nach dem Leseverhalten eines Random-Benchmark.
Du liest aber in einer Auslagerungsdatei immer Random aus. Es ist in den seltensten Fällen ein zusammenhängender Teil der auf einmal reingeschrieben wird. Der eigentliche Speicher den das Programm braucht, hat darin eh nichts zu suchen. Das gehört in den RAM.


Sandolo schrieb:
Und weshalb "empfiehlt" Windows (jetzt in meinem Fall) 4980 MB, wenn es damit nicht zurechtkommt?
Weil es "lernt" und bisher keine Daten hat, was du mit der Kiste machst und was deine Programme so brauchen, also ob dein RAM reicht oder nicht. Das ist eine dynamische Sache, die das System lernt. Ebenso, welche Daten nie oder fast nie benötigt werden und deshalb aus dem RAM ausgelagert werden. Da ist deutlich mehr Logik dahinter, als du dir wahrscheinlich vorstellst.


Sandolo schrieb:
mein System das letzte Mal vor 20 Monaten neu aufsetzte und nicht einmal ein Problem hatte.
ja, aber ohne die Einstellungen hättest du auch kein Problem. Im Gegenteil. Wenns Probleme mit der Auslagerungsdatei gibt, dann weil da manuell rumgespielt wurde.
 
  • Gefällt mir
Reaktionen: AndyMutz, aragorn92, just_f und 2 andere
Sandolo schrieb:
Das sehe ich nicht so. Eine variable Auslagerungsdatei ist auf einer Festplatte immer verteilt. Insbesondere wenn eine SSD nicht getrimmt ist. Der Leistungseinbruch entspricht dann meiner Meinung nach dem Leseverhalten eines Random-Benchmark.
Daten auf einer SSD sind immer verteilt, allein wegen Wear-Leveling und Over-Provisioing. Die Speicheradressen sind rein virtuell und werden vom Controller auf Speicherzellen gemappt.

Der "Leistungseinbruch" beim Random Access kommt daher, dass der Controller beim Sequentiel Read die Speicherchips perfekt parallel ansprechen und damit besser auslasten kann. Nicht wie die Dateien physikalischen in den Zellen nebeneinander liegen.

Und im Jahre 2024 sollte keine SSD nicht getrimmt sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck
Baal Netbeck schrieb:
Wer etwas an Windows optimieren möchte, der sollte bei den Hintergrunddiensten/Programmen anfangen...Nein, erst bei den Programmen die manche aktiv nebenbei laufen lassen und dann bei den Hintergrundsachen weitermachen.
Das ist sowieso Bedingung. Ein sauberes und aufgeräumtes System. Bloatware und überflüssige Apps fliegen als erstes raus. Ich habe gerade mal 4 Programme, die über Autostart laufen.
Screenshot (605).png

So sieht mein System im Idle aus.
Screenshot (607).pngScreenshot (606).png

Und so der Desktop. Alle Programme die ich brauche, liegen im Start.
Screenshot (608).png Screenshot (609).png
 
Sandolo schrieb:
Vielleicht sollte ich noch erwähnen, dass ich auch schon vorher diese Einstellung verwendete, mein System das letzte Mal vor 20 Monaten neu aufsetzte und nicht einmal ein Problem hatte.
 
  • Gefällt mir
Reaktionen: Sinatra81, just_f, iron_monkey und eine weitere Person
.fF schrieb:
Daten auf einer SSD sind immer verteilt, allein wegen Wear-Leveling und Over-Provisioing. Die Speicheradressen sind rein virtuell und werden vom Controller auf Speicherzellen gemappt.
Ja standardmäßig. Die ausgelagerten Daten werden aber in die pagefile.sys geschrieben, die bei einer festen Größe immer am selben Platz sitzt.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben