vdaiker hat geschrieben:z.B. steht bei virtual memory eine initial size von 1.5 GB und max size auf 3 GB fuer die Auslagerungsdatei. Was passiert wenn die 3 GB nicht reichen sollten?
Wenn man die Größe der Auslagerungsdatei für den alltäglichen Gebrauch abschätzen kann ist es durchaus sinnvoll sie zu begrenzen! Firmen tun sowas in ihren Netzen daher auch. Da es zu Hause meist keine Standardnutzung gibt, macht das da weniger Sinn.
Was passiert wenn der Speicher voll ist?
Nun das Konzept des virtuellen Speichers sieht vor teuren und begrenzten Arbeitsspeicher um günstigeren ( aber eben langsameren) Platz auf der Platte zu erweitern. Sobald das OS also etwas Zeit hat lagert es belegte ( aber lange nicht geänderte) Speicherbereiche auf die Festplatte aus. Somit wird der schnelle Arbeitsspeicher auch bei intensiverer Nutzung frei gehalten. Da das Prüfen und Verlagern Zeit kostet, wird das nur gemacht wenn es (a) nötig ist oder (b) eh gerade Zeit dafür zur Verfügung steht.
Ist der Auslagerungsspeicher voll, so ist die absolute Menge an Speicher erreicht und kein Programm kann Speicher bekommen ohne das nicht ein anderes welchen freigibt.
Was also passier ist das aufgrund von Speicherknappheit die Kommunikation ( Prozess XY gib bitte unnötige Reserven frei,...) zwischen den Programmen und dem OS über Speicher zunimmt, das die Zahl an Löschungen kleiner Segemente und daraus Verschiebung anderer Segmente zunimmt. Kurz: Das OS ist immer mehr mit sich selbst beschäftigt.
Kann man die Obergrenzen daher schlecht spezifizieren, so läßt man sie zu Haus besser dynamisch.
Das Problem mit Zitaten aus dem Internet besteht darin, dass man sie nicht überprüfen kann - Abraham Lincoln