Capture NX sehr langsam

Die Rubrik rund um das Thema Bildbearbeitung und Software. Techniken, EBV-Software, Tipps,...

Moderator: pilfi

vdaiker
Sollte mal wieder fotografieren...
Sollte mal wieder fotografieren...
Beiträge: 6194
Registriert: Mi 1. Sep 2004, 12:58
Wohnort: München
Kontaktdaten:

Beitrag von vdaiker »

Lennart hat geschrieben:Auf der C Partition sind ca 6GB frei und die ist auch nicht besonders fragmentiert. Dort ist nur das Windows drauf und eben das mit dem Windows die Platte so zumüllt. Der Rest liegt auf anderen Partitionen....
6GByte ist nicht besonders viel. NX legt ziemlich grosse Cache Files an. Vielleicht kannst Du mal das temp Verzeichnis von NX auf eine andere Partition auslagern. Ich weiss nicht ob es was hilft, aber probieren kannste es ja.

Volker
PeterB
Sollte mal wieder fotografieren...
Sollte mal wieder fotografieren...
Beiträge: 5029
Registriert: Fr 27. Dez 2002, 14:28
Wohnort: Celle

Beitrag von PeterB »

Also an NX oder Windows liegt es nicht, denn mein Dual-Core irgendwas mit 4 GB arbeitet (für die D300) recht zügig. Allerdings ist bei mir an der Cam sozusagen "alles aus": Rauschunterdrückung, Scharfzeichnen, D-Lightning pp. Das mache ich erst am PC mit NX.
Zuletzt geändert von PeterB am Mo 16. Jun 2008, 10:24, insgesamt 1-mal geändert.
Gruß!
Peter
D800, D300, S6900, Scherben und Plunder
wegus
Moderator
Moderator
Beiträge: 6898
Registriert: Fr 9. Apr 2004, 16:54
Wohnort: bei Braunschweig

Beitrag von wegus »

Lennart hat geschrieben:Auf der C Partition sind ca 6GB frei und die ist auch nicht besonders fragmentiert. Dort ist nur das Windows drauf und eben das mit dem Windows die Platte so zumüllt. Der Rest liegt auf anderen Partitionen....
Windows braucht zum zügigen funktionieren bis zu 10-15GB an Swapspace, wie jedes OS mit virtuellem Speicher. Wenn Du noch eine andere Festplatte hast, lege dort eine Auslagerungsdatei an und entferne die von C: . Wenn dem nicht so ist, dann hilft Dir nur ein Aufräumen der HDD bis wieder mind. 15GB frei sind ( im Grunde hast Du dann aber noch immer keinen Platz für Daten/Bilder).

Gerade bei Bildbearbeitung kann die Auslagerungsdatei sehr schnell sehr groß werden. Ist dafür kein Platz da, geht eben nur noch alles im Schneckentempo. Wenn man sich angewöhnt eine HDD die mehr als 75% gefüllt ist als "voll" anzusehen, dann fährt man IMHO ganz gut.
Zuletzt geändert von wegus am Mo 16. Jun 2008, 10:36, insgesamt 1-mal geändert.
Das Problem mit Zitaten aus dem Internet besteht darin, dass man sie nicht überprüfen kann - Abraham Lincoln
Lennart
Batterie3
Batterie3
Beiträge: 30
Registriert: Sa 3. Feb 2007, 19:36
Wohnort: Minden

Beitrag von Lennart »

Temporäre Daten sind alle auf eine andere Festplatte ausgelager. Dort sind über 100 gb frei....
vdaiker
Sollte mal wieder fotografieren...
Sollte mal wieder fotografieren...
Beiträge: 6194
Registriert: Mi 1. Sep 2004, 12:58
Wohnort: München
Kontaktdaten:

Beitrag von vdaiker »

wegus hat geschrieben:
Lennart hat geschrieben:Auf der C Partition sind ca 6GB frei und die ist auch nicht besonders fragmentiert. Dort ist nur das Windows drauf und eben das mit dem Windows die Platte so zumüllt. Der Rest liegt auf anderen Partitionen....
Windows braucht zum zügigen funktionieren bis zu 10-15GB an Swapspace, wie jedes OS mit virtuellem Speicher. Wenn Du noch eine andere Festplatte hast, lege dort eine Auslagerungsdatei an und entferne die von C: . Wenn dem nicht so ist, dann hilft Dir nur ein Aufräumen der HDD bis wieder mind. 15GB frei sind ( im Grunde hast Du dann aber noch immer keinen Platz für Daten/Bilder).

Gerade bei Bildbearbeitung kann die Auslagerungsdatei sehr schnell sehr groß werden. Ist dafür kein Platz da, geht eben nur noch alles im Schneckentempo. Wenn man sich angewöhnt eine HDD die mehr als 75% gefüllt ist als "voll" anzusehen, dann fährt man IMHO ganz gut.
Ich dachte man kann die Groesse der Auslagerungsdatei begrenzen. Hier auf meinem Firmenrechner z.B. steht bei virtual memory eine initial size von 1.5 GB und max size auf 3 GB fuer die Auslagerungsdatei. Was passiert wenn die 3 GB nicht reichen sollten?

Volker
wegus
Moderator
Moderator
Beiträge: 6898
Registriert: Fr 9. Apr 2004, 16:54
Wohnort: bei Braunschweig

Beitrag von wegus »

vdaiker hat geschrieben:z.B. steht bei virtual memory eine initial size von 1.5 GB und max size auf 3 GB fuer die Auslagerungsdatei. Was passiert wenn die 3 GB nicht reichen sollten?
Wenn man die Größe der Auslagerungsdatei für den alltäglichen Gebrauch abschätzen kann ist es durchaus sinnvoll sie zu begrenzen! Firmen tun sowas in ihren Netzen daher auch. Da es zu Hause meist keine Standardnutzung gibt, macht das da weniger Sinn.

Was passiert wenn der Speicher voll ist?
Nun das Konzept des virtuellen Speichers sieht vor teuren und begrenzten Arbeitsspeicher um günstigeren ( aber eben langsameren) Platz auf der Platte zu erweitern. Sobald das OS also etwas Zeit hat lagert es belegte ( aber lange nicht geänderte) Speicherbereiche auf die Festplatte aus. Somit wird der schnelle Arbeitsspeicher auch bei intensiverer Nutzung frei gehalten. Da das Prüfen und Verlagern Zeit kostet, wird das nur gemacht wenn es (a) nötig ist oder (b) eh gerade Zeit dafür zur Verfügung steht.
Ist der Auslagerungsspeicher voll, so ist die absolute Menge an Speicher erreicht und kein Programm kann Speicher bekommen ohne das nicht ein anderes welchen freigibt.
Was also passier ist das aufgrund von Speicherknappheit die Kommunikation ( Prozess XY gib bitte unnötige Reserven frei,...) zwischen den Programmen und dem OS über Speicher zunimmt, das die Zahl an Löschungen kleiner Segemente und daraus Verschiebung anderer Segmente zunimmt. Kurz: Das OS ist immer mehr mit sich selbst beschäftigt.

Kann man die Obergrenzen daher schlecht spezifizieren, so läßt man sie zu Haus besser dynamisch.
Das Problem mit Zitaten aus dem Internet besteht darin, dass man sie nicht überprüfen kann - Abraham Lincoln
zappa4ever
Sollte mal wieder fotografieren...
Sollte mal wieder fotografieren...
Beiträge: 14072
Registriert: Mo 12. Sep 2005, 17:20
Wohnort: Göppingen
Kontaktdaten:

Beitrag von zappa4ever »

Karsten, ich hab da andere Erfahrungen....

Ich habe den Swap schon ganz abgeschaltet und noch nie Probleme damit bekommen, allerdings halte ich auch nicht allzuviele Programme gleichzeitig offen.

Und wenn ich einen habe (wie im Moment), dann begrenze ich ihn sowohl in seiner max. Größe+, wie auch in der min. Größe. Das hat den Vorteil, dass die Swapdatei nicht fragmentiert und Wiindows auch nicht damit beschäftigt ist damit die Größe zu ermitteln und zu ändern.

In einer etwas älteren c't gab es mal Untersuchungen, wie sich die Geschwindigkeit ändert, wenn man die SWAP-Datei auf unterschiedlichen Partitionen legt. Sie haben damals keinen nennenswerten Unterschied festgestellt.

Was jedoch definitv Probleme macht, das sind "volle" Platten. Und da sehe ich die Obergrenze von 75%, vielleicht auch 80% durchaus als realistisch an.

Aber schau mal in den Ordner mit den NX-Cache Dateien. Bei mir wurde der sehr groß, obwohl durch Einstellung eigentlich auf 2 GB begrenzt, war er zum Schluß ca. 6,5 GB groß. Da scheint was nicht zu funktionieren.

Und noch ein Tipp. Bei der Übergabe von NX an PS wird immer eine sehr große Tiff-Datei angelegt. Wenn man die später nicht mehr braucht, so sollte man die vielleicht wieder löschen....
Gruß Roland...
wegus
Moderator
Moderator
Beiträge: 6898
Registriert: Fr 9. Apr 2004, 16:54
Wohnort: bei Braunschweig

Beitrag von wegus »

Zappa hat geschrieben:Karsten, ich hab da andere Erfahrungen....

Ich habe den Swap schon ganz abgeschaltet und noch nie Probleme damit bekommen, allerdings halte ich auch nicht allzuviele Programme gleichzeitig offen.
Das Roland ist (a) optimale Hardwarekonfiguration - ausreichend Speicher und (b) sinnvolle Nutzung ( nicht jede App offen lassen) und somit optimale PC Nutzung :super:
In einer etwas älteren c't gab es mal Untersuchungen, wie sich die Geschwindigkeit ändert, wenn man die SWAP-Datei auf unterschiedlichen Partitionen legt. Sie haben damals keinen nennenswerten Unterschied festgestellt.
das wäre mir so auch nicht bekannt, aber wenn C eben voll läuft ist das eine wichtige Maßnahme - daher meine ursprüngliche Frage. Bei 100 freien GB auf dem Laufwerk mit der Auslagerungsdatei scheidet dieses Problem ja aber ohnehin aus.
Zuletzt geändert von wegus am Mo 16. Jun 2008, 12:52, insgesamt 1-mal geändert.
Das Problem mit Zitaten aus dem Internet besteht darin, dass man sie nicht überprüfen kann - Abraham Lincoln
mod_ebm
Technischer Admin
Technischer Admin
Beiträge: 4094
Registriert: Mi 19. Jan 2005, 18:46
Wohnort: Berlin
Kontaktdaten:

Beitrag von mod_ebm »

Diese "oberflächlichen" Betrachtungen scheinen nicht weiter zu helfen. Ich frag daher mal nach anderen Ursachen:

* Hast du mal geschaut, ob möglicherweise ein anderes Programm im Hintergrund Last erzeugt? (Stichwort Taskmanager)
* Sind andere Programme geöffnet?
* Wie stark rattert die Platte?
Gruß Carsten
wegus
Moderator
Moderator
Beiträge: 6898
Registriert: Fr 9. Apr 2004, 16:54
Wohnort: bei Braunschweig

Beitrag von wegus »

ganz genau, die übliche Prozedur halt:

Taskmanager öffnen und gucken ob CPU-Last oder Speicher ein Problem sind. Wenn ja in der Prozeßliste nach CPU und nach Speichernutzung sortieren und verdächtige isolieren. Wichtig dabei: den Haken für "Prozesse aller Benutzer auflisten" setzen, sonst wird es ggf. sinnfrei!

Auch die Verwendung einer aktuellen Anti-Virensoftware findet hier und da einen Grund warum Rechner langsam sein können.
Zuletzt geändert von wegus am Mo 16. Jun 2008, 13:44, insgesamt 1-mal geändert.
Das Problem mit Zitaten aus dem Internet besteht darin, dass man sie nicht überprüfen kann - Abraham Lincoln
Antworten