exttreme CPU Auslastung mit Bildbearbeitungsprogrammen

Datum: 18.06.2008 Uhrzeit: 13:06:46 Alex M. Ich bitte um Hilfe (bin nicht der Computerfreak) Vielleicht kann mir ja jemand Tipps geben?! Das Problem ist eine hohe CPU Auslastung bei folgenden Programmen: – lightromm – CS 2 – Oly Studio – oly-e.de aber nur mit firefox: seeeehr langsam (internet explorer geht!) Die Probleme treten hauptsächlich bei raw Bildern auf, jpeg geht besser. Konkret äußert sich dass daran, dass die Prozessorauslastung bei jedem Klick (z.B. Bild auswählen, Drehen am Belichtungsregler… usw.) erstmal für ein paar Sekunden um die 100% liegt um dann langsam wieder abzufallen. Dementsprechend verzö¶gert sich auch die Ausführung der entsprechenden Bearbeitungsschritte ins unterträgliche. Mein System: AMD Athlon 2600+ (1,92 GHz) 1 GB Ram freier Festplattenspreicher auf Systempartition: ca. 20GB XP mit allen updates Hat jemand eine Idee? Oder ist das System zu alt? Bin für jeden Tipp sehr dankbar! Gruß, Alex M. — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 18.06.2008 Uhrzeit: 16:20:03 Oliver Musch Alex M. schrieb: > Mein System: > AMD Athlon 2600+ (1,92 GHz) > 1 GB Ram > freier Festplattenspreicher auf Systempartition: ca. 20GB > XP mit allen updates > > Hat jemand eine Idee? Oder ist das System zu alt? Klingt alles ok und ausreichend, interessant wäre aber die Liste von Programmen, die sich unten rechts im SystemTray verewigen… Eventuell zwei Virenscanner installiert, die sich bekriegen? Alles Erfahrungswerte… Oliver —————————————————————————————————————————————— Datum: 19.06.2008 Uhrzeit: 12:39:29 Michael Lindner Hallo Alex, – ein Engpaß ist das RAM (2 GB sinnvoll, WIN XP war’s doch ?), eine schnellere CPU hilft außerdem deutlich (habe nur Erfahrung mit Intels CoreDuo – kontrolliere, ob Du eine feste Grö¶ße für die Auslagerungsdatei eingestellt hast: Allen Tuning-Tips zum Trotz ist es für Bild/Video-Bearbeitung besser, das auf wird durch das System verwaltet“ flexibel einzustellen – immens wichtig ist eine gute Software zur Defragmentierung (ich würde Dir hier zum Defrag 10.0 von O&O-Software raten nicht zu teuer und sehr gut (unbedingt den Steath-Modus im Hintergrund automatisch ausführen lassen und Du mußt Dir über defragmentierte dateien nie wieder Sorgen machen – 20 GB bei nur einer Festplatte sind schnell aufgebraucht; wenn Dein Rechner Firewire hat wäre evt. eine 2. Festplatte extern angesagt – sehr schnell ist die „My Book“-Serie mit 500 GB von Western Digital(bei Lightroom dann Bearbeitung und Swap-Disk auf der Systemplatte Datendateien und temporäre Files auf der 2. Platte) – das geht performancemäßig aber nur mit Firewire-Platten nicht mit USB viele Grüße Michael Lindner (Bielefeld) posted via https://oly-e.de“ —————————————————————————————————————————————— Datum: 19.06.2008 Uhrzeit: 14:10:08 Hans Wein Alex M. wrote: > Die Probleme treten hauptsächlich bei raw Bildern auf, jpeg geht > besser. Konkret äußert sich dass daran, dass die > Prozessorauslastung bei jedem Klick (z.B. Bild auswählen, Drehen > am Belichtungsregler… usw.) erstmal für ein paar Sekunden um > die 100% liegt um dann langsam wieder abzufallen. Dementsprechend > verzö¶gert sich auch die Ausführung der entsprechenden > Bearbeitungsschritte ins unterträgliche. Die Frage nach der CPU-Auslastung kann man nur dann vollständig beantworten, wenn die Grundlast bekannt ist. Ein kurzes Hochschnalzen auf 100% bei Auswahlfunktionen ist an sich normal, es dürfen aber wirklich nur Spitzen sein. Aber: Grundsätzlich muss jedes Bildbearbeitungsprogramm ein paar Berechnungen anstellen, damit das gewünschte Bild in der gewählten Grö¶ße auf dem Bildschirm erscheint. Von diesem Vorgang bekommt der Anwender in der Regel nur dann etwas mit, wenn es sich um Rawbilder handelt. Das kommt IMO vor allem daher, weil die verwendeten Entwicklungsprozeduren nicht auf Betriebssystemebene laufen, sondern zu Fuß“ programmiert werden müssen. Wenn aber spürbare Verzö¶gerungen bei Bitmaps auftreten die in einem handelsüblichen Format wie JPEG vorliegen dann kommt eine oder mehrere der folgenden Ursachen in Betracht: – Die Systemleistung (CPU/Chipsatz) ist generell zu schwach. Dieses Kriterium dürfte für Gerätschaften die deutlich mehr als 5 Jahre auf dem Buckel haben fast immer zutreffen. – Zu wenig RAM. Die Folge: Bereits Windows und eine oder zwei geladene Anwendungen belegen so viel davon dass dauernd Speicher auf die Festplatte ausgelagert werden muss. Bei älteren Systemen fällt dies umso mehr auf weil die Festplatte(n) deutlich behäbiger als aktuelle Modelle arbeiten. – Zu viel unnö¶tige Software geladen. Im Laufe der Jahre kö¶nnen sich dermaßen viele Dinge auf dem System ansammeln die beim Start mitgeladen werden die aber eigentlich niemand mehr braucht. Gelegentlich sind sogar Konflikte zwischen verschiedenen Herstellern mö¶glich z.B. wenn der Anwender die Brennsoftware wechselt. Virenscanner und Firewalls sind auch als Systembremsen bekannt. > Hat jemand eine Idee? Oder ist das System zu alt? Zu alt ist es mit max. 5 Jahren noch nicht aber es gehö¶rt ein wenig geputzt. Hardwareseitig würde ich einen weiteren RAM-Riegel spendieren so dass es auf mindestens 2 GB kommt. Eine neue schnellere Festplatte kann auch nicht schaden. Und dann würde ich mir ernsthaft überlegen alles einmal komplett neu zu installieren und nur das auf die Platte zu packen was wirklich gebraucht wird. HTH Hans“ —————————————————————————————————————————————— Datum: 19.06.2008 Uhrzeit: 14:10:09 Hans Wein Michael Lindner wrote: > – ein Engpaß ist das RAM (2 GB sinnvoll, WIN XP war’s doch ?), > eine schnellere CPU hilft außerdem deutlich (habe nur Erfahrung > mit Intels CoreDuo Wer PS & Co für sein persö¶nliches Wohlbefinden braucht, sollte wirklich mindestens 2 GB RAM einsetzen. Die CPU-Leistung wird dagegen oft überschätzt. > – kontrolliere, ob Du eine feste Grö¶ße für die Auslagerungsdatei > eingestellt hast: Allen Tuning-Tips zum Trotz ist es für > Bild/Video-Bearbeitung besser, das auf wird durch das System > verwaltet“ flexibel einzustellen Auch die Wirkung der Auslagerungsdatei-Optionen wird oft überschätzt – das gilt vor allem dann wenn genügend RAM zur Verfügung steht. Außerdem machen die Adobe-Produkte ausgiebig Gebrauch von eigenen Temp-Dateien. > – immens wichtig ist eine gute Software zur Defragmentierung (ich > würde Dir hier zum Defrag 10.0 von O&O-Software raten nicht zu > teuer und sehr gut (unbedingt den Steath-Modus im Hintergrund > automatisch ausführen lassen und Du mußt Dir über defragmentierte > dateien nie wieder Sorgen machen Defragmentierung ist ein weiteres Feld bei dem viel Unsinn verzapft wird. Zumindest bei der Systempartition ist sie vö¶llig überflüssig weil XP durch seine Prefetch-Funktion munter gegenan arbeitet. Sinn macht sie hö¶chstens bei reinen Datenpartitionen hier aber mit Handbetrieb auf keinen Fall automatisch im Hintergrund. > – 20 GB bei nur einer Festplatte sind schnell aufgebraucht; wenn > Dein Rechner Firewire hat wäre evt. eine 2. Festplatte extern > angesagt – sehr schnell ist die „My Book“-Serie mit 500 GB von > Western Digital(bei Lightroom dann Bearbeitung und Swap-Disk auf > der Systemplatte Datendateien und temporäre Files auf der 2. > Platte) – das geht performancemäßig aber nur mit > Firewire-Platten nicht mit USB Wenn Festplattenplatz knapp wird gibt es nur zwei sinnvolle Lö¶sungsansätze: Entweder die vorhandene gegen eine neue schnellere und grö¶ßere austauschen oder eine zweite dazupacken. Alles andere ist Krampf. Gruß Hans“ —————————————————————————————————————————————— Datum: 19.06.2008 Uhrzeit: 14:35:20 Michael Lindner Hallo Hans, Michael Lindner: >> – immens wichtig ist eine gute Software zur Defragmentierung (ich >> würde Dir hier zum Defrag 10.0 von O&O-Software raten, nicht zu >> teuer und sehr gut (unbedingt den Steath-Modus im Hintergrund >> automatisch ausführen lassen und Du mußt Dir über defragmentierte >> dateien nie wieder Sorgen machen Hans Wein > Defragmentierung ist ein weiteres Feld, bei dem viel Unsinn > verzapft wird. Zumindest bei der Systempartition ist sie vö¶llig > überflüssig, weil XP durch seine Prefetch-Funktion munter gegenan > arbeitet. Sinn macht sie hö¶chstens bei reinen Datenpartitionen, > hier aber mit Handbetrieb, auf keinen Fall automatisch im > Hintergrund. Also, dass mit dem auf keinen Fall automatisch im Hintergrund“ sollte doch jeder noch mal ausprobieren. Das ct-Magazin hat mit dem besagten Stealth-Modus (automatisch im Hintergrund) beim O&O-Tool „Defrag 10.0″ die beste Bewertung hinbekommen und auch ich habe nur so den geringsten Fragmentierungsgrad erzeugen kö¶nnen. Die manuelle Defragmentierung hat immer deutlich länger gedauert war umständlicher und hat nicht zum 100%igen Erfolg geführt (Fragmentierungsgrad bei meinem Rechner derzeit permanent bei 0.3 % ohne dass ich mich da noch drum kümmern muss). Mein Rat mit der zweiten Festplatte via Firewire kam daher dass viele einfach scheuen ihren Rechner intern aufzurüsten und ihre Daten zu portieren und daher lieber notgedrungen mit einer schlechten Performance leben wollen. Für diese User gibt es eben diesen Mittelweg. Die externe Festplatte hat den Härtetest bei mir schon bestanden: Half Life 2 mit externer Soundlö¶sung und externer Platte – beides via Firewire – ohne soundinduzierte Bildruckler). Optimal ist natürlich – wie Du schon schreibst – gleich eine neue grö¶ßere Platte der neuen Generation. viele Grüße Michael Lindner (Bielefeld) posted via https://oly-e.de“ —————————————————————————————————————————————— Datum: 20.06.2008 Uhrzeit: 12:34:42 Alex M. Erstmal herzlichen Dank an alle für die ausführlichen und kompetenten Antworten. Hat mich sehr gefreut. Ich habe mich zu einer neuen Festplatte (500GB) und 2 GB Ram entschlossen. Damit kann der Rechner noch eine Weile laufen und das System ist zwangsläufig neu aufgespielt. (Bevor ich jetzt nur“ alles neu aufspiele kann man auch gleich etwas aufrüsten) Insofern mach ich genau das was Hans vorgeschlagen hat: Hans Wein schrieb: > Zu alt ist es mit max. 5 Jahren noch nicht aber es gehö¶rt ein > wenig geputzt. Hardwareseitig würde ich einen weiteren RAM-Riegel > spendieren so dass es auf mindestens 2 GB kommt. Eine neue > schnellere Festplatte kann auch nicht schaden. Und dann würde ich > mir ernsthaft überlegen alles einmal komplett neu zu installieren > und nur das auf die Platte zu packen was wirklich gebraucht wird. Grüße Alex posted via https://oly-e.de“ —————————————————————————————————————————————— Datum: 20.06.2008 Uhrzeit: 16:48:21 Hans Wein Michael Lindner wrote: > Also, dass mit dem auf keinen Fall automatisch im Hintergrund“ > sollte doch jeder noch mal ausprobieren. Das ct-Magazin hat mit > dem besagten Stealth-Modus (automatisch im Hintergrund) beim > O&O-Tool „Defrag 10.0″ die beste Bewertung hinbekommen und auch > ich habe nur so den geringsten Fragmentierungsgrad erzeugen > kö¶nnen. Es war auch die c’t welche vor ein paar Jahren untersuchte ob bzw. inwieweit sich der Bootvorgang einer XP-Installation durch emsige Defragmentierung spürbar beschleunigen lässt. Das Ergebnis war IIRC wie folgt: Eine Verbesserung welche durch die Bank den Einsatz derartiger Tools empfehlenswert macht konnte nicht festgestellt werden. > Die manuelle Defragmentierung hat immer deutlich länger > gedauert war umständlicher und hat nicht zum 100%igen Erfolg > geführt (Fragmentierungsgrad bei meinem Rechner derzeit permanent > bei 0.3 % ohne dass ich mich da noch drum kümmern muss). Dass Handdefragmentierung Arbeit bedeutet ist klar aber sie muss auch nicht alle zwei Tage durchgeführt werden. Dafür hat man ein speicherresidentes Programm bzw. einen Dienst weniger laufen und gerade O&O 10.0 soll einen ziemlichen RAM-Verbrauch haben. Es gibt übrigens ein Tool welches sich gezielt um Auslagerungsdateien kümmert: Pagedefrag von Sysinternals. > Mein Rat mit der zweiten Festplatte via Firewire kam daher dass > viele einfach scheuen ihren Rechner intern aufzurüsten und ihre > Daten zu portieren und daher lieber notgedrungen mit einer > schlechten Performance leben wollen. Viele wenn nicht die meisten der angebotenen Externplattengehäuse haben keine vernünftige Kühlung und ich bin etwas skeptisch ob die darin eingebauten Laufwerke bei Dauerbetrieb nicht irgendwann alle den Hitzetod sterben. Vor kurzem nahm ich beim Lidl eine der dort angebotenen Platten mit eSATA-Anschluss mit und diese hängt sogar meine eingebauten Samsungs ab – dafür sind die aber leiser 🙂 Gruß Hans“ —————————————————————————————————————————————— Datum: 20.06.2008 Uhrzeit: 17:55:09 Hermann Brunner Hans Wein schrieb: >> Das ct-Magazin hat mit dem besagten >> Stealth-Modus (…) die beste Bewertung hinbekommen und auch >> ich habe nur so den geringsten Fragmentierungsgrad erzeugen >> kö¶nnen. > Eine Verbesserung, welche durch die Bank den Einsatz derartiger > Tools empfehlenswert macht, konnte nicht festgestellt werden. >> (Fragmentierungsgrad bei meinem Rechner derzeit permanent >> bei 0.3 %, ohne dass ich mich da noch drum kümmern muss). Hallo miteinander, Fragmentierung von Disks ist das am meisten *über*schätzte Übel im Hinblick auf Performance-Effekte. Man wird auch bei relativ heftig fragmentierten Disks kaum jemals wirklich seriö¶s nachweisen kö¶nnen, dass nach einer Defragmentierung ein nachhaltiger Performancegewinn stattgefunden hat. Klar, irgendwelche sonderbaren Meßdaten werden sich schon verbessern, (Fragmentierungsgrad“) – aber worauf es ankommt – sprich: Antwortzeiten von nachvollziehbaren Aktionen – (Beispiele: ö–ffnen eines Bildes in Photoshop Speichern eines Bildes Kopieren einer Datei Starten einer Anwendung…) werden sich kaum meßbar und nur selten spürbar ändern. (*) Das sagt jetzt einer der sich seit 20 Jahren mit Disk- RAID- und I/O-Controllertechnologie (allerdings im RZ-Umfeld) auseinandersetzt und seit jeher die Gruselgeschichten von fragmentierten Disks hö¶rt aber nur ganz selten mal einen Beweis gesehen hat wieviel konkret eine ordentlich defragmentierte Disk besser performt als eine auf der die Dateien bzw. deren Fragmente etwas durcheinander sind. Macht Euch also keinen allzu großen Kopf um Defragmentierung wenn die Frage lautet: Warum ist mein System so langsam ? Ich würde mal vermuten dass das auf einer Liste der mö¶glichen Verursacher irgendwo an 5. bis 10. Stelle kommt. Just MySenf Hermann (*) Ausnahme: Wenn eine Disk zu nahezu 100% gefüllt ist und darauf fleißig Dateien gelö¶scht und andere angelegt werden dann kann es bö¶se Performance-Effekte geben – aber eben nur wenn die Disk extrem gefüllt *und* stark fragmentiert ist.“ —————————————————————————————————————————————— Datum: 23.06.2008 Uhrzeit: 25:19:08 Michael Lindner Hallo Hans, > Dass Handdefragmentierung Arbeit bedeutet, ist klar, aber sie muss > auch nicht alle zwei Tage durchgeführt werden. Dafür hat man ein > speicherresidentes Programm bzw. einen Dienst weniger laufen, und > gerade O&O 10.0 soll einen ziemlichen RAM-Verbrauch haben. Es gibt > übrigens ein Tool, welches sich gezielt um Auslagerungsdateien > kümmert: Pagedefrag von Sysinternals. Habe gerade nur den Rechner mit Version 8.6 Prof. zur Hand: Im laufenden Hintergrundbetrieb für 1. Festplatte mit ca. 50 GB 20 sec. lang 6-10 % CPU-Auslastung bei 8000 KB Speicherauslastung. Bei 2 GB RAM kann ich das verschmerzen. Version 10.0 soll noch effizienter arbeiten. Die Aufräumintervalle werden von der Software nach Nutzungsverhalten berechnet (bei mir liegen Tage dazwischen). Den grö¶ßten Vorteil sehe ich einfach darin, dass ich im automatisierten Modus das Defragmentieren eben nicht mehr vergesse und das es deutlich schneller abläuft wie mit dem WIN XP-Defragmentierer. viele Grüße Michael Lindner (Bielefeld) — posted via https://oly-e.de —————————————————————————————————————————————— Datum: 24.06.2008 Uhrzeit: 21:22:20 Hans Wein Michael Lindner wrote: > Habe gerade nur den Rechner mit Version 8.6 Prof. zur Hand: Im > laufenden Hintergrundbetrieb für 1. Festplatte mit ca. 50 GB 20 > sec. lang 6-10 % CPU-Auslastung bei 8000 KB Speicherauslastung. > Bei 2 GB RAM kann ich das verschmerzen. Was wir beide wohl nicht sicher wissen, ist wieviel RAM während des Verschiebevorganges als Cache abgezweigt wird. > Version 10.0 soll noch effizienter arbeiten. Die Aussage, die ich hier wiedergab, beruhte auf 10.0 – selbst nachprüfen kann ich sie nicht. Es wäre im übrigen die erste Software, welche bei einem Versionsanstieg nicht mehr Resourcen als die Vorgängerin braucht 😉 Gruß Hans —————————————————————————————————————————————— Datum: 30.06.2008 Uhrzeit: 15:17:11 Michael Lindner Hallo Hans, > Michael Lindner wrote: >> Habe gerade nur den Rechner mit Version 8.6 Prof. zur Hand: Im >> laufenden Hintergrundbetrieb für 1. Festplatte mit ca. 50 GB 20 >> sec. lang 6-10 % CPU-Auslastung bei 8000 KB Speicherauslastung. >> Bei 2 GB RAM kann ich das verschmerzen. > Hans Wein schrieb: > Was wir beide wohl nicht sicher wissen, ist wieviel RAM während > des Verschiebevorganges als Cache abgezweigt wird. Stimmt, doch findet der Verschiebevorgang bei mir nur ca. alle 3 Tage statt (natürlich von der PC-Nutzung abhängig), liegt vielleicht auch daran, dass ich im PC 2 Festplatten parallel ohne RAID verbaut habe. Das Verschieben dauert aber jeweils nur 2 Minuten. Für mich also ohne jegliche Performance-Einbuße, auch wenn ich mit Lightroom arbeite. Nur wenn gleichzeitig die wö¶chentliche PC-Prüfung des Virenscanners läuft, kommt es zu ca. 30% längeren Zeiten (schalte einfach den Scanner für die paar Minuten ab). viele Grüße Michael Lindner (Bielefeld) — posted via https://oly-e.de ——————————————————————————————————————————————