Günther Zisham schrieb:
Günther Zisham schrieb:
Bernward Otto - SuSE-Linux-Liste schrieb:
... vielleicht mal mit z.B.
ps --sort=-vsize -eo "%p %y %x %z %a" | head -n20
in kurzen Abständen über cron die Speicherbelegung aufzeichnen lassen, dann sieht man evtl. welche Prozesse vor einem kill den Speiche belegen ...
mfg Bernward Otto
danke, hab es schon in einen Cron-Job übernommen, der 2x pro Stunde läuft und in eine Datei schreibt. Beim nächsten Auftreten habe ich dann wenigstens Infos drüber.
Inzwischen ist es leider wieder aufgetreten und ich habe mit obigem Befehl folgendes geloggt: (automatischer Neustart um 16:01)
*Fri May 25 15:55:01 CEST 2007* PID TTY TIME VSZ COMMAND 15811 ? 05:11:43 72812 /usr/sbin/named -t /var/lib/named -u named 15960 ? 00:00:04 57408 amavisd (ch6-avail) 16189 ? 00:00:01 54736 amavisd (ch5-avail) 4908 ? 00:00:23 52024 amavisd (master) 1457 ? 00:00:03 49732 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 18347 ? 00:00:05 49728 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 18346 ? 00:00:05 49716 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 18343 ? 00:00:06 49672 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 1450 ? 00:00:03 49608 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 1451 ? 00:00:03 49608 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 1452 ? 00:00:03 49604 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 1929 ? 00:00:03 49600 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 22480 ? 00:00:05 49592 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 18345 ? 00:00:05 49336 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 4934 ? 00:00:03 47732 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 19408 ? 2-13:22:08 40584 (squid) -sYD 4656 ? 00:00:00 35560 /usr/lib/AntiVir/antivir --updater-daemon 5057 ? 00:00:11 32684 /usr/bin/python /usr/bin/hb_gui 4694 ? 00:00:01 27352 /usr/sbin/spamd -d -c -L -r /var/run/spamd.pid
*Fri May 25 16:25:01 CEST 2007* PID TTY TIME VSZ COMMAND 4279 ? 00:00:26 247892 ./jre/bin/java -Djava.compiler=NONE -cp /usr/StorMan/RaidMan.jar com.ibm.sysmgt.raidmgr.agent.ManagementAgent 12724 ? 00:00:00 53068 amavisd (ch2-12724-02) 12819 ? 00:00:00 53068 amavisd (ch2-12819-02) 6806 ? 00:00:00 52032 amavisd (master) 7242 ? 00:00:00 49244 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 7243 ? 00:00:00 49244 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 7244 ? 00:00:00 49244 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 7245 ? 00:00:00 49244 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 7246 ? 00:00:00 49244 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 12308 ? 00:00:00 48932 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 6903 ? 00:00:00 47468 /usr/sbin/httpd2-prefork -f /etc/apache2/httpd.conf -DSSL 5181 ? 00:00:00 37880 /usr/lib/AntiVir/antivir --updater-daemon 9864 ? 00:00:02 35756 /usr/sbin/named -t /var/lib/named -u named 5652 ? 00:00:00 27360 /usr/sbin/spamd -d -c -L -r /var/run/spamd.pid 6346 ? 00:00:00 27360 spamd child 6350 ? 00:00:00 27360 spamd child 6521 ? 00:00:00 24564 /usr/bin/python /usr/bin/hb_gui 9731 ? 00:00:07 20088 /usr/local/sbin/nacctd 5684 ? 00:00:00 13724 Xvnc :1 -desktop X -httpd /usr/share/vnc/classes -auth /var/lib/hbuser/.Xauthority -geometry 1024x768 -depth 24 -rfbwait
Hilft mir das weiter? Ich sehe nur, dass es nicht wirklich einen großen Prozess vor dem Neustart gegeben hat, aber einen viel größeren danach. ?!?
Lg, Günther
Hab da noch etwas gefunden, mit dem ich nicht recht was anzufangen weiß: in /var/log/messages: May 25 15:41:08 s1 kernel: squid invoked oom-killer: gfp_mask=0xd0, order=0, oomkilladj=0 May 25 15:41:08 s1 kernel: [<c0145660>] out_of_memory+0x69/0x185 May 25 15:41:08 s1 kernel: [<c0146b69>] __alloc_pages+0x20a/0x294 May 25 15:41:08 s1 kernel: [<c02674dd>] tcp_snd_test+0x13/0xce May 25 15:41:08 s1 kernel: [<c025f7f6>] tcp_sendmsg+0x4f7/0x9be May 25 15:41:08 s1 kernel: [<c0116bb5>] find_busiest_group+0x1b4/0x4c5 May 25 15:41:08 s1 kernel: [<c0277429>] inet_sendmsg+0x3b/0x45 May 25 15:41:08 s1 kernel: [<c0233f3a>] sock_aio_write+0xf6/0x102 May 25 15:41:08 s1 kernel: [<c015d5d9>] do_sync_write+0xc7/0x10a May 25 15:41:08 s1 kernel: [<c0255de3>] ip_rcv+0x409/0x442 May 25 15:41:08 s1 kernel: [<c01248ec>] lock_timer_base+0x15/0x2f May 25 15:41:08 s1 kernel: [<c012d181>] autoremove_wake_function+0x0/0x35 May 25 15:41:08 s1 kernel: [<c028df6f>] schedule_timeout+0x79/0x8d May 25 15:41:08 s1 kernel: [<c0233bf4>] sock_poll+0xc/0xe May 25 15:41:08 s1 kernel: [<c015de2c>] vfs_write+0xbc/0x154 May 25 15:41:08 s1 kernel: [<c015e425>] sys_write+0x41/0x67 May 25 15:41:08 s1 kernel: [<c0103d68>] syscall_call+0x7/0xb May 25 15:41:08 s1 kernel: ======================= May 25 15:41:08 s1 kernel: Mem-info: May 25 15:41:08 s1 kernel: DMA per-cpu: May 25 15:41:08 s1 kernel: CPU 0: Hot: hi: 0, btch: 1 usd: 0 Cold: hi: 0, btch: 1 usd: 0 May 25 15:41:08 s1 kernel: CPU 1: Hot: hi: 0, btch: 1 usd: 0 Cold: hi: 0, btch: 1 usd: 0 May 25 15:41:08 s1 kernel: CPU 2: Hot: hi: 0, btch: 1 usd: 0 Cold: hi: 0, btch: 1 usd: 0 May 25 15:41:08 s1 kernel: CPU 3: Hot: hi: 0, btch: 1 usd: 0 Cold: hi: 0, btch: 1 usd: 0 May 25 15:41:08 s1 kernel: CPU 4: Hot: hi: 0, btch: 1 usd: 0 Cold: hi: 0, btch: 1 usd: 0 May 25 15:41:08 s1 kernel: CPU 5: Hot: hi: 0, btch: 1 usd: 0 Cold: hi: 0, btch: 1 usd: 0 May 25 15:41:08 s1 kernel: CPU 6: Hot: hi: 0, btch: 1 usd: 0 Cold: hi: 0, btch: 1 usd: 0 May 25 15:41:08 s1 kernel: CPU 7: Hot: hi: 0, btch: 1 usd: 0 Cold: hi: 0, btch: 1 usd: 0 May 25 15:41:08 s1 kernel: Normal per-cpu: May 25 15:41:08 s1 kernel: CPU 0: Hot: hi: 186, btch: 31 usd: 160 Cold: hi: 62, btch: 15 usd: 57 May 25 15:41:08 s1 kernel: CPU 1: Hot: hi: 186, btch: 31 usd: 28 Cold: hi: 62, btch: 15 usd: 51 May 25 15:41:08 s1 kernel: CPU 2: Hot: hi: 186, btch: 31 usd: 145 Cold: hi: 62, btch: 15 usd: 52 May 25 15:41:08 s1 kernel: CPU 3: Hot: hi: 186, btch: 31 usd: 29 Cold: hi: 62, btch: 15 usd: 48 May 25 15:41:08 s1 kernel: CPU 4: Hot: hi: 186, btch: 31 usd: 15 Cold: hi: 62, btch: 15 usd: 55 May 25 15:41:08 s1 kernel: CPU 5: Hot: hi: 186, btch: 31 usd: 180 Cold: hi: 62, btch: 15 usd: 58 May 25 15:41:08 s1 kernel: CPU 6: Hot: hi: 186, btch: 31 usd: 30 Cold: hi: 62, btch: 15 usd: 52 May 25 15:41:08 s1 kernel: CPU 7: Hot: hi: 186, btch: 31 usd: 44 Cold: hi: 62, btch: 15 usd: 48 May 25 15:41:08 s1 kernel: HighMem per-cpu: May 25 15:41:08 s1 kernel: CPU 0: Hot: hi: 186, btch: 31 usd: 15 Cold: hi: 62, btch: 15 usd: 4 May 25 15:41:08 s1 kernel: CPU 1: Hot: hi: 186, btch: 31 usd: 74 Cold: hi: 62, btch: 15 usd: 0 May 25 15:41:08 s1 kernel: CPU 2: Hot: hi: 186, btch: 31 usd: 169 Cold: hi: 62, btch: 15 usd: 2 May 25 15:41:08 s1 kernel: CPU 3: Hot: hi: 186, btch: 31 usd: 157 Cold: hi: 62, btch: 15 usd: 10 May 25 15:41:08 s1 kernel: CPU 4: Hot: hi: 186, btch: 31 usd: 14 Cold: hi: 62, btch: 15 usd: 9 May 25 15:41:08 s1 kernel: CPU 5: Hot: hi: 186, btch: 31 usd: 169 Cold: hi: 62, btch: 15 usd: 4 May 25 15:41:08 s1 kernel: CPU 6: Hot: hi: 186, btch: 31 usd: 132 Cold: hi: 62, btch: 15 usd: 0 May 25 15:41:08 s1 kernel: CPU 7: Hot: hi: 186, btch: 31 usd: 10 Cold: hi: 62, btch: 15 usd: 3 May 25 15:41:08 s1 kernel: Active:868588 inactive:460160 dirty:3524 writeback:425 unstable:0 free:12031 slab:206797 mapped:8789 pagetables:1072 May 25 15:41:08 s1 kernel: DMA free:3544kB min:68kB low:84kB high:100kB active:60kB inactive:0kB present:16256kB pages_scanned:90 all_unreclaimable? yes May 25 15:41:08 s1 kernel: lowmem_reserve[]: 0 873 7604 May 25 15:41:08 s1 kernel: Normal free:2936kB min:3744kB low:4680kB high:5616kB active:420kB inactive:596kB present:894080kB pages_scanned:1507 all_unreclaimable? yes May 25 15:41:08 s1 kernel: lowmem_reserve[]: 0 0 53848 May 25 15:41:08 s1 kernel: HighMem free:41644kB min:512kB low:7732kB high:14956kB active:3473872kB inactive:1840044kB present:6892544kB pages_scanned:0 all_unreclaimable? no May 25 15:41:08 s1 kernel: lowmem_reserve[]: 0 0 0 May 25 15:41:08 s1 kernel: DMA: 0*4kB 1*8kB 1*16kB 0*32kB 1*64kB 1*128kB 1*256kB 0*512kB 1*1024kB 1*2048kB 0*4096kB = 3544kB May 25 15:41:08 s1 kernel: Normal: 62*4kB 0*8kB 4*16kB 2*32kB 0*64kB 0*128kB 0*256kB 1*512kB 0*1024kB 1*2048kB 0*4096kB = 2936kB May 25 15:41:08 s1 kernel: HighMem: 3751*4kB 662*8kB 132*16kB 357*32kB 18*64kB 14*128kB 9*256kB 5*512kB 0*1024kB 0*2048kB 0*4096kB = 41644kB May 25 15:41:08 s1 kernel: Swap cache: add 4834, delete 3865, find 496082/496293, race 0+3 May 25 15:41:09 s1 kernel: Free swap = 2092932kB May 25 15:41:09 s1 kernel: Total swap = 2104472kB May 25 15:41:09 s1 kernel: Free swap: 2092932kB May 25 15:41:09 s1 kernel: 1966080 pages of RAM May 25 15:41:09 s1 kernel: 1736704 pages of HIGHMEM May 25 15:41:09 s1 kernel: 411006 reserved pages May 25 15:41:09 s1 kernel: 174367 pages shared May 25 15:41:09 s1 kernel: 969 pages swap cached May 25 15:41:09 s1 kernel: 1824 pages dirty May 25 15:41:09 s1 kernel: 425 pages writeback May 25 15:41:09 s1 kernel: 8789 pages mapped May 25 15:41:09 s1 kernel: 206797 pages slab May 25 15:41:09 s1 kernel: 1072 pages pagetables May 25 15:41:09 s1 kernel: Out of memory: kill process 11651 (amavisd) score 18401 or a child May 25 15:41:09 s1 kernel: Killed process 12126 (antivir) Momentan ergibt sich folgendes Bild in "top" (geordnet nach M = memory): Mem: 6220240k total, 6055236k used, 165004k free, 498228k buffers Swap: 2104472k total, 0k used, 2104472k free, 4909440k cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 16593 vscan 15 0 60056 49m 2836 S 5 0.8 0:03.16 amavisd 7765 vscan 15 0 52024 42m 2596 S 0 0.7 0:01.88 amavisd 20610 vscan 15 0 52928 41m 1712 S 0 0.7 0:00.00 amavisd 5819 root 18 0 37680 32m 448 S 0 0.5 0:00.00 antivir 21314 squid 15 0 33544 28m 2616 S 4 0.5 87:02.53 squid 12593 named 19 0 58356 27m 2116 S 1 0.5 10:17.22 named 7037 root 15 0 27356 24m 2276 S 0 0.4 0:02.83 spamd 7435 hbuser 18 0 31464 23m 10m S 0 0.4 0:07.01 hb_gui 7762 root 18 0 27356 22m 684 S 0 0.4 0:00.09 spamd 7770 root 18 0 27356 22m 572 S 0 0.4 0:00.12 spamd 6051 hbuser 15 0 17280 13m 4248 S 0 0.2 2:04.77 Xvnc 9160 root -2 0 13212 12m 4120 S 0 0.2 0:14.92 heartbeat 30081 wwwrun 15 0 49484 9068 3716 S 0 0.1 0:01.98 httpd2-prefork 30080 wwwrun 21 0 49484 9064 3704 S 0 0.1 0:01.63 httpd2-prefork 30083 wwwrun 16 0 49484 8944 3672 S 0 0.1 0:01.87 httpd2-prefork 2179 wwwrun 18 0 49484 8928 3656 S 0 0.1 0:01.76 httpd2-prefork könnte es sein, dass der Kernel selbst nicht weiß, wer wirklich den Speicher verbraucht und einfach jene Prozesse schießt, von denen er glaubt, dass sie den meisten Speicher verbrauchen? In diesem Fall wäre das dann zB wieder amavisd, obwohl der Speicherverbrauch nur bei ca. 0,8 % liegt. Wie kann ich draufkommen, wo wirklich der meiste Speicher "verlorengeht"? (Hardwarefehler kann ich ausschließen, da der Fehler bei 2 verschiedenen Servern mit selber Software auftritt) Danke schon mal für Eure Hilfe, Günther -- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org