Günther Zisham schrieb:
Sandy Drobic schrieb:
Mache mal regelmäßige Schnappschüssen von "cat /proc/meminfo", bis das System anfängt, Prozesse abzuschießen. Das würde mich interessieren.
das Mitprotokollieren habe ich jetzt eingeschaltet, 2 x pro Stunde wird es in eine Datei geschrieben (mit Datum).
momentan: # cat /proc/meminfo MemTotal: 6220296 kB MemFree: 722720 kB Buffers: 291368 kB Cached: 4606804 kB SwapCached: 84 kB Active: 1370664 kB Inactive: 3804792 kB HighTotal: 5368332 kB HighFree: 499060 kB LowTotal: 851964 kB LowFree: 223660 kB SwapTotal: 2104472 kB SwapFree: 2104388 kB Dirty: 5076 kB Writeback: 0 kB AnonPages: 277776 kB Mapped: 46844 kB Slab: 300912 kB SReclaimable: 154368 kB SUnreclaim: 146544 kB PageTables: 3176 kB NFS_Unstable: 0 kB Bounce: 0 kB CommitLimit: 5214620 kB Committed_AS: 607832 kB VmallocTotal: 118776 kB VmallocUsed: 9232 kB VmallocChunk: 108988 kB
(habe nur bei den Buffers mal etwas mehr zugewiesen, alles andere ist standard)
Das letzte Mal lief der Server ca. 23 Tage, bis das Problem kam. Ich möchte zumindest gerüstet sein, wenn es das nächste Mal auftritt.
Inzwischen ist es leider wieder aufgetreten (am anderen der beiden Server) und ich habe mit obigem Befehl folgendes geloggt: (automatischer Neustart erfolgte gestern um 16:01) gestern gestern gestern heute 15:25:01 15:55:01 16:25:01 10:55:01 MemTotal: 6220296 kB 6220296 kB 6220296 kB 6220240 kB MemFree: 101764 kB 158448 kB 5767824 kB 4948812 kB Buffers: 4104 kB 1676 kB 15584 kB 373340 kB Cached: 366008 kB 384968 kB 143084 kB 460904 kB SwapCached: 3876 kB 3800 kB 0 kB 0 kB Active: 3444180 kB 3366868 kB 322600 kB 689176 kB Inactive: 1823608 kB 1840544 kB 86412 kB 489660 kB HighTotal: 5368332 kB 5368332 kB 5368332 kB 5368332 kB HighFree: 92040 kB 149856 kB 4964524 kB 4549992 kB LowTotal: 851964 kB 851964 kB 851964 kB 851908 kB LowFree: 9724 kB 8592 kB 803300 kB 398820 kB SwapTotal: 2104472 kB 2104472 kB 2104472 kB 2104472 kB SwapFree: 2092932 kB 2092932 kB 2104472 kB 2104472 kB Dirty: 7908 kB 8388 kB 432 kB 9060 kB Writeback: 0 kB 0 kB 0 kB 0 kB AnonPages: 372508 kB 373908 kB 250104 kB 344944 kB Mapped: 34516 kB 34944 kB 41096 kB 44948 kB Slab: 828040 kB 831260 kB 27312 kB 70868 kB SReclaimable: 80016 kB 79752 kB 7880 kB 24976 kB SUnreclaim: 748024 kB 751508 kB 19432 kB 45892 kB PageTables: 4100 kB 3992 kB 3024 kB 3812 kB NFS_Unstable: 0 kB 0 kB 0 kB 0 kB Bounce: 0 kB 0 kB 0 kB 0 kB CommitLimit: 5214620 kB 5214620 kB 5214620 kB 5214592 kB Committed_AS: 676472 kB 680348 kB 586468 kB 673080 kB VmallocTotal: 118776 kB 118776 kB 118776 kB 118776 kB VmallocUsed: 9376 kB 9376 kB 8848 kB 9452 kB VmallocChunk: 108396 kB 108396 kB 109184 kB 108296 kB Was mir auffällt (vor dem Neustart, verglichen mit dem "frischen" System nach dem Neustart): MemFree ist deutlich wenig Active ist recht hoch Inactive ist recht hoch HighFree ist recht wenig LowFree ist recht wenig Slab (?) ist recht hoch SUnreclaim (?) ist recht hoch Was hat das zu bedeuten? Wie kann ich die wahren Verursacher genau eingrenzen? Könnte es etwas damit zu tun haben? http://www.heise.de/newsticker/meldung/90241 gefiltert nach "Out of memory" aus /var/log/messages: May 25 14:00:37 s1 kernel: Out of memory: kill process 9472 (amavisd) score 14448 or a child May 25 14:00:37 s1 kernel: Out of memory: kill process 9689 (amavisd) score 14167 or a child May 25 14:15:44 s1 kernel: Out of memory: kill process 14229 (amavisd) score 14916 or a child May 25 14:15:44 s1 kernel: Out of memory: kill process 14757 (amavisd) score 14164 or a child May 25 14:16:23 s1 kernel: Out of memory: kill process 15906 (amavisd) score 13232 or a child May 25 14:25:48 s1 kernel: Out of memory: kill process 17571 (amavisd) score 14328 or a child May 25 14:55:50 s1 kernel: Out of memory: kill process 27314 (amavisd) score 14208 or a child May 25 14:55:50 s1 kernel: Out of memory: kill process 28327 (amavisd) score 13418 or a child May 25 15:10:56 s1 kernel: Out of memory: kill process 660 (amavisd) score 14490 or a child May 25 15:11:17 s1 kernel: Out of memory: kill process 1843 (amavisd) score 13951 or a child May 25 15:11:17 s1 kernel: Out of memory: kill process 1053 (amavisd) score 13695 or a child May 25 15:11:17 s1 kernel: Out of memory: kill process 1944 (amavisd) score 13006 or a child May 25 15:25:58 s1 kernel: Out of memory: kill process 5808 (amavisd) score 14142 or a child May 25 15:25:58 s1 kernel: Out of memory: kill process 5748 (amavisd) score 13950 or a child May 25 15:33:21 s1 kernel: Out of memory: kill process 8568 (amavisd) score 14386 or a child May 25 15:33:21 s1 kernel: Out of memory: kill process 9481 (amavisd) score 13232 or a child May 25 15:41:09 s1 kernel: Out of memory: kill process 11651 (amavisd) score 18401 or a child Auf jeden Fall habe ich heute um ca. 06:00 den Kernel auf beiden Server upgegraded: von vanilla-2.6.20.4 auf vanilla-2.6.21.3 (in der Hoffnung dass eventuelle Kernel-Memory-Leaks dadurch behoben sein könnten) Wie kann ich die Aufteilung des Speichers (6GB) besser machen? An welcher Stelle mangelt es ursächlich? Liebe Grüße, Günther -- Um die Liste abzubestellen, schicken Sie eine Mail an: opensuse-de+unsubscribe@opensuse.org Um eine Liste aller verfuegbaren Kommandos zu bekommen, schicken Sie eine Mail an: opensuse-de+help@opensuse.org