Ressourcen angehoben bei S4U?

Gisol

Registered User
Hallo,

mein heutiger Blick in /proc/user_beancounters brachte folgendes zu Tage:
(Vserver Basic)

Code:
Version: 2.5
       uid  resource           held    maxheld    barrier      limit    failcnt
    166XXX: kmemsize        2966907    7032062    7056211    7761832          0
            lockedpages           0          4        344        344          0
            privvmpages       41435      51774      87632      96396          0
            shmpages           4736       4752      19567      19567          0
            dummy                 0          0          0          0          0
            numproc              35         79        128        128          0
            physpages          7681      18139          0 2147483647          0
            vmguarpages           0          0      65536 2147483647          0
            oomguarpages       8839      21445      65536 2147483647          0
            numtcpsock            9         29        172        172          0
            numflock              3         15        224        246          0
            numpty                1          1         16         16          0
            numsiginfo            0         20        512        512          0
            tcpsndbuf         82732     395772    1416560    2768240          0
            tcprcvbuf        147456     275640    1416560    2768240          0
            othersockbuf     159592     433468     655717    1153621          0
            dgramrcvbuf           0       9800     655717     655717          0
            numothersock        102        159        228        228          0
            dcachesize            0          0    1002127    1032191          0
            numfile            1650       2240       3008       3008       1407
            dummy                 0          0          0          0          0
            dummy                 0          0          0          0          0
            dummy                 0          0          0          0          0
            numiptent            20         20         64         64          0

Ich hab keine aktuelle Ausgabe der alten Werte (dafür ein paar ziemlich alte), doch zumindest numfile ist um einiges angehoben worden (von 2240 auf 3008). Die Barrier von vmguarpages und oomguarpages kommt mir auch höher vor, da fehlts mir aber am aktuellen Vergleichsmaterial.

Hab nur ich Glück gehabt, oder handelt es sich um ein allgemeines "Geschenk?"
Ich sag auf jeden Fall schon mal danke, denn mein größtes Ressourcenproblem hat sich somit in Wohlgefallen aufgelöst :)
 
Vielleicht wirst du in diesem Thread fündig:

Die Werte sind aber schon ein wenig älter. Einfach einmal vergleichen bzw. warten bis noch wer einen Vergleich postet.
 
RootDS Starter:
Code:
Version: 2.5
       uid  resource           held    maxheld    barrier      limit    failcnt
    187146: kmemsize        5874182   17841487   17777274   19555001      33484
            lockedpages           0          8        868        868          0
            privvmpages       94155     153917     250782     275860          0
            shmpages           9826      18018      25078      25078          0
            dummy                 0          0          0          0          0
            numproc              60        118        434        434          0
            physpages         28069      65505          0 2147483647          0
            vmguarpages           0          0     131072 2147483647          0
            oomguarpages      48029      83085     131072 2147483647          0
            numtcpsock           44        107        434        434          0
            numflock              6         42        694        763          0
            numpty                1          5         43         43          0
            numsiginfo            0         13       1024       1024          0
            tcpsndbuf         68348    1017116    4148094    5925758          0
            tcprcvbuf             0     367196    4148094    5925758          0
            othersockbuf     180032     606544    2074047    3851711          0
            dgramrcvbuf           0     435936    2074047    2074047          0
            numothersock        132        434        434        434        169
            dcachesize       808766     980102    3883246    3999744          0
            numfile            2140       4053       6944       6944          0
            dummy                 0          0          0          0          0
            dummy                 0          0          0          0          0
            dummy                 0          0          0          0          0
            numiptent            34         34        128        128          0
 
numfiles war in meinen Augen eine Notwendigkeit. Mein vServer lief bisher ohne Probleme bis am 4.12. An dem Tag hat S4Y etwas umgestellt, und von da an hatte ich zig "Too many open file ..." in meinen Logs.

Was mir beim vServer Basic dann auffiel ist eine grosse Diskrepanz, zwischen dem was lsof meldet und der Ausgabe von beancounters. Details im Thread:

Auf mein Trouble Ticket erhielt ich zwar die Antwort, ich solle auf ein höheres Produkt upgraden, aber am denselben Tag hatte S4Y die Limite angehoben. Ist mir auch recht.
 
Hi,

das numfile habe ich bei S4Y vSERVER BASIC, MEDIUM und MAX angehoben, ebenfalls bei allen NetFabrik Produkten. Es ist zwar in meinen Augen immer noch viel zu hoch (jedoch knallen fast 10% der Kunden an das Limit) Ursache dafuer ist in 90% der Faellen eine Fehlkonfiguartion und in 10% gehackte Kunden. Jedoch war das Erhoehen einfacher, als jeden Kunden bescheid zu sagen. ;)
 
Bei mir lag der Durchschnittswert bei einem frisch installiertem SuSE 9.3 Image schon bei ~1800.
Console offen (SSH) + eingehende Mail (Postfix mit Spamassassin & Antivir) = "Too many open files in system" - ohne irgendwas an der Grundkonfiguration geändert zu haben.

Was kann also der Konfigurationsfehler sein?

€:
Das läuft auf der Kiste:

ps aux
Code:
USER       PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
root         1  0.0  0.0    604   240 ?        Ss   Nov28   0:00 init [3]
root     24415  0.0  0.0   4312  1140 ?        Ss   Nov28   0:00 /usr/sbin/saslauthd -a pam -n 1
root     25633  0.0  0.0   4524   924 ?        Ss   Nov28   0:00 /usr/sbin/sshd -o PidFile=/var/run/sshd.init.pid
tss2     26130  0.0  0.0  99356  2456 ?        SNl  Nov28   1:00 /opt/tss2/server_linux -PID=ts2.pid
root     22292  0.0  0.0   1460   564 ?        Ss   Dec06   0:00 /sbin/syslogd -a /var/lib/named/dev/log -a /var/lib/ntp/dev/log
root     22297  0.0  0.0   1400   296 ?        Ss   Dec06   0:00 /sbin/klogd -c 1 -x -x
root      3735  0.0  0.0   2684  1008 ?        S    Dec06   0:00 /bin/sh /usr/bin/mysqld_safe --user=mysql --pid-file=/var/lib/mysql/mysqld.pid --socket=/var/
mysql     3781  0.0  0.0  11676  3964 ?        Sl   Dec06   0:03 /usr/sbin/mysqld --basedir=/usr --datadir=/var/lib/mysql --user=mysql --pid-file=/var/lib/mys
wwwrun   27712  0.0  0.0   5408  1600 ?        S    Dec06   0:00 /usr/sbin/lighttpd -f /etc/lighttpd/lighttpd.conf
wwwrun   27713  0.0  0.0  35984  4276 ?        Ss   Dec06   0:00 /usr/bin/php
wwwrun   27721  0.0  0.0  37236  7748 ?        S    Dec06   0:02 /usr/bin/php
wwwrun   27728  0.0  0.1  37048  9052 ?        S    Dec06   0:02 /usr/bin/php
root     31938  0.0  0.0   4308  1392 ?        Ss   Dec06   0:02 /usr/lib/postfix/master
postfix  31952  0.0  0.0   4388  1444 ?        S    Dec06   0:00 qmgr -l -t fifo -u
root     32084  0.0  0.0   2080   828 ?        Ss   Dec06   0:00 /usr/sbin/xinetd
postfix   7482  0.0  0.0   4352  1276 ?        S    Dec06   0:00 tlsmgr -l -t unix -u
postfix  26023  0.0  0.0   4352  1436 ?        S    17:38   0:00 pickup -l -t fifo -u
root      7412  0.0  0.0   7576  2408 ?        Ss   18:13   0:00 sshd: xxxx[priv]
1000      7576  0.0  0.0   7728  1576 ?        R    18:13   0:00 sshd: xxxx@pts/1
1000      7577  0.0  0.0   3408  1924 pts/1    Ss   18:13   0:00 -bash
root      7623  0.0  0.0   2720  1308 pts/1    S    18:13   0:00 su
root      7719  0.0  0.0   3264  2028 pts/1    S    18:13   0:00 bash
root     18131  0.0  0.0   2584   892 pts/1    R+   18:19   0:00 ps aux

top
Code:
top - 18:21:01 up 10 days, 19:18,  1 user,  load average: 0.00, 0.00, 0.00
Tasks:  27 total,   1 running,  26 sleeping,   0 stopped,   0 zombie
Cpu(s):  0.0% us,  0.0% sy,  0.0% ni, 99.8% id,  0.2% wa,  0.0% hi,  0.0% si
Mem:   8296512k total,  8185172k used,   111340k free,    24856k buffers
Swap: 16450520k total,  5823196k used, 10627324k free,   777380k cached

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND
    1 root      16   0   604  240  216 S  0.0  0.0   0:00.09 init
24415 root      16   0  4312 1140  828 S  0.0  0.0   0:00.50 saslauthd
25633 root      16   0  4524  924  716 S  0.0  0.0   0:00.46 sshd
26130 tss2      34  19 99356 2456 1128 S  0.0  0.0   1:00.08 server_linux
22292 root      16   0  1460  564  468 S  0.0  0.0   0:00.68 syslogd
22297 root      16   0  1400  296  288 S  0.0  0.0   0:00.00 klogd
 3735 root      16   0  2684 1008 1004 S  0.0  0.0   0:00.00 mysqld_safe
 3781 mysql     16   0 11676 3964 2700 S  0.0  0.0   0:03.13 mysqld
27712 wwwrun    16   0  5408 1600 1000 S  0.0  0.0   0:00.70 lighttpd
27713 wwwrun    19   0 35984 4276 4220 S  0.0  0.1   0:00.09 php
27721 wwwrun    15   0 37236 7748 5792 S  0.0  0.1   0:02.96 php
27723 wwwrun    16   0 36988 8744 6896 S  0.0  0.1   0:02.73 php
31938 root      16   0  4308 1392 1080 S  0.0  0.0   0:02.12 master
31952 postfix   15   0  4388 1444 1120 S  0.0  0.0   0:00.46 qmgr
32084 root      15   0  2080  828  664 S  0.0  0.0   0:00.02 xinetd
 7482 postfix   16   0  4352 1276 1104 S  0.0  0.0   0:00.16 tlsmgr
26023 postfix   16   0  4352 1436 1144 S  0.0  0.0   0:00.00 pickup
 7412 root      16   0  7576 2408 1924 S  0.0  0.0   0:00.03 sshd
 7576 xxxx      16   0  7728 1576 1072 S  0.0  0.0   0:00.04 sshd
 7577 xxxx      16   0  3408 1924 1416 S  0.0  0.0   0:00.03 bash
 7623 root      15   0  2720 1308  952 S  0.0  0.0   0:00.00 su
 7719 root      16   0  3264 2028 1488 S  0.0  0.0   0:00.03 bash
20225 root      15   0  1976  996  780 R  0.0  0.0   0:00.00 top
 
Last edited by a moderator:
in 10% gehackte Kunden.

Jetzt machst du mir grad mal Angst, nachdem ich ja bei mir diese grosse Diskrepanz zwischen lsof und beancounters habe. Wie kann ich herausfinden woran es liegt, das numfile so hoch ist?
Code:
sudo bash -c "cat /proc/user_beancounters| grep numfile; lsof | wc -l; netstat -an | wc -l"
            numfile            2179       2572       3008       3008      14354
1247
44
 
Hi,

ich denke einfach mal, das lsof eben nicht alles anzeigen kann/tut. Ich hab deinen anderen Forenbeitrag schon gelesen und hab mir das auch schon auf meine TODO gepackt das mal genauer nachzugucken und dann ggf. SWsoft zu geben. Das ist aber nicht wirklich eine Beeintraechtigung von daher ist das nicht so hoch priorisiert. :)

@Gisol: In der Standardinstallation mit SuSE 9.3 sind das weniger als 1800. Eventuell hast du vielleicht schon Postfaecher angelegt gehabt o. ae. Wirklich nur die Installation und danach ein SSH drauf sind keine 1800. Anyway, wir haben es ja erhoeht. ;)
 
Nachdem ich den Apachen mit Lighttpd ersetzt und Postfix seiner Spam- und Virenfiler beraubt habe, sah das ganze so aus wie von MRTG dargestellt (siehe Anhang, die Daten sind allerdings älter, Grün = held / Blau = failcnt)

Der größte "Brocken" ist bei mir nach wie vor Postfix (Ver. 2.3.4):
Code:
/ # openfiles
2087 (held)
1407 (failcnt)
10
numfile
/ # rcpostfix stop
Shutting down mail service (Postfix)                                 done
/ # openfiles
1502
1407
10
numfile
/# rcpostfix start
Starting mail service (Postfix)                                      done
/# openfiles
1951
1407
10
numfile
("openfiles" versorgt MRTG mit Daten)

Mir liegt nichts ferner als mich über mehr maximal mögliche offene Dateien / Sockets zu beschweren ;) mich würde nur interessieren, ob es eine Möglichkeit gibt, Postfix "schlanker" zu machen.
Achso, Postfächer existieren 6 Stück, irgendeine Art von Control Panel wird nicht eingesetzt.
 

Attachments

  • of.png
    of.png
    4 KB · Views: 100
Schau mal ob das hilft
 
Back
Top