Server teilweise lahm

nolimitek

Registered User
Hallo alles zusammen

Hab ein mittelschweres Problem.
Unser Server ist teilweise richtig lahm
Jetzt hab ich dem Support eine Mail geschrieben mit den beancounters

Momentan sieht dieses so aus

Code:
       uid  resource           held    maxheld    barrier      limit    failcnt
889218792:  kmemsize        5709381    8355738   37694577   41464034          0
            lockedpages           0          3         32         32          0
            privvmpages       80276      99998     327680     360448          0
            shmpages            649        665      92948      92948          0
            dummy                 0          0          0          0          0
            numproc              66        110        180        180         70
            physpages         41042      57563          0 2147483647          0
            vmguarpages           0          0     262144     262144          0
            oomguarpages      41042      57563     262144     262144          0
            numtcpsock           20         65        420        420          0
            numflock              6         39        300        300   23285165
            numpty                0          1         16         16          0
            numsiginfo            0         59        512        512          0
            tcpsndbuf        279360     643440    2020000    3180800          0
            tcprcvbuf        250716    1057088    2020000    3180800          0
            othersockbuf     139176     428680    2020000    3180800          0
            dgramrcvbuf           0      15548     159744     262144          0
            numothersock         93        155        420        420        358
            dcachesize      1160240    1229716    2205000    2305000          0
            numfile            3038       4543       6000       6000         90
            dummy                 0          0          0          0          0
            dummy                 0          0          0          0          0
            dummy                 0          0          0          0          0
            numiptent            10         10        128        128          0

Zurückbekommen hab ich folgendes Mail

da haben wir auch das Problem. Der Letzte Wert gibt die Fehlerrate an, der erste die aktuelle nutzung zwei und drei sind die Grenzwerte. Ich erde diese mal auf 300 für Sie erweitertn.

numflock 6 39 100 110 23285165

Warum haben Sie 23285165 Files im Lesezugriff bzw. locken diese?

Jetzt steht ich aber ehrlich gesagt an
Kann mir da jemand weiterhelfen was ich machen soll grübel grübel :eek:


vielen vielen dank im voraus

gruß Chris
 
Die Aussage vom Support ist etwas irreführend. Du hast nicht wirklich eine Applikation, die 23285165 Locks nutzt, sonder die Zahl gibt an wie oft alle Anwendungen zusammen versucht haben, mehr als 100 Locks gleichzeitig zu benutzen (was dann nicht geklappt hat).
Da der Support den Wert jetzt verdreifacht hat, solltest Du mal abwarten, ob es nicht jetzt besser geworden ist.
Wenn 300 gleichzeitige Locks nicht aussreichen, solltest Du mal schauen, woran das liegt. Kann es etwa sein, dass Dein Mailsystem kräftig ausgelastet ist? Was sagen 'top' und 'mailq' wenn es gerade wieder langsam geht?

Viele Grüße,
LinuxAdmin
 
top sagt im moment

Code:
Tasks:  40 total,   1 running,  39 sleeping,   0 stopped,   0 zombie
Cpu(s):  0.0% us,  0.0% sy,  0.0% ni, 100.0% id,  0.0% wa,  0.0% hi,  0.0% si
Mem:   1310720k total,   292632k used,  1018088k free,        0k buffers
Swap:        0k total,        0k used,        0k free,        0k cached

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND
    1 root      15   0  1588  516  452 S  0.0  0.0   0:00.08 init
28664 root      15   0  1636  540  440 S  0.0  0.0   0:00.19 syslogd
29696 bind      20   0 37872 2452 1628 S  0.0  0.2   0:00.00 named
29703 postgrey  15   0 10104 7784 2584 S  0.0  0.6   0:00.43 postgrey
29709 root      18   0  1756  384  316 S  0.0  0.0   0:00.00 courierlogger
29710 root      15   0  1876  516  420 S  0.0  0.0   0:00.00 authdaemond.pla
29711 root      18   0  2288  900  264 S  0.0  0.1   0:00.04 authdaemond.pla
29712 root      18   0  2288  900  264 S  0.0  0.1   0:00.02 authdaemond.pla
29713 root      16   0  2288  900  264 S  0.0  0.1   0:00.01 authdaemond.pla
29717 root      18   0  2288  900  264 S  0.0  0.1   0:00.03 authdaemond.pla
29718 root      18   0  2288  900  264 S  0.0  0.1   0:00.06 authdaemond.pla
29724 root      15   0  1860  488  416 S  0.0  0.0   0:00.01 couriertcpd
29726 root      18   0  1756  468  400 S  0.0  0.0   0:00.01 courierlogger
29732 root      18   0  1856  484  412 S  0.0  0.0   0:00.00 couriertcpd
29734 root      18   0  1628  308  248 S  0.0  0.0   0:00.00 courierlogger
29770 root      20   0  2588 1240 1016 S  0.0  0.1   0:00.00 mysqld_safe
29807 root      20   0  2588  568  344 S  0.0  0.0   0:00.00 mysqld_safe
29808 mysql     17   0  123m  28m 3464 S  0.0  2.2   5:53.40 mysqld
29809 root      18   0  1572  504  440 S  0.0  0.0   0:00.00 logger
29948 root      18   0  3048 1176  988 S  0.0  0.1   0:00.22 master
29950 postfix   15   0  3092 1256 1048 S  0.0  0.1   0:00.03 qmgr
29958 root      18   0  3548  896  660 S  0.0  0.1   0:00.00 sshd
29963 root      18   0  1576  376  316 S  0.0  0.0   0:00.00 vhcs2_daemon
29976 nobody    18   0  4644 1292  600 S  0.0  0.1   0:00.00 proftpd
29979 root      18   0  1824  740  604 S  0.0  0.1   0:00.00 cron
29996 root      18   0 14536 4736 3072 S  0.0  0.4   0:00.02 apache2
 8022 postfix   15   0  3056 1212 1024 S  0.0  0.1   0:00.00 pickup
10181 www-data  15   0 24724  14m 3352 S  0.0  1.2   0:14.37 apache2
14313 www-data  18   0 25380  15m 3724 S  0.0  1.2   0:12.97 apache2
15422 www-data  16   0 25260  15m 3804 S  0.0  1.2   0:12.79 apache2
13491 www-data  15   0 24788  14m 3328 S  0.0  1.2   0:06.46 apache2
20262 www-data  18   0 23128  13m 3344 S  0.0  1.0   0:03.18 apache2
20293 www-data  15   0 18380 8900 3388 S  0.0  0.7   0:03.25 apache2
22008 www-data  16   0 23508  13m 3380 S  0.0  1.1   0:04.06 apache2
26284 www-data  15   0 18788 9280 3308 S  0.0  0.7   0:02.18 apache2
30173 www-data  15   0 17376 7852 3292 S  0.0  0.6   0:01.30 apache2
30174 www-data  15   0 23904  14m 3332 S  0.0  1.1   0:01.43 apache2
 1704 root      18   0 14684 1808 1436 S  0.0  0.1   0:00.00 sshd
 1735 root      15   0  2680 1484 1152 S  0.0  0.1   0:00.00 bash
 1745 root      18   0  2136 1056  836 R  0.0  0.1   0:00.00 top

mailq sagt

Mail queue is empty

also alles im grünen bereich sag ich mal
 
sind einige Werte die nicht zum zugesagten RAM passen. Hab nur 89000 privvmpages aber im Verhältnis fast überall höhere Werte.

numproc z.B. hab ich 240
 
mal ne frage wo oder wie kann ich herausfinden was die ursache für die 23285165 locks ist ??


vielen dank

gruß Chris
 
Ähm danke aber das hat mir jetzt nicht sehr weitergeholfen :confused:

Evtl. eine Idee wie ich nachvollziehen kann was dran schuld ist das der Numflock so hoch ist
 
das Programm 'lsof' kann Dir u.a. die gerade verwendeten Locks anzeigen.

Wurden die 300 gleichzeitig möglichen Locks denn schon ausgeschöpft? Wenn sich der Wert in der letzte Spalte der UBC nicht erhöht hat, ist doch alles im grünen Bereich.

Viele Grüße,
LinuxAdmin
 
Back
Top