vServer immer zu 90% ausgelastet!

  • Thread starter Thread starter zwelch82
  • Start date Start date
Z

zwelch82

Guest
Hallo!
Ich habe seit einer Woche nen vServer von 1&1 (Virtual Server L).

Im Virtuozzo-PowerPanel kann man ja unter Resourcen die CPU-Auslastung, System-Usage usw. anschauen. CPU-Auslastung ist bei mir auch meistens auf 0%. Aber die System-Usage ist immer bei mind. 80% und das ist schon sehr komisch, das ich nur ein kleines Forum und ne statische Homepage drauf hab.

Sowas darf doch nicht sein. Die System-Usage sollte da höchstens bei 30% sein.

Kann mir da vielleicht jemand helfen oder nen Tipp geben?

Das wäre super.
Danke.
 
Ich würde df -h und free - m oder -g machen. Ich persönlich lese lieber Zahlen in Einheiten bei die ich im Kopf umrechnen kann. Und man kann sie besser in Relation setzen.
 
ok hier die Daten:

df:
Code:
Filesystem           1K-blocks      Used Available Use% Mounted on
vzfs                  10000000    329308   9670692   4% /
tmpfs                  2064260         0   2064260   0% /dev/shm


ps aux:
Code:
USER       PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
root         1  0.0  0.0    604   244 ?        Ss   Feb12   0:02 init
root     29692  0.0  0.0   1456   640 ?        Ss   Feb12   0:00 /sbin/syslogd -
root     29698  0.0  0.0   3984  1044 ?        Ss   Feb12   0:00 /usr/sbin/sasla
root     29699  0.0  0.0   3984  1040 ?        S    Feb12   0:00 /usr/sbin/sasla
root     29714  0.0  0.0   4788  1824 ?        Ss   Feb12   0:00 /usr/sbin/sshd
root     29720  0.0  0.0   2076   928 ?        Ss   Feb12   0:00 /usr/sbin/xinet
named    29767  0.0  0.0  12060  3012 ?        Ss   Feb12   0:00 /usr/sbin/named
named    29768  0.0  0.0  12060  3012 ?        S    Feb12   0:00 /usr/sbin/named
named    29769  0.0  0.0  12060  3012 ?        S    Feb12   0:00 /usr/sbin/named
named    29770  0.0  0.0  12060  3012 ?        S    Feb12   0:00 /usr/sbin/named
named    29771  0.0  0.0  12060  3012 ?        S    Feb12   0:00 /usr/sbin/named
root     29782  0.0  0.0   2372  1132 ?        S    Feb12   0:00 /bin/sh /usr/bi
mysql    29816  0.0  0.5  59872 21940 ?        S    Feb12   0:00 /usr/sbin/mysql
mysql    29817  0.0  0.5  59872 21940 ?        S    Feb12   0:00 /usr/sbin/mysql
mysql    29818  0.0  0.5  59872 21940 ?        S    Feb12   0:00 /usr/sbin/mysql
mysql    29819  0.0  0.5  59872 21940 ?        S    Feb12   0:00 /usr/sbin/mysql
mysql    29820  0.0  0.5  59872 21940 ?        S    Feb12   0:00 /usr/sbin/mysql
mysql    29821  0.0  0.5  59872 21940 ?        S    Feb12   0:00 /usr/sbin/mysql
mysql    29822  0.0  0.5  59872 21940 ?        S    Feb12   0:12 /usr/sbin/mysql
mysql    29823  0.0  0.5  59872 21940 ?        S    Feb12   0:12 /usr/sbin/mysql
mysql    29824  0.0  0.5  59872 21940 ?        S    Feb12   0:00 /usr/sbin/mysql
mysql    29825  0.0  0.5  59872 21940 ?        S    Feb12   0:00 /usr/sbin/mysql
qmails   29829  0.0  0.0   1436   376 ?        S    Feb12   0:00 qmail-send
qmaill   29831  0.0  0.0   1392   448 ?        S    Feb12   0:00 splogger qmail
root     29832  0.0  0.0   1392   332 ?        S    Feb12   0:00 qmail-lspawn ./
qmailr   29833  0.0  0.0   1388   328 ?        S    Feb12   0:00 qmail-rspawn
qmailq   29834  0.0  0.0   1380   316 ?        S    Feb12   0:00 qmail-clean
root     29874  0.0  0.3  29608 12872 ?        Ss   Feb12   0:01 /usr/sbin/httpd
root     29886  0.0  0.1  48044  5444 ?        Ss   Feb12   0:01 /usr/local/psa/
root     29943  0.0  0.0   1668   752 ?        Ss   Feb12   0:00 /usr/sbin/cron
psaadm    6764  0.0  0.3  50372 14216 ?        S    13:42   0:00 /usr/local/psa/
psaadm    6774  0.0  0.3  50276 13464 ?        S    13:43   0:00 /usr/local/psa/
wwwrun   18932  0.0  0.4  36420 20552 ?        S    16:49   0:02 /usr/sbin/httpd
wwwrun   24140  0.0  0.4  34544 18604 ?        S    20:05   0:00 /usr/sbin/httpd
wwwrun   24142  0.0  0.4  33376 17408 ?        S    20:05   0:00 /usr/sbin/httpd
wwwrun   24143  0.0  0.4  35128 19208 ?        S    20:05   0:00 /usr/sbin/httpd
wwwrun   24164  0.0  0.4  35116 19244 ?        S    20:05   0:00 /usr/sbin/httpd
root     21581  0.0  0.0   7856  2472 ?        Ss   20:40   0:00 sshd: root@pts/
root     21649  0.0  0.0   2700  1716 pts/0    Ss   20:40   0:00 -bash
root     22380  0.0  0.0   2380   832 pts/0    R+   20:43   0:00 ps aux


free:
Code:
                     total       used       free     shared    buffers     cached
Mem:       4128520    4015712     112808          0     797384    1540016
-/+ buffers/cache:    1678312    2450208
Swap:     10241016     444644    9796372


cat /proc/user_beancounters:
Code:
Version: 2.5
       uid  resource           held    maxheld    barrier      limit    failcnt
  39760758: kmemsize        2645876    2650061   12451840   13697024          0
            lockedpages           0          0        256        256          0
            privvmpages       42458      42479      49152      49664          1
            shmpages           8864       8864      21504      21504          0
            dummy                 0          0          0          0          0
            numproc              40         40         64         64          0
            physpages         18032      18038 2147483647 2147483647          0
            vmguarpages           0          0      32768 2147483647          0
            oomguarpages      20325      20331      32768 2147483647          0
            numtcpsock           15         15        360        360          0
            numflock              8          8        188        206          0
            numpty                1          1         16         16          0
            numsiginfo            0          0        256        256          0
            tcpsndbuf          4440       8880    1720320    2703360          0
            tcprcvbuf             0        428    1720320    2703360          0
            othersockbuf      15540      15540    1126080    2097152          0
            dgramrcvbuf           0          0     262144     288358          0
            numothersock         14         14        360        360          0
            dcachesize       287077     290305    2273280    2500608          0
            numfile             713        714       5820       5820          0
            dummy                 0          0          0          0          0
            dummy                 0          0          0          0          0
            dummy                 0          0          0          0          0
            numiptent            10         10        100        100          0


top:
Code:
top - 20:46:09 up 1 day, 32 min,  1 user,  load average: 0.00, 0.01, 0.00
Tasks:  40 total,   1 running,  39 sleeping,   0 stopped,   0 zombie
Cpu(s):   0.0% user,   1.3% system,   0.0% nice,  98.7% idle
Mem:   4128520k total,  4016708k used,   111812k free,   797388k buffers
Swap: 10241016k total,   444644k used,  9796372k free,  1540100k cached

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND
23439 root      17   0  1048 1048  824 R  0.4  0.0   0:00.03 top
    1 root       9   0   244  244  216 S  0.0  0.0   0:02.94 init
29692 root       9   0   640  640  544 S  0.0  0.0   0:00.27 syslogd
29698 root       9   0  1168 1044 1024 S  0.0  0.0   0:00.01 saslauthd
29699 root       9   0  1168 1040 1020 S  0.0  0.0   0:00.00 saslauthd
29714 root       9   0  1964 1824 1596 S  0.0  0.0   0:00.93 sshd
29720 root       9   0   948  928  776 S  0.0  0.0   0:00.02 xinetd
29767 named      9   0  3156 3012 2308 S  0.0  0.1   0:00.00 named
29768 named      9   0  3156 3012 2308 S  0.0  0.1   0:00.54 named
29769 named      9   0  3156 3012 2308 S  0.0  0.1   0:00.14 named
29770 named      9   0  3156 3012 2308 S  0.0  0.1   0:00.33 named
29771 named      9   0  3156 3012 2308 S  0.0  0.1   0:00.00 named
29782 root       9   0  1140 1132  928 S  0.0  0.0   0:00.00 mysqld_safe
29816 mysql      9   0 21944  21m 4512 S  0.0  0.5   0:00.20 mysqld
29817 mysql      8   0 21944  21m 4512 S  0.0  0.5   0:00.73 mysqld
29818 mysql      9   0 21944  21m 4512 S  0.0  0.5   0:00.00 mysqld
29819 mysql      9   0 21944  21m 4512 S  0.0  0.5   0:00.00 mysqld
29820 mysql      9   0 21944  21m 4512 S  0.0  0.5   0:00.00 mysqld
29821 mysql      9   0 21944  21m 4512 S  0.0  0.5   0:00.00 mysqld
29822 mysql     16   0 21944  21m 4512 S  0.0  0.5   0:12.29 mysqld
29823 mysql     19   0 21944  21m 4512 S  0.0  0.5   0:12.19 mysqld
29824 mysql      9   0 21944  21m 4512 S  0.0  0.5   0:00.04 mysqld
29825 mysql      9   0 21944  21m 4512 S  0.0  0.5   0:00.45 mysqld
29829 qmails     9   0   376  376  304 S  0.0  0.0   0:00.10 qmail-send
29831 qmaill     9   0   448  448  388 S  0.0  0.0   0:00.00 splogger
29832 root       9   0   332  332  252 S  0.0  0.0   0:00.00 qmail-lspawn
29833 qmailr     9   0   328  328  248 S  0.0  0.0   0:00.00 qmail-rspawn
29834 qmailq     9   0   316  316  268 S  0.0  0.0   0:00.00 qmail-clean
29874 root       9   0 13312  12m  11m S  0.0  0.3   0:01.90 httpd2-prefork
29886 root       9   0  5740 5444 4780 S  0.0  0.1   0:01.11 httpsd
29943 root       0   0   760  752  644 S  0.0  0.0   0:00.54 cron
 6764 psaadm     9   0 14508  13m  10m S  0.0  0.3   0:00.36 httpsd
 6774 psaadm     9   0 13756  13m  10m S  0.0  0.3   0:00.11 httpsd
18932 wwwrun     9   0 20988  20m  12m S  0.0  0.5   0:02.01 httpd2-prefork
24140 wwwrun     9   0 19040  18m  12m S  0.0  0.5   0:00.44 httpd2-prefork
24142 wwwrun     9   0 17844  17m  12m S  0.0  0.4   0:00.60 httpd2-prefork
24143 wwwrun     9   0 19644  18m  12m S  0.0  0.5   0:00.73 httpd2-prefork
24164 wwwrun     9   0 19680  18m  12m S  0.0  0.5   0:00.90 httpd2-prefork
21581 root      10   0  2480 2476 1984 S  0.0  0.1   0:00.06 sshd
21649 root      15   0  1716 1716 1272 S  0.0  0.0   0:00.04 bash
 
Ich habe auch schon herausgefunden, dass es an der Limitierung "privvmpages" liegt.

Habe mal 2 Screenshot angehängt.
 

Attachments

  • virtuozzo_res.jpg
    virtuozzo_res.jpg
    136.4 KB · Views: 1,358
  • virtuozzo_res_ext.jpg
    virtuozzo_res_ext.jpg
    114.2 KB · Views: 923
Noch ein Screenshot!

So schaut die Anzeige normalerweise aus.......
 

Attachments

  • virt_res_x.jpg
    virt_res_x.jpg
    97.3 KB · Views: 933
Ich habe gerade vom 1&1-Server-Support eine Nachricht bzgl. dieses Themas bekommen.

Die verlangen doch allen Ernstes von mir, dass ich Plesk beenden soll, damit die Resourcen-Auslastung niedriger wird. :mad:

Da sag ich nur: Wenn Plesk zu viel Resourcen für einen vServer frisst, dann soll sie es doch bitte nicht mit anbieten!
 
Schöne Idee. Das läuft so nach dem Motto:

"Mein Auto frisst zu viel Spritt - Tja dann montieren Sie doch die Reifen ab"
 
*löööööööööl* geile Support Aussage :p - wär was für ne Signatur ;)


Aber im Ernst, neues Ticket aufmachen - diese lächerliche Aussage reinschreiben und fargen ob sie auch jemanden haben der Ahnugn hat und nciht nur den Kunden abwimmeln möchte...
 
Nach meiner 6. E-Mail bzgl. meines Problems und ca. 5 Versuchen seitens 1&1 mich abzuwimmeln, habe ich es nun endlich geschafft, dass ein Support-Mitarbeiter sich mal das Virtuozzo-PowerPanel meines vServers anschaut.

Ich hoffe, dass dieser mir nun auch weiterhelfen kann. Ganz glauben kann ich es aber noch nicht.

Mal abwarten.
 
also ich muss leider sagen, dass du nicht der einzige bist bei dem das so zu sein scheint...

ich administriere "aushilfsweise" den Server von einem Freund, weil der momentan keine Zeit hat.. zum einen find ich Plesk einfach schlecht (im vergleich zu Confixx, das auch nicht perfekt ist, aber das ist ein anderes Thema) ... und desweiteren komm ich teilweise nicht mehr in die Konfiguration von einzelnen Domains und so Späßchen.. und auf dem Server läuft nichts... außer vielleicht ein kleiner Teamspeak-Server.. kann aber ja nicht deswegen sein...

ansonsten hoffe ich mal dass 1&1 für dich (und damit hoffentlich auch für andere) eine Lösung findet...
 
Last edited by a moderator:
Heute morgen war die Auslastung bei über 100%. :mad:

-> MySQL ging nicht mehr und somit mein Forum auch nicht.

Solange 1&1 das nicht hinbekommt, sehen die keinen Cent von mir.
 
Ich habe testweise auch einen vServer L von 1&1. Um den Server vernüftigt zum Laufen zu kriegen, sollte man die "pregeforkten" Apache-Prozesse durch Anpassen der /etc/apache2/server-tuning.conf reduzieren, sieht dann so aus:
Code:
        # number of server processes to start
        StartServers         1
        # minimum number of server processes which are kept spare
        MinSpareServers      1
        # maximum number of server processes which are kept spare
        MaxSpareServers      3
Ausserdem den Speicherverbrauch von mysql durch folgende Änderungen in /etc/my.cnf reduzieren:
Code:
[mysqld]
port            = 3306
socket          = /var/lib/mysql/mysql.sock
skip-locking
key_buffer = 2M
max_allowed_packet = 1M
table_cache = 64
sort_buffer_size = 512K
net_buffer_length = 8K
read_buffer_size = 256K
read_rnd_buffer_size = 512K
myisam_sort_buffer_size = 4M
Mit diesen Änderungen läuft der Server bei mir ordentlich und privvmpages bleibt im grünen Bereich, trotz laufendem Plesk.

Edit: Nach den Änderungen müssen Apache und MySQL natürlich neugestartet werden.

MOD : CODE Tage eingefügt.
 
Last edited by a moderator:
FPK said:
read_rnd_buffer_size = 512K
Den Parameter kennt MySQL (laut Doku) nicht.
Du meinst bestimmt "record_rnd_buffer_size".

/EDIT:
Upps, sorry, falsche Doku erwischt. Doch die Variable gibt es seit Version 4.0.

huschi.
 
Last edited by a moderator:
Ok, habe noch ein bisschen gespielt und auf eine Typo3-Site auf dem vServer wget -m von zwei Root-Servern drauflosgelassen.

Mit
Code:
         # number of server processes to start
        StartServers         1
        # minimum number of server processes which are kept spare
        MinSpareServers      1
        # maximum number of server processes which are kept spare
        MaxSpareServers      2
        # highest possible MaxClients setting for the lifetime of the Apache process.
        ServerLimit        150
        # maximum number of server processes allowed to start
        MaxClients          5
        # maximum number of requests a server process serves
        MaxRequestsPerChild  0
steckt der vServer das weg bzw. CPU-Usage und System-Usage gehen gleichzeitig in den gelben/roten Bereich, bleiben aber noch unter 100%, damit sollte das Maximum rausgeholt sein.

MOD : CODE Tage eingefügt.
 
Last edited by a moderator:
Jetzt weiß ich auch, warum man bei 1&1 solche Resourcen-Probs hat.

Wie schon erwähnt habe ich den Virtual-Server L.
Der hat ca. 49152 (Soft-Limit) bzw. 49664 (Hard-Limit) bei dem Parameter "privvmpages".

Da mir dies etwas wenig vorkam, wollte ich mal herausfinden, wie andere Hoster diesen Parameter verteilen.
So, z.B. Host Europe gibt seinen Kunden beim kleinsten vServer (ebenfalls ca. 10€) 365,964 (Soft-Limit) bzw. 402,560 (Hard-Limit). Das ist ca. 8mal so viel.

Das muss 1&1 unbedingt nachbessern!!!!!!!!
1&1 kann ja nicht von den Usern verlangen, dass sie, wie FPK vorher netterweise erklärt hat, Änderungen am System vornehmen müssen, damit der vServer richtig läuft.
 

Attachments

  • plesk.JPG
    plesk.JPG
    113.2 KB · Views: 353
Last edited by a moderator:
@ FPK Vielen Dank für diesen Hinweis. Trotzdem bin ich der Meinung, dass es nicht Aufgabe der Kunden sein kann, den Ausgangsserver umzukonfigurieren, um ihn rudimentär zum Laufen zu bekommen....

Ich finde da muss 1&1 dringend etwas dran ändern!
 
Back
Top