Aller au contenu

Sujets conseillés

Posté

Salut,

J'ai actuellement un dédié chez sivit dont je suis content. Il s'agit d'un celeron 1,8 avec 512 de ram. Dessus, il y a une bonne douzaine de sites de trafic variable dont un avec pas mal de downloads dessus (peut-etre un indice).

Depuis quelques temps j'ai un swap moyen vraiment élévé. Voici un top pris à l'instant :

11:35:33 up 1 day, 13:01, 1 user, load average: 0.17, 0.13, 0.05

102 processes: 100 sleeping, 1 running, 1 zombie, 0 stopped

CPU states: 0.6% user, 2.2% system, 0.0% nice, 97.2% idle

Mem: 513156K total, 506576K used, 6580K free, 6156K buffers

Swap: 514040K total, 103416K used, 410624K free, 412260K cached

au pire du phénomène j'ai ça (envoyé par le script sys_alive) :

04:20:03 up 1 day, 5:45, 0 users, load average: 0.73, 0.69, 0.37

175 processes: 170 sleeping, 3 running, 2 zombie, 0 stopped

CPU states: 4.0% user, 1.5% system, 0.0% nice, 94.4% idle

Mem: 513156K total, 508592K used, 4564K free, 5264K buffers

Swap: 514040K total, 132380K used, 381660K free, 397952K cached

Je reboot régulierement mais rien n'y fait. J'ai essayé de modifié la conf apache en reprenant des parametres trouvé sur ce forum mais sans plus de succes.

Après au niveau utilisation je n'ai pas l'impression de gros ralentissements ou autres mais bon...

Donc si quelqu'un à quelques conseils à prodiguer ça serait merveilleux !

Posté

A mon avis tu dos avoir trop de process httpd qui sont lancés. Et ils bouffent la mémoire.

Relances Apache, et regardes ce que cela libère comme swap. Parce que 130Mb de swap, c'est beaucoup.

Dan

Posté

Je viens de carrement stopper apache et c'est pas beaucoup mieux :

12:14:11 up 1 day, 13:39, 1 user, load average: 0.03, 0.07, 0.05

110 processes: 108 sleeping, 1 running, 1 zombie, 0 stopped

CPU states: 3.8% user, 1.4% system, 0.0% nice, 94.7% idle

Mem: 513156K total, 502292K used, 10864K free, 7960K buffers

Swap: 514040K total, 95828K used, 418212K free, 405452K cached

voici le ps aux :

USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND

root 1 0.0 0.0 1272 436 ? S Jun02 0:09 init [3]

root 2 0.0 0.0 0 0 ? SW Jun02 0:00 [keventd]

root 3 0.0 0.0 0 0 ? SWN Jun02 0:00 [ksoftirqd_CPU0]

root 4 0.0 0.0 0 0 ? SW Jun02 0:50 [kswapd]

root 5 0.0 0.0 0 0 ? SW Jun02 0:00 [bdflush]

root 6 0.0 0.0 0 0 ? SW Jun02 0:02 [kupdated]

root 10 0.0 0.0 0 0 ? SW Jun02 0:00 [i2oevtd]

root 11 0.0 0.0 0 0 ? SW Jun02 0:05 [kjournald]

root 81 0.0 0.0 0 0 ? SW Jun02 0:00 [kjournald]

root 82 0.0 0.0 0 0 ? SW Jun02 0:04 [kjournald]

root 83 0.0 0.0 0 0 ? SW Jun02 0:04 [kjournald]

daemon 116 0.0 0.0 1384 328 ? S Jun02 0:00 /sbin/portmap

root 243 0.0 0.1 2036 704 ? S Jun02 0:03 /sbin/syslogd

root 246 0.0 0.0 2144 392 ? S Jun02 0:00 /sbin/klogd

root 250 0.0 0.6 11916 3300 ? S Jun02 0:00 /usr/sbin/named

root 252 0.0 0.6 11916 3300 ? S Jun02 0:01 /usr/sbin/named

root 253 0.0 0.6 11916 3300 ? S Jun02 0:18 /usr/sbin/named

root 255 0.0 0.6 11916 3300 ? S Jun02 0:00 /usr/sbin/named

root 256 0.0 0.6 11916 3300 ? S Jun02 0:03 /usr/sbin/named

root 257 0.0 0.1 10252 832 ? S Jun02 0:00 /usr/sbin/lwresd

root 258 0.0 0.1 10252 832 ? S Jun02 0:01 /usr/sbin/lwresd

root 259 0.0 0.1 10252 832 ? S Jun02 0:00 /usr/sbin/lwresd

root 260 0.0 0.1 10252 832 ? S Jun02 0:00 /usr/sbin/lwresd

root 261 0.0 0.1 10252 832 ? S Jun02 0:00 /usr/sbin/lwresd

root 268 0.0 0.1 1524 608 ? S Jun02 0:00 /sbin/rpc.statd

root 275 0.0 0.0 1560 408 ? S Jun02 0:00 /usr/lib/courier/authlib/authdaemond.plain start

root 276 0.0 0.0 1560 408 ? S Jun02 0:00 /usr/lib/courier/authlib/authdaemond.plain start

root 277 0.0 0.0 1560 408 ? S Jun02 0:00 /usr/lib/courier/authlib/authdaemond.plain start

root 278 0.0 0.0 1560 408 ? S Jun02 0:00 /usr/lib/courier/authlib/authdaemond.plain start

root 279 0.0 0.0 1560 408 ? S Jun02 0:00 /usr/lib/courier/authlib/authdaemond.plain start

root 280 0.0 0.0 1560 408 ? S Jun02 0:00 /usr/lib/courier/authlib/authdaemond.plain start

root 302 0.0 0.1 2228 592 ? S Jun02 0:00 /usr/sbin/couriertcpd -address=0 -stderrlogger=/usr/sbin/courie

root 306 0.0 0.0 1424 264 ? S Jun02 0:00 /usr/sbin/courierlogger imapd-ssl

root 310 0.0 0.1 1988 612 ? S Jun02 0:00 /usr/sbin/inetd

root 317 0.0 0.1 2784 676 ? S Jun02 0:01 /usr/sbin/sshd

root 332 0.0 0.3 1968 1960 ? SL Jun02 0:04 /usr/sbin/ntpd

root 338 0.0 0.1 1652 648 ? S Jun02 0:00 /usr/sbin/cron

qscand 368 0.0 1.4 16324 7220 ? S Jun02 0:00 /usr/sbin/clamd

root 371 0.0 0.1 1740 576 ? S Jun02 0:00 pure-ftpd (SERVER)

spamd 378 0.0 0.3 21168 1572 ? S Jun02 0:00 /usr/local/bin/spamd -x -u spamd -H /home/spamd -d --pidfile=/v

spamd 381 0.0 2.8 24140 14528 ? S Jun02 0:24 spamd child

spamd 382 0.0 2.7 23424 13876 ? S Jun02 0:18 spamd child

spamd 383 0.0 2.7 22920 13856 ? S Jun02 0:19 spamd child

spamd 384 0.0 2.7 23520 14200 ? S Jun02 0:19 spamd child

spamd 385 0.0 2.7 24120 14288 ? S Jun02 0:23 spamd child

root 386 0.0 0.4 7380 2180 ? S Jun02 0:03 /usr/bin/perl /usr/local/webmin-1.190/miniserv.pl /etc/webmin/m

root 387 0.0 0.0 1252 400 tty1 S Jun02 0:00 /sbin/getty 38400 tty1

root 388 0.0 0.0 1252 400 tty2 S Jun02 0:00 /sbin/getty 38400 tty2

root 389 0.0 0.0 1252 400 tty3 S Jun02 0:00 /sbin/getty 38400 tty3

root 390 0.0 0.0 1252 400 tty4 S Jun02 0:00 /sbin/getty 38400 tty4

root 391 0.0 0.0 1252 400 tty5 S Jun02 0:00 /sbin/getty 38400 tty5

root 392 0.0 0.0 1252 400 tty6 S Jun02 0:00 /sbin/getty 38400 tty6

root 393 0.0 0.1 2168 884 ? S Jun02 0:00 /bin/sh /command/svscanboot

root 395 0.0 0.0 1276 304 ? S Jun02 0:03 svscan /service

root 396 0.0 0.0 1236 208 ? S Jun02 0:00 readproctitle service errors: .................................

root 398 0.0 0.0 1240 260 ? S Jun02 0:00 supervise log

root 399 0.0 0.0 1240 260 ? S Jun02 0:00 supervise qmail-smtpd

root 400 0.0 0.0 1240 260 ? S Jun02 0:00 supervise log

root 401 0.0 0.0 1240 260 ? S Jun02 0:00 supervise qmail-pop3d

root 402 0.0 0.0 1240 260 ? S Jun02 0:00 supervise log

qmaill 406 0.0 0.0 1256 304 ? S Jun02 0:00 multilog t s100000 n20 /var/log/qmail/qmail-smtpd

qmaill 410 0.0 0.0 1256 320 ? S Jun02 0:01 multilog t s100000 n20 /var/log/qmail/qmail-pop3d

qscand 550 0.0 1.4 16324 7220 ? S Jun02 0:01 /usr/sbin/clamd

qmaill 9737 0.0 0.0 1256 320 ? S Jun03 0:00 multilog t s100000 n20 /var/log/qmail/qmail-send

root 9749 0.0 0.0 1240 260 ? S Jun03 0:00 supervise qmail-send

qmails 9750 0.0 0.0 1324 432 ? S Jun03 0:00 qmail-send

root 9752 0.0 0.0 1256 276 ? S Jun03 0:00 qmail-lspawn ./Maildir

qmailr 9753 0.0 0.0 1256 300 ? S Jun03 0:00 qmail-rspawn

qmailq 9754 0.0 0.0 1244 304 ? S Jun03 0:00 qmail-clean

root 9835 0.0 0.1 2228 592 ? S Jun03 0:00 /usr/sbin/couriertcpd -address=0 -stderrlogger=/usr/sbin/courie

root 9838 0.0 0.0 1436 372 ? S Jun03 0:00 /usr/sbin/courierlogger imaplogin

root 15920 0.0 0.0 1268 272 ? S 01:01 0:00 tcpserver -H -R -v -c100 0 110 qmail-popup antislash.org /home/

vpopmail 15921 0.0 0.1 2000 628 ? S 01:01 0:00 /usr/local/bin/tcpserver -v -R -l antislash.org -x /etc/tcp.smt

root 22968 0.0 0.1 1760 672 ? S 04:01 0:00 /USR/SBIN/CRON

root 22969 0.0 0.0 0 0 ? Z 04:01 0:00 [sys_alive.pl <defunct>]

root 22978 0.0 0.1 2052 784 ? S 04:01 0:00 /bin/sh ./bin/safe_mysqld --datadir=/home/mysql-data --pid-file

mysql 22996 0.0 0.5 11308 2820 ? S 04:01 0:00 /usr/local/mysql/bin/mysqld --defaults-extra-file=/usr/local/my

mysql 22998 0.0 0.5 11308 2820 ? S 04:01 0:00 /usr/local/mysql/bin/mysqld --defaults-extra-file=/usr/local/my

mysql 22999 0.0 0.5 11308 2820 ? S 04:01 0:00 /usr/local/mysql/bin/mysqld --defaults-extra-file=/usr/local/my

root 9160 0.0 0.3 6504 1820 ? S 12:07 0:00 /usr/sbin/sshd

root 9170 0.0 0.2 2228 1264 pts/0 S 12:08 0:00 -bash

qscand 9706 0.1 1.4 16324 7220 ? S 12:15 0:00 /usr/sbin/clamd

root 9721 0.0 0.3 3680 1760 pts/0 R 12:16 0:00 ps aux

:angry:

Posté

Tu as beaucoup de volume mail entrant ? Parce que spamd configuré pour lancer 5 childs me semble trop.

Chaque process comsomme environ 23Mb dont 14Mb en résident. :)

Dan

Posté

Ah ok. Non je n'ai pas beaucoup de trafic de mails. Par contre je cherche, je cherche mais je ne trouve pas où on change le nombre de démons spamd lancés... :blush:

Posté

Non mais là, j'abuse dans la bétise... Je cherche sur le net au lieu de faire un bete man spamd...

je rajoute l'option pour voir...

Posté

Tu dois avoir ce nombre dans le script qui lance spamd (etc/init.d/spamassassin probablement).

Posté

bon apparemment c'etait bien spamassassin le pb puisque rien qu'en le redémarrant je suis retombé à :

12:56:30 up 1 day, 14:21, 1 user, load average: 0.13, 0.22, 0.15

107 processes: 105 sleeping, 1 running, 1 zombie, 0 stopped

CPU states: 0.6% user, 1.4% system, 0.0% nice, 98.0% idle

Mem: 513156K total, 508640K used, 4516K free, 7024K buffers

Swap: 514040K total, 34548K used, 479492K free, 434408K cached

j'ai rajouté l'option "-m 2" à ma ligne de lancement spamassassin pour ne permettre le lancement que de 2 "childs" et on verra bien sur la longueur.

En tout cas merci Dan pour avoir interprété mon ps aux !

Je suis un peu deg de pas pouvoir prendre ton support dédié étant chez sivit et pas chez ovh ! :(

Par contre est-ce que tu ne fais pas des audits de dédiés par hasard (facturés bien sûr) ? Par exemple dans mon cas, tu observerais, et tu me dirais, il faut faire ça, ça et ça, mettre à jour ça, installer ça etc... Jusqu'à présent j'ai réussi à me débrouiller seul pour installer et configurer mais là je crois que j'arrive à un certain seuil...

Encore merci ++

Posté

Pas de quoi :!:

Il est vrai que pour interpréter un simple "ps aux" , l'expérience parle ;)

Ce n'est pas toujours aussi simple.

Un truc, dans un "ps aux", regardes toujours la colonne RSS ... elle te donne une idée de la RAM résidente utilisée. Il est facile de poser des conclusions ensuite ;)

Je n'ai pas développé d'outils, autres que ceux que j'utilise sur des serveurs OVH. Il faudrait que je pense à les rendre "open-source" ...

Dan

Posté

ô grand maitre des admins réseau je sollicite à nouveau ton aide :

Alors que toute la journée ça a été voici mon top de ce soir :

 20:09:24 up 1 day, 21:34,  1 user,  load average: 0.23, 0.39, 0.28
126 processes: 121 sleeping, 4 running, 1 zombie, 0 stopped
CPU states:  12.9% user,   4.6% system,   0.0% nice,  82.5% idle
Mem:    513156K total,   502628K used,    10528K free,     5328K buffers
Swap:   514040K total,    79228K used,   434812K free,   441548K cached

 PID USER     PRI  NI  SIZE  RSS SHARE STAT %CPU %MEM   TIME COMMAND
27998 webusers   9   0 60244  55M 56788 R     0.0 11.0   0:05 httpd
29634 webusers   9   0 54348  49M 50960 S     0.0  9.9   0:02 httpd
29340 webusers   9   0 53648  49M 50616 S     0.0  9.8   0:01 httpd
29336 webusers   9   0 53304  49M 50288 S     0.0  9.8   0:01 httpd
29968 webusers   9   0 52188  47M 48808 S     0.0  9.5   0:01 httpd
29334 webusers   9   0 51140  46M 46772 S     0.0  9.2   0:01 httpd
29941 webusers   9   0 37920  34M 33196 S     0.0  6.8   0:00 httpd
30342 webusers   9   0 18204  14M 14580 S     0.0  2.9   0:00 httpd
30337 webusers   9   0 17580  14M 12868 S     0.0  2.8   0:00 httpd
28993 webusers   9   0 17484  14M 14380 R     0.0  2.8   0:00 httpd
30341 webusers   9   0 16356  13M 12788 S     0.0  2.6   0:00 httpd
28994 webusers   9   0 15600  12M 12660 S     0.0  2.4   0:00 httpd
28991 webusers   9   0 15440  12M 12556 R     0.1  2.4   0:00 httpd
29952 webusers   9   0 12072 9284  7304 S     0.0  1.8   0:00 httpd
30988 webusers   9   0 12500 9280  9224 S     0.0  1.8   0:00 httpd
29947 webusers   9   0 10852 8064  7308 S     0.0  1.5   0:00 httpd
29949 webusers   9   0 10772 7980  7292 S     0.0  1.5   0:00 httpd
30338 webusers   9   0 10596 7684  7036 S     0.0  1.4   0:00 httpd
30239 webusers   9   0 10548 7636  7032 S     0.0  1.4   0:00 httpd
30340 webusers   9   0 10472 7556  7076 S     0.0  1.4   0:00 httpd
30339 webusers   9   0  9772 6680  6532 S     0.0  1.3   0:01 httpd
30488 webusers   9   0  8496 5596  3480 S     0.0  1.0   0:00 httpd
30491 webusers   9   0  8424 5552  3504 S     0.0  1.0   0:00 httpd

Encore une histoire d'interpretation, comment savoir pourquoi les process apache atteignent des tailles aussi grosses ?

voici ma conf apache si ca peut aider :

Timeout 180
KeepAlive On
MaxKeepAliveRequests 100
KeepAliveTimeout 10
MinSpareServers 10
MaxSpareServers 25
StartServers 25
MaxClients 190
MaxRequestsPerChild 10

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...