Den-S Posté 4 Juin 2005 Posté 4 Juin 2005 Salut, J'ai actuellement un dédié chez sivit dont je suis content. Il s'agit d'un celeron 1,8 avec 512 de ram. Dessus, il y a une bonne douzaine de sites de trafic variable dont un avec pas mal de downloads dessus (peut-etre un indice). Depuis quelques temps j'ai un swap moyen vraiment élévé. Voici un top pris à l'instant : 11:35:33 up 1 day, 13:01, 1 user, load average: 0.17, 0.13, 0.05 102 processes: 100 sleeping, 1 running, 1 zombie, 0 stopped CPU states: 0.6% user, 2.2% system, 0.0% nice, 97.2% idle Mem: 513156K total, 506576K used, 6580K free, 6156K buffers Swap: 514040K total, 103416K used, 410624K free, 412260K cached au pire du phénomène j'ai ça (envoyé par le script sys_alive) : 04:20:03 up 1 day, 5:45, 0 users, load average: 0.73, 0.69, 0.37 175 processes: 170 sleeping, 3 running, 2 zombie, 0 stopped CPU states: 4.0% user, 1.5% system, 0.0% nice, 94.4% idle Mem: 513156K total, 508592K used, 4564K free, 5264K buffers Swap: 514040K total, 132380K used, 381660K free, 397952K cached Je reboot régulierement mais rien n'y fait. J'ai essayé de modifié la conf apache en reprenant des parametres trouvé sur ce forum mais sans plus de succes. Après au niveau utilisation je n'ai pas l'impression de gros ralentissements ou autres mais bon... Donc si quelqu'un à quelques conseils à prodiguer ça serait merveilleux !
Dan Posté 4 Juin 2005 Posté 4 Juin 2005 A mon avis tu dos avoir trop de process httpd qui sont lancés. Et ils bouffent la mémoire. Relances Apache, et regardes ce que cela libère comme swap. Parce que 130Mb de swap, c'est beaucoup. Dan
Den-S Posté 4 Juin 2005 Auteur Posté 4 Juin 2005 Je viens de carrement stopper apache et c'est pas beaucoup mieux : 12:14:11 up 1 day, 13:39, 1 user, load average: 0.03, 0.07, 0.05 110 processes: 108 sleeping, 1 running, 1 zombie, 0 stopped CPU states: 3.8% user, 1.4% system, 0.0% nice, 94.7% idle Mem: 513156K total, 502292K used, 10864K free, 7960K buffers Swap: 514040K total, 95828K used, 418212K free, 405452K cached voici le ps aux : USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND root 1 0.0 0.0 1272 436 ? S Jun02 0:09 init [3] root 2 0.0 0.0 0 0 ? SW Jun02 0:00 [keventd] root 3 0.0 0.0 0 0 ? SWN Jun02 0:00 [ksoftirqd_CPU0] root 4 0.0 0.0 0 0 ? SW Jun02 0:50 [kswapd] root 5 0.0 0.0 0 0 ? SW Jun02 0:00 [bdflush] root 6 0.0 0.0 0 0 ? SW Jun02 0:02 [kupdated] root 10 0.0 0.0 0 0 ? SW Jun02 0:00 [i2oevtd] root 11 0.0 0.0 0 0 ? SW Jun02 0:05 [kjournald] root 81 0.0 0.0 0 0 ? SW Jun02 0:00 [kjournald] root 82 0.0 0.0 0 0 ? SW Jun02 0:04 [kjournald] root 83 0.0 0.0 0 0 ? SW Jun02 0:04 [kjournald] daemon 116 0.0 0.0 1384 328 ? S Jun02 0:00 /sbin/portmap root 243 0.0 0.1 2036 704 ? S Jun02 0:03 /sbin/syslogd root 246 0.0 0.0 2144 392 ? S Jun02 0:00 /sbin/klogd root 250 0.0 0.6 11916 3300 ? S Jun02 0:00 /usr/sbin/named root 252 0.0 0.6 11916 3300 ? S Jun02 0:01 /usr/sbin/named root 253 0.0 0.6 11916 3300 ? S Jun02 0:18 /usr/sbin/named root 255 0.0 0.6 11916 3300 ? S Jun02 0:00 /usr/sbin/named root 256 0.0 0.6 11916 3300 ? S Jun02 0:03 /usr/sbin/named root 257 0.0 0.1 10252 832 ? S Jun02 0:00 /usr/sbin/lwresd root 258 0.0 0.1 10252 832 ? S Jun02 0:01 /usr/sbin/lwresd root 259 0.0 0.1 10252 832 ? S Jun02 0:00 /usr/sbin/lwresd root 260 0.0 0.1 10252 832 ? S Jun02 0:00 /usr/sbin/lwresd root 261 0.0 0.1 10252 832 ? S Jun02 0:00 /usr/sbin/lwresd root 268 0.0 0.1 1524 608 ? S Jun02 0:00 /sbin/rpc.statd root 275 0.0 0.0 1560 408 ? S Jun02 0:00 /usr/lib/courier/authlib/authdaemond.plain start root 276 0.0 0.0 1560 408 ? S Jun02 0:00 /usr/lib/courier/authlib/authdaemond.plain start root 277 0.0 0.0 1560 408 ? S Jun02 0:00 /usr/lib/courier/authlib/authdaemond.plain start root 278 0.0 0.0 1560 408 ? S Jun02 0:00 /usr/lib/courier/authlib/authdaemond.plain start root 279 0.0 0.0 1560 408 ? S Jun02 0:00 /usr/lib/courier/authlib/authdaemond.plain start root 280 0.0 0.0 1560 408 ? S Jun02 0:00 /usr/lib/courier/authlib/authdaemond.plain start root 302 0.0 0.1 2228 592 ? S Jun02 0:00 /usr/sbin/couriertcpd -address=0 -stderrlogger=/usr/sbin/courie root 306 0.0 0.0 1424 264 ? S Jun02 0:00 /usr/sbin/courierlogger imapd-ssl root 310 0.0 0.1 1988 612 ? S Jun02 0:00 /usr/sbin/inetd root 317 0.0 0.1 2784 676 ? S Jun02 0:01 /usr/sbin/sshd root 332 0.0 0.3 1968 1960 ? SL Jun02 0:04 /usr/sbin/ntpd root 338 0.0 0.1 1652 648 ? S Jun02 0:00 /usr/sbin/cron qscand 368 0.0 1.4 16324 7220 ? S Jun02 0:00 /usr/sbin/clamd root 371 0.0 0.1 1740 576 ? S Jun02 0:00 pure-ftpd (SERVER) spamd 378 0.0 0.3 21168 1572 ? S Jun02 0:00 /usr/local/bin/spamd -x -u spamd -H /home/spamd -d --pidfile=/v spamd 381 0.0 2.8 24140 14528 ? S Jun02 0:24 spamd child spamd 382 0.0 2.7 23424 13876 ? S Jun02 0:18 spamd child spamd 383 0.0 2.7 22920 13856 ? S Jun02 0:19 spamd child spamd 384 0.0 2.7 23520 14200 ? S Jun02 0:19 spamd child spamd 385 0.0 2.7 24120 14288 ? S Jun02 0:23 spamd child root 386 0.0 0.4 7380 2180 ? S Jun02 0:03 /usr/bin/perl /usr/local/webmin-1.190/miniserv.pl /etc/webmin/m root 387 0.0 0.0 1252 400 tty1 S Jun02 0:00 /sbin/getty 38400 tty1 root 388 0.0 0.0 1252 400 tty2 S Jun02 0:00 /sbin/getty 38400 tty2 root 389 0.0 0.0 1252 400 tty3 S Jun02 0:00 /sbin/getty 38400 tty3 root 390 0.0 0.0 1252 400 tty4 S Jun02 0:00 /sbin/getty 38400 tty4 root 391 0.0 0.0 1252 400 tty5 S Jun02 0:00 /sbin/getty 38400 tty5 root 392 0.0 0.0 1252 400 tty6 S Jun02 0:00 /sbin/getty 38400 tty6 root 393 0.0 0.1 2168 884 ? S Jun02 0:00 /bin/sh /command/svscanboot root 395 0.0 0.0 1276 304 ? S Jun02 0:03 svscan /service root 396 0.0 0.0 1236 208 ? S Jun02 0:00 readproctitle service errors: ................................. root 398 0.0 0.0 1240 260 ? S Jun02 0:00 supervise log root 399 0.0 0.0 1240 260 ? S Jun02 0:00 supervise qmail-smtpd root 400 0.0 0.0 1240 260 ? S Jun02 0:00 supervise log root 401 0.0 0.0 1240 260 ? S Jun02 0:00 supervise qmail-pop3d root 402 0.0 0.0 1240 260 ? S Jun02 0:00 supervise log qmaill 406 0.0 0.0 1256 304 ? S Jun02 0:00 multilog t s100000 n20 /var/log/qmail/qmail-smtpd qmaill 410 0.0 0.0 1256 320 ? S Jun02 0:01 multilog t s100000 n20 /var/log/qmail/qmail-pop3d qscand 550 0.0 1.4 16324 7220 ? S Jun02 0:01 /usr/sbin/clamd qmaill 9737 0.0 0.0 1256 320 ? S Jun03 0:00 multilog t s100000 n20 /var/log/qmail/qmail-send root 9749 0.0 0.0 1240 260 ? S Jun03 0:00 supervise qmail-send qmails 9750 0.0 0.0 1324 432 ? S Jun03 0:00 qmail-send root 9752 0.0 0.0 1256 276 ? S Jun03 0:00 qmail-lspawn ./Maildir qmailr 9753 0.0 0.0 1256 300 ? S Jun03 0:00 qmail-rspawn qmailq 9754 0.0 0.0 1244 304 ? S Jun03 0:00 qmail-clean root 9835 0.0 0.1 2228 592 ? S Jun03 0:00 /usr/sbin/couriertcpd -address=0 -stderrlogger=/usr/sbin/courie root 9838 0.0 0.0 1436 372 ? S Jun03 0:00 /usr/sbin/courierlogger imaplogin root 15920 0.0 0.0 1268 272 ? S 01:01 0:00 tcpserver -H -R -v -c100 0 110 qmail-popup antislash.org /home/ vpopmail 15921 0.0 0.1 2000 628 ? S 01:01 0:00 /usr/local/bin/tcpserver -v -R -l antislash.org -x /etc/tcp.smt root 22968 0.0 0.1 1760 672 ? S 04:01 0:00 /USR/SBIN/CRON root 22969 0.0 0.0 0 0 ? Z 04:01 0:00 [sys_alive.pl <defunct>] root 22978 0.0 0.1 2052 784 ? S 04:01 0:00 /bin/sh ./bin/safe_mysqld --datadir=/home/mysql-data --pid-file mysql 22996 0.0 0.5 11308 2820 ? S 04:01 0:00 /usr/local/mysql/bin/mysqld --defaults-extra-file=/usr/local/my mysql 22998 0.0 0.5 11308 2820 ? S 04:01 0:00 /usr/local/mysql/bin/mysqld --defaults-extra-file=/usr/local/my mysql 22999 0.0 0.5 11308 2820 ? S 04:01 0:00 /usr/local/mysql/bin/mysqld --defaults-extra-file=/usr/local/my root 9160 0.0 0.3 6504 1820 ? S 12:07 0:00 /usr/sbin/sshd root 9170 0.0 0.2 2228 1264 pts/0 S 12:08 0:00 -bash qscand 9706 0.1 1.4 16324 7220 ? S 12:15 0:00 /usr/sbin/clamd root 9721 0.0 0.3 3680 1760 pts/0 R 12:16 0:00 ps aux
Dan Posté 4 Juin 2005 Posté 4 Juin 2005 Tu as beaucoup de volume mail entrant ? Parce que spamd configuré pour lancer 5 childs me semble trop. Chaque process comsomme environ 23Mb dont 14Mb en résident. Dan
Den-S Posté 4 Juin 2005 Auteur Posté 4 Juin 2005 Ah ok. Non je n'ai pas beaucoup de trafic de mails. Par contre je cherche, je cherche mais je ne trouve pas où on change le nombre de démons spamd lancés...
Den-S Posté 4 Juin 2005 Auteur Posté 4 Juin 2005 Non mais là, j'abuse dans la bétise... Je cherche sur le net au lieu de faire un bete man spamd... je rajoute l'option pour voir...
Dan Posté 4 Juin 2005 Posté 4 Juin 2005 Tu dois avoir ce nombre dans le script qui lance spamd (etc/init.d/spamassassin probablement).
Den-S Posté 4 Juin 2005 Auteur Posté 4 Juin 2005 bon apparemment c'etait bien spamassassin le pb puisque rien qu'en le redémarrant je suis retombé à : 12:56:30 up 1 day, 14:21, 1 user, load average: 0.13, 0.22, 0.15 107 processes: 105 sleeping, 1 running, 1 zombie, 0 stopped CPU states: 0.6% user, 1.4% system, 0.0% nice, 98.0% idle Mem: 513156K total, 508640K used, 4516K free, 7024K buffers Swap: 514040K total, 34548K used, 479492K free, 434408K cached j'ai rajouté l'option "-m 2" à ma ligne de lancement spamassassin pour ne permettre le lancement que de 2 "childs" et on verra bien sur la longueur. En tout cas merci Dan pour avoir interprété mon ps aux ! Je suis un peu deg de pas pouvoir prendre ton support dédié étant chez sivit et pas chez ovh ! Par contre est-ce que tu ne fais pas des audits de dédiés par hasard (facturés bien sûr) ? Par exemple dans mon cas, tu observerais, et tu me dirais, il faut faire ça, ça et ça, mettre à jour ça, installer ça etc... Jusqu'à présent j'ai réussi à me débrouiller seul pour installer et configurer mais là je crois que j'arrive à un certain seuil... Encore merci ++
Dan Posté 4 Juin 2005 Posté 4 Juin 2005 Pas de quoi :!: Il est vrai que pour interpréter un simple "ps aux" , l'expérience parle Ce n'est pas toujours aussi simple. Un truc, dans un "ps aux", regardes toujours la colonne RSS ... elle te donne une idée de la RAM résidente utilisée. Il est facile de poser des conclusions ensuite Je n'ai pas développé d'outils, autres que ceux que j'utilise sur des serveurs OVH. Il faudrait que je pense à les rendre "open-source" ... Dan
Den-S Posté 4 Juin 2005 Auteur Posté 4 Juin 2005 ô grand maitre des admins réseau je sollicite à nouveau ton aide : Alors que toute la journée ça a été voici mon top de ce soir : 20:09:24 up 1 day, 21:34, 1 user, load average: 0.23, 0.39, 0.28126 processes: 121 sleeping, 4 running, 1 zombie, 0 stoppedCPU states: 12.9% user, 4.6% system, 0.0% nice, 82.5% idleMem: 513156K total, 502628K used, 10528K free, 5328K buffersSwap: 514040K total, 79228K used, 434812K free, 441548K cached PID USER PRI NI SIZE RSS SHARE STAT %CPU %MEM TIME COMMAND27998 webusers 9 0 60244 55M 56788 R 0.0 11.0 0:05 httpd29634 webusers 9 0 54348 49M 50960 S 0.0 9.9 0:02 httpd29340 webusers 9 0 53648 49M 50616 S 0.0 9.8 0:01 httpd29336 webusers 9 0 53304 49M 50288 S 0.0 9.8 0:01 httpd29968 webusers 9 0 52188 47M 48808 S 0.0 9.5 0:01 httpd29334 webusers 9 0 51140 46M 46772 S 0.0 9.2 0:01 httpd29941 webusers 9 0 37920 34M 33196 S 0.0 6.8 0:00 httpd30342 webusers 9 0 18204 14M 14580 S 0.0 2.9 0:00 httpd30337 webusers 9 0 17580 14M 12868 S 0.0 2.8 0:00 httpd28993 webusers 9 0 17484 14M 14380 R 0.0 2.8 0:00 httpd30341 webusers 9 0 16356 13M 12788 S 0.0 2.6 0:00 httpd28994 webusers 9 0 15600 12M 12660 S 0.0 2.4 0:00 httpd28991 webusers 9 0 15440 12M 12556 R 0.1 2.4 0:00 httpd29952 webusers 9 0 12072 9284 7304 S 0.0 1.8 0:00 httpd30988 webusers 9 0 12500 9280 9224 S 0.0 1.8 0:00 httpd29947 webusers 9 0 10852 8064 7308 S 0.0 1.5 0:00 httpd29949 webusers 9 0 10772 7980 7292 S 0.0 1.5 0:00 httpd30338 webusers 9 0 10596 7684 7036 S 0.0 1.4 0:00 httpd30239 webusers 9 0 10548 7636 7032 S 0.0 1.4 0:00 httpd30340 webusers 9 0 10472 7556 7076 S 0.0 1.4 0:00 httpd30339 webusers 9 0 9772 6680 6532 S 0.0 1.3 0:01 httpd30488 webusers 9 0 8496 5596 3480 S 0.0 1.0 0:00 httpd30491 webusers 9 0 8424 5552 3504 S 0.0 1.0 0:00 httpd Encore une histoire d'interpretation, comment savoir pourquoi les process apache atteignent des tailles aussi grosses ? voici ma conf apache si ca peut aider : Timeout 180KeepAlive OnMaxKeepAliveRequests 100KeepAliveTimeout 10MinSpareServers 10MaxSpareServers 25StartServers 25MaxClients 190MaxRequestsPerChild 10
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant