doomer2 Posté 21 Octobre 2005 Posté 21 Octobre 2005 Bonsoir à tous, Je souhaiterais empêcher le passage de certains robots sur mon site : Ce sont : - Curl - Wget - WebCopier Car je m'aperçois qu'il y a de nombreux hits à cause de ces robots. En vous remerciant d'avance.
Topwize Posté 21 Octobre 2005 Posté 21 Octobre 2005 il faut que tu fasse l'inverse du cloaking soit identifier le robot a son : $_SERVER['USER_AGENT'] soit a son ip : $_SERVER['REMOTE_ADDR'] et tu les laisse rentrer ou pas... par la
Jan Posté 21 Octobre 2005 Posté 21 Octobre 2005 Ca peut aussi se faire par URL rewriting ou plus simplement dans les fichier robots.txt, pour les robots qui le respectent.
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant