doomer2 Posté 21 Octobre 2005 Partager Posté 21 Octobre 2005 Bonsoir à tous, Je souhaiterais empêcher le passage de certains robots sur mon site : Ce sont : - Curl - Wget - WebCopier Car je m'aperçois qu'il y a de nombreux hits à cause de ces robots. En vous remerciant d'avance. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Topwize Posté 21 Octobre 2005 Partager Posté 21 Octobre 2005 il faut que tu fasse l'inverse du cloaking soit identifier le robot a son : $_SERVER['USER_AGENT'] soit a son ip : $_SERVER['REMOTE_ADDR'] et tu les laisse rentrer ou pas... par la Lien vers le commentaire Partager sur d’autres sites More sharing options...
Jan Posté 21 Octobre 2005 Partager Posté 21 Octobre 2005 Ca peut aussi se faire par URL rewriting ou plus simplement dans les fichier robots.txt, pour les robots qui le respectent. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant