hebmaster Posté 25 Juin 2006 Posté 25 Juin 2006 Bonjour , sur un fichier .htaccess j'ai placé cette ligne de code : ErrorDocument 404 /erreur.php Alors il redirige toute les pages qui n'existe pas vers erreur.php Et parmis ces pages le fichier : robots.txt comment dire au serveur de ne pas rediger le fichier robots.txt (qui n'existe pas sur mon espace d'hebegement) vers erreur.php
Jeanluc Posté 25 Juin 2006 Posté 25 Juin 2006 Bonjour, A proprement parlé, le serveur ne redirige pas vers la page /erreur.php, mais il affiche le contenu de la page /erreur.php. La nuance est que le serveur renvoie bien un code 404 au navigateur et au robot qui le visite. Il n'y a donc aucun risque que la page /erreur.php soit traitée par un robot comme si elle était le fichier /robots.txt. Si malgré tout, cela t'ennuie, ajoute un fichier /robots.txt contenant uniquement ceci: User-agent: *Disallow: Jean-Luc
hebmaster Posté 25 Juin 2006 Auteur Posté 25 Juin 2006 Ce code n'interdit pas l'acces a mon site (je parle pour les robot) ? User-agent: *Disallow: il fait quoi exactement ce code ?
Jeanluc Posté 25 Juin 2006 Posté 25 Juin 2006 (modifié) Il dit aux robots qu'ils peuvent visiter tout ton site. Donc c'est exactement comme s'il n'y avait pas de fichier robots.txt, sauf qu'il n'y aura plus de 404, évidemment. Jean-Luc Modifié 25 Juin 2006 par Jeanluc
hebmaster Posté 25 Juin 2006 Auteur Posté 25 Juin 2006 (modifié) ok merci beaucoup ...et désolé je comprend rien dans le langage utilisé dans le robots.txt , c'est pour cela je pose trop de question Modifié 25 Juin 2006 par hebmaster
captain_torche Posté 26 Juin 2006 Posté 26 Juin 2006 En gros, pour faire simple : User-agent: * Applique le disallow suivant à tous les user-agent (* = tout, User-agent: identifiant du robot de moteur de recherche) Disallow: Liste des pages à ne pas indexer. Si elle est vide, c'est qu'il faudra tout indexer.
Dan Posté 26 Juin 2006 Posté 26 Juin 2006 Et si tu as des doutes quant-à la syntaxe, tu peux toujours regarder le fichier robots.txt de n'importe quel site... par exemple celui du Hub: http://www.webmaster-hub.com/robots.txt (il est archi simplifié, mais permet d'éviter les erreurs 404 qu'on aurait en son absence.) Dan
Jeanluc Posté 26 Juin 2006 Posté 26 Juin 2006 Et si tu as des doutes quant-à la syntaxe, tu peux toujours regarder le fichier robots.txt de n'importe quel site... ... sauf que, sur un site sur deux, le robots.txt, n'est pas conforme au standard ou est rempli de lignes inutiles, obsolètes ou néfastes. Par contre, pour le robots.txt du Hub, il n'y a rien à redire: il est court et parfait ! Jean-Luc
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant