TrocWeb Posté 24 Septembre 2007 Posté 24 Septembre 2007 (modifié) Bonjour une question me reste sans réponse (ou un floue) la commande User-Agent: * Disallow: du robots.txt permet a tous les robots de récolter des informations ? ou faut-il préciser des commandes supplémentaires ? Pour justement autorisé ou appeler ces robots à indexer mes pages ? Cordialement TrocWeb Modifié 24 Septembre 2007 par TrocWeb
captain_torche Posté 24 Septembre 2007 Posté 24 Septembre 2007 Logiquement, la commande "User-Agent : *" s'adresse à tous les robots (l'étoile est un joker). La ligne "Disallow : ", n'interdit ... rien (vu qu'il n'y a rien derrière les deux points). Ton robots.txt est correct.
TrocWeb Posté 24 Septembre 2007 Auteur Posté 24 Septembre 2007 Merci pour votre réponse rapide TrocWeb
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant