nemo Posté 14 Janvier 2006 Posté 14 Janvier 2006 Bonjour, Suite a la mise en place de d'URL rewriting sur un site que je n'ai pas du gerer correctement, je me retrouve avec des pages indexées en duplicate content :-(. Je voudrais savoir si : - Les fait de mettre son fichier en Disallow: monfichier.php dans le fichier robots.txt suffit pour supprimer cette indexation. - si Disallow: monfichier.php est la bonne syntaxte pour interdire l'indexation de tous les fichiers du type monfichier.php?ma_var=$ - Autre solution ? Merci a vous
yvan02 Posté 14 Janvier 2006 Posté 14 Janvier 2006 non, ça ne suffit pas et c'est pas la bonne syntaxe. Le fichier robots.txt doit être placé à la racine du site User-agent: * Disallow: /monfichier.php? ceci à condition que tes fichiers soit placés à la racine, et * signifie tous les robots spiders Ensuite, pour une suppression rapide chez Google, il faut le demander à http://services.google.com:8882/urlconsole/controller Dans 24H tes fichiers seront désindexés.
nemo Posté 14 Janvier 2006 Auteur Posté 14 Janvier 2006 Exellent, merci pour ta réponse. Si j'ai bien compris : Disallow: /monfichier.php? --> ne pas indéxé monfichier.php en prenant en compte ses variables alors que Disallow: /monfichier.php -- > ne pas indéxé monfichier.php seulement C'est bien cela ? Merci pour l'URL de GG
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant