Aller au contenu

Sujets conseillés

Posté

Bonjour,

Suite a la mise en place de d'URL rewriting sur un site que je n'ai pas du gerer correctement, je me retrouve avec des pages indexées en duplicate content :-(.

Je voudrais savoir si :

- Les fait de mettre son fichier en Disallow: monfichier.php dans le fichier robots.txt suffit pour supprimer cette indexation.

- si Disallow: monfichier.php est la bonne syntaxte pour interdire l'indexation de tous les fichiers du type monfichier.php?ma_var=$

- Autre solution ?

Merci a vous

Posté

non, ça ne suffit pas et c'est pas la bonne syntaxe.

Le fichier robots.txt doit être placé à la racine du site

User-agent: * 
Disallow: /monfichier.php?

ceci à condition que tes fichiers soit placés à la racine, et * signifie tous les robots spiders

Ensuite, pour une suppression rapide chez Google, il faut le demander à

http://services.google.com:8882/urlconsole/controller

Dans 24H tes fichiers seront désindexés. ;)

Posté

Exellent, merci pour ta réponse.

Si j'ai bien compris :

Disallow: /monfichier.php?

--> ne pas indéxé monfichier.php en prenant en compte ses variables

alors que

Disallow: /monfichier.php

-- > ne pas indéxé monfichier.php seulement

C'est bien cela ?

Merci pour l'URL de GG

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...