Aller au contenu

Sujets conseillés

Posté (modifié)

Bonjour,

J'ai un site sur lequel des pages sont générées en fonction du membre.

La seule diference entre deux pages générées est le pseudo du membre et le lien pour y accéder.

exemple pour le membre 1 le lien sera :

exemple.com/page-1.html

et pour le membre 2 le lien sera :

exemple.com/page-2.html

et dans les deux pages, il y aura du texte qui sera exactement le même mis à part le pseudo du membre.

Je risque donc de voir les pages en duplicate content dans google.

La solution est donc de ne pas les indexer ?

Un robots.txt ne fonctionnera pas sauf si je note toutes les url ou alors, mettre une balise noindex dans la page mais est ce que cela suffit ?

Modifié par rat-du-net
Posté

Tu ne risques pas de duplicate content tout simplement parce que Google ne vas tout de même pas remplir le formulaire de login, non ?

Et à mon avis, les autres moteurs non plus :P

Dan

Posté

non, ce sont des pages qui sont accecible sans formulaire un peux comme des profils mais avec juste le pseudo du membre qui change

Posté

:D

Tu peux mettre un robots.txt mais c'est plus sur d'ajouter une balise meta robots en noindex en plus

Posté

mais dans ce cas la, je dois mettre toutes les pages dans mon htaccess ?

page-1.html

page-2.html

page-3.html

page-4.html

page-5.html

...

et si j'ai 1000 membres ben j'aurais 1000 lignes...

Posté

Comme le dit Le Juge, il te suffit de mettre une balise noindex dans le template de la page :)

Et tu peux aussi mettre "/page" dans le fichier .htaccess ... toutes les pages dont le nom commence par "page" ne seront pas indexée.

Dan

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...