rat-du-net Posté 21 Octobre 2005 Posté 21 Octobre 2005 (modifié) Bonjour, J'ai un site sur lequel des pages sont générées en fonction du membre. La seule diference entre deux pages générées est le pseudo du membre et le lien pour y accéder. exemple pour le membre 1 le lien sera : exemple.com/page-1.html et pour le membre 2 le lien sera : exemple.com/page-2.html et dans les deux pages, il y aura du texte qui sera exactement le même mis à part le pseudo du membre. Je risque donc de voir les pages en duplicate content dans google. La solution est donc de ne pas les indexer ? Un robots.txt ne fonctionnera pas sauf si je note toutes les url ou alors, mettre une balise noindex dans la page mais est ce que cela suffit ? Modifié 22 Octobre 2005 par rat-du-net
Dan Posté 21 Octobre 2005 Posté 21 Octobre 2005 Tu ne risques pas de duplicate content tout simplement parce que Google ne vas tout de même pas remplir le formulaire de login, non ? Et à mon avis, les autres moteurs non plus Dan
rat-du-net Posté 21 Octobre 2005 Auteur Posté 21 Octobre 2005 non, ce sont des pages qui sont accecible sans formulaire un peux comme des profils mais avec juste le pseudo du membre qui change
Le-juge Posté 21 Octobre 2005 Posté 21 Octobre 2005 Tu peux mettre un robots.txt mais c'est plus sur d'ajouter une balise meta robots en noindex en plus
rat-du-net Posté 22 Octobre 2005 Auteur Posté 22 Octobre 2005 mais dans ce cas la, je dois mettre toutes les pages dans mon htaccess ? page-1.html page-2.html page-3.html page-4.html page-5.html ... et si j'ai 1000 membres ben j'aurais 1000 lignes...
Dan Posté 22 Octobre 2005 Posté 22 Octobre 2005 Comme le dit Le Juge, il te suffit de mettre une balise noindex dans le template de la page Et tu peux aussi mettre "/page" dans le fichier .htaccess ... toutes les pages dont le nom commence par "page" ne seront pas indexée. Dan
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant