nalrem Posté 26 Juin 2005 Posté 26 Juin 2005 Bonjour, J'ai un problème de duplicate qui provoque une grosse perte de référencement. Je m'explique : sur le site krinein.c*m nous publions des articles de manière très régulière, jusque là, pas de soucis. Cependant, nous avons décidé d'avertir les utilisateurs de notre forum des publications : nous créeons un topic de manière automatisé dans les forums. Celui-ci contient un extrait du texte publié ailleurs sur le site + lien. Ca a très bien fonctionné pendant des mois, mais depuis quelques jours je constate que la plupart des requête concernant notre site, comme par exemple : http://www.google.fr/search?biw=1260&hl=fr&q=krinein&meta= indique des centaine de milliers de résultats, mais une grande partie n'est visible que sur la page de résultats similaires. Et dans ce cas, ce sont les pages incluses dans le forum qui s'affichent, pas les autres. J'ai donc mis en place un meta robot noindex follow sur les pages du forum qui posent problème de façon à ce qu'elles ne soient plus en concurrence avec les véritables pages d'articles. Cela sera-t-il suffisant ? Si oui, combien de temps faudrait-il pour que tout revienne à la normale ? ps : je viens de soumettre les pages via google sitemap, au cas où... Par ailleurs, si vous voyez ce même message sur un autre forum... ne vous formalisez pas, je souhaite simplement comprendre, donc je poste ici et là-bas
nalrem Posté 26 Juin 2005 Auteur Posté 26 Juin 2005 Après avoir lu un peu tout et n'importe quoi sur le phénomène de duplicate, je penche très franchement pour une explication bourbonienne...
Jan Posté 26 Juin 2005 Posté 26 Juin 2005 En effet je crois avoir remarqué que Bourbon avait sévérisé les critères de "duplicate content". Tu devrais peut-être essayer de créer plus de contenu différent entre tes publications et les pages du forum. Si j'ai bien compris la solution que tu envisages (désindexer les pages choisies par google dans le but de faire réapparaitre les pages qu'il a écartées), ça me semble risqué. La désindexation se fera rapidement, mais le retour des pages écartées me semble un peu incertain et probablement très long. Je m'essaye à ce sport sur des pages écartées par google suite à des redirections 302, pour l'instant sans succès
nalrem Posté 26 Juin 2005 Auteur Posté 26 Juin 2005 Vu la chute de fréquentation, je pense que je peux tenter le coup (mais tu as raison, il me semble que google a déjà commencé à désindexer le forum). Par ailleurs du nouveau contenu est généré tous les jours, donc ça contrebalançera un peu la desindexation (enfin, je l'espère). Pour sortir du duplicate de manière plus propre, puis-je envisager de passer tout en css de manière à ne pas avoir des tableaux dans tous les sens, et donc avoir des fichiers globalement moins semblables sur beaucoup de pages ? Je pourrai aussi y aller de manière moins élegante et ajouter des paquets entier de paragraphes aléatoire, mais bon... ce ne serait pas très joli joli Merci !
Jan Posté 26 Juin 2005 Posté 26 Juin 2005 Tu pourrais faire un essai de redirection 301 d'une page du forum bien indexée vers l'article qui lui correspond classé en résultat complémentaire. Un essai sur une page pour voir ce que ça donne, il ne faut pas généraliser la technique avant de voir comment google va réagir. En effet les redirections 301 sur des pages pénalisées par google (pour d'autres raisons que le duplicate content) ne marchent pas: le pénalisation reste Mais dans le cas d'un duplicate content, plutot que de désindexer les pages, ça peut être tenté (avec prudence).
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant