Zooloo Posté 3 Août 2006 Posté 3 Août 2006 Bonjour à tous, Je m'interroge de bon matin... Lorsque l'on utilise l'opérateur 'site:http://www.mot-site.tld' sous google, on a bien souvent un nombre volontairement limités de résultats, et google précise : Pour limiter les résultats aux pages les plus pertinentes (total : XX), Google a ignoré certaines pages à contenu similaire.Si vous le souhaitez, vous pouvez relancer la recherche en incluant les pages ignorées. Les pages ignorées sont souvent des pages jugées comme duplicate content ou les balises meta description sont souvent identiques. Jusque la ok. J'aimerai savoir si ces pages jugées non pertinentes par Google sont pénalisées pour le positionnement, et si oui comment. Sont elles simplement déclassées dans les profondeurs, ou sont-elles totalement exclues ? Pour le moment j'ai fais des tests, et visiblement les pages ignorées ne sortent pas dans les SERPs, mais j'aimerai recouper avec d'autres avis. Merci pour vos infos
yep Posté 3 Août 2006 Posté 3 Août 2006 Duplicate content, balise meta description et title... Sinon en ayant un raisonnement de moteurs, ces pages ne devraient pas ressortir. En effet, seule l'url canonique est pertinente, les autres non pas à apparaître...
campagne Posté 3 Août 2006 Posté 3 Août 2006 à mon avis c'est plus un problème de similarité que de duplicate content, je m'explique : le duplicate c'est lorsqu'on a la même chose par 2 entrées (urls) différentes, la similarité c'est quand le contenu de 2 pages se ressemble à 70% et plus. c'est vrai que varier la description permet d'éviter cela, mais des menus trop importants en haut de page sont aussi pénalisants par exemple. je crois qu'effectivement les pages ne ressortent pas bien dans les serps avec ce problème, même si j'ai lu une fois ici, je crois que c'était cendrillon, que ce n'était pas forcément prouvé... j'ai remarqué l'hiver dernier que google après quelques mois finissait par désindexer les pages concernées, puis ça s'est un peu calmé, et maintenant, j'ai l'impression que sur certains sites google ignore énormément de pages même avec une description différente... J'ai vu ça par exemple pour quelqu'un qui reprend de façon un peu limite les mêmes contenus et qui en fait de nouvelles pages, il y a 2 mois, il en avait des dizaines sans similarité dans google, et là, il n'en a plus que 2, les autres sont classées similaires...
Kimberlyclarko Posté 4 Août 2006 Posté 4 Août 2006 Les "pages à contenu similaire" n'ont rien à voir avec le classement dans les résultats. Elles sont juste placées là par Google lorsque pour une requête donnée la description affichée est identique. Ca veut juste dire que sur ton site un grand nombre de pages ont la même meta description (qui est le snippet affiché par Google pour une requête site:). Il suffirait que tu change ne serait-ce qu'une virgule dans la description de chacune de tes page pour qu'elles en sortent..
Zooloo Posté 5 Août 2006 Auteur Posté 5 Août 2006 _AT_Kimberlyclarko : Effectivement, je pense que tu es dans le juste. Mais je me pose encore la question vis à vis du positionnement : Si 2 pages on un contenu différent, mais avec un contenu de balise meta description et/ou keywords identique, est-on certain que l'une de ces deux pages ne sera pas "sous-estimée" par google lors des requêtes qui ciblent le contenu réel de l'une ou l'autre ?
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant