goldo73 Posté 24 Avril 2005 Posté 24 Avril 2005 Est ce normal que mon nombre de pages referencer diminue tres fortement sur google ? il y a peu j'etais a + de 7000 pages et la je a - de 1000 pages referencées ? Que se passe t'il ?
Anonymus Posté 24 Avril 2005 Posté 24 Avril 2005 Bonjour, ca peut être normal. As tu une url pour que l'on puisse te guider dans les réponses ? Merci, Anonymus.
goldo73 Posté 24 Avril 2005 Auteur Posté 24 Avril 2005 l'url de la home du site est : www.cityparty.info une baisse ou une hausse pourrait me sembler normal mais la il s'agit de plusieurs miliers ! est ce que google change ses methode ? ou est ce que il se peut que ds les miliers de pages referencer dont je parlais il y avait des pages en cache qui aurait été vidées ?
Anonymus Posté 24 Avril 2005 Posté 24 Avril 2005 http://www.google.com/search?hl=fr&lr=...cityparty.info+ Résultats 1 - 5 sur un total d'environ 8 110 provenant de www.cityparty.info pour inurl:www.cityparty.info. (0,38 secondes) Ce n'est pourtant pas ce que je vois... ceci dit, ca ne m'étonnerais pas : http://www.google.com/search?q=inurl:www.c...GLD:fr&filter=0 Là, on voit clairement que les pages (en fin de tableau) se ressemblent. D'ailleurs, quand on va dessus, elles toutes (presque) identiques.. http://www.google.com/search?q=inurl:www.c...0&sa=N&filter=0 Celle ci montre également que certaines pages ne sont pas encore indexées par le moteur, ou alors elles sont en voie d'être désindexées. Raison probable ? Quand on va dessus, on ne trouve pas vraiment de texte différent, d'une page sur l'autre. Ca peut être du duplicate content, tout simplement. Autrement dit, google considère que 2 pages identiques n'ont pas de raison d'être, et en désindexe certaines. Tu peux jeter un oeil à l'outil du Hub qui te donnera le nombre de backlinks par datacenter de google, à cette url : http://www.webmaster-hub.com/outils/backlinks.php Ainsi, tu verras que tu as bien plusieurs milliers de pages pour ton site. Ceci dit... Attention au duplicate content Anonymus.
goldo73 Posté 24 Avril 2005 Auteur Posté 24 Avril 2005 c vrai, c'est étonant, car avec l'outil de ce site : www.soumission-manuelle.com ca me retourne moins de 1000 pages, 942 pour etre exacte. quand au "duplicate content", je ne sais pas exactement ce que cela représente, mais vu le nom je me doute que ce doit etre une technique de duplication de page pour berné google. Mais ce n'est pas mon cas, ou alors ce n'est pas volontaire En effet, mon site est un guides sorties en france, du coup j'envoi par moment dans les urls des nom de ville ou de departement et apparement quand le googlebot passe sur des pages il les garde dans les url du coups les urls se multiplies. je sais pas si j'ai été trés clair mais bon. je pense que c'est un pb de variable. en tout cas merci de tes reponses
Scorpio Posté 28 Avril 2005 Posté 28 Avril 2005 Pour moi aussi c'est le vietnam, Entre hier et aujourd'hui, 60 pages ont été désindéxées par google (je me sers de l'outil proposé paur le hub en mettant site:www.alliance-magique.com afin de connaitre le nombre de pages indéxées sur tous les datacenters), je suis passé de 364 à 306 voir 300 selon le datacenter.... Je dois avouer que je comprend pas trop pourquoi est ce que ca a fait ca, je sais pas trop quelles pages ont été désindéxées mais normalement les pages même si dans leur forme se ressemblent, ne se ressemblent pas au niveau du contenu :-( Quelqu'un aurait une idée?
Scorpio Posté 29 Avril 2005 Posté 29 Avril 2005 et poum, encore 15 de moins..... Google serait il en train de faire de la désindexation sur tous les sites ou bien en sélectionne t il juste certains?
Jan Posté 29 Avril 2005 Posté 29 Avril 2005 Il semble que cette tendance soit observée sur pas mal de sites. J'ai cru constater que les pages dynamiques étaient particulièrement touchées, même si leurs contenus étaient bien différents et parfois même alors qu'elles sont url rewritées. Une affaire à suivre...
Dan Posté 29 Avril 2005 Posté 29 Avril 2005 Pour l'instant le Hub n'est pas touché. On a toujours 109 000 pages... ça laisse de la marge, même s'il en retire la moitié
Scorpio Posté 29 Avril 2005 Posté 29 Avril 2005 ca voudrait dire que google serait en train de désindéxer les pages de type php et asp c ca?
Jan Posté 29 Avril 2005 Posté 29 Avril 2005 Ce que j'ai vu est que des pages du type page.php?var1=xxx&var2=yyy étaient affichées sans titre ni snippet dans les résultats de google et certaines même sorties de google, alors que leurs contenus étaient bien différents. J'ai vu aussi des pages url rewritées avoir le même problème. Comme si google avait sévérisé son filtre "duplicate content" de sorte que des pages avec des structures un peu trop identiques (même si le contenu ne l'est pas) se trouvent touchées. Peut-être une tentative pour lutter contre les pages satellites?
Scorpio Posté 29 Avril 2005 Posté 29 Avril 2005 si tel est le cas, ca risque pas d'être dangereux pour un grand nombre de sites? Je veux dire, pour les sites qui ont un graphisme prédéfinit pour tout le site et qui représente souvent 60 à 90% du code de la page, cela ne risque t il pas de finir par être considéré par google comme un diplicate content et donc d'être envoyé à la poubelle?
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant