Aller au contenu

Sujets conseillés

Posté

Est ce normal que mon nombre de pages referencer diminue tres fortement sur google ? il y a peu j'etais a + de 7000 pages et la je a - de 1000 pages referencées ?

Que se passe t'il ?

Posté

Bonjour,

ca peut être normal. As tu une url pour que l'on puisse te guider dans les réponses ?

Merci,

Anonymus.

Posté

l'url de la home du site est : www.cityparty.info

une baisse ou une hausse pourrait me sembler normal mais la il s'agit de plusieurs miliers !

est ce que google change ses methode ? ou est ce que il se peut que ds les miliers de pages referencer dont je parlais il y avait des pages en cache qui aurait été vidées ?

Posté
http://www.google.com/search?hl=fr&lr=...cityparty.info+

Résultats 1 - 5 sur un total d'environ 8 110 provenant de www.cityparty.info pour inurl:www.cityparty.info. (0,38 secondes)

Ce n'est pourtant pas ce que je vois...

ceci dit, ca ne m'étonnerais pas :

http://www.google.com/search?q=inurl:www.c...GLD:fr&filter=0

Là, on voit clairement que les pages (en fin de tableau) se ressemblent. D'ailleurs, quand on va dessus, elles toutes (presque) identiques..

http://www.google.com/search?q=inurl:www.c...0&sa=N&filter=0

Celle ci montre également que certaines pages ne sont pas encore indexées par le moteur, ou alors elles sont en voie d'être désindexées.

Raison probable ? Quand on va dessus, on ne trouve pas vraiment de texte différent, d'une page sur l'autre.

Ca peut être du duplicate content, tout simplement. Autrement dit, google considère que 2 pages identiques n'ont pas de raison d'être, et en désindexe certaines.

Tu peux jeter un oeil à l'outil du Hub qui te donnera le nombre de backlinks par datacenter de google, à cette url : http://www.webmaster-hub.com/outils/backlinks.php

Ainsi, tu verras que tu as bien plusieurs milliers de pages pour ton site.

Ceci dit... Attention au duplicate content ;)

Anonymus.

Posté

c vrai, c'est étonant, car avec l'outil de ce site : www.soumission-manuelle.com ca me retourne moins de 1000 pages, 942 pour etre exacte.

quand au "duplicate content", je ne sais pas exactement ce que cela représente, mais vu le nom je me doute que ce doit etre une technique de duplication de page pour berné google. Mais ce n'est pas mon cas, ou alors ce n'est pas volontaire :whistling:

En effet, mon site est un guides sorties en france, du coup j'envoi par moment dans les urls des nom de ville ou de departement et apparement quand le googlebot passe sur des pages il les garde dans les url du coups les urls se multiplies. je sais pas si j'ai été trés clair mais bon. je pense que c'est un pb de variable.

en tout cas merci de tes reponses

Posté

Pour moi aussi c'est le vietnam,

Entre hier et aujourd'hui, 60 pages ont été désindéxées par google (je me sers de l'outil proposé paur le hub en mettant site:www.alliance-magique.com afin de connaitre le nombre de pages indéxées sur tous les datacenters), je suis passé de 364 à 306 voir 300 selon le datacenter....

Je dois avouer que je comprend pas trop pourquoi est ce que ca a fait ca, je sais pas trop quelles pages ont été désindéxées mais normalement les pages même si dans leur forme se ressemblent, ne se ressemblent pas au niveau du contenu :-(

Quelqu'un aurait une idée?

Posté

et poum, encore 15 de moins.....

Google serait il en train de faire de la désindexation sur tous les sites ou bien en sélectionne t il juste certains?

Posté

Il semble que cette tendance soit observée sur pas mal de sites. J'ai cru constater que les pages dynamiques étaient particulièrement touchées, même si leurs contenus étaient bien différents et parfois même alors qu'elles sont url rewritées.

Une affaire à suivre...

Posté

Pour l'instant le Hub n'est pas touché.

On a toujours 109 000 pages... ça laisse de la marge, même s'il en retire la moitié ;)

Posté

Ce que j'ai vu est que des pages du type page.php?var1=xxx&var2=yyy étaient affichées sans titre ni snippet dans les résultats de google et certaines même sorties de google, alors que leurs contenus étaient bien différents.

J'ai vu aussi des pages url rewritées avoir le même problème.

Comme si google avait sévérisé son filtre "duplicate content" de sorte que des pages avec des structures un peu trop identiques (même si le contenu ne l'est pas) se trouvent touchées.

Peut-être une tentative pour lutter contre les pages satellites?

Posté

si tel est le cas, ca risque pas d'être dangereux pour un grand nombre de sites?

Je veux dire, pour les sites qui ont un graphisme prédéfinit pour tout le site et qui représente souvent 60 à 90% du code de la page, cela ne risque t il pas de finir par être considéré par google comme un diplicate content et donc d'être envoyé à la poubelle?

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...