centreurope.org Posté 8 Mai 2007 Posté 8 Mai 2007 (modifié) Bonjour, je gère une cinquantaine de sites de taille petite et moyenne qui sont généralement des vieux domaines (5 à 10 ans), avec un bon Page rank (autour de 4). Hier, un tiers d'entre eux ont disparu de l'index de Google. Est-ce que d'autres webmasters ont expérimenté le même problème ? Je ne pense pas que ce soit mes sites (d'ailleurs très peu sont à moi) qui ont été visés en particulier, car ils sont tous sur des IP différentes, avec des whois différents, et surtout totalement clean par rapport aux google guidelines (voir par exemple : music-law.com, lesmeilleurs.fr, objectifgrandesecoles.com, democratie-electronique.org). J'ai déjà eu ce problème par le passé (à plus petite échelle) et je n'ai jamais vraiment pu trouver de solution, à part la redirection 301. J'ai demandé la réinclusion dans Google avec leur formulaire (google.fr/support/webmasters/bin/answer.py?answer=35843), mais je n'ai jamais eu de réponse. Si quelqu'un a un conseil, je suis preneur :-) ps. mon opinion sur ce blacklistage est que google réduit progressivement le nombre de sites indexés car la croissance des pages sur le net lui oblige à consommer beaucoup de ressources, sans pour autant améliorer significativement la qualité des résultats. Je ne sais pas pourquoi mes sites, qui étaient des authority sites il y a quelques années, sont désindexés. Modifié 8 Mai 2007 par centreurope.org
Wefficient Posté 8 Mai 2007 Posté 8 Mai 2007 S'il n'y a aucune modification sur les sites depuis plusieurs années, c'est sans doute pénalisant pour le référencement. Mais de là à désindexer...
karnabal Posté 8 Mai 2007 Posté 8 Mai 2007 J'ai tendance à partager l'avis de Charles : ce serait quand même un peu fort de café de désindexer un site sous prétexte qu'il n'est pas mis à jour. Je n'ai encore jamais entendue une chose pareille. Lorsque tu as rencontré ce problème les premières fois, as-tu essayé de modifier les pages des sites concernés ? Si oui, y-a t'il eu réindexation ?
Jeanluc Posté 8 Mai 2007 Posté 8 Mai 2007 Je ne pense pas que ce soit la cause de la désindexation (encore que, on ne sait jamais), mais plusieurs de tes robots.txt ne sont pas valides, notamment [i]http://www.democratie-electronique.org/robots.txt et [i]http://www.lesmeilleurs.fr/robots.txt. Jean-Luc
f_trt Posté 8 Mai 2007 Posté 8 Mai 2007 J'ai juste regardé lesmeilleurs.fr 254 erreurs html au validateur peut-être que tout simplement le robot google ne sait plus ou ne perd plus de temps a visiter des sites avec un tel codage... C'est une supposition enfin pour ma part je n'ai rien remarqué de tel.
georges Posté 8 Mai 2007 Posté 8 Mai 2007 Bonjour, après expérience, le codage d'un site n'entre en aucune manière dans l'indexation d'un site, son référencement ou son positionnement.. ce sont des "légendes urbaines" inventées et colportées par les fanatiques du xhtml et des css... dont j'étais également..
captain_torche Posté 8 Mai 2007 Posté 8 Mai 2007 Encore heureux ! Parce que dans le principe, ce n'est pas parce qu'un site est codé avec les pieds, que son contenu n'est pas intéressant (et inversement).
Wefficient Posté 8 Mai 2007 Posté 8 Mai 2007 (modifié) Quand les sites ne sont plus mis à jour, cela espace les visites des robots, et ils ne finissent plus que par pinguer la page d'accueil. Plus de crawl interne. Quand le site recommence à être MAJ, les robots passent et voient du changement puis repassent de plus en plus souvent en racourcissant les delais entre 2 visites... jusqu'a visite journalière. Les crawls internes reprennent eux aussi. Si tu n'as rien changé sur tes sites, 2 idées me viennent à l'esprit : - as tu eu des moments ou ton serveur etait down, des breaks dans la location des NDD ou un break de l'utilisation des DNS ? - Le serveur est il utilisé par d'autres personnes ? Il me semble que parfois, pour faire plus rapidement du ménage, les tris se font par IP. J'avais lu l'histoire d'un gars qui avait une 50 aine de site en farm et il s'est fait flusher par les IP, avec comme dégats collateraux les autres petits sites du serveur qui n'y etaient pour rien. Generalement cela revient après un petit moment, sinon on fait une resoumission. Modifié 8 Mai 2007 par Wefficient
Le-juge Posté 8 Mai 2007 Posté 8 Mai 2007 Encore heureux ! Parce que dans le principe, ce n'est pas parce qu'un site est codé avec les pieds, que son contenu n'est pas intéressant (et inversement). Certe mais c'est toujours mieux d'avoir un site qui soit proprement code - je ne dis pas forcement W3C mais au moins proprement code.
yep Posté 8 Mai 2007 Posté 8 Mai 2007 euh, si tu veux contrôler le rendu graphique de tes documents, ne le laisse pas faire par les agent-logiciels (Opéra, FireFox, etc.), donc respecte les standards web. En effet, si les DOCTYPE ne sont pas renseignés et respectés, les navigateurs passent en mode Quirks, ce qui signifient qu'ils font leur sauce et advienne que pourra du rendu graphique ; m'enfin pour le fun http://openweb.eu.org/.
centreurope.org Posté 8 Mai 2007 Auteur Posté 8 Mai 2007 bonjour, merci, c'est vraiment sympa d'avoir autant de réponses intéressantes ! - A priori, la désindexation ne vient pas du fait que les sites sont peu/pas mis à jour, puisque j'en ai deux ou trois plus jeunes qui ont également disparu mais où le contenu a davantage bougé ces derniers temps. - Pour le code qui serait sale, je ne pense pas non plus que ça soit la raison, mais on ne sait jamais car tous les sites qui sont sortis utilisent le même template. Mais a priori ce n'est pas ça car mon beau-frère utilise le même template pour une trentaine de sites et aucun n'a été désindexé. De même pour le robots.txt, je ne pense pas que ce soit la cause, mais sait-on jamais. - ce n'est pas un pb de serveur, car les sites sont en grande majorité sur des mutus chez des hébergeurs différents. Pas un pb de dns non plus. - Par le passé des sites qui ont été désindéxés sont revenus dans l'index. Mais d'autres ne sont jamais revenus, donc je ne peux pas attendre sans rien faire. Voilà comment j'espère m'en tirer : - Je vais changer le template de mes sites (j'ai reçu des templates de la part de ericfreelance très chouettes après avoir fait un appel d'offre sur le hub, mais je n'ai jamais eu le temps de les utiliser) - je vais régler les problèmes sur les robots.txt - je ne vais demander la réinclusion pour quelques-uns seulement car jusqu'à présent ça n'a rien donné et je sais que google n'aime pas les webmasters qui gèrent de nombreux sites - je ne vais pas faire de 301 vers de nouveaux sites car ça enlèverait toutes les chances de voir revenir mes sites merci de vos remarques et toute autre suggestion est la bienvenue :-) david
oliv63 Posté 8 Mai 2007 Posté 8 Mai 2007 Trouve si possible des sites à fort PR qui pointent chez toi.... Google te fera ainsi un peu plus confiance et évitera ce genre de désagrément
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant