vincedo Posté 23 Octobre 2006 Posté 23 Octobre 2006 Bonjour, Il y a un an, jai sorti une première version dun site qui a été plutôt bien indexée par Google. Il y a 7 mois, jai réalisé une mise à jour complète de ce site qui a entraîné un changement de lintégralité des URL (et donc, plus aucune des URLs de lancien site ne fonctionne). Aujourdhui, je vois dans mes logs que je continue à recevoir de nombreuses requêtes pour des pages de lancien site, ce qui génère des « 404 Not Found ». Dans mes logs, le champ « referer » est vide, mais il semble que ces requêtes viendraient de Google (et pas d'un autre site qui ferait un lien vers les pages erronées) 1) Est-il possible que Google ait toujours les adresses de mon ancien site dans son index au bout de 7 mois ? 2) Comment indiquer à Google de « laisser tomber » ces adresses ? Faut-il implémenter une redirection 301 sur chacune des anciennes adresses ?
yep Posté 23 Octobre 2006 Posté 23 Octobre 2006 1) oui, big brother is watching you, comme Google le fait pour Gmail en gardant tes mails même si tu les supprime, je reste persuader que Google garde toujours les anciennes URL d'un site même s'il ne nous les affiche plus. Cela lui permet d'évaluer la qualité de gestion des documents sur un site. 2) la solution de la 301 semble être préférable, tu transmettras alors l'ancienne popularité des pages. Maintenant il faut penser que c'est une question de temps.
Laurentg25 Posté 23 Octobre 2006 Posté 23 Octobre 2006 Je suis dans le même cas pour un de mes sites même avec une redirection 301. J'ai fini par faire une suppression de mon ancienne url via l'interface dédié à cette effet. Toujours pas de changement...pas le choix il faut attendre
boussole Posté 23 Octobre 2006 Posté 23 Octobre 2006 Effectivement il garde en memoire les anciennes URLS tres longtemps superieur a 12 mois (j'ai constate). Avec l'aide du robots.txt et du systeme http://services.google.com:8882/urlconsole/controller?cmd= on peut supprimer les adresses entre 48 et 72h, souci ceci est manuel.
Remi Posté 23 Octobre 2006 Posté 23 Octobre 2006 Le fait que le robot continue d'essayer de voir si la page n'est pas revenue n'est pas très grave en soi. Tous les robots font cela. C'est effectivement très long pour qu' "ils" oublient une page ou un site (Yahoo est d'ailleurs beaucoup plus tenace que Google). C'est vrai que ça nous pourrit nos fichiers de logs 404, c'est pour cela qu'une bonne vieille 301 est toujours préférable... C'est plus embêtant si la page sort toujours avec la commande "site:" par exemple, mais en général ce n'est pas le cas.
Kilroy Posté 24 Octobre 2006 Posté 24 Octobre 2006 Petite question : ton site est sous Drupal ? J'ai constaté que certains CMS ne géraient pas correctement les erreurs 404 de façon native. MODx et Typo 3 renvoient un code 200 quand un document n'est plus présent sur le site. Il faut installer un plugin pour que les 404 soient correctement gérées dans les deux cas. Avec ce type de fonctionnement, les moteurs gardent les anciennes URLs beaucoup plus longtemps dans leurs bases. Il faudrait le tester sur ton site avec live http header par exemple.
vincedo Posté 24 Octobre 2006 Auteur Posté 24 Octobre 2006 Hello, Oui mon site est sous Drupal. A vrai dire, j'avais pas du tout pensé à cette possibilité, j'ai donc vérifié, et ça vient pas de là. Comme tu peux le voir dans la doc Drupal, c'est bien un header('HTTP/1.0 404 Not Found') que Drupal renvoie. Par acquis de conscience, je vérifierai quand même avec Live Headers , merci.
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant