foifoi Posté 6 Février 2012 Posté 6 Février 2012 (modifié) Bonjour, Voilà il y a quelques temps j'ai crée un petit blog "de test" en parallèle de mon site sur le même hébergement et même domaine... Après 3 mois de "test" j'ai supprimé le blog car il ne servait finalement à rien, le souci c'est que maintenant je me retrouve avec pas moins de 150 erreurs 404 dans WebmasterTools. Comment je peux faire pour que google me supprime une bonne fois pour toutes les vilaines 404 ?? car j'ai l'impression que mon site a subit un déclassement sur certain mots clés suite à ce fameux blog test... Merci à l'avance de votre aide Modifié 6 Février 2012 par foifoi
captain_torche Posté 6 Février 2012 Posté 6 Février 2012 Si je ne m'abuse, il est nécessaire de soumettre chaque url à supprimer une à une dans les webmaster tools.
Kulgar Posté 6 Février 2012 Posté 6 Février 2012 Je crois qu'on peut aussi leur demander explicitement de refaire une vérification totale du site pendant laquelle ils vont justement "dropper" les URL mortes (celles vers lesquelles plus aucun lien ne pointe). C'est aussi dans les Webmaster tools, mais je ne sais plus trop où.
Nicolas Posté 6 Février 2012 Posté 6 Février 2012 Si ton blog était dans un répertoire tu peux mettre disallow: /blog dans le fichier robots.txt Ensuite tu peux demander la suppression du répertoire en question en allant : Outils pour webmaster > selectionne le site concerné > accès du robotsd'exploration > onglet Url removal
foifoi Posté 6 Février 2012 Auteur Posté 6 Février 2012 Merci, j'ai finalement utilisé l'astuce de Captain_torche... j'ai rentré une à une les urls à supprimer.. rubrique : configuration du site -> accès du robot -> url removals...
Nicolas Posté 6 Février 2012 Posté 6 Février 2012 Et pourquoi pas le repertoire complet ? 1 seule manip c'est mieux que plusieurs non ? ;-)
foifoi Posté 6 Février 2012 Auteur Posté 6 Février 2012 Et pourquoi pas le repertoire complet ? 1 seule manip c'est mieux que plusieurs non ? ;-) j'ai couru sur la solution de captain et j'ai déjà fini . La tienne était vraiment plus rapide c'est sur, je la garde en mémoire pour une prochaine fois Merci beaucoup, maintenant jespère que Google va vite supprimer les pages !
Nicolas Posté 6 Février 2012 Posté 6 Février 2012 C'est très rapide. Et tu as un délais de 90 jours si tu souhaites les restaurer. Ca ne sera pas le cas mais c'est bon à savoir. PS : Tu devrais quand même paramétrer ton robots.txt afin d'être certain que google et les autres moteurs ne crawlent plus ce répertoire.
foifoi Posté 6 Février 2012 Auteur Posté 6 Février 2012 C'est très rapide. Et tu as un délais de 90 jours si tu souhaites les restaurer. Ca ne sera pas le cas mais c'est bon à savoir. C'est rassurant car j'ai eu une chute de mon site principal dans les serps, je soupçonne que c'est depuis la mise en place de ce blog test... il m'a mis un beau bordel ce blog...
foifoi Posté 6 Février 2012 Auteur Posté 6 Février 2012 Je rajoute, j'ai pas de robots.txt sur mon site la manip va quand même fonctionner ?
pop-up Posté 7 Février 2012 Posté 7 Février 2012 Je crois qu'on peut aussi leur demander explicitement de refaire une vérification totale du site pendant laquelle ils vont justement "dropper" les URL mortes (celles vers lesquelles plus aucun lien ne pointe). C'est aussi dans les Webmaster tools, mais je ne sais plus trop où. Pas sûr, mais je serai curieux de savoir comment en tout cas.
foifoi Posté 7 Février 2012 Auteur Posté 7 Février 2012 (modifié) re coucou Quand je retourne dans WebmastersTools ce matin, il m'affiche toujours les urls en 404 et dans url removals il m'affiche : Aucune demande de suppression d'URL. Alors qu'hier j'ai rentré 147 urls !!! Quand je tape la commande site:mondomaine.com il affiche toujours les urls... Une solution ? Pour le robots. txt j'ai mis ça c'est bon ? User-agent: *Disallow: /wordpressAllow: / Sachant que je souhaite bloquer uniquement aux robots ce dossier "wordpress" Modifié 7 Février 2012 par foifoi
Nicolas Posté 7 Février 2012 Posté 7 Février 2012 Il faut juste que tu spécifies ce que tu ne veux pas. Garde uniquement les 2 premières lignes Ensuite tu demandes la suppression du répertoire complet. Cela doit t'indiquer que la demande est en attente.
Kulgar Posté 8 Février 2012 Posté 8 Février 2012 Pas sûr, mais je serai curieux de savoir comment en tout cas. Voilà, j'ai retrouvé Réexaminer son site sur Google Webmaster Tools Il y a aussi une petite page d'aide. Ils spécifient bien qu'il doit respecter les "consignes aux Webmasters" (et y'en a toute une petite liste ). Ne l'ayant jamais fait moi-même, je ne sais pas vraiment le résultat de l'opération. Mais comme, je cite : "Si votre site n'apparaît pas dans les résultats de recherche Google ou s'il a reculé dans le classement, vous pouvez demander à Google de le réexaminer." Je suppose qu'ils doivent entre autre chose, supprimer les liens morts. Ils préviennent également que le travail peut être long (plusieurs semaines) donc je suppose qu'ils font vraiment une nouvelle analyse en profondeur... Après, ils n'en disent pas plus sur ce qu'ils font réellement (du moins, je n'ai pas trouvé d'infos là dessus).
Nicolas Posté 8 Février 2012 Posté 8 Février 2012 C'est en dans le cas d'un blacklistage, pénalité ou déclassement. Avant de lancer cette procédure il faut essayer de savoir d'ou vient le problème. Si ca peut être résolu par le webmaster il peut ensuite lancer la procédure (le mieux c'est quand même d'attendre un peu pour voir si on retrouve son classement initial).
foifoi Posté 8 Février 2012 Auteur Posté 8 Février 2012 (modifié) Voilà aujourd’hui Google a supprimé les pages Merci à tous et en particulier à Nicolas pour l'aide sur le robots.txt et l'info du dossier ps : c'est normal que WebmastersTools m'affiche toujours les pages comme introuvable ? car la commande site:monsite.com lui a bien supprimé les urls ! Intéressant Kulgar reste à voir si ça peut pas être pire que mieux, avec Monsieur Google rien n'est moins sûr... Modifié 8 Février 2012 par foifoi
pop-up Posté 8 Février 2012 Posté 8 Février 2012 Je suppose qu'ils doivent entre autre chose, supprimer les liens morts. Hum, je ne pense pas. Je m'en suis déjà servi, au passage, et j'attends toujours une réponse Google a pourtant annoncé que cette action recevrait une réponse, même automatique, début janvier pour toutes les personnes qui feraient la demande si je ne m'abuse.
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant