Aller au contenu

Sujets conseillés

Posté (modifié)

Bonjour,

Voilà il y a quelques temps j'ai crée un petit blog "de test" en parallèle de mon site sur le même hébergement et même domaine...

Après 3 mois de "test" j'ai supprimé le blog car il ne servait finalement à rien, le souci c'est que maintenant je me retrouve avec pas moins de 150 erreurs 404 dans WebmasterTools.

Comment je peux faire pour que google me supprime une bonne fois pour toutes les vilaines 404 ?? car j'ai l'impression que mon site a subit un déclassement sur certain mots clés suite à ce fameux blog test...

Merci à l'avance de votre aide :thumbsup:

Modifié par foifoi
Posté

Je crois qu'on peut aussi leur demander explicitement de refaire une vérification totale du site pendant laquelle ils vont justement "dropper" les URL mortes (celles vers lesquelles plus aucun lien ne pointe). C'est aussi dans les Webmaster tools, mais je ne sais plus trop où.

Posté

Si ton blog était dans un répertoire tu peux mettre disallow: /blog dans le fichier robots.txt

Ensuite tu peux demander la suppression du répertoire en question en allant :

Outils pour webmaster > selectionne le site concerné > accès du robotsd'exploration > onglet Url removal

Posté

Merci,

j'ai finalement utilisé l'astuce de Captain_torche... j'ai rentré une à une les urls à supprimer..

rubrique : configuration du site -> accès du robot -> url removals...

Posté

Et pourquoi pas le repertoire complet ? 1 seule manip c'est mieux que plusieurs non ? ;-)

j'ai couru sur la solution de captain et j'ai déjà fini :cool: .

La tienne était vraiment plus rapide c'est sur, je la garde en mémoire pour une prochaine fois :thumbsup:

Merci beaucoup, maintenant jespère que Google va vite supprimer les pages !

Posté

C'est très rapide. Et tu as un délais de 90 jours si tu souhaites les restaurer. Ca ne sera pas le cas mais c'est bon à savoir.

PS : Tu devrais quand même paramétrer ton robots.txt afin d'être certain que google et les autres moteurs ne crawlent plus ce répertoire.

Posté

C'est très rapide. Et tu as un délais de 90 jours si tu souhaites les restaurer. Ca ne sera pas le cas mais c'est bon à savoir.

C'est rassurant car j'ai eu une chute de mon site principal dans les serps, je soupçonne que c'est depuis la mise en place de ce blog test... il m'a mis un beau bordel ce blog... :mad2:

Posté

Je crois qu'on peut aussi leur demander explicitement de refaire une vérification totale du site pendant laquelle ils vont justement "dropper" les URL mortes (celles vers lesquelles plus aucun lien ne pointe). C'est aussi dans les Webmaster tools, mais je ne sais plus trop où.

Pas sûr, mais je serai curieux de savoir comment en tout cas.

Posté (modifié)

re coucou :smartass:

Quand je retourne dans WebmastersTools ce matin, il m'affiche toujours les urls en 404 et dans url removals il m'affiche : Aucune demande de suppression d'URL.

Alors qu'hier j'ai rentré 147 urls !!!

Quand je tape la commande site:mondomaine.com il affiche toujours les urls...

Une solution ?

Pour le robots. txt j'ai mis ça c'est bon ?

User-agent: *
Disallow: /wordpress
Allow: /

Sachant que je souhaite bloquer uniquement aux robots ce dossier "wordpress"

Modifié par foifoi
Posté

Il faut juste que tu spécifies ce que tu ne veux pas. Garde uniquement les 2 premières lignes

Ensuite tu demandes la suppression du répertoire complet. Cela doit t'indiquer que la demande est en attente.

Posté

Pas sûr, mais je serai curieux de savoir comment en tout cas.

Voilà, j'ai retrouvé :)

Réexaminer son site sur Google Webmaster Tools

Il y a aussi une petite page d'aide.

Ils spécifient bien qu'il doit respecter les "consignes aux Webmasters" (et y'en a toute une petite liste ^^).

Ne l'ayant jamais fait moi-même, je ne sais pas vraiment le résultat de l'opération. Mais comme, je cite :

"Si votre site n'apparaît pas dans les résultats de recherche Google ou s'il a reculé dans le classement, vous pouvez demander à Google de le réexaminer."

Je suppose qu'ils doivent entre autre chose, supprimer les liens morts. Ils préviennent également que le travail peut être long (plusieurs semaines) donc je suppose qu'ils font vraiment une nouvelle analyse en profondeur... Après, ils n'en disent pas plus sur ce qu'ils font réellement (du moins, je n'ai pas trouvé d'infos là dessus).

Posté

C'est en dans le cas d'un blacklistage, pénalité ou déclassement. Avant de lancer cette procédure il faut essayer de savoir d'ou vient le problème.

Si ca peut être résolu par le webmaster il peut ensuite lancer la procédure (le mieux c'est quand même d'attendre un peu pour voir si on retrouve son classement initial).

Posté (modifié)

Voilà aujourd’hui Google a supprimé les pages :smartass:

Merci à tous et en particulier à Nicolas pour l'aide sur le robots.txt et l'info du dossier :thumbsup:

ps : c'est normal que WebmastersTools m'affiche toujours les pages comme introuvable ? car la commande site:monsite.com lui a bien supprimé les urls !

Intéressant Kulgar reste à voir si ça peut pas être pire que mieux, avec Monsieur Google rien n'est moins sûr...

Modifié par foifoi
Posté

Je suppose qu'ils doivent entre autre chose, supprimer les liens morts.

Hum, je ne pense pas.

Je m'en suis déjà servi, au passage, et j'attends toujours une réponse ^^

Google a pourtant annoncé que cette action recevrait une réponse, même automatique, début janvier pour toutes les personnes qui feraient la demande si je ne m'abuse.

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...