Nullette Posté 9 Septembre 2011 Posté 9 Septembre 2011 Bonjour, sur la page de Google, outils pour les webmasters, j'ai cliqué par erreur sur le lien de mon fichier vers le fils rss de mon forum, ce qui a donné : a été ajouté en tant que sitemap Je n'ai pas vu le moyen d'annuler. Savez-vous ce que je peux faire pour que ce lien ne soit pas considéré comme sitemap ?
Régis Posté 9 Septembre 2011 Posté 9 Septembre 2011 Bonjour, Dans GWT, tu vas dans "Configuration du site" puis "Sitemaps", tu sélectionnes le sitemap que tu souhaites et tu cliques sur le bouton "Supprimer". Tu peux lire, aussi, cette page de l'aide de GG : http://www.google.com/support/webmasters/bin/answer.py?hl=fr&answer=34598
Nullette Posté 9 Septembre 2011 Auteur Posté 9 Septembre 2011 Merci Régis. Je n'avais pas vu cette fonction. J'ai supprimé. Il y avait inscrit : URL envoyées 11 Comptabilisation de l'index en cours Mais je pense qu'il vaut mieux supprimer car les fils rss de mon forum ne sont pas très nombreux, ni remplis.
Cariboo Posté 16 Septembre 2011 Posté 16 Septembre 2011 Ah, la suppression des sitemaps !! On peut supprimer la déclaration dans le compte GWT, mais cela n'empêche pas Google de revenir consulter stupidement le fichier quand même ! Il semble qu'on n'a pas appris Googlebot à oublier les adresses de sitemaps... Tiens nous au courant.
Invité Posté 3 Octobre 2011 Posté 3 Octobre 2011 Oh je ne savais pas que Google gardait les sitemaps en mémoire même si on les supprimait!
Nullette Posté 3 Octobre 2011 Auteur Posté 3 Octobre 2011 Tiens nous au courant. Google semble avoir effacé de sa mémoire. J'avais supprimé aussitôt.
campagne Posté 12 Octobre 2011 Posté 12 Octobre 2011 J'ai remarqué que Google indexe des répertoires de mon site qui n'ont pas de lien et qui ne contiennent que des images. Dans les pages de résultat cela donne une affreuse liste Index of /... J'ai donc mis des fichiers d'index dans mes répertoires. Par ailleurs, il indexe aussi des pages interdites par robots.txt : il enregistre uniquement leur url apparemment.
Cariboo Posté 12 Octobre 2011 Posté 12 Octobre 2011 Par ailleurs, il indexe aussi des pages interdites par robots.txt : il enregistre uniquement leur url apparemment. Oui, ça c'est normal : le robots.txt interdit le crawl, pas l'indexation. Donc si Google connait l'url, il indexera l'url (mais sans title, sans description puisqu'il ne sait pas quoi mettre puisqu'il n'a pas crawlé la page). Pour interdire l'indexation, il faut : - soit ajouter une balise meta robots avec "noindex" dans le html - ou une directive x-robots-tag:noindex dans le header http:
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant