karnabal Posté 4 Juillet 2007 Posté 4 Juillet 2007 Bonjour, Je souhaite savoir pourquoi, outre les cas de blacklistage, certains sites ne présentent aucune page en cache dans les moteurs de recherche. exemple : -http://www.ericcourt#de.com" (remplacer le # par a).
sparh Posté 4 Juillet 2007 Posté 4 Juillet 2007 Il y a une balise meta qui permet d'empêcher les robots de mettre la page en cache... mais elle est souvent utilisé par les tricheurs...
karnabal Posté 5 Juillet 2007 Auteur Posté 5 Juillet 2007 Je les ai bien parcourue, je ne vois pas où se trouve ladite meta. Peux-tu me dire quelle partie du code source est concernée ?
Théo B. Posté 5 Juillet 2007 Posté 5 Juillet 2007 (modifié) Il a ça dans son robots.txt : User-Agent: *Disallow: / Son site n'est donc, normalement, pas indexé (?). Modifié 5 Juillet 2007 par Théo B.
karnabal Posté 5 Juillet 2007 Auteur Posté 5 Juillet 2007 Ah ! Je n'avais effectivement pas pensé au fichier robots.txt, ce n'est donc pas une indication située au niveau des pages. Merci.
amauryk Posté 5 Juillet 2007 Posté 5 Juillet 2007 tu peux même entrer ce genre de commande dans le .htaccess
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant