Aller au contenu

Sujets conseillés

Posté (modifié)

Bonjour

une question me reste sans réponse (ou un floue)

la commande

User-Agent: *

Disallow:

du robots.txt permet a tous les robots de récolter des informations ?

ou faut-il préciser des commandes supplémentaires ? Pour justement autorisé ou appeler ces robots à indexer mes pages ?

Cordialement

TrocWeb

Modifié par TrocWeb
Posté

Logiquement, la commande "User-Agent : *" s'adresse à tous les robots (l'étoile est un joker).

La ligne "Disallow : ", n'interdit ... rien (vu qu'il n'y a rien derrière les deux points).

Ton robots.txt est correct.

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...