slender Posté 17 Septembre 2009 Posté 17 Septembre 2009 Dans les webmaster's tools, il est maintenant possible de définir jusqu'à 15 paramètres d'URL trouvés par Google lors de ses crawls. Ces paramètres peuvent être configurés (ignorés ou acceptés) permettant une exploration plus efficace et une réduction des duplicates. A lire ici ou dans vos tools à la rubrique paramètres.
campagne Posté 18 Septembre 2009 Posté 18 Septembre 2009 Oui, c'est bien, on va pouvoir traquer les clics sur les liens publicitaires avec des paramètres par exemple, en générant une autre adresse mais sans qu'elle soit une nouvelle page pour Google. Vous allez dire que je suis inquiet mais je me demande si le lien sera pris en compte comme s'il était fait directement vers la page officielle, si la balise meta rel="canonical" sur la page officielle n'est pas une méthode plus simple, et si en fin de compte, google ne nous demande pas faire son travail à sa place pour nettoyer son index sans trop se fatiguer...
Jeanluc Posté 19 Septembre 2009 Posté 19 Septembre 2009 C'est clair que, pour Google, cela permet d'éviter des crawls inutiles. Pour le webmaster, c'est autant d'économisé en trafic, ce que ne permet pas de faire rel="canonical" (puisque, avec cette meta, il faut quand même venir lire la page). L'idée est excellente, sauf que c'est spécifique à Google. Une solution plus universelle serait de passer par robots.txt pour donner ce genre d'info, par exemple, via une nouvelle directive qui pourrait être "SkipQuery: userid". Jean-Luc
campagne Posté 19 Septembre 2009 Posté 19 Septembre 2009 C'est clair ! Google, si tu entends Jean-Luc...
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant