davidm Posté 3 Mars 2006 Posté 3 Mars 2006 Pas trouvé de réponse via le moteur du hub ni par google donc je pose la question (peut-être déjà posée) : est-il possible de faire en sorte qu'un élément d'une page web ne soit pas indexée par les moteurs ? Je m'explique : il s'agit d'un annuaire du personnel d'une entreprise et cette entreprise demande à ses salariés si ils acceptent que leur fiche dans l'annuaire soit référencée dans les moteurs. Je ne dois exclure du référencement que les personnes qui l'ont expressément demandé. Les autres doivent être indexées. Les pages sont générées dynamiquement ce qui exclue la possibilité de gérer ça avec un disallow dans le robot.txt (ou alors, d'une façon qui m'échappe). Avant que je donne une réponse, je voulais savoir si c'était jouable ou non... Merci !
Cendrillon Posté 3 Mars 2006 Posté 3 Mars 2006 tu peux peut être générer les infos des personnes qui ne veulent pas être indéxées par du javascript ... ou clocker les moteurs en leur présentant un contenu # (mais c'est plus risqué car tu risque d'être indexé sur un moteur que tu n'aura pas prévu sans compter les risques de pénalisation) ...
TheRec Posté 3 Mars 2006 Posté 3 Mars 2006 (modifié) Bonjour, en générant ton en-tête HTML (contenue dans <head>) à la volée ... tu y ajoutes, ou non, une balise meta en fonction de la personne à afficher : <META name="ROBOTS" content="NOINDEX, NOFOLLOW"> Google, Yahoo n'indexeront pas ces pages...mais il existe sûrement des moteurs qui eux vont ignorer cette balise. Elle est authorisée dans les recommandations du W3C pour HTML4.01 ..et pour xHTML (simplement le tag est en minuscules et est fermé explicitement "<meta name="robots" content="noindex, nofollow" /> ) aussi sauf erreur. Ou tu modifie à la volée ton robots.txt lorsque des personne sont ajoutée/modifiées/supprimée :S Modifié 3 Mars 2006 par TheRec
Cendrillon Posté 3 Mars 2006 Posté 3 Mars 2006 si j'ai bien compris ... les personnes à afficher ou non peuvent être sur une même page ...
TheRec Posté 3 Mars 2006 Posté 3 Mars 2006 (modifié) Ah j'ai mal compris/lu ... désolé Dans ce cas, à par du cloaking je ne vois pas (que ce soit par javascript, ou par détection du user-agent, IP, ...). Modifié 3 Mars 2006 par TheRec
Kwiz Posté 3 Mars 2006 Posté 3 Mars 2006 (modifié) Bonjour, Tu peux faire ça avec flash et un loadVariable appellant soit un .txt soit une page php qui te renvoi le texte qui t'interresse. Tu peux aussi passer le texte à flash directement dans ta page en faisant suivre la requete derrière le nom du fichier .swf. Exemple : fichier.swf?txt=lorem ipsus dolores etc... Donc pour les textes à référencer, pas de flash et vice et versa. Kwiz Modifié 3 Mars 2006 par Kwiz
Dudu Posté 3 Mars 2006 Posté 3 Mars 2006 Salut il est possible avec PHP de générer une image à partir d'un texte. Les robots ne la "liront" pas. En revanche tu te retrouveras avec un petit souci d'accessibilité
davidm Posté 3 Mars 2006 Auteur Posté 3 Mars 2006 Oui Dudu surtout qu'avec MODx j'ai un snippet Text2image qui permet ça... mais je ne veux pas compromettre l'accessibilité non plus.... ceci dit avec un alt on sauve les meubles. Mais bon de toute façon vu que l'annuaire est généré par un snippet MODx ce serait compliqué... Merci à tous pour ces pistes, donc en fait il faut que je m'intéresse aux techniques de cloaking... en fait voir s'il est possible de charger une page différente pour les moteurs avec user_agent ou qq chose du goût... Je vous tiendrai au courant de ce que j'aurai trouvé !
Théo B. Posté 3 Mars 2006 Posté 3 Mars 2006 (modifié) Je te signale aussi que les robots (google en tous cas) n'indexent pas les iframes. Tu peux donc mettre ça à profit... Modifié 3 Mars 2006 par Théo B.
Anonymus Posté 6 Mars 2006 Posté 6 Mars 2006 Oui Dudu surtout qu'avec MODx j'ai un snippet Text2image qui permet ça... mais je ne veux pas compromettre l'accessibilité non plus.... ceci dit avec un alt on sauve les meubles. Mais bon de toute façon vu que l'annuaire est généré par un snippet MODx ce serait compliqué... Merci à tous pour ces pistes, donc en fait il faut que je m'intéresse aux techniques de cloaking... en fait voir s'il est possible de charger une page différente pour les moteurs avec user_agent ou qq chose du goût... Je vous tiendrai au courant de ce que j'aurai trouvé ! <{POST_SNAPBACK}> Le problème du cloaking, dans ton cas, est qu'il faut suivre de très très près les robots. Ils changent de user agent, voire même d'adresse ip, et à moins d'être un afficionados des google et consors, tu te retrouveras très rapidement avec ton annuaire indexé complètement. A mon avis, tu devrais gérer distinctement 2 types de pages. les pages des personnes qui veulent bien être dans l'annuaire, et celles des personnes qui ne veulent pas. A partir de là, tu peux blinder la partie ne devant pas être indexée, à partir de robots.txt, de noindex, etc.. Sinon, ton annuaire est à la merci du web, et ce, très rapidement. De manière générale, si tu veux tout de même poursuivre ton idée de cloaking, tu devrais à mon avis en faire un 'à l'envers', à savoir tout refuser, puis laisser ensuite l'indexation qu'aux moteurs dont tu as reconnu expressement le user agent (ou l'ip).
Le-juge Posté 7 Mars 2006 Posté 7 Mars 2006 Je me rapprocherai lus de la soluce de Cendrillon. C'est plus simple, plus rapide et moins cher
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant