Aller au contenu

Sujets conseillés

Posté

Pas trouvé de réponse via le moteur du hub ni par google donc je pose la question (peut-être déjà posée) : est-il possible de faire en sorte qu'un élément d'une page web ne soit pas indexée par les moteurs ?

Je m'explique : il s'agit d'un annuaire du personnel d'une entreprise et cette entreprise demande à ses salariés si ils acceptent que leur fiche dans l'annuaire soit référencée dans les moteurs.

Je ne dois exclure du référencement que les personnes qui l'ont expressément demandé. Les autres doivent être indexées.

Les pages sont générées dynamiquement ce qui exclue la possibilité de gérer ça avec un disallow dans le robot.txt (ou alors, d'une façon qui m'échappe).

Avant que je donne une réponse, je voulais savoir si c'était jouable ou non...

Merci !

Posté

tu peux peut être générer les infos des personnes qui ne veulent pas être indéxées par du javascript ... ou clocker les moteurs en leur présentant un contenu # (mais c'est plus risqué car tu risque d'être indexé sur un moteur que tu n'aura pas prévu sans compter les risques de pénalisation) ... ;)

Posté (modifié)

Bonjour,

en générant ton en-tête HTML (contenue dans <head>) à la volée ... tu y ajoutes, ou non, une balise meta en fonction de la personne à afficher :

<META name="ROBOTS" content="NOINDEX, NOFOLLOW">

Google, Yahoo n'indexeront pas ces pages...mais il existe sûrement des moteurs qui eux vont ignorer cette balise. Elle est authorisée dans les recommandations du W3C pour HTML4.01 ..et pour xHTML (simplement le tag est en minuscules et est fermé explicitement "<meta name="robots" content="noindex, nofollow" /> ) aussi sauf erreur.

Ou tu modifie à la volée ton robots.txt lorsque des personne sont ajoutée/modifiées/supprimée :S

Modifié par TheRec
Posté (modifié)

Ah j'ai mal compris/lu ... désolé ;)

Dans ce cas, à par du cloaking je ne vois pas (que ce soit par javascript, ou par détection du user-agent, IP, ...).

Modifié par TheRec
Posté (modifié)

Bonjour,

Tu peux faire ça avec flash et un loadVariable appellant soit un .txt soit une page php qui te renvoi le texte qui t'interresse.

Tu peux aussi passer le texte à flash directement dans ta page en faisant suivre la requete derrière le nom du fichier .swf.

Exemple : fichier.swf?txt=lorem ipsus dolores etc...

Donc pour les textes à référencer, pas de flash et vice et versa.

Kwiz

Modifié par Kwiz
Posté

Salut

il est possible avec PHP de générer une image à partir d'un texte. Les robots ne la "liront" pas.

En revanche tu te retrouveras avec un petit souci d'accessibilité ;)

Posté

Oui Dudu surtout qu'avec MODx j'ai un snippet Text2image qui permet ça... mais je ne veux pas compromettre l'accessibilité non plus.... ceci dit avec un alt on sauve les meubles. Mais bon de toute façon vu que l'annuaire est généré par un snippet MODx ce serait compliqué...

Merci à tous pour ces pistes, donc en fait il faut que je m'intéresse aux techniques de cloaking... en fait voir s'il est possible de charger une page différente pour les moteurs avec user_agent ou qq chose du goût...

Je vous tiendrai au courant de ce que j'aurai trouvé !

Posté (modifié)

Je te signale aussi que les robots (google en tous cas) n'indexent pas les iframes.

Tu peux donc mettre ça à profit...

Modifié par Théo B.
Posté
Oui Dudu surtout qu'avec MODx j'ai un snippet Text2image qui permet ça... mais je ne veux pas compromettre l'accessibilité non plus.... ceci dit avec un alt on sauve les meubles. Mais bon de toute façon vu que l'annuaire est généré par un snippet MODx ce serait compliqué...

Merci à tous pour ces pistes, donc en fait il faut que je m'intéresse aux techniques de cloaking... en fait voir s'il est possible de charger une page différente pour les moteurs avec user_agent ou qq chose du goût...

Je vous tiendrai au courant de ce que j'aurai trouvé !

<{POST_SNAPBACK}>

Le problème du cloaking, dans ton cas, est qu'il faut suivre de très très près les robots. Ils changent de user agent, voire même d'adresse ip, et à moins d'être un afficionados des google et consors, tu te retrouveras très rapidement avec ton annuaire indexé complètement.

A mon avis, tu devrais gérer distinctement 2 types de pages. les pages des personnes qui veulent bien être dans l'annuaire, et celles des personnes qui ne veulent pas.

A partir de là, tu peux blinder la partie ne devant pas être indexée, à partir de robots.txt, de noindex, etc..

Sinon, ton annuaire est à la merci du web, et ce, très rapidement.

De manière générale, si tu veux tout de même poursuivre ton idée de cloaking, tu devrais à mon avis en faire un 'à l'envers', à savoir tout refuser, puis laisser ensuite l'indexation qu'aux moteurs dont tu as reconnu expressement le user agent (ou l'ip).

Posté

Je me rapprocherai lus de la soluce de Cendrillon.

C'est plus simple, plus rapide et moins cher

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...