Aller au contenu

Sujets conseillés

Posté

Bonsoir,

je bosse sur un site interne, je n'autorise l'accès à ce site qu'à certaines adresses ip.

Je me disais qu'il serait pratique pour les utilisateurs de ce site de pouvoir trouver les résultats dans google et ses amis.

Donc il faudrait que j'autorise les adresses ip des robots google et autres.

Une sorte de cloacking inversé quoi!

Je n'ai jamais fait de cloacking d'ou ma question: auriez vous une liste des adresses ip des robots d'indexation des principaux moteurs de recherche (mise à jour) ?

Sinon que pensez vous de mon idée ? (proposer les résultats d'un site interne dans les SERP) (quand l'utilisateur normal cliquera il ne pourra pas accéder au site!)

ps: je ne savais pas où poster ce message

Posté

Je sais que Google ne pénalise pas cette pratique quand elle est liée à un abonnement.

Par contre, si tu fais un contrôle d'accès par IP, je doute qu'on rentre dans ces critères; il sera impossible à qui que ce soit ne figurant pas dans ta liste d'adresses d'accéder à ton conenu.

Et sinon, pourquoi vouloir rendre référençable un site destiné à un très petit nombre de personnes ?

Posté

Bonjour,

c'est vrai que mon idée est un peu saugrenue, mais c'est que j'adorre le référencement et ça m'amuse de me battre sur Google ;)

j'abandonne mon idée!

Posté

Bonjour,

Si tu laisses google indexer ton site, alors tu t'autorises à le voir dans le cache google : Et tout le monde y aura accès.

Ca n'est pas du cloaking inversé, c'est du cloaking tout simple :)

Nicolas.

Posté
Ca n'est pas du cloaking inversé, c'est du cloaking tout simple :)
d'autant plus que l'internaute lambda n'aura même pas le droit de visualiser le contenu sur ton site.

Et ça, proposer un autre contenu à l'internaute qu'aux spider, gg n'aime pas

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...