Mixtim Posté 16 Juin 2006 Posté 16 Juin 2006 Bonsoir. En l'occurrence il s'agirait plutôt de technique de non référencement. Si le sujet n'est pas lancé dans la section adéquate, merci de m'en excuser mais il est bien question d'url et de moteurs Je m'explique. Ayant partiellement découvert les joies du fichier .htaccess, je me suis évertué à les appliquer. Un des systèmes que j'utilise et que j'ai en grande partie rewrité génère des pages de profil. Hélas, l'ami Google s'abreuve de ces pages que je voudrais pourtant ne plus voir apparaître dans ses bases. Après réécriture, ces pages profil sont toutes de la forme /profil[iD].html (exemple : /profil31.html) Ce que je souhaiterais savoir, c'est s'il existe une méthode afin de rendre ces pages invisibles aux moteurs ou bien de les rediriger toutes vers une page unique (pour en fait les désindexer). Donc première question : serait-il possible via un fichier .htaccess, par exemple, d'effectuer ce type de redirection à l'attention uniquement des moteurs (l'Internaute, lui, ne doit pas être concerné), sachant pourtant qu'il y a une variable à chaque fois... En fait, ce que je désirerais c'est ce que permet par exemple le contenu d'un fichier robots.txt, mais avec un joker. Par exemple que l'on puisse stipuler un Disallow qui serait du type Disallow: /profil*.html Mais il ne me semble pas que ce soit et correct et possible. En vous remerciant
Jan Posté 16 Juin 2006 Posté 16 Juin 2006 Bonjour, Tu peux en effet interdire aux robots des moteurs de recherche l'accès à ces pages dans le .htaccess. Pour ça, il te faut identifier les robots par leurs adresses IPs ou leurs user agents: http://www.webmaster-hub.com/publication/article5.html Mais c'est une solution qui me semble un peu lourde pour ce que tu veux faire. N'as-tu pas tout simplement la possibilité d'ajouter une balise méta robots interdisant l'indexation dans le code de tes pages "profil": <meta name="robots" content="noindex, follow">
Phobos Posté 16 Juin 2006 Posté 16 Juin 2006 (modifié) Salut, tu peux mettre sinon : Disallow: /profil dans ton robots.txt, cela empêchera la visite des robots de toute page dont l'url commence par profil Modifié 16 Juin 2006 par Phobos
Jeanluc Posté 16 Juin 2006 Posté 16 Juin 2006 (modifié) En fait, ce que je désirerais c'est ce que permet par exemple le contenu d'un fichier robots.txt, mais avec un joker.Par exemple que l'on puisse stipuler un Disallow qui serait du type Disallow: /profil*.html Mais il ne me semble pas que ce soit et correct et possible. Bonjour, Si ton robots.txt contient les lignes: User-agent: *Disallow: /profil il interdit à tous les robots de visiter toutes les URL commençant par /profil, donc, bien entendu, toutes les URL de type /profil*.html. Cela devrait convenir, sauf si tu as d'autres URL commençant par /profil, comme, par exemple, des /profil12345.php. Jean-Luc P.S. Phobos est trop rapide ;-) Modifié 16 Juin 2006 par Jeanluc
Mixtim Posté 16 Juin 2006 Auteur Posté 16 Juin 2006 Bonsoir Messieurs Merci pour vos solutions. Jan, j'avais bien sûr pensé au "noindex" mais le souci, c'est que le système qui génère les profils fait partie intégrante d'un script dont la fonction ne se borne pas à la création desdits profils. Dans ce cas précis, le recours au noindex est plus problématique car cela aurait des conséquences sur d'autres parties. La méthode que tu me préconises, je pourrai l'appliquer une fois que je serai parvenu à restructurer l'outil en question et que j'aurai pu séparer ce qui devrait l'être. Et vu comme il est codé, ça ne va pas être de la tarte ! Tant niveau html que php. Phobos et Jeanluc, eh bien soit ! Je vais tenter alors. Merci encore de votre réactivité.
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant