Monique Posté 25 Janvier 2004 Posté 25 Janvier 2004 Bonjour, Je pense que tout le monde est convaincu de l'importance de la présence de mots clés dans une URL. Les avis sont plus partagés au sujet du séparateur. Curio (François Simond) a effectué des tests et en a publié le compte-rendu sur son blog : Google et Séparateurs d'URL et les résulats. Les conclusions semblent très claires et confirment la déclaration de GoogleGuy "Underscores are not word seperators in google"
curio Posté 25 Janvier 2004 Posté 25 Janvier 2004 Salut et merci En effet le test montre clairement que _ est à éviter! Pour la suite, et parce qu'aparemment le - n'est pas le seul séparateur à être bien pris en compte, j'ai lancé un deuxième test http://francois.gplservice.fr/blog/2004/01...parateurs-d-url Intéressant, ce forum
Stephane Posté 25 Janvier 2004 Posté 25 Janvier 2004 Merci pour cette info, Les conclusions semblent claires en effet, mais il y a un petit souci quand même au niveau de la méthodologie du test. La quasi-identité de contenu des deux pages de test ne permet pas à mon avis de vérifier l'hypothèse. Google peut très bien avoir considéré la deuxième url comme un doublon de la première, ce qui expliquerait qu'il ne l'ait pas indexé malgré le fait qu'il la connaisse. http://www.google.fr/search?hl=fr&ie=UTF-8...echerche+Google En fait, il faudrait attendre que Google indexe cette page (s'il le fait un jour) pour pouvoir tirer une quelconque conclusion. En tous cas, il était utile de souligner avec justesse la forte ambiguïté d'une déclaration telle que "Underscores are not word seperators in google"...
Jan Posté 25 Janvier 2004 Posté 25 Janvier 2004 Il est intéressant d'avoir confirmation des affirmations de GGGuy. Il faut quand même signaler que le fait d'adopter des urls du style "le-titre-de-la-page.html" n'est pas sans risque. Ce genre de démarche engage sur le long terme et c'est là le problème. Imaginons qu'un de ces jours, Google, trouvant que les spameurs en abusent, décide de filtrer les urls de ce type (c'était d'ailleurs une des rumeurs au début de l'update florida). Imaginons que toutes les pages de votre site soient de cette forme... You are in the deep shit
Monique Posté 25 Janvier 2004 Auteur Posté 25 Janvier 2004 Bonjour curio, et bienvenue sur le Hub ... j'étais encore sur ton site alors que tu t'étais déjà inscrit ici, réaction que j'apprécie tout particulièrement ! Je constate que tes tests suscitent intérêt et commentaires, ce qui ne peut être que positif.
curio Posté 25 Janvier 2004 Posté 25 Janvier 2004 Il est intéressant d'avoir confirmation des affirmations de GGGuy. Il faut quand même signaler que le fait d'adopter des urls du style "le-titre-de-la-page.html" n'est pas sans risque. Ce genre de démarche engage sur le long terme et c'est là le problème. Imaginons qu'un de ces jours, Google, trouvant que les spameurs en abusent, décide de filtrer les urls de ce type (c'était d'ailleurs une des rumeurs au début de l'update florida). Imaginons que toutes les pages de votre site soient de cette forme... You are in the deep shit Salut Jan ! Je suis moins pessimiste que toi sur l'avenir des URL's significatives, simplement parce qu'elles correspondent bien à la définition même de l'URL. Si l'URL permet de décrire le contenu, c'est d'autant plus utilisable. Je pense à http://www.la-grange.net/w3c/Style/URI , même si la transposition aux URL's significative n'est qu'extrapolation J'ai quelques réserves également quand aux URL's trop longues. Génerer une URL automatiquement à partir du titre devient une mauvaise idée quand on ne sait pas choisir ses titres! Il faut savoir rester court. Ainsi, pour garantir la permanence des URL's, je pense que c'est une sage idée que de l'aisser un ID unique de document.. example.com/categorie/5-titre-du-document par exemple, permet de ne pas tomber dans une situation catastrophique en cas de représaille idiote de google contre les spammeurs comme celle que tu imagines déjà, en la transformant en example.com/categorie/5 Une url avec id a moins de sens mais est à mon gout plus pérenne
Siddartha Posté 25 Janvier 2004 Posté 25 Janvier 2004 Excellent article Curio ! D'autant plus qu'il semblerait que Google en terme de référencement aurait tendance à mieux indexer les sites standardisés xhtml/css. Il est possible que ce meilleur classement sur ses sites là soit aussi simplement dû au fait qu'une page web bien construite aux normes xhtml est beaucoup plus 'parlante' aux moteurs, et comporte beaucoup plus d'indications textuelles/rédactionnelles qu'une page qui n'est pas aux normes. Toutes les balises de classification sont de plus disponibles dans ces normalisations (je pense notamment aux Dublin Core) qui bien qu'inefficace jusqu'à aujourd'hui semblerait aussi posséder leur propre efficacité pour le positionnement depuis quelques temps. Je te rejoins aussi quant au potentiel de classification du contenu via les urls qui garantirait des résultats dans les outils de recherche de bien meilleure qualité, et aurait aussi de multiples intérêts en terme d'ergonomie. Quant à l'id, sous cette forme, cela ne pose aucun problème, par contre à éviter les paramètres dynamiques de type 'id=' que Google n'indexe pas. (En prévision des futures normes d'indexation des outils de recherche et un attribut id trés utilisé dans les normalisations ? ) Et bienvenue à bord !
Guest exabs Posté 26 Janvier 2004 Posté 26 Janvier 2004 Bonjour, Quelle est la meilleure solution pour migrer un URL-Rewriting _ (underscore) en - (tiret) ? Soit une page url rewritée : page_5_mots-cle.htm --> page.php?rub=5 Comment la transformer en douceur en page-5-mots-cle.htm --> page.php?rub=5 En douceur cela signifie sans duplication de contenu et sans perte de pages indexées.
Guest exabs Posté 26 Janvier 2004 Posté 26 Janvier 2004 Je viens de tester vite fait cela: RewriteRule ^page_([0-9]+)_mot.htm http://www.site.com/page-$1-mot.htm [R=301]RewriteRule ^page-([0-9]+)-mot.htm$ page.php?rub=$1 [L] Et cela semble être bon
Dan Posté 26 Janvier 2004 Posté 26 Janvier 2004 Salut exabs, Oui, c'est bon mais ce n'est utilisable que dans le cas où tu peux prédire le nombre de soulignements que tu dois remplacer... sinon tes règles ne sont pas bonnes. Dans le cas d'urls pouvant être "un_petit_chien.html" aussi bien que "combien_pour_ce_chien_dans_la_vitrine.html" il te faudra envisager une règle récursive te permettant de réécrire tous les soulignements en tirets. C'et là que l'article La réécriture récursive peut venir à ton aide. Ca tombe bien, c'est une publication originale du Hub , il suffit de l'adapter un peu pour l'utiliser. Dan PS: lorsqu'on a un point décimal en première partie de règle il faut prendre l'habitude de l'échapper avec un backslash. Le point seul signifiant "tout caractère".
Guest exabs Posté 26 Janvier 2004 Posté 26 Janvier 2004 Dan, j'avais jetté un oeil à ton article sur la réécriture recursive Il se trouve que mes Rewriting sont de la forme page_5_les-mots-cles-de-la-page.htm donc je connais toujours le nombre d'underscores de la règle, bref j'avais à moitié bon quant à l'utilisation des - ou des _
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant