Naej Posté 25 Septembre 2003 Partager Posté 25 Septembre 2003 Parmi les discours forts différents que je peux recevoir et l'excellente qualité du contenu que j'ai pu trouver d'autres forums, je m'interroge sur la véritable valeur de l'url rewriting dans la durée. Quelqu'un est-il capable de me dire quels en sont les désavantages ? Pour > moi, cela reste de la redirection et fort peu sur quand à sa durée de vie (changement des algo, blacklistage, etc. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Dan Posté 25 Septembre 2003 Partager Posté 25 Septembre 2003 Bonjour Naej, et bienvenue sur Le Hub ! Je ne pense sincèrement pas qu'il y ait le moindre risque de blacklistage lors de l'utilisation de l'URL rewriting. En fait, si l'URL rewriting est fait correctement, un visiteur n'a aucun moyen de le détecter (et un moteur non plus). Il n'y a que lors de l'envoi d'entêtes spécifiques telles qu'une redirection permanente 301 qu'il y a évidence de redirection. Et même dans ce cas, la redirection 301 est celle qui est recommandée par Google en cas de changement d'adresse d'une page... donc aucun risque non plus. Le seul risque à mon sens pourrait venir d'une mauvaise implémentation des règles, qui peuvent dans ce cas mettre un serveur "à genoux". Nous avons quelques articles dans la partie publications du Hub qui peuvent t'aider à mettre cela en place... Pour te donner une idée du niveau de résultat qu'on peut obtenir avec une réécriture effectuée correctement, un de mes clients récents avait avant réécriture d'URL une dizaine de pages dans l'index Google, et environ 1000 pages après... Chacune de ses nouvelles pages a un contenu unique et il n'y a donc aucun risque de blacklistage... au contraire. Ce client se reconnaîtra très certainement comme il est membre du Hub. Peut-être témoignera-t-il ici pour te rassurer? Cordialement, Dan Lien vers le commentaire Partager sur d’autres sites More sharing options...
Naej Posté 25 Septembre 2003 Auteur Partager Posté 25 Septembre 2003 Précisément, ça m'intéresse au niveau des ralentissements serveurs : quand tu passes de 10 pages proprement indexées à plus de 1000 en utilisant l'url rewriting, est-ce que tu ne risques pas de mettre ton serveur à genoux et de rallonger considérablement les requettes de navigation "normales" (accés base, etc...) ? J'en profite à ce sujet : PROXAD tolère l'URL rewriting ? nb : J'ai probablement du moucher Mr Anderson une ou deux fois, c'est la raison Lien vers le commentaire Partager sur d’autres sites More sharing options...
Dan Posté 25 Septembre 2003 Partager Posté 25 Septembre 2003 Naej, Malheureusement Proxad ne supporte pas l'URL rewriting mais de nombreus hébergeurs offrent des possibilités pour quelques dizaines d'Euros/an... Si les règles sont bien écrites, avec par exemple un "passthrough" pour tout ce qui ne doit pas être réécrit, le ralentissement se chiffre en millisecondes... et reste donc indétectable. D'où l'importance d'une étude préalable correctement menée pour éviter les mauvaises surprises. Dan Lien vers le commentaire Partager sur d’autres sites More sharing options...
Naej Posté 25 Septembre 2003 Auteur Partager Posté 25 Septembre 2003 Bon, pourquoi pas donc...mais : Qu'en est-il de l'intérêt de générer des URLS à la volées ? Parcours du crawl favorisé qui peut, peut être, indexer 1000 pages du site ? OU Volonté d'indexer soi-même les pages statiques générés ? Ou là, le danger est le spam... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Dan Posté 25 Septembre 2003 Partager Posté 25 Septembre 2003 Naej, Comme pour toutes les techniques, il y a toujours le risque d'un détournement... Ce n'est pas l'arme qui fait l'assassin, non ? Tous les fondateurs du Hub respectent une éthique et sont profondément anti-spam. J'ai personnellement refusé des clients (à plusieurs reprises) parce qu'ils me demandaient de mettre en place une réécriture d'URLs dont l'idée sous-jacente était le Spam... c'est contre l'idée que je me fais de mon métier. Par contre, pour faire indexer l'intégralité du catalogue d'un site dynamique, l'URL rewriting est "magique" et mérite bien le surnom de "couteau suisse de la manipulation" qui lui est donné sur le site d'Apache. Pour ceux que la réécriture d'URLs intéresse, voici les articles: Mod_rewrite, ou la réécriture des URL "à la volée" La réécriture d'URLs récursive Dan Lien vers le commentaire Partager sur d’autres sites More sharing options...
JPS Posté 25 Septembre 2003 Partager Posté 25 Septembre 2003 (modifié) Boujours à tous Je parle de mon experience: j'ai une base de données de qq 1200 articles. Le site ( cartouche.biz ) en php avait juste une dizaine de pages indexée, en fait les pages statiques. Grace à l'url rewriting on est a réussi a indexer pratiquement toutes les pages du site, et les dernieres vont bientot venir, a voir l'activité des robots. Il ne s'agit pas de spam dans la mesure ou chaque page a un contenu unique cad un type d'imprimante et un type de cartouche. Et nous avons doublé en quelques semaines la fréquentation du site, parce que les visiteurs trouvent precisement ce qu'ils cherchent quand il font une requette détaillée marque / imprimante. Concernant le ralentissement du serveur il n'y en a pas eu ! Un webmaster heureux JPS Modifié 25 Septembre 2003 par JPS Lien vers le commentaire Partager sur d’autres sites More sharing options...
Dan Posté 25 Septembre 2003 Partager Posté 25 Septembre 2003 Bonjour JPS (Jean Pierre) Content de voir que le client auquel je faisais allusion s'attribue le label de "webmaster heureux". Je pense qu'on en ferait tous autant après avoir doublé le trafic ciblé d'un site... Je savais que tu étais convaincu de l'utilité de l'URL rewriting mais apprécie que tu aies pris le temps de venir en témoigner ici. Cordialement, Dan Lien vers le commentaire Partager sur d’autres sites More sharing options...
Naej Posté 25 Septembre 2003 Auteur Partager Posté 25 Septembre 2003 Que du bon tout ça ! Et pour un site à une variable, ça vaut le coup ? Environ 250 à 300 pages et avec du contenu rédactionnel dans pratiquement toutes ? J'imagine que Oui. OK donc pour l'url-rewriting. Question proche : J'ai un GROS inconvénient : une page en flash qui bascule sur une page d'accueil en index.php avec une variable. Je pense que c'est la raison pour laquelle mon cas de figure, en ligne depuis 2 mois, et qui n'a pas encore été référencé ne propose que 4 pages sur Google. Des suggestions ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Dan Posté 25 Septembre 2003 Partager Posté 25 Septembre 2003 Naej/Jean Même à une variable, ça vaut le coup ! Il n'y a aucun doute là dessus. Maintenant, cela vaudra d'autant plus le coup que tu arrives à introduire des mots clés dans l'URL. Pour le site de Jean Pierre (JPS), il est clair qu'une URL du type: http://cartouche.biz/imprimante_CANON_BJC_4400.html est plus intéressante au niveau indexation qu'une URL /imprimante.php?type=1234 (numéro fictif) L'URL n'est pas démesurée et on gagne les mots clés "canon", "bjc" et "4400" qui sont vraisemblablement ceux que les internautes vont entrer dans la recherche. Un internaute entrera par exemple "cartouche imprimante canon bjc 4400" et tous ces mots sont dans l'URL en comptant le domaine. Et de mémoire, le fichier .htaccess avec les règles ne fait même pas 10 lignes. Si en plus tes titres de pages sont bien fichus... tu dois cartonner ! Y a pas photo ! (même avec Canon ) Pour ta page en Flash, difficile à dire sans la voir, mais il est certain que ce n'est pas le plus facile à référencer... si tu as l'occasion d'y mettre un lien, même petit et de préférence .html, au moins les moteurs pourront passer. Cordialement, Dan Lien vers le commentaire Partager sur d’autres sites More sharing options...
Dan Posté 16 Novembre 2003 Partager Posté 16 Novembre 2003 Une info, provenant de GoogleGuy sur Webmasterworld: GoogleGuySenior Member joined-Oct 8, 2001 posts:1910 msg #:86 6:40 pm on Nov 15, 2003 (DST +2) "If you optimize, you are gaming google, and regardless of what some might say, G hates it." I disagree, NickW. There are tons of ways (adding site maps, making sure that you have static instead of dynamic links, etc.) to optimize your site that *every* search engine would appreciate because it makes a site easier to crawl. Je retiens de cette réponse les mots "making sure that you have static instead of dynamic links" Lien vers le commentaire Partager sur d’autres sites More sharing options...
Olivier Posté 16 Novembre 2003 Partager Posté 16 Novembre 2003 Une info, provenant de GoogleGuy sur Webmasterworld: Je retiens de cette réponse les mots "making sure that you have static instead of dynamic links" Une présentation aléatoire de liens serait elle mal vue ? Non si les liens sont présentés de la même manière Non si ce sont en fin de comptetoujours les mêmes liens qui reviennent Oui si google est "sensitive" Lien vers le commentaire Partager sur d’autres sites More sharing options...
Dan Posté 17 Novembre 2003 Partager Posté 17 Novembre 2003 Salut Olivier, Cette affirmation de GoogleGuy me laisse face à un choix difficile: soit il en connaît bien moins sur le fonctionnement de Google qu'il aimerait laisser croire soit Google a une préférence marquée pour les liens statiques, et le reconnaît volontiers. Difficile de se faire une idée précise sur le sujet Dan Lien vers le commentaire Partager sur d’autres sites More sharing options...
Luckyluk Posté 17 Novembre 2003 Partager Posté 17 Novembre 2003 salut à tous, je suis pas sure de bien comprendre... ça me parait logique qu'un robots preferre un lien statique..non? imaginez que les chemins changent tous le temps...comment retrouver sa maison? pour les calclus d'un moteur, ça doit pas mal embrouiller les pistes... qu'appelez vous un lien dynamique? pour moi c'est un lien qui change à chaque fois que l'on vient sur le site..du genre lien aleatoire... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Dan Posté 17 Novembre 2003 Partager Posté 17 Novembre 2003 Luckyluk, Dans le contexte du post, un lien dynamique est un lien comme on trouve sur tous les sites... dynamiques C'est à dire un lien avec des variables passées dans l'URL, comme nous avons sur le Hub. Manifestement, cela ne semble tout de même pas gêner beaucoup GoogleBot qui indexe le Hub tout à fait correctement. L'index sur www-in nous gratifie de près de 3000 pages. Dan Lien vers le commentaire Partager sur d’autres sites More sharing options...
Luckyluk Posté 17 Novembre 2003 Partager Posté 17 Novembre 2003 oki.. dans ce sens là...effectivement, la theorie de googleguy ne tiens pas car celà ne veut rien dire. ce sont des statiques pour google comment en serait il autrement... une url est une url... on peut imaginer 2 choses comme definition de dynamique pour googleguy.. soit ma theorie...les url qui change souvent.. soit les url avec des mot de variable barbare qui ne reflete pas un contenu...ce qui doit embeter GG pour essayer de detecter les mots importants... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Olivier Posté 17 Novembre 2003 Partager Posté 17 Novembre 2003 A suivre alors Je n'ai developpé ces liens aléatoires que sur une partie du site, je vais voir si les pages en question suivent un changement notable et négatif. Je vais comparer avec d'autres liens, mais statiques (non aléatoire). Je ne crois pas trop en cette defaveur des liens dynamiques (aléatoire), google l'utilise lui même pour ces adwords et liens sponsorisés - disons que j'ai plutôt confiance. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Luckyluk Posté 17 Novembre 2003 Partager Posté 17 Novembre 2003 c'est une theorie que je sort pour essayer d'expliquer ce qu'a voulu dire googleguy ce n'est pas trop mon avis non plus.... surtout quand on imagine que le but d'un moteur est aussi d'essayer de trouver des nouveau liens à indexer...ce qui dans ce cas me parait plutot favorable.. alors il reste la theorie des urls aux mots barbares....qui embrouille GG vue l'importance des ces mots dans les recherche... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Guest fureteur Posté 23 Novembre 2003 Partager Posté 23 Novembre 2003 Par rapport aux liens dynamiques, le portail immobilier très connu utilise un script pour générer en bas de la page d'accueil, les liens des agences immobilieres qui sont chez eux. De même, ils ont créé des pages "satellites" ou pages "parallèles" à l'intérieur du site, dans lesquels un script liste toutes les pages annonces (sous formes de liens) de leurs clients... mais là je sors du sujet du topic et j'ai pas envie de me faire banir... Donc, cela doit quand même être influent ce système de liens dynamiques, sinon, ils en auraient pas tant fait... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Dan Posté 24 Novembre 2003 Partager Posté 24 Novembre 2003 Salut Fureteur, et bienvenue à bord du Hub ! Je ne suis pas convaincu que l'on puisse vraiment parler de pages satellites dans ce cas de figure, à moins qu'on ne parle pas du même portail. Qu'un portail immobilier liste les agences membres est somme toute très normal et ne s'apparente pas à de la tricherie. C'est le propre d'un site dynamique d'extraire ses données d'une base et de les présenter sous forme de pages web. Toutes les entreprises e-commerce présentent leur catalogue en ligne, et ne sont pas des "tricheurs" pour autant. Par contre, certaines n'hésitent pas à nous générer des pages dynamiques en fonction des mots clés les plus recherchés, pas forcément ciblés autour de leur activité, et là c'est une autre histoire. Dan Lien vers le commentaire Partager sur d’autres sites More sharing options...
Beatnykk Posté 24 Novembre 2003 Partager Posté 24 Novembre 2003 à propose de satellites et d'htaccess, le problème qu'à scarabeuz (faire un déplacé si nécessaire dailleurs) d'utiliser sur neoboot ses sous-domaines dans un htacess pour renvoyer par exemple : www.motclef.neoboot.com (<condition) sur www.neoboot.com/script.php?var=motclef (>resultat) hé bien donc : 1/ est-ce possible puisqu'à priori le htaccess à la racine n'a aucun effet sur cet fonction (avec le motclef=divertissement par exemple) à moins qu'il ne faille (comme j'ai pensé ce week end) faire un urlrewriting par sous-domaine, dans le sous-dossier concernant chacun d'eux ??? ou un indexsetting ? 2/ si cela marchait, est-ce que gg (ou autre) prendrait ces pages comme satellites à neoboot lui même ? et cela pénaliserait le site ? ou monterait son pr ? n'aurait aucun effet ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant