Bocar Posté 12 Avril 2006 Posté 12 Avril 2006 Bonjour Ca fait des semaines que je me pose cette question... Y'a-t-il un Ordre particulier de Suivi des Liens d'une page par le Bot ? Suit-il les x premiers liens d'une page seulement ? Quels sont les facteurs qui jouent sur son itinéraire dans une page Web ? Ca m'aidera beaucoup pour la suite. Merci
Sebastien Posté 12 Avril 2006 Posté 12 Avril 2006 De façon intuitive je dirais que le moteur doit les parcourir dans l'ordre selon lequel ils apparaissent dans le code. Quand au nombre de liens parcouru je ne saurais dire, ca dépend je pense des moteurs et de la notoriété du site (les sites populaires sont crawlés plus en profondeur souvent). On recommande toutefois de rester en dessous des 100 liens.
Le-juge Posté 12 Avril 2006 Posté 12 Avril 2006 Salut + 1 pour seb, je dirais que dans la mesure ou les moteurs lisent comme tout le monde (NDLR de gauche a droite et de haute en bas) , les leins vont etre indexe dans l'ordre ou ils vont apparaitre... Mais bon... je dois avouer que je me suis jamais vraiment poser la question... et d'ailleurs je peux demander pourquoi toi tu te la poses ?
Bocar Posté 12 Avril 2006 Auteur Posté 12 Avril 2006 Dans le but d'être referencé correctement et entièrement, mais surtout mieux savoir comment je référence. Il faut ne serait-ce qu'un peu savoir comment fonctionne le crawler pour lui donner ce qu'il veut.
zapman Posté 13 Avril 2006 Posté 13 Avril 2006 (modifié) Jusqu'au mois de février, mon site était construit de façon archi-classique, avec des tableaux. La première colonne (à gauche) comportait le menu du site, c'est à dire une longue liste de liens internes. En mars, j'ai utilisé les CSS pour ma mise en page. Du point de vue du visiteur, rien n'a changé, mais cela m'a permis de rejeter mes menus en fin de code. Du coup, le contenu original de mes pages et les liens externes qu'il propose, sont remonté dans le code de mes pages. Depuis début avril, mes positions dans Google sont monté d'un petit cran et ma fréquentation a grimpé de 15%. Comme toujours, en matière de référencement, il faut examiner chaque situation avec une immense prudence avant de conclure que telle cause produit tel effet. La hausse de mes fréquentations est peut-être due à d'autres facteurs que la refonte de mon code. D'autres témoignages viendront peut-être confirmer le mien. Mais si cette relation de cause à effet est confirmée, cela démontre que Google accorde bien un "poids" plus important aux débuts des pages qu'à leurs fins. J'ajoute un bémol à cette réflexion : sur le principe, nous ne sommes pas censé nous préoccuper de la façon dont les crawlers travaillent. Analyser correctement le code d'une page est LEUR problème, pas le notre (et je suis convaincu que Matt Cutts me donnerait raison !). Notre boulot devrait théoriquement se limiter à produire un code propre, léger et sans bug. La façon dont les crawlers de Google travaillent aujourd'hui ne sera peut-être pas la même demain. Vouloir suivre ces évolutions se révèlerait probablement épuisant. Si tu dois revoir ton code pour améliorer ton référencement, travaille d'abord sur sa propreté et sur sa cohérence et ne gaspille pas trop de temps à faire de l'optimisation sur la base de théories provisoires et quasi-impossibles à prouver Modifié 13 Avril 2006 par zapman
captain_torche Posté 13 Avril 2006 Posté 13 Avril 2006 Zapman : je pense que tes gains de positionnement, sont effectivement dûs à la refonte de ton site, mais je doute que la place des liens dans la page soit prépondérante. Si tu as bien séparé contenu et présentation, le cod crawlé par les robots y a beaucoup gagné en pertinence, d'où le meilleur positionnement.
Nicolas Posté 13 Avril 2006 Posté 13 Avril 2006 L'emplacement des liens importe peu à ma connaissance. La seule chose à surveiller c'est qu'ils arrivent avant les 100 ko ... <{POST_SNAPBACK}> C'est p-e le cas pour l'ordre des liens mais p-e pas pour l'emplacement. Un lien dans un footer n'aura pas le même poids qu'un lien placé en début de code dans une balise strong. C'est mon avis ni plus ni moins
Le-juge Posté 13 Avril 2006 Posté 13 Avril 2006 Jusqu'au mois de février, mon site était construit de façon archi-classique, avec des tableaux. La première colonne (à gauche) comportait le menu du site, c'est à dire une longue liste de liens internes. Pas bien! un tableau c'est fait pour afficher des donnees tabulaires - pas pou mettre en forme une page Apres pour revenir au probleme des liens je ne vois pas vraiment sur quoi tu va pouvoir jouer. Une page ca doit etre equilibre donc ...
zapman Posté 13 Avril 2006 Posté 13 Avril 2006 On recommande toutefois de rester en dessous des 100 liens. <{POST_SNAPBACK}> Voici ce que nous dit GoogleGuy (18 aout 2004) La question est simple, mais l'internaute confond la limite des 100 Ko et 100 liens : "J'ai lu à plusieurs endroits que GoogleBot n'indexait que 100 liens par page. 1) Est-ce vrai ? 2) Est-ce vraiment limité à 100 liens ?" GoogleGuy précise : "Comme les autres le disent, la limite tourne plutôt autour des 101 Ko par page. 100 liens est juste un conseil qui suggère de garder les pages sous 101 Ko. Tu peux mettre 150 ou 200 liens par page sans problème, mais garde à l'esprit que si tu as plusieurs centaines de liens par page, tu devrais réfléchir à ce qui est le mieux pour les visiteurs. Il doit y avoir un moyen de retravailler les liens pour qu'ils soient plus logiques pour le visiteur et les outils de recherche (par ex. en les classant par ordre chronologique, ordre alphabétique ou par catégories, etc.)." Source : http://googleguy-fr.blogspot.com/2004/08/q...-100-liens.html
Bocar Posté 14 Avril 2006 Auteur Posté 14 Avril 2006 La seule chose à surveiller c'est qu'ils arrivent avant les 100 ko ... <{POST_SNAPBACK}> Donc de haut en bas jusqu'à environ 100 Ko le code sera lu si je comprends bien ?
Le-juge Posté 15 Avril 2006 Posté 15 Avril 2006 Donc de haut en bas jusqu'à environ 100 Ko le code sera lu si je comprends bien ? Dans l'absolu oui...
Americas Posté 15 Avril 2006 Posté 15 Avril 2006 D'après mes constatations personnelles je pense que l'indexation par Google a bien évolué depuis les fameux principes des "100 liens - 100 ko - ordre de lecture". Les 100 liens sont seulement une recommandation, et encore heureux pour les annuaires qui présentent souvent plus de 100 liens sur leur page principale. Si Google se limitait à 100 liens... certains annuaires ne seraient jamais indexés dans leur intégralité alors qu'en général ils le sont très bien et trsè rapidement. Au niveau des 100 ko... cette limite a explosée et j'ai souvent eu devant les yeux des pages de 200 à 300 ko avec des liens suivis en fin de page. Quant à l'ordre de lecture... là c'est un peu l'anarchie quand je constate que sur de nouvelles pages les liens sont souvent suivis de manière aléatoire et je cherche toujours à savoir pourquoi le bot a indexé cette page et non celle du dessus ou du dessous.
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant