Aller au contenu

Sujets conseillés

Posté

Bonjour

Savez-vous la moyenne des passages des robots comme google et les autres par jours?

Merci beaucoup :)

Posté

Il n'y a pas de fréquence générale. Google passe plus souvent sur les sites qui ont beaucoup de liens qui pointent vers lui, ou les pages sont réactualisées régulièrement ;) . En gros : Dès qu'il a trouvé ton site, plus tu lui donnes a manger et plus il passe.

Sur le Hub il passe environ 150 000 fois par mois. Ca fait rêver non ? :D

Sur mon site, j'ai remarqué qu'il suffisait que je rentrer quelques nouveaux livres pour qu'il arrive en force. A croire que c'est un littéraire ;)

Posté

Bonjour,

Il est utile de distinguer les visites de la page d'accueil et du robots.txt (même s'il n'existe pas) des visites approfondies.

Sur beaucoup de sites, je vois Googebot visiter la page d'accueil et robots.txt, tous les jours. Sur un nouveau site dont la page d'accueil est PR4, par exemple, les visites approfondies ont eu lieu :

- 5 août 2005

- 25 juillet 2005

- 10 juillet 2005

- 17 juin 2005

- 6 juin 2005

- 26 mai 2005

- 16 mai 2005

- 6 mai 2005

- 21 avril 2005

Jean-Luc

Posté

Et pour parler des autres bots, c'est la même chose, ça varie énormément d'un site à l'autre, même si globalement c'est Slurp (le bot de Yahoo!) qui est le plus assidu sur tous mes sites...

Et comme le suggère le nom de ce bot ainsi qu'Arlette, ils sont très gloutons, donc, donne leur beaucoup à manger pour qu'ils viennent très souvent! ;) A+

Posté

Je sais pas si les bots sont là sur ton annuaire eclipsis mais là ca rame dur, tu leur donne peut etre top à manger... , fais gaffe à la digestion :lol:

Posté

Google et Yahoo semblent faire la course... les deux ensemble ils passent plus de 20 000 fois par jour avec un record le 16 août à 27310 passages.

On va finir par devoir prendre un serveur plus gros, juste pour pouvoir digérer les robots.

Dan

post-1-1124353003_thumb.png

Posté

Merci pour vos réponses

pour lui donner à manger je lui en donne une trentaine d'articles par jour.

mais bon je m'aperçois que je joue avec vous dans la cour des grands ( et je me sens toute petite)

Bon je me remonte le moral en me disant que le site n'a ouvert que fin mai.

Alors mes quarantaines de visiteurs par jour et ma dizaine de commandes me font esperer des meilleurs jours.

Posté

Bonjour,

Ton site semble souffrir d'un problème de "duplicate content", c'est ta dire que Google juge que tes pages ne sont pas suffisamment différentes les unes des autres. Du coup la plupart de tes pages connues de google sont listées seulement par leurs URLs (pas de titre, pas de snippet): http://www.google.com/search?hl=en&q=site%...G=Google+Search

Ce phénomène calme sans aucun doute l'ardeur que met googlebot à visiter tes pages. Plus gênant, les pages "duplicate" n'ont aucune chance de sortir dans google sur tes mots-clés.

Je pense que tu aurais intérêt à différencier un peu plus le contenu de chacune de tes pages. Par exemple:

- mettre des <title> beaucoup plus spécifiques à chaque page. Tous tes titres commencent par "LA PETITE FRANCAISE : vente de bijoux et de montres en ligne" suivi de quelques mots spécifiques à la page. A ta place je supprimerais cette phrase récurrente au profit d'un title 100% spécifique, ou au pire la remplacerai par "bijoux et montres", ce éviterait que la partie spécifique de chaque titre ne soit noyée dans la partie générique

- tes balises meta keywords et description me semblent indentiques sur toutes tes pages. Même si ces balises n'ont pas une grande importance, il vaut mieux ne pas en mettre du tout que de mettre les mêmes partout.

- le contenu des pages (la présentation des articles) devrait aussi être un peu plus riche pour que google n'ait plus aucun doute sur le fait que tes pages ne sont pas identiques.

Posté

Bonjour,

La fréquence est variable selon l'algo du moteur de recherche.

Je sais qu'il existe un meta tag permettant d'accélerer la réindexation par le spider mais il n'est pas compatible avec tous les moteurs

Tu peux insérer dans le head :

<meta name="revisit-after" content="10 days">

où 10 jours = la fréquence à laquelle tu souhaites que le moteur revienne sur ta page.

Bien sûr, il faut éviter les petites fréquences (type 2 days, 5 days...)

Cordialement

Posté

Bonjour cindy,

A mon humble avis, cette balise ne sert à rien. Tu écris "elle n'est pas compatible avec tous les moteurs". J'irais plus loin. Je dirais que, s'il existe un moteur qui en tient compte, j'aimerais savoir lequel.

Il faudrait aussi s'entendre sur le sens à donner à cette balise. La balise veut-elle dire "demande de visiter au moins une fois tous les 10 jours" ou "interdiction de visiter plus d'une fois tous les 10 jours" ?

Encore une chose : éviter les petites fréquences n'est certainement pas souhaitable dans tous les cas.

Jean-Luc

Posté (modifié)

Merci à tous

Jan j'ai changé les header tags sur les produits, donc n'apparait plus la petite francaise devant les titres produits.

"Plus gênant, les pages "duplicate" n'ont aucune chance de sortir dans google sur tes mots-clés"

Qu'appelles tu les pages duplicate, est ce celle qui contienne un lien produit quand l'article a sa place dans plusieurs repertoires, comme par exemple une bague chez l'homme et la femme?

dans ces cas là n'est il pas plus gênant de le rentrer une seconde fois dans la base de donnée avec la même référence?

merci

google passait quand même me voir 1 fois ou deux par jour donc je l'attend de pied ferme.

mais impossible de savoir exactement le nombre de fois il passe lui et les autres .le logiciel qui me renseigne ne prend en compte que la première visite.

Merci encore pour tous vos renseignements que je lis avec beaucoup d'attention.

Modifié par krisie
Posté
Qu'appelles tu les pages duplicate, est ce celle qui contienne un lien produit quand l'article a sa place dans plusieurs repertoires, comme par exemple une bague chez l'homme et la femme?

<{POST_SNAPBACK}>

Comme j'essayais de l'expliquer (visiblement très mal :blush: ) dans mon message précédent, ce que j'appelle les pages "duplicate" sont les pages que google ne liste que par leurs URLs (pas de titre ni de snippet) sur la commande http://www.google.com/search?hl=en&q=site%...G=Google+Search

Ce ne sont pas à proprement parler des pages identiques puisqu'elles présentent des articles différents, mais elles sont trop peu différentes les unes des autres en terme de contenu (contenu qui comprend les éléments communs - titres, métas, menus, etc... - et les éléments spécifiques) pour que google juge qu'elles sont différentes. Et à défaut de les considérer comme vraiment différentes, google les considère comme des pages "identiques" et les pénalise.

La seule solution pour sortir de ce filtre est d'augmenter les différences entre chaque page, c'est à dire d'y faire figurer un pourcentage de contenu spécifique plus important. Tu as commencé à le faire avec tes <title>, il faut continuer à le faire avec des descriptifs plus importants de chacun des articles.

Si tu y parviens, tes pages retrouveront alors leurs titres et leurs snippets dans google, et auront une chance de se positionner sur leurs mots-clés.

Posté

Non non ce n'est pas toi qui a mal expliqué, mais moi qui est complètement à côté au niveau du sujet.

Malheureusement je ne vois pas comment je vais pouvoir différencier à ce point les pages, puisque quelque part on retrouve toujours les mêmes mots clés dans les descriptifs, comme : bague,bracelet,plaqué or,argent etc....

merci encore

Posté
Malheureusement je ne vois pas comment je vais pouvoir différencier à ce point les pages, puisque quelque part on retrouve toujours les mêmes mots clés dans les descriptifs, comme : bague,bracelet,plaqué or,argent etc....

<{POST_SNAPBACK}>

Je ne sais pas avec quel type d'interface tu gères les articles dans ta base de données. Mais si ce système t'offre un tant soit peu de flexibilité, tu pourrais sans doute ajouter, en plus des photos, des prix et des liens vers les articles, un petit descriptif personnalisé dans chaque rubrique. Ca aiderait google à différencier tes pages les unes des autres sans équivoque.

Posté
les pages "duplicate" sont les pages que google ne liste que par leurs URLs (pas de titre ni de snippet) sur la commande http://www.google.com/search?hl=en&q=site%...G=Google+Search

Pas tout à fait d'accord. D'habitude, les pages que Google ne liste que par leurs URL sont les pages du site qu'il n'a pas encore visitées. Comme il n'en connaît pas encore le contenu, il peut seulement en lister l'URL. Cela pourrait aussi être le cas des pages dont on interdit la mise en cache du contenu (cas rare).

Les pages "duplicate" sont (à mon avis) les pages qui sont accessibles via

In order to show you the most relevant results, we have omitted some entries very similar to the 75 already displayed.

If you like, you can repeat the search with the omitted results included.

ou

Pour limiter les résultats aux pages les plus pertinentes (total : 75), Google a ignoré certaines pages à contenu similaire.

Si vous le souhaitez, vous pouvez relancer la recherche en incluant les pages ignorées.

en bas de la dernière page de résultats.

Mais tout ceci ne change rien à tes conclusions. :hypocrite: Les titres, contenus et descriptions doivent être les plus diversifiés possible.

Jean-Luc

Posté

Non, le fait de n'être listées que par leurs URLs dans google n'est pas que le triste privilège des pages pas encore visitées.

En recherchant par la commande site: sur un gros site, par exemple sur le Hub, tu tomberas sur des pages anciennes que google ne liste que par leurs URLs.

Par ailleurs, à l'occasion du récent update "bourbon", beaucoup de sites ont vu augmenter leurs nombre de pages listées simplement par leurs URLs. Pendant cet update, de nombreuses pages ont "perdu" leurs titre et snippets dans Google. Ces pages étaient auparavant bien listées. il ne s'agit donc pas de pages nouvelles pas encore crawlées, mais bien de pages filtrées, visiblement pour cause de duplicate content.

Quelle logique derrière tout ça? Un tel filtre "anti-duplicate" dans google pourrait par exemple résulter d'une volonté de nettoyer l'index des pages satellites. Les pages satellites sont souvent générées par des moulinettes automatiques, et peuvent souvent être identifiées comme telles par le fait qu'elles se ressemblent un peu trop au niveau de leurs structures. Cette chasse aux pages sat' n'est qu'une hypothèse (gratuite), mais même si ce n'était pas le but recherché, le filtre semble en tous cas assez efficace pour les éliminer :lol:

Posté

D'accord avec l'utilité d'un filtre anti-duplicate, mais, dans ce cas, ce qui n'est pas logique, c'est de quand même lister l'adresse de la page. Après tout, si cette page est sans intérêt ou nuisible, il n'y a même pas de quoi conserver l'URL dans les résultats. :whistling: Google m'étonnera toujours...

Jean-Luc

Posté

Google les liste sur des commandes bien spécifiques (que seuls les webmasters utilisent): site:, inurl:, etc...

En revanche, il semble impossible de les faire ressortir sur une recherche normale (recherche d'un mot-clé). En tous cas pas de façon durable.

En ce sens, ce filtre revient au même que de les supprimer de l'index. Et on peut imaginer qu'il permet à google de ne pas complètement "oublier" les pages, et donc de repasser les crawler de temps en temps, pour voir s'il y a lieu de les sortir du filtre.

Posté (modifié)

Bonjour

Bon alors avec tous vos conseils voici les premiers résultats

sur google 3 ou 4 articles ressortent cela dépend dans la journée, je n'ai pas les mêmes résultats.

Par contre sur msn

http://search.msn.fr/results.aspx?CP=1252&q=site%

3Alapetitefrancaise.net&first=1&FORM=PDRE

Il faut dire qu'il travaille toute la journée avec moi :lol:

merci encore

Modifié par krisie

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...