Kent Posté 13 Avril 2007 Posté 13 Avril 2007 Bonjour le hub J'ai remarqué que lorsque je lance l'indexation d'un nouveau site et que celui-ci est optimisé (disons naturellement) il a tendance à bien se positionné dans les jour qui suivent sont indexation puis à rechuter dans le classement peut de temps après. Pensez-vous que google attribut un classeemnt pertinant temporaire le temps pour lui d'évaluer la pertinance de l'ensemble des pages ? Un cadeau de la part de google pour les nouveau site indexé ? (j'avoue que ceci est un peu folklorique ) En bréf avez-vous remarqué ce genre de choses pour vos créations ?
Case Posté 13 Avril 2007 Posté 13 Avril 2007 Hello, Si ca t'intéresse, y a une étude qui est sorti y a pas longtemps sur le Journal du Net à propos du temps d'indexation des différents moteurs de recherche. Et il semble qu'en effet Google fait apparaitre les résultats moins rapidement pour juger de la pertinence du site, alors que Msn et Yahoo étaient plus rapides. C'était vraiment un article intéressant, qui peut surement être discuté car on a tous notre propre expérience contradictoire.... Je vais essayer de retrouver l'article en question. ++ Case
Kent Posté 13 Avril 2007 Auteur Posté 13 Avril 2007 Oui ça serait interessant, mais je trouve que le temps d'indexation dans le moteur (c'est à dire figurer dans sa bdd) n'est pas enormement long. Du moins via le hub. Je mets un lien en signature, le site en question apparait dans l'index entre 2 à 3 jours plus tard seulement. Ce après quoi il est bien placé pour les mot clef dont il a été optimisé pour. Puis 8 à 10 jour après c'est la dégringolade dans le positionnement ....
Régis Posté 13 Avril 2007 Posté 13 Avril 2007 (..)J'ai remarqué que lorsque je lance l'indexation d'un nouveau site et que celui-ci est optimisé (disons naturellement) il a tendance à bien se positionné dans les jour qui suivent sont indexation puis à rechuter dans le classement peut de temps après.Pensez-vous que google attribut un classeemnt pertinant temporaire le temps pour lui d'évaluer la pertinance de l'ensemble des pages ? (...) Bonjour Kent, Je pense que tu fais allusion à la "prime de fraîcheur" (temporaire) pour les nouvelles pages. En 2004, Cariboo en parlait, déjà, dans cette publication de Webmaster Hub - Quelques pistes pour comprendre le nouvel algorithme de Google.. Même si certains points ont évolués ou changés... Les nouvelles pages "recevoient" une sorte de bonus avant d'être classées correctement.
Kent Posté 13 Avril 2007 Auteur Posté 13 Avril 2007 Ah ! je me disais aussi, j'ai remarqué ça sur tous mes sites, c'est plutôt sympathique de la part de google... mais bon rien n'est fait il faut remonter le classement petit à petit au fil des semaines...
appollo Posté 13 Avril 2007 Posté 13 Avril 2007 On a souvent parlé de prime de fraicheur, j'ai toujours eu un doute face à ce terme. Je serait plus du genre à dire que google dans un premier temps index le site en globalité, puis via les différents passages des bots il voie les imperfection du site. Ou encore deuxième théorie google indexe le site dans un premier temps sans filtrer le site (hypothèse selon laquelle google appliquerais des filtres sur les sites, requêtes) puis dans un deuxième temps mais des filtres
Kent Posté 13 Avril 2007 Auteur Posté 13 Avril 2007 Ou encore deuxième théorie google indexe le site dans un premier temps sans filtrer le site Comment google peut-il placer le site dans les première position (ce qui implique que le site est pertinent pour certains mots clef) sans le filter dès le départ ? Je veux dire, pour évaluer la pertinance d'une page, il faut bien l'analyser avant non ? Je pense plutôt qu'il analyse effectivement les pages, suivant l'optimisation du site pour son positionnement google en déduit une pertinance + " la fameuse prime de fraîcheur " . Puis au deuxiemme crawl un peu plus avancé la prime "saute" et le site est classé reelement pour ce qu'il vaut à cet instant là en prenant comme critère tout ce que l'on connais sur le réferencement (backlink etc).
Magicoyo Posté 13 Avril 2007 Posté 13 Avril 2007 J'ai observé cela également de manière unformelle. Ca s'apparente à une prîme de fraicheur. Le problème, c'est que cette prime de fraicheur n'a pas les mêmes suites pour tous les sites. Certains retombent (comme les tiens ou certains des miens), d'autres s'accrochent à leurs bons positionnements. J'essaie de faire une étude -je peine un peu- pour vérifier un postulat : la prîme de fraicheur serait peut-être une période d'essai. Après la 1ere indexation; Google sur-représente un site (=prîme de fraicheur). Cette sur-représentation génère des BLs et/ou du trafic... ou pas. Cela permettrait à Google d'évaluer l'intérêt d'un site web. Ainsi, un site avec un départ canon (trafic et BLs) prendrait naturellement de bonnes position, sans subir de filtres. Un site qui ne mettrai pas à profit sa "période d'essai" pour attirer Bls et trafic serait sandboxé. Cette étude repose au départ sur l'observation non rigoureuse du lancement d'une vingtaine de sites de médiocre qualité. Ils subissent tous prime de fraîcheur, puis Sandbox, puis retour progressif à un positionnement "normal". J'ai donc mis quelques sites en lancement sous surveillance hebdomadaire (positionnement + BLs). J'ai bien quelques sites médiocres dans ma besace. Je manque de sites ambitieux avec un bon travail dès le lancement (on devais m'en proposer quelques uns... mais). Je ne peux donc proposer pour l'instant qu'un constat partiel et une idée qui me parait logique (prime de fraicheur = période d'essai). Si certains d'entre-vous s'apprêtent à lancer des sites webs ambitieux, avec un travail de création de lien de QUALITE dès le lancement. Je veux bien les ajouter à mon panel. Rien à faire pour vous si ce n'est m'envoyer URL + mots-clés visés. L'étude se fait sur plusieurs mois.
web-creation.ca Posté 13 Avril 2007 Posté 13 Avril 2007 Google met un "rank boost" sur tous les nouveaux sites afin qu'ils ne soient pas désavantagés par rapport aux autres et à leur niveau de contenu. Par contre je ne sais pas combien de temps ce "rank boost" dure... Il faudrait vérifier...
Wolf18 Posté 13 Avril 2007 Posté 13 Avril 2007 Je ne le sais pas non plus mais une chose est sur c'est que ca avantage vraiment les nouveaux sites ! Un lien en signature vers un site très récent sur le Hub est vraiment un propulseur côté référencement et placement... J'ai doublé un gros site communaitaire du même thème que moi en très peu de temps et sans grand effort réel de référencement. Si vous avez des informations concernant le temps de ce "rank boost" je suis prenneur bien entendu, car j'ai pas trop envie de descendre maintenant que ca commence à bien marcher
Kent Posté 13 Avril 2007 Auteur Posté 13 Avril 2007 Pour les miens j'ai constaté une révision des positions dans les 10jours qui suivent
Magicoyo Posté 13 Avril 2007 Posté 13 Avril 2007 Google met un "rank boost" sur tous les nouveaux sites afin qu'ils ne soient pas désavantagés par rapport aux autres et à leur niveau de contenu... Dans quel objectif à ton avis ?
web-creation.ca Posté 13 Avril 2007 Posté 13 Avril 2007 (modifié) Une page met du temps à se faire connaître par une communauté donc les backlinks sont difficilement nombreux sur les sites récents comparé à un site plus vieux. Admettons qu'un site A gagne 120 backlinks par an. Au bout de 5 ans, il a 600 backlink. Un site B, lui, gagne 240 backlinks par an, et il a seulement 2 ans. Il aura 580 backlinks. C'est logique que le site qui gagne 2 fois plus de backlink par an ait un meilleur PR, même si il est plus récent. Le site B est à coup sûr 2 fois plus pertinent que le premier, même avec moins de backlink. Google doit donc faire un calcul de ce type, il prend en compte l'âge du site et fait une sorte de ratio. L'objectif de Google en faisant ça est de rester le plus pertinent possible lui aussi ;-) Modifié 13 Avril 2007 par web-creation.ca
Magicoyo Posté 16 Avril 2007 Posté 16 Avril 2007 Je fais pas trop les mêmes analyses. Je pense que Google à intégré des notions de cycle de vie de l'information dans son algo. Le nombre de Bls est loin de suivre une progression linéaire. Certaines infos ont une pertinence de faible durée. Elles n'ont donc aucune raison de squatter les SERPS pendant des années. La pertinence de Google dépend donc de sa capacité à fournir de l'info en cours de validité. Je sais pas si ça passe par l'analyse de la courbe des Bls, par de l'analyse de trafic, ou les deux. Mais j'ai vraiment cette idée en tête. Le problème comme toujours pour faire une analyse poussée est d'isoler les facteurs.
zapman Posté 17 Avril 2007 Posté 17 Avril 2007 (modifié) Allez, je vais ramener ma théorie de la Google Toolbar sur le tapis. Grâce à la "prime de fraicheur" appliquée aux nouveaux sites, Google génère des visites sur ces sites et peut mesurer - grâce à la Google Toolbar - le comportement des visiteurs : restent-ils ? consultent-ils plusieurs pages ? Cette épreuve du feu lui permet d'attribuer très vite une note de qualité au nouveau site, note qui entrera en ligne de compte dans le classement définitif. Ne tirez pas, S.V.P., je suis bien conscient de nager en pleine théorie conditionnellement hypothétique (ou peut-être hypothétiquement conditionnelle). Modifié 17 Avril 2007 par zapman
web-creation.ca Posté 17 Avril 2007 Posté 17 Avril 2007 Hehehe why not, c'est juste un petit peu tiré par les cheveux mais, why not ;-)
Magicoyo Posté 17 Avril 2007 Posté 17 Avril 2007 _AT_Zapman : C'est exactement ce dont je parle prime de fraicheur = période de test Test sur quoi ? - Le trafic ? - Les Bls ? Ce sont en effet 2 données à disposition de GG.
Sarc Posté 17 Avril 2007 Posté 17 Avril 2007 Tant qu'on y est, faudrait étudier le comportement de Google vis à vis des sites qui ont Google Analytics comme statistiques... Ca leur permet d'étudier encore mieux que Toolbar le nombre de visites, et surtout le nombre de pages par visite, la fidélité etc... Vous pensez qu'une page étudiée par Google Analytics a plus de chances d'avoir des bonus qu'une page qui ne l'est pas ?
JulienCoquet Posté 13 Juin 2007 Posté 13 Juin 2007 Tant qu'on y est, faudrait étudier le comportement de Google vis à vis des sites qui ont Google Analytics comme statistiques... Ca leur permet d'étudier encore mieux que Toolbar le nombre de visites, et surtout le nombre de pages par visite, la fidélité etc... Vous pensez qu'une page étudiée par Google Analytics a plus de chances d'avoir des bonus qu'une page qui ne l'est pas ? Google Analytics n'a pas d'influence sur le PageRank La popularité d'un contenu n'est pas forcément un gage de sa pertinence pour vos positionnements, n'oubliez pas Google Sitemap! https://www.google.com/webmasters/tools/docs/en/about.html
Cariboo Posté 14 Juin 2007 Posté 14 Juin 2007 Il y'a eu pas mal d'articles scientifiques il y'a 18 mois sur la prise en compte de la "dimension temps" dans les algorithmes des moteurs de recherche, l'objectif étant soit de pénaliser des sites dont l'évolution dans le temps est "hors normes" (ce qui donne les résultats connus sous le nom de sandbox chez Google), soit de favoriser les pages "fraîches" parce que parlant de l'actualité, et comment combiner les deux logiques (une page ancienne avec un fort pagerank et un fort trustrank est sans doute "fiable", mais une page nouvelle qui n'a pas encore de liens entrants doit pouvoir sortir en tête des résultats si elle est pertinente sur une requête liées à l'actualité, elle doit donc être "boostée" artificiellement, et temporairement). Il y'a pas mal d'indices qui démontrent que Google combine une série de règles en cascade pour booster et/ou pénaliser les pages récentes, des règles qui ressemblent à ce qui est décrit dans ces articles. La "prime de fraicheur" telle que je la décrivais est devenue beaucoup plus sophistiquée.
Magicoyo Posté 14 Juin 2007 Posté 14 Juin 2007 Google Analytics n'a pas d'influence sur le PageRank La popularité d'un contenu n'est pas forcément un gage de sa pertinence pour vos positionnements, n'oubliez pas Google Sitemap! https://www.google.com/webmasters/tools/docs/en/about.html Oh punaise Julien, 3 phrases, 3 fois pas d'accord avec toi. Personne n'a fait le lien entre GGAnalytics et le PageRank. Juste un lien entre GGA et connaissance par Google du trafic et du comportement des internautes sur la page... Plus qu'un lien direct Analytics/positionnement, je pense que GGA permet à Google de confirmer ou infirmer la qualité de ses critères de mesure de la pertinence. A mon sens, trop peu de sites utilisent GGA pour en faire un critère de pos. Ensuite, sur le lien entre popularité et contenu. Je voudrais rappeler que, contrairement à ce que tu dis, ce lien à été montré par Brin & Page dans leurs travaux universitaires. Que c'est un des fondamentaux historique de Google. Que l'intégration de la popularité dans l'algo a été rendue possible le calcul d'un indice appelé PageRank. Enfin, Sitemaps n'a pas de lien direct avec le positionnement, mais avec l'indexation. Le lien entre les deux est conditionné par beaucoup beaucoup de critères.
JulienCoquet Posté 14 Juin 2007 Posté 14 Juin 2007 Google ne se sert des informations de GA que pour des statistiques internes (ce qui rappelait le post d'avant) : on est donc d'accord sur ce point là en fait. Google n'est pas non plus le seul moteur de recherche existant (si si , je vous assure ) et d'autres moteurs utilisent d'autres algoritmes. Pour revenir aux travaux de Sergei et Larry, j'ai toujours eu l'impression que la popularité influant le PR était basé sur les liens entrants, pas sur la consultation de la page. Me trompe-je? Enfin pour Sitemap, il s'agit effectivement d'une erreur de ma part, mon post aurait du faire mention d'indexation et non de référencement. Merci de l'avoir relevé
thick Posté 14 Juin 2007 Posté 14 Juin 2007 Google n'est pas non plus le seul moteur de recherche existant (si si , je vous assure ) et d'autres moteurs utilisent d'autres algoritmes. Quand je lis cet article du jour http://www.atelier.fr//article.php?artid=34625&catid=30 je me dis que sans Google, on est peu de chose... Par contre, certains essayent justement de voir si on peut se passer des principaux moteurs http://searchengineland.com/070612-093020.php Pour revenir aux travaux de Sergei et Larry, j'ai toujours eu l'impression que la popularité influant le PR était basé sur les liens entrants, pas sur la consultation de la page. Me trompe-je? A l'époque des études de Larry et Sergei, oui la popularité était basée principalement sur le PR. Désormais, GG dispose d'une multitude de points d'entrée et de sortie (Gmail, Toolbar, Talk, Orkut, Analytics, etc...) qui permettent d'évaleur la popularité d'URLs. L'internaute est beaucoup mieux cerné, permettant d'utiliser nombres de paramètres additionnels.
snwoman49 Posté 17 Juin 2007 Posté 17 Juin 2007 (modifié) Pour ma part, de l'expèrience que j'ai avec mon site, je peux dire qu'un lien sur la page d'accueil référence un nouveau site web en moins de 2 jours (avec apparition dans les résultats de recherche). Par contre ca met plus longtemps pour faire bouger le positionnement d'un site sur un mot clé. Autre chose, je peux vous dire que Google adore les actualités, depuis que j'en écris le bot reste tout le temps sur mon site et mes pages apparaissent dans les résultats (et en très bonne place) moins de 30min après la mise en ligne (pour dire, j'apparaîs avant LeMonde) ! Modifié 17 Juin 2007 par snwoman49
20aubac Posté 17 Juin 2007 Posté 17 Juin 2007 Autre chose, je peux vous dire que Google adore les actualités, depuis que j'en écris le bot reste tout le temps sur mon site et mes pages apparaissent dans les résultats (et en très bonne place) moins de 30min après la mise en ligne (pour dire, j'apparaîs avant LeMonde) ! Tu as fait quelque chose de particulier pour obtenir ce résultat (j'imagine d'ailleurs que ça n'a pas été instantané) ?
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant