Aller au contenu

Sujets conseillés

Posté

Bonjour,

J'utilise ce titre un peu accrocheur pour signaler que les Datacentres que nous avons ajoutés hier sur l'outil du Hub portent un nom chez Google.

Selon le blog de Matt Cutts, deux de ces datacentres hébergeraient une nouvelle approche de l'index de Google, sous le nom de BigDaddy.

J'ai donc mis ces datacentres en tête de liste pour permettre à tous de visualiser aisément les changements, et leur ai donné les noms BigDaddy et BigDaddy 2.

Toujours selon Matt Cutts ( http://www.mattcutts.com/blog/bigdaddy/ ), ces datacentres représenteraient le "futur de l'index Google", et donc les positionnements qui y sont reportés seraient dans l'index général du moteur d'ici un à deux mois.

Ces datacentres ont une nouvelle infrastructure, pas seulement un nouvel algorithme et de nouvelles données. Il y aurait aussi, toujours selon Matt, une sensible amélioration des résultats.

En tout cas si cela se confirme, le Hub garde une très bonne place pour le terme "webmaster" B)

Dan

Posté (modifié)

Merci d'avoir rappelé l'adresse du blog de Matt Cutts que je n'avais pas encore mise dans mes favoris.

Dans la page que tu indiques, Matt renvoie vers les nouvelles pages suivantes qui sont particulièrement intéressantes : url canonicalization, the inurl operator et 302 redirects. On dirait que Google se décide enfin à suivre la voie tracée par Yahoo pour le traitement des redirections et la "canonisation" des URL, ce qui devrait mettre fin au problème des redirections dangereuses. :fete:

Jean-Luc

Modifié par Jeanluc
Posté

Selon ce que Matt Cutts dit sur un autre de ses messages seul 66.249.93.104 donne des résultats bigdaddy pour l'instant.

Posté

En effet les changements sont très subtils dans l'algo. La modification du classement dans mon domaine n'est pas flagrante.

Meme remarque qu'Urban, Bigdaddy2 ne semble pas donner des résultats nouveaux par rapport aux autres datacenters

Posté

Merci de l'info Dan :)

Pour ma part, pas de grand changement de positionnement constaté mais effectivement, beaucoup plus de page indexé sur BigDaddy one !

Posté

J'ai l'impression que le principal changement visible dans Bigdaddy, c'est la taille de l'index...

Ces datacenters sont ceux sur lesquels on avait observé en décembre une inflation considérable du nombre de résultats, qui laisse penser que l'index de google dépasserait maintenant les 20-25 milliards de pages (en tout cas comme c'est invérifiable, disons que c'est ce google semble vouloir que l'on croie)

Cela a probablement nécessité une refonte de leurs datacenters.

Posté

Effectivement, le deuxième datacentre semble ne pas donner les résultats de BigDaddy pour l'instant.

Mais je l'ai ajouté sous le nom de "BigDaddy 2" parce que ce sera vraisemeblablement celui là vers lequel on pourra remarquer le plus vite la propagation de l'algo et des filtres.

Il est en tout cas reconnu comme "faisant partie de BigDaddy".

Dan

Posté

Moi je baisse en nombre de pages indexées mais aussi en positionnement...

Je ne comprend pas, j'ai rien modifié et je pense n'avoir aucune pratique douteuse sur mes sites :wacko:

Posté

je constate pour ma part que désormais dans les requêtes sortent des sites étrangers, beaucoup moins pertinents :angry: résultat, plein de pages en plus, mais des places en moins, pas cool :blush:

Posté (modifié)
Ces datacenters sont ceux sur lesquels on avait observé en décembre une inflation considérable du nombre de résultats, qui laisse penser que l'index de google dépasserait maintenant les 20-25 milliards de pages (en tout cas comme c'est invérifiable, disons que c'est ce google semble vouloir que l'on croie)

<{POST_SNAPBACK}>

effectivement, grosse inflation sur le nombre de pages indexées ... je constate sur un site un plus de quadruplement du nombre de pages ... c'est bien dommage que cela soit invérifiable (l'affichage se limitant aux 1000 premières pages) car j'aimerais bien savoir où il trouve près de 10000 pages qui n'existent pas ... :fou:

cette course à la taille de l'index devient vraiment pitoyable ...

Toujours selon Matt Cutts ( http://www.mattcutts.com/blog/bigdaddy/ ), ces datacentres représenteraient le "futur de l'index Google", et donc les positionnements qui y sont reportés seraient dans l'index général du moteur d'ici un à deux mois.

<{POST_SNAPBACK}>

pas si futur que cela, j'ai déjà vu les résultats du datacenter que tu appelles "BigDaddy" dans le "WWW" ces derniers jours (ses résultats seraient donc déjà intégrés dans le round-robin) ...

Modifié par cendrillon
Posté
Q: Whats new and different in Bigdaddy?

A: It has some new infrastructure, not just better algorithms or different data. Most of the changes are under the hood, enough so that an average user might not even notice any difference in this iteration.

Q: Will this datacenter make me coffee? Is it the solution to all possible issues ever?

A: No. No data center will make 100% of people happy. For every url that moves into the top 10, another url moves out. And the changes on Bigdaddy are relatively subtle (less ranking changes and more infrastructure changes). Most of the changes are under the hood, and this infrastructure prepares the framework for future improvements throughout the year. If you see a webspam or quality issue, let us know so that we can work on it.

Est-ce un futur en terme d'algo ou en terme d'infrastructure ?

Les variations de positions sont intéressante, mais est-ce que ce nouveau datacenter est aussi une migration vers les nouveaux serveurs sun ?

Virage statégique de Google ?

Matt Cutts évoque bigdaddy depuis au moins le 30 novembre .

Des rumeurs sur les nouvelles stratégies financières et architectures courent sur le net depuis environs la même période.

Une conférence de Larry Page est prévue demain. Peut-être en seront nous plus.

L'infrastructure du datacenter me semble plus importante que l'algo actuel qui tourne sur bigdaddy. Cette nouvelle infrastructure pourrait nous donner une idée sur les nouvelles capacités de Google : taille d'index, puissance, etc...

Posté
cette course à la taille de l'index devient vraiment pitoyable ...

<{POST_SNAPBACK}>

Tout a fait d'accord Cendrillon. La taille de l'index n'a jamais été un critère de qualité pour un moteur de recherche.

Posté
Est-ce un futur en terme d'algo ou en terme d'infrastructure ?

Les variations de positions sont intéressante, mais est-ce que ce nouveau datacenter est aussi une migration vers les nouveaux serveurs sun ?

Virage statégique de Google ?

...

L'infrastructure du datacenter me semble plus importante que l'algo actuel qui tourne  sur bigdaddy. Cette nouvelle infrastructure pourrait nous donner une idée sur les nouvelles capacités de Google : taille d'index, puissance, etc...

<{POST_SNAPBACK}>

Il est clair que Google doit se soucier des 2 aspects : l'évolution de ses algos et l'évolution technologique de son système d'information (dimensionnement, architecture et plateformes) ... et il est très "raisonnable" de faire en sorte que les 2 roadmap soient un minimum synchronisées ... ;)

enfin comme le souligne très justement Jean-Luc Antoine dans l'article cité par anorci ... changer de plateforme matérielle (architecture, CPU/OS) ne se fait pas d'un claquement de doigt et Google à peut être voulu profiter de la mise en place de ce nouvel algo pour sauter le pas ... ;)

Posté (modifié)

Pour ma part, j'ai constaté un point important et je me demande si ce Data ne prend pas en compte le TrustRank dont on parle depuis longtemps.

Car si il est vrai que mes sites de contenu progresse en terme de nombre de page, j'ai un site de test (utilisé pour le glouton) qui lui n'apporte pas de réel contenu mais qui possédez bel et bien 90.000 pages indexées et sur le Daddy, il n'en reste plus que 17.000 et je pense (et même souhaite) que ça diminue encore.

(oui je sais c'est pas bien mais c'est du test !)

Modifié par c.klouchi
Posté (modifié)

Je signale une bizarrerie qui se manifeste depuis hier at qui a peut-être un rapport avec l'augmentation d'index dont vous parlez : en lançant une recherche sur le terme RankSpirit, Google prétend avoir trouvé 9190 pages.

- En ajoutant &filter=0 à cette recherche, le nombre de pages trouvées tombe à 989, ce qui est beaucoup plus proche de la réalité aujourd'hui. C'est en tout cas conforme à ce que la première recherche affichait jusqu'à hier.

- En faisant une recherche sur rankspirit -inurl:rankspirit.com, le résultat est encore correct.

- Big Daddy pète encore plus les plombs en prétendant avoir trouvé 16100 pages.

Il y a donc un bug qui se promène et qui fausse l'idée que l'on peut se faire de la taille de l'index.

Peut-être qu'il affiche déjà les résultats 2007 ???

Moi je baisse en nombre de pages indexées mais aussi en positionnement...

Je ne comprend pas, j'ai rien modifié et je pense n'avoir aucune pratique douteuse sur mes sites  :wacko:

<{POST_SNAPBACK}>

A ta place, je ne paniquerais pas : de toute évidence ces résultats ne sont pas définitifs.

Modifié par zapman
Posté
en lançant une recherche sur le terme RankSpirit, Google prétend avoir trouvé 9190 pages.

- En ajoutant &filter=0 à cette recherche, le nombre de pages trouvées tombe à 989, ce qui est beaucoup plus proche de la réalité aujourd'hui.

Je pense qu'on ne peut rien conclure de ce que tu dis.

Car ta première requête neconcerna pas un site mais un mot.

Donc il est tout à fait possible que rankspirit soit dans le texte de plus de 10.000 pages et donc google les affiche normalement à mon sens. :wacko:

Posté
Q: Is there specific types of feedback that you want?

A: Wed like to get general quality feedback. For example, this data center lays the groundwork for better canonicalization, although most of that will follow down the road. But some improvements are already visible with site: searches. The site: operator now returns more intuitive results (this is actually live at all data centers now).

Quelqu'un a tester la commande site et à remarquer d'important changement ?

J'ai juste tester un site :

- Il est passé de +sieurs dizaines de milliers d'urls à moins de 1.000.

A peu près 95% d'urls rewrité proprement, les 5% restant sont des urls contenant des params.

Malheureusement je n'ai pas suivi l'évolution de cette commande dernièrement.

En tout cas, pour ce site, il semblerait que Google ait fait le ménage. Je ne sais pas si c'est lié à des pb de duplicate content ou aux modifications de traitement sur les urls.

Posté (modifié)

Je n'avais pas lu tout les commentaires sur le billet :

Search Engines Web, most of the changes is new infrastructure. Then theres a few new algorithms to handle the underlying changes. But there shouldnt be much algo changes as far as spam, relevance, ranking, etc.

Si je ne fais pas de contresens : il n'y a pas vraiement eu de modifs d'algo.

Au noveau algo, les modifs seraient essentiellement en terme de traitement d'urls et de redirect.

Modifié par anorci
Posté (modifié)
Je pense qu'on ne peut rien conclure de ce que tu dis.

Car ta première requête neconcerna pas un site mais un mot.

<{POST_SNAPBACK}>

Pas un mot, mais une marque :) mais je ne vois pas ce que ça change.

Donc il est tout à fait possible que rankspirit soit dans le texte de plus de 10.000 pages et donc google les affiche normalement à mon sens.

<{POST_SNAPBACK}>

Fais-moi confiance : ça n'est PAS possible. Je suis la progression des pages faisant référence à RankSpirit depuis le début du lancement de cette marque et ce bond brutal à 9100 pages (ou à 16100 pages ! ) est d'autant plus suspect qu'il se dégonfle dès qu'on demande à en voir le détail (le &filter=0 correspond à "relancer la recherche en incluant les pages ignorées")

Il y a bel et bien un bug que Cendrillon dénonçait déjà :

j'aimerais bien savoir où il trouve près de 10000 pages qui n'existent pas ... :fou:

<{POST_SNAPBACK}>

D'ailleurs, ça continue de grimper, il en est à présent à 9220 pages fantômes pour RankSpirit.

Si je ne fais pas de contresens : il n'y a pas vraiement eu de modifs d'algo.

<{POST_SNAPBACK}>

Un tripatouillage de l'index, en tout cas.

Modifié par zapman
Posté

Nombre de pages qui doublent et position quasi stable pour ma part .

J'attends que ce nouvel algo, si nouvel algo il y a, soit généralisé quant à son utilisation avant d'en tirer des conclusions .

A suivre :)

Posté

je viens de constater quelque chose de surprenant, sur tous les dc donnés par l'outil du hub, l'un de mes sites contient 11000 pages, et sur bigdaddy, 12500, mais étrangement, google.fr me renvois sur un datacenter inconnu, qui lui ne reconnait que 380 pages du site (suppressions de pages dues à un changement de dossier)...

y aurait il un dc inconnu?

Posté

Il y en a plein d'autres, et Google en change souvent histoire de rendre la vie des Webmasters plus compliquée :lol:

La liste sur le HUb est une liste non complète. Je ne veux pas lancer 50 interrogations chez Google pour chaque requête. :)

Dan

Posté

Bonjour à tous,

il y a une chose dont on ne parle pas,

c'est que les caches contenus sur bigdaddy 1 sont plus anciens que sur bigdaddy2.

Pour ma part cela apporte un grand changement dans mon référencement,

effectivement sur bigdaddy 1 sur ma requete principale je n'apparait pas, alors que sur bigdaddy2 je suis en 3eme position.

Mon site a un peu plus d'un mois.

Qu'en pensez vous ?

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...