Invité Posté 25 Février 2011 Posté 25 Février 2011 Je n'ai pas vu le sujet sur le hub (ou j'ai mal cherché..) alors je poste l'information. Google veut "encourager un écosystème du web sain", et favoriser les "sites de haute qualité" dans son moteur de recherche. Il annonce une modification importante de son algorithme qui touchera plus d'une recherche sur dix, et qui pourrait chambouler la hiérarchie des sites web dans les résultats du moteur le plus populaire du monde. Source : Numerama
Dan Posté 25 Février 2011 Posté 25 Février 2011 Espérons dans ce cas que le Hub sera considéré comme un "site de qualité" par Google !
captain_torche Posté 25 Février 2011 Posté 25 Février 2011 Oui, j'ai lu ça ce matin : http://searchengineland.com/google-forecloses-on-content-farms-with-farmer-algorithm-update-66071 Si la MàJ impacte bien les sites sans contenu propre (Aggrégateurs et autres), ça ne peut faire que du bien.
Arlette Posté 25 Février 2011 Posté 25 Février 2011 C'est bien, ça va faire de l'animation sur les forums de webmastering !
Invité Posté 25 Février 2011 Posté 25 Février 2011 Un bon nombre de pseudo "annuaire" risque de disparaître de la circulation... Enfin depuis ce matin je vois énormément de Webmasters & Seo trembler...
Patrick Posté 25 Février 2011 Posté 25 Février 2011 Réponse du berger à la bergère ? Vu ce que Google se prend dans les dents outre-atlantique depuis plusieurs semaines sur la qualité de ces SERP cette annonce n'a rien d'étonnant. Alors effet d'annonce pour calmer les détracteurs avec de petits ajustements à venir ou réels changements en perspective ? En tout cas, comme toujours, au niveau marketing c'est une réussite ! ++ Patrick
Quiestlemeilleur Posté 25 Février 2011 Posté 25 Février 2011 On peut supposer (en tout cas ca serait la logique) que tous les sites communautaires (les forums, les sites ou les visiteurs interviennent) seront à l'abri - plus ou moins - et que les sites accumulateurs statiques de données (annuaires, répertoires en tout genre) seront pénalisés.
Wolf18 Posté 27 Février 2011 Posté 27 Février 2011 Je pense que ça ne pourra être que positif. Il y a tellement de sites qui ne servent absolument à rien et qui arrivent pourtant parfois a bien se positionner dans les résultats de recherche... Adieu les "sites" qui prennent votre nom de domaine pour créer du contenu avec vos statistiques, vos META et tout le reste
playmannba Posté 27 Février 2011 Posté 27 Février 2011 cela peut faire du bien pour éliminer jespère de nombreux site polluant le net
MagiX Posté 28 Février 2011 Posté 28 Février 2011 Je n'ai pas vu le sujet sur le hub (ou j'ai mal cherché..) alors je poste l'information. Ma question serait : Google, de + en + commercial, est-il encore fiable ? Les pages web et blogs écologiquement correcte ; ce serait quoi ?
Portekoi Posté 28 Février 2011 Posté 28 Février 2011 Des pages vertes Sérieusement, j'espère que le ménage sera fait sur les sites qui le méritent...
Nicolas Posté 28 Février 2011 Posté 28 Février 2011 Bonjour, Je suis un peu plus septique que certains . Déjà comment déterminer un site qui "mérite" d'être dans le TOP10 ou au contraire un site qui ne doit pas ressortir ? Si vous ne voulez plus dans Google de guides (comparateurs), de sites persos (blog par exemple), de sites commerciaux, il va rester quoi ? ;-) Un internaute peut aussi trouver un guide intéressant, moi même je passe par des comparateurs de prix. Après il y a aussi des sites à éliminer mais même dans ce cas un filtre peut aussi éliminer des sites légitimes (y compris les vôtres). PS : concernant les annuaires je suis assez d'accord qu'ils ne doivent pas squatter les 1eres places même si j'en possède un ;-)
lafleur Posté 1 Mars 2011 Posté 1 Mars 2011 Le point qui n'est pas éclairci, c'est quand le site "de haute qualité" spamme comme un taré. Google semble croire que l'intérêt d'un site se mesure au fait qu'il ne cherche pas à le truander, mais c'est tout à fait faux. Enfin ça, c'est son problème. Le point positif que je vois à ces annonces sur le thème "On vire qui on veut quand on veut et on se fout des dommages collatéraux", c'est que ça fait tellement de bruit que même les clients en entendent parler. Encore un peu et ils vont comprendre qu'on ne peut pas compter sur les résultats naturels de GG. Du coup devraient être favorisées des actions webmarketing plus, euh, saines, disons
michael20fr Posté 15 Mars 2011 Posté 15 Mars 2011 çà fais comme peur ... si on pouvez savoir ce que çà va faire çà serais bien ....
Patrick Posté 16 Mars 2011 Posté 16 Mars 2011 Si on pouvait savoir ce que ça va faire, ça serait bien ...
rombest Posté 15 Mai 2011 Posté 15 Mai 2011 Je suis sceptique sur le pouvoir de google de sélectionner ce qui est bon et ce qui n'est pas bon. Le MONDE est trop grand pour Google. Les webmasters sont bien rousses aujourdhui et un robot ou un algorithme aura toujours des point faibles. Ceci dit, ce serrai idéal, mais je n'y crois pas. Je pense que celle ci st une nouvelle semblable au TrustRank, qui n'a toujours pas été mis en place.
yuston Posté 16 Mai 2011 Posté 16 Mai 2011 Dépend du TrustRank. Celui de Google est un concept pour lutter contre le phishing et je pense qu'il est en place depuis longtemps mais ne semble pas intervenir dans le classement des sites. Celui de Yahoo est aussi en place qui lui permet très certainement de classer les pages dans les résultats...
Cariboo Posté 20 Mai 2011 Posté 20 Mai 2011 Quelques précisions à propos du Trustrank pour éviter de jeter le trouble chez les lecteurs de ce sujet. "Trustrank" désigne chez Yahoo! un algorithme qui permet de créer une note de confiance, utilisable pour classer les pages de résultats : plus une page reçoit des liens provenant de sites classés comme "de confiance", plus la page est considérée comme "trustworthy". Chez Google, cela désigne officiellement autre chose (c'est mentionné dans un brevet concernant Google News). Cela ne veut pas dire que le principe de l'algorithme inventé par Yahoo! n'est pas utilisé chez Google. En fait, l'idée d'utiliser ce genre de signaux est très ancienne (on peut même remonter à Hilltop), et il est probable que Google essaie de mesurer l'autorité des sites et le niveau de confiance que l'on peut avoir en eux en utilisant l'information contenue dans le graphe des liens. Sérieusement' date=' j'espère que le ménage sera fait sur les sites qui le méritent...[/quote'] Euh, franchement, si j'en crois ce que je vois au UK, ça se discute sérieusement...
outil-seo Posté 30 Mai 2011 Posté 30 Mai 2011 C'est effectivement vrai et cela va faire du bien aux sites de qualités. Esperons que Google ne se trompe pas dans les sites de qualités ?! Car qu'est ce qu'un site de qualité ???!!!
dragonside Posté 25 Juin 2011 Posté 25 Juin 2011 Si site de qualité veut dire,webmaster sachant utiliser à bon escient les divers moyen de bien référencer son site sur google,je crois qu'il faudra aller chercher les vrais sites de qualité vers la 50 éme page de résultat...
thierryV Posté 28 Juillet 2011 Posté 28 Juillet 2011 Bonjour Un petit aperçu des plus gros perdants: />http://actu.abondance.com/2011/04/google-panda-uk-nouvelles-stats-sur-les.html Pas de stats dispos pour les sites français. Cordialement
Nicolas Posté 28 Juillet 2011 Posté 28 Juillet 2011 Bonjour, Normal puisque les sites francophones ne sont pas encore impactés par l'algorithme Panda (ou alors partiellement par effets de bord). Il y aura aussi de la "casse" en France dès que l'algo sera en place et on sera vite informé en cas de baisse de trafic sur certains sites populaires.
karnabal Posté 28 Juillet 2011 Posté 28 Juillet 2011 Déploiement de Panda en France : premiers dégâts -> http://www.referencement-2000.com/actualite-seo/referencement-deploiement-de-panda-en-france-premiers-degats-000270.html
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant