Régis Posté 17 Mars 2007 Posté 17 Mars 2007 Bonjour, Le JournalduNet (16/03/2007) vient de publier un article sur "Les nouvelles arnaques au référencement". "Le cloacking nest plus qu'un lointain souvenir. Pourtant, de nouvelles techniques ont pris le relais : faux contenus, splog, liens massifs De quoi occuper les ingénieurs en charge des algorithmes des moteurs." Apparemment moins nombreux, les blacks hats du référencement emploieraient de nouvelles techniques en utilisant "à l'excès les critères des moteurs pour arriver à se positionner" grâce, essentiellement, au contenu. Une des illustrations en est l'utilisation massive de mots clés, une autre, le splog (blog satellite) : "les détenteurs d'un site créent un ou plusieurs blogs sur un domaine particulier, ajoutent divers contenus ciblés et créent des liens vers leur propre site." Il est à noter qu'il y a quelques jours, Matt Cutts (10/03/07) a suggèré aux webmasters d'empêcher l'indexation des pages de résultats pour réduire l'impact de ces pages dans l'index de Google. Et Kaspar "Official Google Webmaster Central Blog" (16/03/07), fait allusion aux pages créées artificiellement grâce, par exemple, aux sources de Wikipedia ou l'ODP. >> Plus de détail sur le blog - Référencement et tricherie
Bruno Cati Posté 17 Mars 2007 Posté 17 Mars 2007 Hum ... ! les déreférenceurs vont se régaler alors .. comment faire la différence ?
yep Posté 18 Mars 2007 Posté 18 Mars 2007 (modifié) Il est à noter qu'il y a quelques jours, Matt Cutts (10/03/07) a suggèré aux webmasters d'empêcher l'indexation des pages de résultats pour réduire l'impact de ces pages dans l'index de Google. Perso, je propose ces pages de résultats à mes internautes parce que les moteurs de recherche ne sont pas capables d'identifier la ressource la plus pertinente de mon site par rapport à une recherche (je ne parle pas de la place de positionnement dans les SERPS de mes pages, je parle juste du choix de la page). Maintenant c'est aux moteurs de recherche de faire le travail d'indexation, ou non, de ces pages et de virer celles spammantes (celles où le contenu des pages est créé par les contenus d'autres sites). Modifié 18 Mars 2007 par yep
Yazerty Posté 18 Mars 2007 Posté 18 Mars 2007 Mmm ça dépend, tu les proposes de quelle manière ? Est-ce que tu aurais des exemples de pages ?
Patrick Posté 18 Mars 2007 Posté 18 Mars 2007 Salut, il est pas difficile de se rendre compte que les résultats des moteurs de recherche sont archi pollués, une simple recherche suffit ! Maintenant les moteurs demandent (continuent de demander ...) aux webmasters de faire leur boulot c'est un peu fort ... Si ces mêmes moteurs n'avaient engagé une course à celui qui aurait le plus de pages dans son index, pour se concentrer sur des pages avec un réel contenu avec une vraie valeur ajoutée on n'en serait pas là. Maintenant vouloir impliquer les webmasters à réparer leurs erreurs commerciales c'est plus que limite se des gens ! ++ Patrick
thick Posté 18 Mars 2007 Posté 18 Mars 2007 Y en a qui n'ont pas connu l'heure de gloire d'Altavista par ici lol Franchement, je trouve toujours ce que je veux sur Google. Les autres aussi sont pas si mal. Après, on peut aussi repartir sur le Minitel...
Patrick Posté 18 Mars 2007 Posté 18 Mars 2007 Arf ... Je dis simplement que depuis quelques années il devient de plus en plus nécessaire d'utiliser des commandes restrictives dans les requêtes pour pouvoir faire mouche plus facilement. Le temps nécessaire et le nombre de requêtes pour faire une recherche fructueuse sont de plus en plus longs pour trouver la précieuse information recherchée. Bref il faut beaucoup plus trier qu'avant en raison, je le répete de la pollution du Web. Prétendre qu'il est aussi simple de recherche une infos dans plus de 8 Mds de pages que moins d' 1 Md, sans devoir utiliser les commandes restrictives (exemple : les guillements, les opérateurs logiques, ...) alors qu'on pouvait largement s'en passer avant, n'est pas, non seulement logique, mais aussi de bonne foi. Patrick
Yazerty Posté 18 Mars 2007 Posté 18 Mars 2007 Personnellement je ne trouve pas google pollué, je trouve toujours mon bonheur. Et je retape rarement ma requête à cause de mauvais résultats...
thick Posté 18 Mars 2007 Posté 18 Mars 2007 Oui Patrick, je comprends mieux ce que tu veux dire maintenant. Désolé pour la polémique Par contre, l'article du JDN me semble plus que light. J'en parle un peu sur http://www.webmaster-hub.com/index.php?s=&...st&p=222435 mais je crois que je vais me fendre d'un billet sur un de mes blogs.
Patrick Posté 18 Mars 2007 Posté 18 Mars 2007 Pas de polémique entre nous J'attend avec impatience ton billet sur le sujet, car comme toi je trouve que JDN ne creuse pas assez alors qu'il y aurait tant à dire. ++ Patrick
Nicolas Posté 18 Mars 2007 Posté 18 Mars 2007 Les pollueurs / tricheurs comme ils sont appelés dans ce topic auront toujours une petite avance sur l'algorithme de detection de ces techniques. On pourrait comparer ça dans un domaine différent; par exemple aux virus qui peuvent faire des degats avant que les anti virus soient à jour. Les pages qui polluent l'index ne ressortent pas toutes dans les 1eres pages de Google et un site qui abuse de certaines techniques contestables peut aussi renvoyer des resultats pertinants ;-) Je rejoins Thick lorsqu'il dit qu'on trouve ce qu'on veut sur Google et que c'est plus facile aujourd'hui de trouver son bonheur qu'il y a 10 ans. Et le jour ou il y aura trop de "mauvaises" pages dans les 1ers resultats, Google aura toujours les moyens techniques et financiers de nettoyer tout ça rapidement. D'ailleurs il y a deja eu du nettoyage de fait : par exemple je me souviens qu'une requete tres concurentielle renvoyait (il y a environ 6 mois) comme resultat plusieurs sous domaine (une bonne dizaine) conçue specialement pour cette requete. Aujourd'hui ils n'apparaissent plus dans les 1000eres places alors que ces sous domaines se "baladaient" entre la 50eme et 60eme place! Ce n'est pas un cas unique, regulierement il y a de nombreux sites declassés ou blacklistés. Il y est vrai que certains sites echappent à ce nettoyage mais pour combien de temps encore ? A trop jouer avec le feu on fini par se bruler les ailes.
australien Posté 19 Mars 2007 Posté 19 Mars 2007 Regis a dit: "Apparemment moins nombreux, les blacks hats du référencement emploieraient de nouvelles techniques en utilisant "à l'excès les critères des moteurs pour arriver à se positionner" grâce, essentiellement, au contenu. Une des illustrations en est l'utilisation massive de mots clés, une autre, le splog (blog satellite) : "les détenteurs d'un site créent un ou plusieurs blogs sur un domaine particulier, ajoutent divers contenus ciblés et créent des liens vers leur propre site." Bonjour Regis, toujours a la pointe des infos ... Par contre je ne comprend pas en quoi c 'est tricher que de faire ce qui est dit au dessus, puisque on delivre bien du contenu pertinent, sauf qu au lieu de faire un lien avec un partenaire on travaille en circuit fermé, pour ma part je dirais plutot que c est une technique de referencement. Enfin ce n'est que mon opinion... Cordialement Australien a l ouest
Yazerty Posté 19 Mars 2007 Posté 19 Mars 2007 Sauf qu'en l'occurence les "contenus" sont très souvent des contenus générés automatiquement ou copiés/collés d'autres sites honnêtes :-/...
Wefficient Posté 19 Mars 2007 Posté 19 Mars 2007 Par contre je ne comprend pas en quoi c 'est tricher que de faire ce qui est dit au dessus, puisque on delivre bien du contenu pertinent, sauf qu au lieu de faire un lien avec un partenaire on travaille en circuit fermé, pour ma part je dirais plutot que c est une technique de referencement. Parce que ces contenus sont copiés collés de Wikipedia, et tous les posts sont souvent postés en bloc le meme jour et puis plus rien... Ce qui n'est pas vraiment le mode operatoire d'un blog normal ;-)
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant