Aller au contenu

Sujets conseillés

Posté

Bonjour,

Le JournalduNet (16/03/2007) vient de publier un article sur "Les nouvelles arnaques au référencement".

"Le cloacking nest plus qu'un lointain souvenir. Pourtant, de nouvelles techniques ont pris le relais : faux contenus, splog, liens massifs De quoi occuper les ingénieurs en charge des algorithmes des moteurs."

Apparemment moins nombreux, les blacks hats du référencement emploieraient de nouvelles techniques en utilisant "à l'excès les critères des moteurs pour arriver à se positionner" grâce, essentiellement, au contenu.

Une des illustrations en est l'utilisation massive de mots clés, une autre, le splog (blog satellite) : "les détenteurs d'un site créent un ou plusieurs blogs sur un domaine particulier, ajoutent divers contenus ciblés et créent des liens vers leur propre site."

Il est à noter qu'il y a quelques jours, Matt Cutts (10/03/07) a suggèré aux webmasters d'empêcher l'indexation des pages de résultats pour réduire l'impact de ces pages dans l'index de Google. Et Kaspar "Official Google Webmaster Central Blog" (16/03/07), fait allusion aux pages créées artificiellement grâce, par exemple, aux sources de Wikipedia ou l'ODP.

>> Plus de détail sur le blog - Référencement et tricherie

Posté (modifié)
Il est à noter qu'il y a quelques jours, Matt Cutts (10/03/07) a suggèré aux webmasters d'empêcher l'indexation des pages de résultats pour réduire l'impact de ces pages dans l'index de Google.

Perso, je propose ces pages de résultats à mes internautes parce que les moteurs de recherche ne sont pas capables d'identifier la ressource la plus pertinente de mon site par rapport à une recherche (je ne parle pas de la place de positionnement dans les SERPS de mes pages, je parle juste du choix de la page).

Maintenant c'est aux moteurs de recherche de faire le travail d'indexation, ou non, de ces pages et de virer celles spammantes (celles où le contenu des pages est créé par les contenus d'autres sites).

Modifié par yep
Posté

Mmm ça dépend, tu les proposes de quelle manière ? Est-ce que tu aurais des exemples de pages ?

Posté

Salut,

il est pas difficile de se rendre compte que les résultats des moteurs de recherche sont archi pollués, une simple recherche suffit ! Maintenant les moteurs demandent (continuent de demander ...) aux webmasters de faire leur boulot c'est un peu fort ...

Si ces mêmes moteurs n'avaient engagé une course à celui qui aurait le plus de pages dans son index, pour se concentrer sur des pages avec un réel contenu avec une vraie valeur ajoutée on n'en serait pas là. Maintenant vouloir impliquer les webmasters à réparer leurs erreurs commerciales c'est plus que limite se :shutup: des gens !

++

Patrick

Posté

Y en a qui n'ont pas connu l'heure de gloire d'Altavista par ici lol

Franchement, je trouve toujours ce que je veux sur Google. Les autres aussi sont pas si mal. Après, on peut aussi repartir sur le Minitel...

Posté

Arf ...

Je dis simplement que depuis quelques années il devient de plus en plus nécessaire d'utiliser des commandes restrictives dans les requêtes pour pouvoir faire mouche plus facilement. Le temps nécessaire et le nombre de requêtes pour faire une recherche fructueuse sont de plus en plus longs pour trouver la précieuse information recherchée. Bref il faut beaucoup plus trier qu'avant en raison, je le répete de la pollution du Web. Prétendre qu'il est aussi simple de recherche une infos dans plus de 8 Mds de pages que moins d' 1 Md, sans devoir utiliser les commandes restrictives (exemple : les guillements, les opérateurs logiques, ...) alors qu'on pouvait largement s'en passer avant, n'est pas, non seulement logique, mais aussi de bonne foi.

Patrick

Posté

Personnellement je ne trouve pas google pollué, je trouve toujours mon bonheur. Et je retape rarement ma requête à cause de mauvais résultats...

Posté

Pas de polémique entre nous ;)

J'attend avec impatience ton billet sur le sujet, car comme toi je trouve que JDN ne creuse pas assez alors qu'il y aurait tant à dire.

++

Patrick

Posté

Les pollueurs / tricheurs comme ils sont appelés dans ce topic auront toujours une petite avance sur l'algorithme de detection de ces techniques. On pourrait comparer ça dans un domaine différent; par exemple aux virus qui peuvent faire des degats avant que les anti virus soient à jour.

Les pages qui polluent l'index ne ressortent pas toutes dans les 1eres pages de Google et un site qui abuse de certaines techniques contestables peut aussi renvoyer des resultats pertinants ;-)

Je rejoins Thick lorsqu'il dit qu'on trouve ce qu'on veut sur Google et que c'est plus facile aujourd'hui de trouver son bonheur qu'il y a 10 ans.

Et le jour ou il y aura trop de "mauvaises" pages dans les 1ers resultats, Google aura toujours les moyens techniques et financiers de nettoyer tout ça rapidement.

D'ailleurs il y a deja eu du nettoyage de fait : par exemple je me souviens qu'une requete tres concurentielle renvoyait (il y a environ 6 mois) comme resultat plusieurs sous domaine (une bonne dizaine) conçue specialement pour cette requete. Aujourd'hui ils n'apparaissent plus dans les 1000eres places alors que ces sous domaines se "baladaient" entre la 50eme et 60eme place!

Ce n'est pas un cas unique, regulierement il y a de nombreux sites declassés ou blacklistés. Il y est vrai que certains sites echappent à ce nettoyage mais pour combien de temps encore ? A trop jouer avec le feu on fini par se bruler les ailes.

Posté

Regis a dit:

"Apparemment moins nombreux, les blacks hats du référencement emploieraient de nouvelles techniques en utilisant "à l'excès les critères des moteurs pour arriver à se positionner" grâce, essentiellement, au contenu.

Une des illustrations en est l'utilisation massive de mots clés, une autre, le splog (blog satellite) : "les détenteurs d'un site créent un ou plusieurs blogs sur un domaine particulier, ajoutent divers contenus ciblés et créent des liens vers leur propre site."

Bonjour Regis, toujours a la pointe des infos :smartass: ...

Par contre je ne comprend pas en quoi c 'est tricher que de faire ce qui est dit au dessus, puisque on delivre bien du contenu pertinent, sauf qu au lieu de faire un lien avec un partenaire on travaille en circuit fermé, pour ma part je dirais plutot que c est une technique de referencement.

Enfin ce n'est que mon opinion...

Cordialement

Australien a l ouest :blink:

Posté

Sauf qu'en l'occurence les "contenus" sont très souvent des contenus générés automatiquement ou copiés/collés d'autres sites honnêtes :-/...

Posté
Par contre je ne comprend pas en quoi c 'est tricher que de faire ce qui est dit au dessus, puisque on delivre bien du contenu pertinent, sauf qu au lieu de faire un lien avec un partenaire on travaille en circuit fermé, pour ma part je dirais plutot que c est une technique de referencement.

Parce que ces contenus sont copiés collés de Wikipedia, et tous les posts sont souvent postés en bloc le meme jour et puis plus rien...

Ce qui n'est pas vraiment le mode operatoire d'un blog normal ;-)

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...