Aller au contenu

Sujets conseillés

Posté

Bonjour,

Nous venons de lancer le site h**p://europe.location-vacances.ws et le résultat de notre référencement est pour l'instant très mauvais malgré tout le travail réalisé...

Un référenceur contacté m'indique que nous n'avons pas assez de contenu 'pertinent' pour GOOGLE sur nos fiches produit et me conseille (gratuitement d'ailleurs) de rajouter du contenu sous forme de texte caché... Il ne souhaite pas me dévoiler de méthode 'valable' pour cacher du texte...

Quelle méthode pourriez-vous me conseiller...

J'ai lu dernièrement que les liens dans les balises <noscript> semblaient être pénalisés bien que tout ceux qui ont affirmé celà n'aient jamais donné d'exemples précis pour etayer leurs dires....

Merci de ne pas répondre que ceci est interdit par GOOGLE ou déonthologiquement interdit, ceci n'est pas le propos!!...

Posté
Merci de ne pas répondre que ceci est interdit par GOOGLE ou déonthologiquement interdit, ceci n'est pas le propos!!...

Bon, on ne le dira pas alors, d'autant plus que c'est de notoriété publique ;)

Pour cacher du texte, il y a effectivement plusieurs "techniques".

La plus éculée est le texte de la même couleur que le fond, et cette méthode est encore largement utilisée et pas toujours détectée. Un peu "beauf" tout de même, vu que n'importe quel visiteur peut voir le texte avec un simple <ctrl-a>.

Une autre "astuce" est l'utilisation d'un calque avec visibility:hidden ou display:none (les 2 pour couvrir tous les navigateurs). Cela se détecte facilement aussi, mais un peu moins en utilisant les CSS dans des fichiers distincts.

Une troisième "astuce" (puisqu'on a décidé de les nommer ainsi) serait une variante de la seconde mais en changeant la visibilité du calque à "none" avec un bout de code JavaScript, non interprété par les moteurs.

Une dernière méthode serait d'utiliser le cloaking pour présenter aux moteurs une page différente que celle des visiteurs. Il faut se baser sur une détection par IP et non par UserAgent... et interdire la mise en cache dont le simple examen dévoilerait la supercherie.

Cette interdiction de mise en cache qui n'a pas souvent de raisons valables risque elle aussi de déclencher une "alerte" chez Google, suivie d'une visite de site et d'un possible bannissement. :down:

Donc, aucune méthode n'est parfaitement fiable, et toute tentative de tricherie ouvre la porte aux concurrents qui ne se gèneront probablement pas pour remplir un "spam report" s'ils découvrent le pot aux roses.

Moralité: Le mieux reste encore d'avoir du vrai contenu, non caché, quoi qu'en disent les "conseilleurs" ;)

Dan

PS: je ne l'ai pas dit, mais je devais le penser si fort que cela s'est senti dans ma réponse, non ? :lol:

Posté

Merci pour ta réponse DAN,

Et le texte caché dans les balises <noscript>???

C'est quand même moins 'violent' que du cloacking et en plus vraiment très facile a mettre en oeuvre..!!

Posté

Disons que l'astuce du <noscript> a été tellement utilisée que les moteurs ont fini par réagir.

Google fait pour l'instant une chasse effrénée aux balises <a..> dans les balises <noscript>. Il y a fort à parier que le texte suive le même chemin.

Je ne parierais pas ma chemise là dessus :lol:

Dan

Posté

En fait pose toi la question : est ce que tu veut que ton site soit bien reference sur le long terme ou juste sur quelques mois ? Si tu veut bosser sur le long terme, abandonne les techniques de gruge et je te le dis par experience. J'ai des sites spamés, bien grugés qui ont marché un mois, deux maxi, et qui maintenant sont dans les choux. Gruger n'est pas compatible avec long terme.

Ce qui serait plus interessant, pour toi et pour le referencement, c'est de rajouter des informations, liens textes, tableaux images, bref du contenu, qui serait en adequation avec le theme de ton site et qui apporterait un plus a ton visiteur, bref rendre le site plus " complet ". Je dis pas qu'il est mal, j'ai parcouru ca rapidement, mais le mieux est de regarder ceux des concurents, et de choper les idées qu'on aime bien.

Enfin, si c'est vraiment du texte caché qu'il veut te rajouter ton referenceur, suffit de le mettre non caché, et d'en faire un tres pertinent, ca sera mieux :) plus interessant pour tout le monde.

Laisse tomber le noscript. Pourquoi ? Parce que même si aujourd'hui c'est pas detecté ( a priori je crois pas ) le mois prochain ca le sera peut etre. Goggle rajoute des filtres sans arret, alors plutot que d'essayer de passer au travers, il vaut vraiment mieux eviter de prendre des risques qui a long terme, feront perdre du temps.

Posté

bonjour

juste un petit commentaire sur le noscript

j'avais par erreur commencé mon site avec un menu en javascript, puis lorsque j'ai commencé à penser à l'accessibilité, j'ai ajouté une balise noscript avec tous les liens de mon menu (une trentaine d'entrées)

la balise noscript m'a tout de même permis de commencer à me positionner correctement, et il me semble que googlebot n'y a pas vu d'inconvénient, après tout il n'y avait pas de triche, et je suis passé en trois mois de PR0 à PR5

depuis je suis revenu à un menu plus conforme, donc plus besoin de ça, j'ai maintenant une simple liste un peu stylée en css, alors je ne sais pas si dans la durée il n'y a pas d'effet pénalisant

quant à cacher des liens avec cette méthode, c'est bien joli mais celui qui a désactivé javascript les verra aussi, est-ce le but recherché ?

Posté
Une autre "astuce" est l'utilisation d'un calque avec visibility:hidden ou display:none (les 2 pour couvrir tous les navigateurs). Cela se détecte facilement aussi, mais un peu moins en utilisant les CSS dans des fichiers distincts.

Pour une CSS interne, je vois bien comment le Robot pourrait voir la bidouille, mais penses-tu vraiment que le Robot de crawl va venir fouiner dans une CSS externe ?

Je pense plutôt que ceux qui se font attraper ont abusé en coincant un max de keywords ou de liens, mais une CSS externe reste bien loin du crawl il me semble.

Quand au noscript, ce sont les fameux liens en footer de page qui sont à éviter, surtout s'il n'y a pas de "script" aux environs. Encore une fois, c'est l'abus qui est à proscrire. 1 ou 2 noscript en footer avec des liens dedans ne va pas pénaliser une page, mais en mettre des dizaines peut être un problème, quoique je ne connaisse pas de cas de blacklistage pour cela.

Posté

Salut Ojal,

Tu pars du principe que du contenu caché est la solution à ton problème... parce que ton "référenceur" te l'a proposé.

Mais quand même tu as quelque doute puisque tu te renseignes sur ce forum...

Tu as raison d'avoir des doutes.

A mon avis, il doit y avoir d'autres solutions, bien meilleures, à ton problème.

Posté

Si tu n'as pas beaucoup de contenu, c'est qu'il est "caché" pour google.

Désactive le javascript et regarde ce qui reste... pas grand chose. Le problème se pose pour google aussi bien que pour les handicapés : ton site n'est pas accessible. Il est vide !

Tous tes liens sont dans des <script>document.write(" :down: (tu en as au moins une vingtaine)

Donc ils ne sont rien. Commence par mettre tes liens en vrai (c'est à dire simplement <a href="...")

Tu n'as pas besoin de javascript pour faire des liens ;)

En plus google attribue plus d'importance à ce qui est en haut de la page. Plus il y a de code avant le contenu, moins il a d'importance. Or tu as des tonnes de code avant ton contenu :P

Posté
En plus google attribue plus d'importance à ce qui est en haut de la page. Plus il y a de code avant le contenu, moins il a d'importance. Or tu as des tonnes de code avant ton contenu :P

On est bien d'accord a priori que GOOGLE accorde plus d'importance au texte en haut de page...

Mais, est-ce qu'il faut considérer le code source de la page, ou la façon dont la page doit être vue par GOOGLE, c'est a dire avec un navigateur texte qui n'interprête pas le javascript???

Car justement, tout le code javascript nous permet de faire ressortir sur un navigateur texte le texte important de la page en haut de page...

Posté
Si tu n'as pas beaucoup de contenu, c'est qu'il est "caché" pour google.

Désactive le javascript et regarde ce qui reste... pas grand chose. Le problème se pose pour google aussi bien que pour les handicapés : ton site n'est pas accessible. Il est vide !

Il ne me semble pas que le site affiche des pages vides aux yeux de GOOGLE ou des personnes handicaées...???

Si on regarde cette page:

http://www.delorie.com/web/lynxview.cgi?ur...ion-vacances.ws ou cette page :

http://www.gritechnologies.com/tools/diagn...ion-vacances.ws

On ne voit pas des pages vides...??

Posté

Alors je ne sais pas comment Google gère les noscripts. Voir plus haut, il y a de meilleurs spécialistes ici :P

Ni d'ailleurs si les javascripts comptent pour le "code en haut" <_<

Mais faire deux liens, un dans document.write et un dans noscript... je ne sais pas si c'est la bonne idée :huh: D'ailleurs je ne suis pas sûr de comprendre le but :blink: Fais-les normalement !

En tous cas on voit

[drapeau_de.gif] [drapeau_en.gif] [drapeau_fr.gif]

  [17_vert.gif] [17_vert.gif]
  [5.gif] [5.gif]
  [5.gif]
    [carrevert_big.gif]
  [carrevert_big.gif]
  [carrevert_big.gif]
  [carrevert_big.gif]
  [carrevert_big.gif]
  [carrevert_big.gif]
  [carrevert_big.gif]
  [carrevert_big.gif]
  [carrevert_big.gif]
  [carrevert_big.gif]
  [carrevert_big.gif]
  [carrevert_big.gif]
  [carrevert_big.gif]

:nono: Tu est sans doute bien indexé pour "carrevert", mais pour le reste...

Le récent concours mangeur de cigognes a montré que de nombreux "vrais liens" et le respect de la sémantique pouvaient avoir un bon effet, tu devrait t'en inspirer. Je suis intimement persuadé que la meilleure indexation s'obtient avec le code le plus naturel possible. C'est ce que j'ai mis en pratique sur mon site, j'ai un pr6, et pourtant le contenu... mais il est bien structuré (et bien lié surtout), et c'est sans doute ce qui compte le plus !

Pourquoi faire compliqué quand on peut faire simple ?

Posté
Pourquoi faire compliqué quand on peut faire simple ?

Bravo Xavier, tu me l'as enlevé de la bouche.

C'est le message que 99,9% des webmasters devraient écrire en haut de leur écran. La simplicité est toujours la solution aux problèmes Web.

Pour ajouter un sentiment par rapport aux noscript, il me semble que si vous avez trop honte de vos liens pour ne pas les afficher sur la page, pourquoi les proposer aux Robots ?

Dans le cadre du concours cigogne, c'était fun de tester les bidouilles en noscript ou autre, mais faire des brouettes de liens ou texte caché ne donnera rien de positif sur la longueur pour un site que tu veux faire durer.

Posté

Merci Xavier et thick pour ces commentaires.

Nous n'utilisons pas le <noscript> pour cacher quoi que ce soit!!! mais simplement justement pour présenter à GOOGLE une page propre et ordonnée comme on le souhaite...

D'ailleurs, pour information, GOOGLE suit parfaitement ces liens et a parfaitement indexé toutes nos pages...

Nous avons utilisé cette technique de javascript et de noscript simplement pour mieux présenter nos pages aux robots (en considérant que les robots voeint les pages comme les éditeurs texte...)

Comment faites vous pour arriver a coder le contenu important de vos pages en haut de page??? ET parle-ton de contenu important en haut de page ou en haut de code????

Pour information, on ne ressort absomument pas sur carrevert ou carrevert_big :o

Posté

Hum....

Google est assez grand pour trouver les liens tout seul!

La simplicité n'a pas besoin d'être simple, mais du complexe resserré et synthétisé.

Alfred Jarry

Posté

Ojal,

Lorsqu'on dit "contenu important en haut de page" il faut effectivement comprendre "en début de source".

Cela peut s'obtenir par l'utilisation de calques que tu poitionnes indépendamment l'un de l'autre.

Dan

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...