zapman Posté 25 Janvier 2007 Posté 25 Janvier 2007 Vous avez toujours rêvé de visiter la Sandbox, cette contrée envoutante, mythique et mystérieuse dont certains vont jusqu'à nier l'existence ? Vous voulez sentir son sable chaud sous vos pieds, mais vous ne savez pas comment faire et votre honnêteté naturelle vous interdit de recourir aux techniques répugnantes du cloaking ou des pages satellites. Beurk, beurk...quelle horreur !! Ce post est fait pour vous ! Il raconte l'expérience d'un honnête cowboy qui eu droit a une belle traversée du désert (et dans le désert, il y a beaucoup de sable !) Comment j'ai fait J'ai commencé par construire un site tout ce qu'il y a de plus irréprochable : aucune technique de référencement "borderline" ou pouvant présenter la moindre ambigüité. 200 pages de contenu environ, un référencement naturel entièrement à la main, étalé sur deux ans. Même pas de publicité externe. Je crois qu'il était vraiment difficile de faire plus "clean". Au bout de 2 ans, j'ai mis en place une page de sommaire "graphique" utilisant des pop-up menus en javascript. Allez, je vous mets le lien, ça vous permettra de mieux comprendre les explications qui suivent : Sommaire de Rankspirit. Le lendemain de la mise en place de cette version du sommaire, Google sanctionne toutes les pages pointées par le sommaire et le site perd 60% de sa fréquentation. Que s'est-il passé ? (selon moi) Les pages ayant des pop-up menus en javascript comportent ce qu'on peut appeller des "contenus alternatifs". Ces contenus sont parfois affichés, parfois cachés. Dans ma page graphique, une quantité très importante de liens figuraient dans des blocs "div" ayant pour attribut "Display:none". Estimant que j'avais utilisé cette propriété pour cacher des liens aux yeux des internautes tout en les présentant aux moteurs, estimant que cette démarche était malhonnête, Google a pénalisé les pages visées par ces liens. Qu'est-ce qui me fait croire qu'il s'agit de la sandbox ? - Prenons un exemple : l'un des liens figurant dans les blocs cachés était : <a href="creer-son-site-web.php">Créer son site web</a> Suite à la pénalité, la classement de cette page sur l'expression "créer son site web" a reculé de plusieurs dizaines de pages alors que son classement sur "creer son site web" (sans accent) n'a pas bougé d'un iota. - Seules les pages figurant dans le sommaire ont reculé dans les classement. La partie anglophone du site (une trentaine de pages environs) a conservé toutes ses positions. - Les pages pénalisées ne le sont que pour les expressions qui figuraient dans les textes des liens. Je conserve un très bon classement pour l'expression "optimiser site web" qui ne figurait pas dans ces textes. On constate donc un rapport indiscutable entre le contenu de la page sommaire et la façon dont les pénalités ont été appliquées. Je rappelle que ces pénalités ont été appliquées le lendemain de la mise en ligne de cette page sommaire. Pourquoi tous les sites utilisants des popup menus en javascript ne sont-ils pas pénalisés de la même façon ? Avant l'aventure sauvage de ma page graphique, j'avais déjà intégré des pop-up menus à toutes les pages de mon site sans que cela n'ai eu de conséquence facheuse. Mais ces pages comportaient un contenu très important, indépendant des liens "cachés". J'attribue la sanction au fait que la plus grande partie du contenu de cette page était constituée de liens et que la plupart de ces liens étaient cachés. Pour un Google, soupçonneux à l'extrême, je me trouvais dans une situation doublement suspecte : - une page presque entièrement constituée de liens - une page dont le contenu semblait être conçu pour être visible par les moteurs mais invisible pour les visiteurs humains. Notons que ces deux caractéristiques risquent tout de même de se retrouver dans pas mal de pages d'index à travers le monde, pour peu que leurs auteurs utilisent aussi des pop-ups et une présentation assez graphique. Comment j'ai décidé de réagir ? En m'entêtant, bien sûr ! Je ne vais quand même pas laisser un robot influencer ma créativité graphique ?!?!? D'ailleurs, les directives Google disent clairement qu'il ne faut pas conçevoir ses pages en fonction des robots mais en fonction des visiteurs. Bon, je ne suis quand même pas tout à fait masochiste et j'ai fait deux modifications dont j'attends les résultats avec espoir : - j'ai modifié mon système de menu-sommaire pour que les blocs "div" qui étaient en "display: none" par défaut soient désormais visibles par défaut. Il sont simplement positionnés en bas de page et sont ensuite "remontés" et rendus invisibles par un script. Google ira-t-il jusqu'à interpréter mes scripts pour comprendre qu'ils rendent ces blocs invisibles ? J'en doute, mais seule l'expérience pourra dire si j'ai tort ou raison. - Au cas où, j'ai aussi modifié les pop-ups figurant dans le reste de mes pages. Désormais les liens masqués ne sont plus encodés sous forme de lien mais sous la forme <u>h**p://www.example.com --- texte du lien </u> Le code javascript du système de popup se charge ensuite de remplacer "<u>" par "<a href", "---" par ">" et "</u>" par "</a>". Résultat : ce contenu est toujours "masqué", mais il ne contient plus de liens aux yeux de Google. Moralité ? Comme toute expérience, celle-ci a bien entendu influencé ma façon de voir les choses et je suis désormais (subjectivement) convaincu que le principe même de la sandbox est une annerie s'il peut aboutir à ce type de résultat. Je ne vois pas comment ce genre de "dérapage" pourrait être évité. Même pour un observateur humain, il n'est pas immédiatement évident que les liens de ma page sommaire ne soient pas totalement invisibles mais soient en réalité un "contenu alternatif"; Sauf à se promener avec la souris au-dessus de la fleur, il ne constatera pas la présence de ces liens sur la page présentée. Je vois donc mal comment un robot - même sophistiqué - pourrait déterminer avec certitude quand une page est "clean" et quand elle est conçue pour truquer les résultats. D'un autre côté, il est évident que les tricheurs pullulent sur la toile et que Google doit absolument s'en protéger. Que certains contenus "douteux" soient mis de côté pour éviter qu'ils ne faussent les résultats, je le comprends parfaitement (je ne me serais pas offusqué de voir ma page de sommaire exclue des résultats de recherche). Mais que des "sanctions" soient en plus appliquées à l'encontre des sites soupçonnés, là je crois qu'il y a erreur, car ce principe générera inévitablement des injustices pénibles. Je ne manquerais pas de publier sous peu un billet d'humeur expliquant pourquoi Google a commis une erreur en choisissant l'option punitive que représente la sandbox et je lance ici mon premier argument : cette expérience m'a permis de mieux comprendre ce phénomène et son mode d'application. Il m'a permis de confirmer des hypothèses que j'avais lu ou établi par moi-même. Grace à cette expérience, je suis convaincu que j'ai désormais les compétences requises pour mettre au point un système de spamdexing efficace, déjouant les protections de Google. Même s'il se trouve (par hasard) que je ne suis pas du genre à me servir de ce type de compétence, était-ce là l'objectif de cette "punition" ?
KaRaK Posté 25 Janvier 2007 Posté 25 Janvier 2007 (modifié) Merci pour nous avoir fais partager cette expérience Zapman. Je suis vraiment très surpris par la rapidité de la sanction. Jusqu'à aujourd'hui, je pensais que Google était "gentil" avec les "display none" tout simplement parce qu'il ne pouvait pas se permettre de pénaliser les sites qui par exemples les utilisent pour proposer une version imprimable de leurs pages. Visiblement, Google est désormais assez confiance dans ses algos pour déclencher des sanctions si le code est changé trop suspect. C'est vraiment inquiétant car l'expérience que tu décris montre bien que même en étant parfaitement honnête, il est possible de se voir lourdement pénaliser. Tiens nous au courant si tes modifications changent quelque chose. La nouvelle home de ton site est vraiment très réussie Modifié 25 Janvier 2007 par KaRaK
zapman Posté 26 Janvier 2007 Auteur Posté 26 Janvier 2007 (modifié) La nouvelle home de ton site est vraiment très réussie Merci, vu ce qu'elle me coute, je suis content qu'elle te plaise ! Et, oui, bien sûr, je mettrais ce post à jour quand je serais sorti de cette fichue boîte à sable. Je viens de faire une recherche sur "créer son site web" qui semble me montrer que je suis à nouveau en 8ème position sur tous les datacenters. Si ça se confirme sur mes résultats de fréquentation, on pourra dire que ce passage par la sandbox aura été une visite éclair ! Je croise les doigts Modifié 26 Janvier 2007 par zapman
zapman Posté 26 Janvier 2007 Auteur Posté 26 Janvier 2007 (modifié) Sortie confirmée sur tous les mots-clés qui étaient pénalisés. Pourvu que ça tienne ! Pour information, les modifications que j'ai fait pour tenter de mettre fin aux pénalisations datent de 2 jours, mais Google n'est repassé sur mon site qu'hier soir (heure française). Il semble donc réagir aussi rapidement dans le bon sens qu'il l'avait fait dans le mauvais sens. Je suis moi aussi surpris par la rapidité de ces réactions. Même si mes résultats de fréquentation viennent à confirmer ma sortie, je dois avouer que je garderais un peu de rancune vis-à-vis de notre seigneur Google pour cette sanction injustifiée et que je continuerais à trembler pour moi-même et pour les autres webmasters qui peuvent se trouver injustement sanctionnés. J'ai pris le temps de me creuser le citron pour essayer de comprendre les causes de ce qui m'arrivait et j'ai eu la chance de mettre rapidement le doigt sur le point qui coinçait. Sans ces efforts et cette chance, mon site serait toujours au fond des classements. Allez, 2 petites citations pour apporter un côté intellectuel à ce post : - une pour défendre le point de vue de Google : "J’aime mieux commettre une injustice que tolérer le désordre" [Johann Wolfgang Von Goethe] - une autre pour le mettre en garde : "Les révoltes et les violences naissent moins des misères que des injustices." [Jean-Paul Delevoye] Modifié 26 Janvier 2007 par zapman
destroyedlolo Posté 27 Janvier 2007 Posté 27 Janvier 2007 Devant une telle rapidite de mise et de sortie de la SandBox, t'es sur que c'est vraiment une sandbox Ca ne serait pas plutot que ton site est ete declasse le temps que GG remete a jour ses bases de donnees avec ton nouveau contenu ?
petit-ourson Posté 27 Janvier 2007 Posté 27 Janvier 2007 Pourquoi ces "popups" ne sont pas laissées accessibles (et donc visibles) par exemple pour les personnes désactivant le javascript ? Ainsi tu ne tromperas ni google, ni les visiteurs car chacun verra le même contenu (car tous les deux auront désactivé le javascript). Le tout rendra ton site accessible (ou plus accessible).
Dudu Posté 27 Janvier 2007 Posté 27 Janvier 2007 Salut Entièrement d'accord avec destroyedlolo et petit-ourson. Navigant sans Javascript, je n'ai pas compris de prime abord ton problème lorsque j'ai visité ton "sommaire graphique" (je l'ai compris en réactivant Javascript). D'ailleurs, cette page n'a aucune utilité pratique pour les sans-JS. Si jamais il s'agit vraiment d'une sandbox, excuse-moi mon insolence et permets-moi de te dire mon approbation avec la sanction de Google: cette page (telle qu'elle est conçue actuellement) n'a que peu d'utilité selon le visiteur. Et sa présence peut parfaitement être interprétée comme un coup de pouce pour ton positionnement, i.e. comme une page destinée à l'usage quasi-exclusif des robots. Mon message est à prendre comme une critique à vertu constructive, et non comme de la méchanceté gratuite. Désolé, je m'exprime mieux en étant un peu cru Pour tempérer (et même si c'est hors-sujet) je dois dire que le design de cette page est sincérement réussi Puisse-t-elle un jour être accessible -et utile- à tous.
zapman Posté 27 Janvier 2007 Auteur Posté 27 Janvier 2007 (modifié) Devant une telle rapidite de mise et de sortie de la SandBox, t'es sur que c'est vraiment une sandbox Ca ne serait pas plutot que ton site est ete declasse le temps que GG remete a jour ses bases de donnees avec ton nouveau contenu ? Le contenu n'a pas changé sur cette période, à part celui de cette page sommaire. Or, ce sont les pages pointées par la page sommaire (et seulement celles-là) qui ont reculé dans le classement. Pénalisation qui disparaissaient pour les recherches dans lesquelles on faisait varier les accents. Tous les symptomes de ce qu'on a l'habitude d'appeller "sandboxing" étaient bien réunis. Pourquoi ces "popups" ne sont pas laissées accessibles (et donc visibles) par exemple pour les personnes désactivant le javascript ?Ainsi tu ne tromperas ni google, ni les visiteurs car chacun verra le même contenu (car tous les deux auront désactivé le javascript). Le tout rendra ton site accessible (ou plus accessible). Tu auras sans doute noté que tous les popups sont destinés à apparaître au centre de la fleur. Ils sont donc superposés et donc inexploitables sans javascript. Ma première version de cette page faisaient en sorte qu'ils soient invisibles pour les utilisateurs sans javascript puisqu'ils n'étaient pas utilisables pour eux. Je trouvais ça plus "propre", mais Google a trouvé ça suspect. Dans la version actuelle, ils sont bels et bien visibles tels quels (mais sans grande utilité) dans le bas de la page si tu désactives le javascript. cette page (telle qu'elle est conçue actuellement) n'a que peu d'utilité selon le visiteur. Et sa présence peut parfaitement être interprétée comme un coup de pouce pour ton positionnement...//... cette page n'a aucune utilité pratique pour les sans-JS. Ton insolence est toute pardonnée (et même appréciée), mais peut-être n'as-tu pas remarqué que les pétals de la fleurs restent cliquables même lorsque le javascript est désactivé. Cette page est un sommaire et elle reste parfaitement exploitable sans les menu pop-ups qui ne font qu'ajouter le détail des différents chapitres. Comme je le dis à petit-ourson, je me suis posé dès le départ la question de l'accessibilité pour les visiteurs sans javascript qui trouveront sur cette page la liste cliquable de tous les thèmes du site (ce qui est après tout le but essentiel d'un sommaire !). J'aurais aussi bien pu faire ce type de présentation en Flash, mais elle aurait été réellement inutile pour les utilisateurs n'ayant pas le Flash. J'ai justement choisi le javascript parcequ'il me permettait de construire une page ayant une accessibilité (même minimum) pour tous. Tous les sites ont une page d'index. Interpréter la présence de cette page comme une manoeuvre destinée à donner un coup de pouce au positionnement est possible pour 100% des sites présents sur la toile. Pourquoi ne pénaliser que celui là ? Modifié 27 Janvier 2007 par zapman
petit-ourson Posté 28 Janvier 2007 Posté 28 Janvier 2007 Tu auras sans doute noté que tous les popups sont destinés à apparaître au centre de la fleur. Ils sont donc superposés et donc inexploitables sans javascript. Ma première version de cette page faisaient en sorte qu'ils soient invisibles pour les utilisateurs sans javascript puisqu'ils n'étaient pas utilisables pour eux. Je trouvais ça plus "propre", mais Google a trouvé ça suspect. Dans la version actuelle, ils sont bels et bien visibles tels quels (mais sans grande utilité) dans le bas de la page si tu désactives le javascript. C'est bien ce que je trouve dommage, que ces "popups" soient superposées aussi sans l'activation du javascript. Pourquoi ne pas faire apparaitre le texte normalement sans javascript et le retraiter avec le javascript ? Tous tes utilisateurs seraient ainsi comblés et pourraient accèder au contenu dès la première page.
zapman Posté 28 Janvier 2007 Auteur Posté 28 Janvier 2007 Pourquoi ne pas faire apparaitre le texte normalement sans javascript et le retraiter avec le javascript ? Oui, mais bof... ça complique et ça alourdi les scripts pour 95% des utilisateurs pour apporter un maigre avantage à 5% des utilisateurs... je vais sûrement y travailler, mais là je crois qu'on est vraiment à chercher la petite bête.
Neoxy Posté 28 Janvier 2007 Posté 28 Janvier 2007 La sandbox est une histoire longue et périlleuse. Il n'y a pas que le contenu qui peux plonger le site dans les ténebres, il ya aussi la création de liens massif sans varier les titres par exemples.
Dudu Posté 28 Janvier 2007 Posté 28 Janvier 2007 Salut Oui, mais bof... ça complique et ça alourdi les scripts pour 95% des utilisateurs pour apporter un maigre avantage à 5% des utilisateurs... je vais sûrement y travailler, mais là je crois qu'on est vraiment à chercher la petite bête. J'enc*** les mouches comme d'habitude... mais j'aimerais savoir d'où tu tiens ce pourcentage 95/5.Merci !
zapman Posté 28 Janvier 2007 Auteur Posté 28 Janvier 2007 C'est une estimation purement personnelle et empirique, Dudu. J'ai déjà essayé de trouver de chiffres solides là-dessus sans aucun succés. Je n'ai pu que trouver des témoignages qui annoncent un pourcentage allant de 0,75% à 12% selon les sources : http://www.quirksmode.org/blog/archives/20..._excellent.html http://forums.oscommerce.com/lofiversion/i...hp/t125809.html http://www.accessibiliteweb.com/evalenglish.htm Ca fait longtemps que je cherche une vraie étude sur le sujet. Si quelqu'un a ça , je suis preneur.
petit-ourson Posté 29 Janvier 2007 Posté 29 Janvier 2007 C'est une estimation purement personnelle et empirique, Dudu. J'ai déjà essayé de trouver de chiffres solides là-dessus sans aucun succés.Je n'ai pu que trouver des témoignages qui annoncent un pourcentage allant de 0,75% à 12% selon les sources : http://www.quirksmode.org/blog/archives/20..._excellent.html http://forums.oscommerce.com/lofiversion/i...hp/t125809.html http://www.accessibiliteweb.com/evalenglish.htm Ca fait longtemps que je cherche une vraie étude sur le sujet. Si quelqu'un a ça , je suis preneur. Mais au moins, cela te permettrait de ne plus d'être "borderline" vis à vis de google.
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant