campagne Posté 7 Août 2008 Posté 7 Août 2008 Bonjour, je me suis fait cette réflexion : un site trop bien fait pour le référencement, avec ses title, description, h1, h2, indice de densité, maillage interne, alt et title renseignés, ... Paraîtrait peut-être suroptimisé à Google, et je me suis dit que si on laissait des imperfections, cela ferait plus naturel, qu'en pensez-vous ? Pratiquez vous plutôt le perfectionisme jusqu'au bout ?
Sebastien Posté 7 Août 2008 Posté 7 Août 2008 Qu'est-ce que la perfection tout d'abord ? Je ne vois pas pourquoi un moteur pénaliserait une page "parfaite", càd une page au contenu mis en valeur de la façon la plus correcte possible s'inscrivant dans un site construit dans le respect des régles d'accessibilité et d'utilisabilité. Ce que les moteurs pénalisent, ce sont des comportements non naturels, motivés par le seul gain de visibilité.
campagne Posté 7 Août 2008 Auteur Posté 7 Août 2008 (modifié) Merci pour cet avis Sébastien, certes, la perfection dans le respect des règles est idéale, mais souvent, je vois des collègues qui font des liens avec l'anchot-text "machin" et ils ajoutent "le machin" dans l'attribut title du lien, le title de la page linkée est "machin", la balise h1 est à nouveau "machin", puis les balises h2 contiendront obligatoirement "machin", la balise meta description commence par "machin", et le fil d'ariane de la page fait un lien vers elle même sur le terme "machin". J'ai le sentiment que ce genre de perfection n'est pas valable pour Google. En tous cas pas naturel... Pour moi c'est peut-être plus naturel par exemple, de mettre quelque chose d'un peu différent dans la balise h1, par exemple "truc muche" qui veut dire presque la même chose... C'est cela que j'appelle l'imperfection naturelle. Pour bien montrer à Google qu'un humain est à l'origine de cette page et pas une mécanique. What da ya think ? Modifié 7 Août 2008 par campagne
Sebastien Posté 7 Août 2008 Posté 7 Août 2008 Si ton expression-clé apparaît à une fréquence telle que la lecture de la page en devient pénible, alors oui c'est un bon indicateur que tu es très certainement dans la suroptimisation. Mais je ne pense pas qu'il faille renoncer à une optimisation pour le référencement pour paraître naturel, tant que cette optimisation fait aussi sens pour l'utilisateur. Dans ta balise <h1> par exemple, il faut être le plus explicite et le plus clair possible. Donc favoriser la forme la plus employée par ton lectorat. Dans le reste du contenu, tu peux élargir ton champ lexical en insérant des synonymes et termes conceptuellement proches. (Et l'attribut title ne sert à rien pour le référencement).
d2im Posté 7 Août 2008 Posté 7 Août 2008 Bonjour, c'est quoi l'indice de densité ? merci par avance armand
campagne Posté 7 Août 2008 Auteur Posté 7 Août 2008 Merci Sébastien, pour l'attribut title sur un lien, j'avais eu cette discussion ici : http://www.webmaster-hub.com/index.php?showtopic=41861 Personnellement je pensais aussi que ça ne sert à rien, voir même que c'était du gavage d'oie ! Mais un autre SEO (qui gère des sites nationaux assez importants) m'a dit qu'il avait expérimenté et constaté des résultats impressionnants après quelques semaines... J'ai lu aussi que ça aidait à déterminer la thématique des pages linkées... Pour ce qui est de la suroptimisation pure et dure en tous cas, j'ai remarqué qu'il ne faut surtout plus s'amuser à dépasser un taux de densité disons de 8 ou 10% grand maximum pour un texte moyen, sinon Google nous donne des pénalités. C'est aussi pourquoi je cherche à savoir ce qu'il est bon de faire ou de ne pas faire pour bien optimiser une page sans trop tomber dans l'excès. Google doit avoir des curseurs qui se mettent dans le rouge si on dépasse la limite, et pénalise quand plusieurs curseurs l'ont dépassée. J'ai l'impression qu'ils sont de plus en plus sensible...
baulet Posté 7 Août 2008 Posté 7 Août 2008 bonjour, une page n'est "suroptimisée" que quand des pratiques douteuses sont mises en place, à mon avis. que tu aies des h1 h2... des title, des anchor, des alt... si tout cela est en rapport avec un contenu riche, lisible et accessible par un humain, aucun risque de passer pour un "suroptimiseur" il ne faut juste pas abuser de "title" par exemple quand eux ci n'apportent rien de plus a la navigation du visiteur. quant aux "curseurs" de google...personne ne le saura jamais ! en vérité je vous le dis... l'honneteté paye avec GG
ybet Posté 7 Août 2008 Posté 7 Août 2008 bonjour, une page n'est "suroptimisée" que quand des pratiques douteuses sont mises en place, à mon avis. que tu aies des h1 h2... des title, des anchor, des alt... si tout cela est en rapport avec un contenu riche, lisible et accessible par un humain, aucun risque de passer pour un "suroptimiseur" déjà, h1, h2, h3 est déjà une suroptimilisation. Pas un webmaster débutant ne sais que ca existe. En deuxième, GG semble plutôt méchament virer les pages (et sites ) qui utilisent des trucs de webmasters connus depuis des lustres ... et pas forcément QUE les techniques douteuses. Toutr ce qui semble être fait pour passer Naturel, les liens, mais ... naturels les textes aussi. Ca va être dur de référencer un site en restant de GG. on va finire par tous reprendre à zero. Pas de liens d'annuaires, pas de lies de copains, pas d'écahange de liens (même s'ils sont pas voulus (quitte à mettre un HTaccess ou mieux, interdie via la configuration apache l'adresse IP). D'accord, je blague (un peu) mais tout se passe depuis novembre comme si GG cassait tous les trucs, anciens ouy nouveaux, utiles ou pas mais repris dans les forums: les mauvais sites comme les bons.
thick Posté 7 Août 2008 Posté 7 Août 2008 Pour ce qui est de la suroptimisation pure et dure en tous cas, j'ai remarqué qu'il ne faut surtout plus s'amuser à dépasser un taux de densité disons de 8 ou 10% grand maximum pour un texte moyen, sinon Google nous donne des pénalités. J'ai déjà abordé ce sujet plusieurs fois sur le Hub. C'est de la pure légende urbaine de référenceurs que se baser sur la densité. Déjà, les moteurs ne fonctionnent absolument pas en termes de densité. Ils analysent les occurrences sur la page, dans le site, chez les concurrents, etc. Il n'y a pas du tout le même rapport lorsqu'il est question d'occurrences ou de densité. L'imperfection fait partie du naturel. Un texte naturellement rédigé peut exploser tes critères de densité, et pourtant il ne sera absolument pas spammy. Compose un bon titre, fais gaffe au Hx, mais laisse ton texte être le plus limpide et naturel possible.
Dudu Posté 8 Août 2008 Posté 8 Août 2008 déjà, h1, h2, h3 est déjà une suroptimilisation. Pas un webmaster débutant ne sais que ca existe. Ne prends pas s'il te plaît ton cas pour une généralité. - h1, h2, h3, etc. ne sont pas des suroptimisations. Ce ne sont pas non plus des "suroptimilisations" (comme tu le dis), puisqu'en effet ce terme n'existe pas en français. - Lorsque j'étais débutant, j'ai commencé par apprendre <p> et les différents headers (h1, h2.... h6), donc au moins UN webmaster débutant (moi) sait que ça existe. Avec un peu de chance, je n'étais pas le seul webmaster débutant à suivre le même cours, il y a donc plusieurs webmasters débutants qui savent que ça existe. Que toi, tu n'aies pas su, étant débutant, l'existence des balises de headings est une chose. Mettre tout le monde dans le même panier que toi en est une autre. Bien cordialement.
Sebastien Posté 8 Août 2008 Posté 8 Août 2008 En fait il n'y a pas vraiment à faire gaffe avec les <hn> tant qu'on utilise ces balises conformément à ce pour quoi elles ont été conçues, çàd les titres et sous-titres.
dadovb Posté 8 Août 2008 Posté 8 Août 2008 bonjour, une page n'est "suroptimisée" que quand des pratiques douteuses sont mises en place, à mon avis. que tu aies des h1 h2... des title, des anchor, des alt... si tout cela est en rapport avec un contenu riche, lisible et accessible par un humain, aucun risque de passer pour un "suroptimiseur" Tout à fait d'accord, pense humain d'abord et robot après, tu sauras si tu es dans la suroptimisation. en vérité je vous le dis... l'honneteté paye avec GG Ouais...ça, j'y crois un peu moins...
Sebastien Posté 8 Août 2008 Posté 8 Août 2008 Si si Google récompense l'honnêteté, c'est juste qu'il se laisse régulièrement abuser
thick Posté 8 Août 2008 Posté 8 Août 2008 Bien sûr qu'un utilisation classique des Hx ne prête pas à la polémique, mais les "conseils" en référencement suggèrent bien trop souvent d'optimiser ces balises. Au sujet du détournement W3C au profit du référencement, je ne peux que rappeler les propos de Raphaël http://www.7-dragons.com/archives/standards-web-w3c.php
campagne Posté 8 Août 2008 Auteur Posté 8 Août 2008 En fait, j'ai un peu le même sentiment que Ybet : Google aligne les pages et les sites qui dépassent un peu les limites du raisonnable, sur ma page cabane, par exemple, j'avais plus de 15% des mots qui étaient justement "cabane". Je me suis forcé à descendre en dessous de 10 car avant novembre, j'étais en première page de Google et maintenant je suis à perpette la galette. J'attends de voir si je vais remonter après cette action. C'est pourquoi je suis venu en parler ici, pour avoir d'autres avis. Bien sûr, si on reste honnête et qu'on écrit naturellement tout se passe bien avec Google : mais pas tant que ça je trouve... Je ne veux pas dire qu'il faut tricher, au contraire ! Mais quand on sait ce qu'il faut faire pour être un peu mieux positionné, on a tendance à le faire quoi !
baulet Posté 8 Août 2008 Posté 8 Août 2008 bonjour campagne, a mon avis, c'est l'accessibilité qui "coince".... deja, un petit coup de w3c ça fait pas de mal.... ensuite, la navigation. essaye de structurer ou de faire un menu auquel on puisse se raccrocher. et pour finir, comme tu dis tu peux largement "suroptimiser" avec des H1 H2.... le contenu de ton site est riche, mais il faut le mettre en valeur. ce n'est pas si simple je sais. bon courage !
ybet Posté 12 Août 2008 Posté 12 Août 2008 Ne prends pas s'il te plaît ton cas pour une généralité. - h1, h2, h3, etc. ne sont pas des suroptimisations. Ce ne sont pas non plus des "suroptimilisations" (comme tu le dis), puisqu'en effet ce terme n'existe pas en français. - Lorsque j'étais débutant, j'ai commencé par apprendre <p> et les différents headers (h1, h2.... h6), donc au moins UN webmaster débutant (moi) sait que ça existe. Avec un peu de chance, je n'étais pas le seul webmaster débutant à suivre le même cours, il y a donc plusieurs webmasters débutants qui savent que ça existe. Que toi, tu n'aies pas su, étant débutant, l'existence des balises de headings est une chose. Mettre tout le monde dans le même panier que toi en est une autre. Dudu, suis pas franchement un débutant et je sais que tu ne l'est pas non plus La même chose existe en Word et pas 1 utilisateur sur 100 ne les utilise. Mais quand le robot arrive sur une page, qu'il trouve des segmentations en balises h1, h2, .... l'algorytme doit se rendre compte que le site a pas été fait par un débutant, mais au moins par quelqu'un qui a lut quelques trucs Si si Google récompense l'honnêteté, c'est juste qu'il se laisse régulièrement abuser et que maintenant, il se méfie tellement que tout ce qui est fait correct (sans esprit de tricherie aucune) est vu avec méfiance .... Ca explique pas les pénalités des derniers mois, mais au mpoins que Google modifie son algorythme pour essayer que ces techniques ne fonctionnent plus. Je ne lui reproche pas ses modifs, mais bien les dégats collatéraux.
ybet Posté 12 Août 2008 Posté 12 Août 2008 Sans rentrer trop dans des tests, et sans avoir la science "infuse". Les déclassement des sites moyens ont l'air de venir de différentes parties. GG découpe les pages en deux parties, la partie navigation (normlement les liesn plus le header reprenant le logo du site) et le contenu. . Trop de liens avec peu de texte ou contenu -> out . duplicate content dans la partiie contenu (souvent les annuaires) -> out . répétition des parties de liens sur toutes les pages, surtout avec un nombre de liens importants -> out. On a longtemps pensé que c'était les annuaires qui étaient visés depuis novembre mais d'autres sites similaires (vente en ligne, annonces, ....) sont dans le même cas. Mais je connais aussi des contre exemples, lié au PR peut-être. Les gros sans sortent plutôt mieux (quoique quelques vieux PR 6 sont tombés aussi).
Dudu Posté 13 Août 2008 Posté 13 Août 2008 et que maintenant, il se méfie tellement que tout ce qui est fait correct[ement] [...] est vu avec méfiance .... J'en conclus donc qu'il ne faut pas écrire ces pages correctement afin d'être pris en compte sans méfiance par Google.Non ? Et pour les autres moteurs de recherche (genre Yahoo, Exalead, Live, Cuill (!) ), tu penses que je peux écrire correctement ou alors mon contenu va être vu avec méfiance? PS: ne change pas de dealer, c'est de la bonne.
Ajax Posté 14 Août 2008 Posté 14 Août 2008 Je suis assez d'accord avec Ybet. Lorsque j'étais webmaster sans m'occuper du tout de référencement, je n'appliquais pas de balises h1, h2... Je me contentais de mettre mes titres et sous-titres en gras ou avec des styles particuliers pour que les internautes les visualisent (car déjà si les webmasters n'utilisent pas tous ces balises, les visiteurs ne se rendent même pas compte de leur existence, surtout depuis l'application de feuilles de styles qui changent totalement leur apparence). Ensuite, lorsque j'ai commencé à apprendre le référencement, j'ai compris qu'il valait mieux que je les utilise avec mes expressions clés pour que les moteurs positionnent mieux mes pages... Je pense donc qu'un certain nombre de webmasters n'utilisent certaines balises que pour le référencement, et pas pour les utilisateurs, ce qui fait que Google s'en méfie et qu'il n'y accorde plus l'importance qu'elles avaient auparavant (en plus avec tous les abus : h1 masqués par des feuilles de style, liens dans les balises...). C'est assez logique de sa part mais, à force de mettre des filtres de ce type, Google va se couper de tous les webmasters "sérieux".
Dudu Posté 15 Août 2008 Posté 15 Août 2008 Soyons sérieux juste 2 minutes. Qu'il y ait eu des abus de h1 (et il y en a toujours, je le vois quasi quotidiennement), et que les moteurs prennent leur précaution à ce propos: Ça, on est d'accord. Plus que d'accord, parfaitement d'accord. Mais là, vous êtes en train de dire qu'il faudrait écrire <div class="GrosTrucEnGras">le titre de ma page</div> plutôt que <h1>le titre de ma page</h1> Et lorsque vous dîtes ça, vous le dîtes sérieusement sans avoir l'impression de sombrer dans la caricature ? PS: comme je le demandais plus haut, vous pensez que pour Cuill et Yahoo, je peux prendre le risque inconsidéré de mettre un h2 dans une page (hé oui, j'aime vivre dangereusement!) ou bien je risque les foudres divines ? (bon, je plaisante bien sûr).
Gorapat Posté 15 Août 2008 Posté 15 Août 2008 Je suis bien loin de la suroptimisation. Perso, je consacre de moins en moins de temps à l'optimisation du code. je me donne à fond dans la chasse aux "bons liens": à savoir des sites déja bien placés dans GG et qui correspondent à ma thématique.
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant