Aller au contenu

Sujets conseillés

Posté (modifié)

Bonjour à tous,

Ce message est en quelque sorte une suite à mon précédent message concernant un problème survenu avec le référencement du site http://www.normadoc.com ... et en plus c'est mon 42ème :s_hug_03::groupwave:

Le site a été réalisé depuis pas mal de temps désormais, avec son lot d'itérations supplémentaires concernant l'ajout de fonctionnalités.

Néanmoins nous avons eu beau faire appel à plusieurs fois à divers référenceurs ayant effectués chacun un audit afin de donner leurs conseils sur l'optimisation du site et leurs conseils n'ont (sans aucun préjugé) rien apporté de nouveau à ce que je savais déjà conçernant le référencement : urls, redirections, sitemap, nofollow (d'autant plus qu'il semble que cela soit désormais inutile) ...

Nous avons toujours de gros problèmes pour faire augmenter le nombre de page référencées dans google (et le client ne juge que par ça), et là j'avoue avoir atteint mes limites en terme d'optimisation. C'est pour cette raison que j'apprécierai fortement quelques conseils pour infirmer / confirmer mes suppositions, afin de pouvoir orienter la suite du projet.

Le site comporte actuellement plus de 29000 articles, mais seules environ 970 pages sont référencées.

Voici les points clés du référencement :

  • Plan du site avec des liens principaux
  • Sitemap.xml soumis à Google Webmaster Tools (contenant uniquement la liste des articles)
  • Robots.txt en place
  • Différenciation au maximum du contenu (meta description, title ...)
  • Travail de rewriting sur les liens, ainsi que de texte cliquable
  • Liens nofollow répartis à divers endroits "stratégiques"

Si vous le souhaitez je peux vous ouvrir un accès à GWT afin que vous puissiez m'aider à effectuer un diagnostic, néanmoins actuellement voici mon analyse sur ce problème :

  • Les articles référencés sont (je pense) ceux qui apparaissent dans la catégorie Nouveauté
  • Seul le moteur de recherche du site permet d'accéder aux produits, mis à part un lien depuis le plan de site et les urls du sitemap. A mon avis (ce que je conseille depuis le début mais que le client ne veut / peut pas effectuer) ce site manque cruellement d'une navigation par catégories de normes
  • Les actualités sont gérées par l'AFP avec un partenariat : les 70 dernières actualités sont présentes. Conséquence de ceci, certaines pages (trop anciennes) disparaissent et deviennent donc inaccessibles (404) ce qui apparait dans GWT comme problèmes de contenu ... est-ce très gênant ?
  • Les "slugs" des liens sont générés à la volée en fonction du titre du produit. Ainsi si le webmaster modifie un titre, le lien vers le produit changera (redirection gérée par un code HTTP de redirection). Par contre, une conséquence directe est que certains liens du sitemap pointent quelquefois vers une page de redirection (erreurs d'explorations sitemap dans GWT). Est-ce grave ?

Je reste à votre disposition pour plus d'informations, et apprécierai vraiment tout type de conseil concernant ce site car j'avoue être à court d'idées ... et pense ne pas pouvoir faire beaucoup plus dans l'état actuel des choses. De plus, mon manque d'expertise dans ce domaine me bloque dans mes propositions et conseils car je ne peux pas assurer que ceux-ci permettront à coup sûr d'améliorer le référencement !

Merci d'avance pour votre aide !

Pierre

Modifié par real34
Posté

Les articles sont-ils originaux ? En d'autres termes, sont-ils rédigés pour le site ou proviennent-ils d'autres sources (AFP apparemment) ?

Posté

Quel travail a été effectué sur la structure du site (orientation du crawl) ? Sur les niveaux de profondeur ?

Posté (modifié)

*Une petite recherche dans aol.fr me donne 159 résultats. Alors si comme on le pense Aol (qui puise dans l'index de google mais délivre des pages qui ne sont pas dans le supplémental index), la plupart des pages (dans ton cas la +90% !) sont dans le supplémental index.

La mêms manip dans Googel http://minurl.fr/kxf donne 969 pages. Donc dans l'index de Google, 969-159 = 810 pages seraient dans le supplémental index de Google.

*Contrairement à ce que tu dis, il y a beaucoup de titres qui se répètent, de même que les description et la meta keyword, a propos ça ne sert à rien de la bourrer de mots clé, un ou deux suffisent..

*Je m'aperçois que vous avez un second site (http://www.qualite-normadoc.com/) dont le menu est vraiment inutilement compliqué pour ce que cela fait :

regarde dans ce tag :

<div id="conteneurmenu"></div>

*Attention la grosse découverte c'estque à part Nouveauté, actualité et veille technique, TOUTES LES SECTIONS sont en NOFOLLOW, ne t'étonne pas si tu n'as pas de page référencée :)))

Je mettrai les nofollow pour le menu "contact" seulement dans le menu du haut et Mentions légales - Protection des données - Conditions générales de vente dans le menu du footer.

*De même pour les drapeaux, je te suggère de les enlever si le site n'est disponible qu'en français, ce qui est le cas pour le moment, car les images sont aussi en nofollow alors qu'elles renvoient vers la page d'accueil....Pire, ce qui se passe actuellement est que tu as un sérieux problème de duplicate content interne,

compare ces 3 urls, elles renvoient au même contenu...

http://www.normadoc.com/fr/homologation.html

http://www.normadoc.com/en/homologation.html

http://www.normadoc.com/de/homologation.html

tu peux utiliser la meta canonical.

*Après je suppose que tu as mis une rubrique actualité pour "rafraichir" la page d'accueil, à mon avis c'est inutile. En revanche il faut mettre les liens vers toutes tes catégories de norme.

*attention au menu de pagination sous la rubrique actualité (je répète qui n'a normalement pas lieu d'être en terme de référencement, à moins que ce ne soit l'actu des normes).

C'est tout pour le moment bien qu'il y ait encore à dire, mais si tu résouds ceci tu verras une amélioration.

Modifié par psychodays
Posté

Pourquoi mettre un nofollow sur les liens ? Il suffit de mettre un noindex sur les pages qui ne doivent pas être indexées.

J'ai finalement regardé un peu le contenu du site pour répondre tout seul à ma question. Du coup, je suggère que l'absence d'indexation, ainsi que de difficulté de positionnement concernent les nombreuses pages dont le contenu est déjà présent ailleurs sur la Toile. Pour quelle raison le moteur de recherche devrait-il ingurgiter du contenu qui est préalablement proposé sur d'autres pages ?

Posté

Salut real34,

Je n'ai pas parcouru avec minutie ton site mais pour rebondir sur les réponses de certains, je dirai que des actualités qui n'ont pas de 'lien direct avec ta thématique ne t'apportera pas grand chose. De plus les actualités de l'AFP se retrouvent sur des dizaines de sites avec le même contenu.

Tu devrais te consacrer plutôt à écrire des actualités sur te thématiqueet essayer de les faire connaître auprès des internautes potentiellement intéressés.

Concernant le SILOing, cela permet de "thématiser" des rubriques mais si je ne m'abuse cela est utilisé avec du nofollow en interne et Matt Cutts a expliqué récemment que cela ne devrait plus être pris en compte à terme (si tant est bien sûr que cela ne soit pas qu'une annonce pour faire renoncer les référenceurs à cette technique). Karnabal nous dira peut être à juste titre que l'on peut faire autrement (et je serai intéressé pour échanger la dessus avec les autres aussi ;) ) mais cela devient assez compliqué (enfin il me semble).

Posté

Par siloing il semble que l'on comprend plutôt "découpage thématique". Si on parle d'orienter les bots des moteurs de recherche, là l'expression consacrée est bot herding, et c'est justement le bot herding qui s'effectue, initialement, grâce au nofollow ; mais pas seulement. On peut guider/bloquer les robots à l'aide de Javascript notamment, donc rien de compliqué Laurent (JS permettant généralement de concaténer l'URL du lien). ;)

Posté

Bonjour à tous et merci pour toutes ces informations constructives !

Cela confirme mes pensées (le partenariat avec l'AFP, les catégories de normes, l'aspect multilingue et tous ces nofollow qu'un référenceur nous a fait ajouter). Vous m'avez fait également découvrir le "siloing" et je vais me documenter un peu dessus.

Je prendrai du temps pour répondre à chacun des points évoqués ce soir, afin de continuer à avancer dans la bonne direction ... le reste cela sera une discussion avec le client, car maintenant mes pensées ont été confirmées ;)

Posté

Effectivement, le "découpage thématique" est plus approprié pour définir le siloing par contre il me semblait que ce but était atteint principalement en utilisant le nofollow. Attention à l'utilisation du js dans les liens, Google les interprèteraient comme tel désormais.

Posté
(...) Attention à l'utilisation du js dans les liens, Google les interprèteraient comme tel désormais.
Que veux-tu dire par là ?

Je pense que "dldstyle" fait allusion à la récente prise en compte des liens JavaScript du type onclick par GG.

Posté

Oui c'est ça, Regis a répondu à ma place :) . Il semblerait même que Google interprèterait des liens contenu dans des fonctions "basiques", que cela irait plus loin que le "simple" onclick.

Posté

Bonsoir,

Je reviens donc sur vos réponses comme prévu afin de reformuler vos remarques pour voir si je les ai bien comprises ... et essayer de trouver une solution à chaque problème.

A priori je n'ai pas d'intérêt à ce que le site soit hyper bien indexé (car ma part du travail est effectuée, n'étant pas en charge du référencement), mais bien de pouvoir être sûr de mes arguments lorsque je dirai au client que ce sont les conseils qu'il a eu auprès de ses référenceurs (et que j'ai appliqués à la lettre) qui justifient le peu de pages indexées. Le but est aussi de faire ma culture personnelle ;)

1. Les actualités AFP :

Visiblement celà fait du duplicate content car elles sont également présentes sur d'autres sites.

D'après ce qui a été dit, je pense que ces pages sont indexées dans le supplémental index de google car sur une recherche "normale" elles apparaissent toutes.

Historiquement nous avions réalisé un module de gestion de news que le client a voulu remplacer par un partenariat avec l'AFP pour avoir du "contenu ciblé et facile" ... à mon sens ce contenu est inutile car : pas spécifique (des centaines de site ont le même contenu) et pas vraiment ciblé (cela ne parle pas des normes, mais de l'actu High-Tech).

Propositions :

  • Laisser les pages telles quelles sachant que cela ne fait rien gagner mais rien perdre non plus
  • Revenir à l'ancien module et demander au client de faire ses actualités spécifiques lui-même (beaucoup à y gagner ?)
  • Ajouter un noindex sur chaque page d'actualité ?

=> Sinon, psychodays qu'entends-tu par "attention au menu de pagination sous la rubrique actualité" ?

2. Les meta keywords :

En effet, le client ne souhaitait pas saisir de mots-clés lui-même pour chaque article (et j'ai pensé qu'il serait difficile d'automatiser ce processus là, mais peut-être est-ce une erreur ?) et nous avons suivi les conseil d'un référenceur pour ajouter une liste de mots-clés sur certaines pages.

Par contre, j'avoue que pour le coup je ne sais pas trop comment gérer dynamiquement les mots-clés sur des pages spécifiques comme la liste des actualités, les résultats de recherche, chacune des normes (calcul automatique des mots-clés ?) ...

Des conseils ?

3. Le multilingue:

Actuellement le client n'a pas fait trop d'efforts pour pousser cet aspect multilingue et je pense en effet qu'il y a pas mal de chemin à faire dans ce sens.

Les freins que je vois actuellement sont : les actualités disponibles qu'en Français, beaucoup d'articles ne sont disponibles qu'en une seule langue (avec parfois du contenu "anglais" dans les champs "français" ... bref un beau bordel), quelques détails de contenu non traduit (notamment tous les textes fournis par le référenceur qui ne sont que dans une seule langue).

Propositions :

  • Supprimer les drapeaux et garder le site en Français uniquement => quel serait d'après-vous la répercussion au niveau référencement ? Flagrante ?
  • Forcer le client à fournir une traduction de son site dans toutes les langues afin d'éviter le duplicate content
  • Laisser tel quel ... et tant pis ! (est-ce un problème majeur ?)

4. Les nofollow :

Initialement nous n'avions pas intégré de nofollow au site, et ceux-ci ont été intégrés de manière à ce que tout le "flux du PageRank" (désolé pour ce terme non technique) aille dans les pages principales : accueil, actualités, nouveautés, veille et plan du site. Vu que le site est "à plat" il n'y a pas énormément d'alternatives et je ne vois pas trop d'autres stratégies ...

Je pense en effet que le nofollow vers la section "Brochures" pourrait être supprimé et qu'il faudrait en mettre sur les actualités (cf proposition du noindex dans le 1.) mais les autres ne me semblent pas rediriger vers des contenus importants

Question : qu'en pensez-vous ?!

5. Les catégories (arborescence de normes) :

Dès la proposition initiale j'avais mentionné l'aspect "désorganisation" lié au manque de catégorie, et j'ai peut être fait une erreur professionnelle en n'insistant pas plus sur ce point (devoir de conseil) ... qu'en pensez-vous ?

Néanmoins, le client a supprimé le classement par catégories du Cahier des charges car il n'était pas en mesure de les classer (les données de chaque article ne contiennent pas cette information visiblement). De ce fait le site a toujours été conçu sans cet aspect là ... et intégrer la gestion par catégories impliquerait du développement supplémentaire (et assez conséquent) qui serait donc facturé.

C'est la principale raison pour laquelle je n'ai pas encore souhaité lui affirmer que c'était le principal problème de son site ... car si cela n'a aucun effet je passerai pour un incompétent (c'est pas vraiment le cas j'espère :D ).

Questions :

  • Pensez vous que c'est le manque de lien vers des articles (autres que dans le sitemap.xml) qui fait qu'il y a si peu d'articles référencés (car c'est sur eux que le problème se pose) ?
  • Pensez-vous qu'il soit possible d'améliorer le référencement de manière notable en gardant cette structure à plat ?
  • Quels seraient les résultats (nettement visibles, flagrants ...) de l'ajout d'une gestion thématique des normes ? Est-ce que cela justifierait l'investissement du client ?
  • Quelle est ma responsabilité pour ne pas lui avoir fait part de ce problème plus tôt et de manière insistante (devoir de conseil) ?

Voici la grande liste de questions que je me pose suite à ce projet ... qui je dois l'avouer traîne depuis bien trop longtemps à mon goût, pour des raisons dont je ne pense pas être responsable mais qui se retournent finalement contre moi.

J'espère ne pas vous avoir pris trop de temps ... et que l'un d'entre vous aura la gentillesse de me conseiller.

Merci d'avance,

Pierre

Posté
Il semblerait même que Google interprèterait des liens contenu dans des fonctions "basiques", que cela irait plus loin que le "simple" onclick.

Pour le JS de type onclick cela est le cas depuis un moment même. :)

Lorsqu'on brouille bien son lien je t'assure qu'il est impossible pour un moteur de le reconstituer et de crawler par celui-ci la page qu'il y a au bout. Il faut garder à l'esprit que le but de l'outil de recherche reste de crawler rapidement du coup il ne va pas chercher à dépenser non plus trop de ressources pour deviner quelle URL répond bien. Après, c'est sûr que si on décompose ainsi - par exemple - 'http://','www','nomdusite','.tld', on peut sans doute s'attendre à voir le lien suivi.

En conséquence de quoi, il est toujours possible de faire du PR sculpting/Bot herding, si on s'y prend correctement.

Posté

Hello 'karnabal',

Voici (si je ne me trompe pas) à quoi pense dldstyle :

C'est une info du 29/05/2009 =>

Google has also been crawling some JavaScript for a while. Primarily, theyve been extracting very simply coded links. As of today, theyre able execute JavaScript onClick events. They still recommend using progressive enhancement techniques, however, rather than to rely on Googlebots ability to extract from the JavaScript (not just for search engine purposes, but for accessibility reasons as well).

Googlebot is now able to construct much of the page and can access the onClick event contained in most tags. For now, if the onClick event calls a function that then constructs the URL, Googlebot can only interpret it if the function is part of the page (rather than in an external script).

Some examples of code that Googlebot can now execute include:

<div onclick="document.location.href='http://foo.com/'">
<tr onclick="myfunction('index.html')"><a href="#" onclick="myfunction()">new page</a>
<a href="java script:void(0)" onclick="window.open ('welcome.html')">open new window</a>

These links pass both anchor text and PageRank.
Posté

'lo Régis :) Merci pour la source.

Les exemples cités par Vanessa Fox ne sont pas vraiment ce qu'on peut appeler des liens brouillés (je pars bien sûr du principe qu'un lien brouillé l'est sciemment et dans le but de bloquer les bots), il s'agit simplement de liens en JS. Je crois qu'on est tous d'accord depuis le début, non ? :P

Posté

Je pense qu'il faut dan sun premier temps ne garder que le français et supprimer les autres "langues", ensuite, enlever tous les nofollow pour avoir une base saine sur laquelle travailler, meta keyword UNIQUE et description UNIQUES, et enlever les actus.

Faire trop de choses à la fois n'est jamais bon pour comprendre son problème.

Posté

meta keywords je passerai. Elle demande trop de travail pour aucun effet puisque Google ne la reconnait pas et les autres moteurs qui la prennent en compte ne sont pas assez significatifs.

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...