Aller au contenu

Sujets conseillés

Posté

Salut à tous,

Je me pose une question un peu con-con, mais ça fait pas de mal de temps en temps.

Est-ce que vous pensez (ou est-ce que des tests ont été effectués en ce sens) que Google cherche à connaître le sérieux des webmasters dans leurs codes, pour améliorer un peu le positionnement des webmasters consciencieux au profit des webmasters négligents ?

Par exemple, même s'il ne prend pas en compte les meta description et keywords, est-ce qu'il remarque leur présence, et que ces metas sont différentes sur chacune des pages ?

Même s'il ne prend pas trop en compte les "alt", est-ce qu'il remarque qu'il y a toujours des alt sur les images, ce qui se rapproche donc d'une démarche non pas de "suroptimisation référencementielle des pages", mais plutôt d'une démarche "accessibilité, code correct, w3c" ?

Bien sûr, ça ne préjuge pas du contenu des pages, et ça ne dit pas si le contenu est bon... (En même temps, se baser sur le title et sur les liens entrants, ça juge pas non plus d'un contenu pertinent), mais ça a le mérite de dire si le webmaster travaille bien son site, son code, et donc s'il mérite d'être mieux reconnu que ceux qui font leurs sites sans aucun travail réfléchi du code.

Je pense que la réponse sera "non", donc je vous donne une question subsidiaire pour débattre un peu : pensez-vous que la démarche expliquée ci-dessus serait bonne... ?

Posté (modifié)

Bonjour Sarc,

ta question n'est pas du tout idiote, Google semble avoir considérablement augmenté les données qualitatives et historiques liées à une page web, donc tous les éléments "d'optimisation naturelle" sont pris en compte et ils interviennent selon la pondération qui les affecte dans le classement des pages.

mais selon ma toute petite expérience, l'élément déterminant dans le classement en ce moment, tient surtout compte des éléments pénalisants dans le sur-référencement et la sur-optimisation. En deux mots: un code mal fichu, et un contenu pauvre peuvent passer devant un bon contenu suroptimisé et sur -référencé.... en attendant que Googlebot comprenne ce qu'il lit.. c'est pas pour demain la veille...

Modifié par zantar
Posté

Ta remarque est intéressante. Je constate aussi que Google ne privilégie pas toujours les sites qui font des efforts de programmation et d'optimisation. Je trouve ça dommage dans la mesure ou cela pénalise ceux qui font la démarche de suivre les recommandations W3C.

Certes un bon conde ne fait pas bon contenu, mais ça c'est autre débat.

Posté

Google s'occupe de la satisfaction des utilisateurs de son moteur.

Si le sérieux du webmaster fait que la page est plus appréciée des internautes, Google la fera remonter. Si le sérieux du webmaster n'engendre aucune différence du point de vue de l'internaute, ce sérieux n'amènera aucun bonus pour la page en question.

"pensez-vous que la démarche expliquée ci-dessus serait bonne... ?"

Oui pour organiser un classement des webmasters, du plus sérieux au moins sérieux, non pour proposer à l'internaute des pages qui correspondent à sa recherche.

Posté

Oui, ce sujet a souvent fait débat sur les forums de référencement...

Google s'attache à la qualité du contenu pas à la qualité du contenant. Bref, un site très bien codé peut avoir un contenu complètement ininterressant et inversement. Comme le rappel lafleur, Google fournit une réponses à des utilisateurs "Grand public" qui se moquent complètement de l'aspect technique d'un site, et encore moins de la qualité de son code.

Pour ce qui est des balises alt, de la hiérarchie du code (H1, H2, ...), etc... , c'est un plus pour Google car ça a 2 avantages :

- l'accessibilité du contenu au plus grand nombre dont Googleebot (je rappelle souvent que les robots d'indexation sont les plus grands utilisateurs aveugles du web)

- la "sémantique" puisque la hiérarchisation (title, Hx, ...) du contenu aide l'algorythme à mieux "catégoriser" le "sens" du contenu.

Posté

Merci pour vos différentes réponses.

@zantar :

Tu te bases sur quoi pour dire que "Google semble avoir considérablement augmenté les données qualitatives et historiques liées à une page web" ? Y a t-il eu des tests allant en ce sens ? Si oui, où pourrais-je les voir ? J'attendrais justement des ressources sur le sujet... Surtout que les autres messages ne vont pas forcément en ce sens.

@lafleur :

C'est sûr que l'attribut alt n'améliore pas énormément le confort des utilisateurs lambdas, mais on ne peut pas dire quand même que ce n'est pas un effort de la part du webmaster. Un effort d'accessibilité, un effort pour être pointilleux et rigoureux dans son code.

En tant que grand public, j'apprécie les webmasters qui ont le souci du détail, je suis certain qu'ils sauront tenter au moins de m'offrir un contenu de qualité. Les webmasters qui font les choses plus à l'arrache me font peur... Dans cette situation moteuristique où il paraît difficile d'être pertinent, l'effort de rigueur ne devrait-il pas être récompensé face à l'effort de suroptimisation ?

@blman :

Justement, je sais plus trop quoi penser de ce que tu dis. Bien évidemment, le contenu de la page est important, mais quel est-il en pourcentage face au title et surtout face à tous les liens entrants ? J'ai bien l'impression que le contenu même de la page a pas mal perdu d'importance... Cependant, je ne saurais pas bien le juger. Avec toute la concurrence, avec le nombre de mots-clefs très bien ciblés par d'autres sites, les mots fondus dans le contenu de la page ne risquent pas de te placer super bien.

Je me permet donc de douter de la pertinence en terme de contenu de pages par Google, face à la pertinence en termes de moyens (moyens partenariaux et financiers. :/)

Posté

Je rejoins lafleur dans son analyse : pourquoi pénaliser d'éventuels sites qui pourtant répondraient parfaitement à ce que l'internaute attend ?

Quand j'utilise un moteur de recherche, je m'attends à trouver les sites qui répondent le mieux à ma requête, quelle que soit la qualité de codage du site : c'est le contenu qui prime.

Posté

Pour toi, le contenu d'une page se situe-t-il forcément entre 2 balises <body> ... </body> ?

Les seuls éléments qui permettent de dire qu'une page correspond à une recherche sont le contenu propre de la page (avec différents niveaux : title, Hx, texte, alt, ...) et sa catégorisation (sa ou ses thématique(s) tirée(s) de l'analyse des éléments extérieurs comme le réseau de liens)

Ensuite, Google trie les résultats (positionnement) en fonction de son calcul (pertinence, popularité, indice de confiance, ...), de ses filtres (sandbox et autres antispam).

Mais dans tous les cas, Google se base toujours sur le contenu qu'il soit interne ou externe à la page.

Par contre, effectivement, un site bien codé a souvent plus de chance d'être mieux digéré par les moteurs de recherche (encore faut-il s'entendre sur le terme "site bien codé" ;) ) car :

- un "site bien codé" sera accessible au plus grand nombre et ne bloquera pas l'indexation des bots.

- un "site bien codé" offre du texte alternatif aux images et autres médias qui alimente les bases de données en contenu supplémentaire

- un "site bien codé" utilise une bonne architecture qui entre en jeu dans le positionnement (title, Hx, strong, ...) (par exemple : <h1>Titre</h1> sera mieux positionné que <font size="4"><b>Titre</b></font> )

- etc...

Mais on ne peut pas dire qu'un "code de qualité" soit un critère de positionnement, ce n'est pas vrai. Certains concepts d'un code de qualité sont utilisés par les SEO pour positionner une page, mais Google se fiche pas mal que le code soit valide ou non, compatible sous tel ou tel navigateur ou non...

Posté

Il ne faut pas oublier que google est une société mercantile, et comme toutes sociétés, elle fait les choses en calculant le ratio cout/efficacité. Faire plaisir aux webmasters, je suis pas sûr que ca soit très.. profitable pour ses actions :)

Par contre, utiliser les balises sémantiques pour aiguiller ses bots, c'est évident.

Mais je doute que le pourcentage de sites construits correctement soit vraiment représentatif de quoique ce soit. A mon avis, vraiment très peu de sites (ou de pages) sont vraiment conformes à quelque chose. Et dire que c'est d'autant plus méritant pour celui qui code mal est.. tout aussi faux : moins il y a de sites bien codés, et plus ca coute cher de s'y intéresser :)

Posté (modifié)
@zantar :

Tu te bases sur quoi pour dire que "Google semble avoir considérablement augmenté les données qualitatives et historiques liées à une page web" ? Y a t-il eu des tests allant en ce sens ? Si oui, où pourrais-je les voir ? J'attendrais justement des ressources sur le sujet... Surtout que les autres messages ne vont pas forcément en ce sens.

Non je n'ai pas de source scientifique et objective, juste ma chtite expérience. Ce qui me pousse à dire que Google a enrichi sa base de données relative à chaque page indexée me vient d'expériences pratiques:

prenons l'exemple des métas:

sur une page j'ai fait évoluer un contenu existant, et j'ai augmenté les métas en rapport avec les ajouts

google a aimé, montée en classement:

autre page : pas de changement de son contenu, mais intervention sur la meta, sanction immédiate.

Il faut voir aussi la rapidité avec laquelle tombe une sanction suite à un afflux de liens trop rapides, trop importants ou decontextualisés. Avant, l'effet se faisait sentir lors des mises à jours, aprésent la sanction tombe presque en temps réel.

Dernier exemple: un lien en footer identique :

ce même lien adapté dans son ancre à la page hôte et destination vers une page de thématique semblable : l'effet positif est quasi immédiat...

voila le peu que je puisse dire

Modifié par zantar
Posté
Je rejoins lafleur dans son analyse : pourquoi pénaliser d'éventuels sites qui pourtant répondraient parfaitement à ce que l'internaute attend ?

Je suis d'accord par certains aspects. Mais à ce moment là pourquoi Google ne privilégie pas un peu plus ceux qui répondent parfaitement aux deux critères : bon contenu et bon code ? Parce que ce n'est pas toujours le cas.

Je pense que à partir du moment on l'on répond bien à ces deux critères, Google devrait faire l'effort de récompenser les sites qui déjà respecte les normes W3C et ensuite qui proposent un contenu riche.

C'est presque comme si Google ne jouait pas le jeux du W3C alors qu'on nous incite à tout bout de champs à le respecter.

Posté

Google n'a aucun intérêt à nous faire respecter les normes du W3C.

Pour lui, tant qu'un site est intéressant, qu'il soit codé avec les pieds ou par un génie ne change rien : il est intéressant, c'est son contenu qui prime.

Et heureusement d'ailleurs ! Vouloir faire une hiérarchisation des "bons" et des "mauvais" webmasters n'a strictement aucune valeur (surtout dans ce que cherche à obtenir un moteur de recherche)

Posté (modifié)

Oui mais Google pourrait tout de même faire un effort pour trouver le bon équilibre entres ces deux paramètres.

Edit : je dis Google mais ça vaut pour tous les moteurs.

Modifié par Angus
Posté (modifié)

Les backlinks sont un élément très important dans le positionnement :

SI le code d'un site était un critère qui devrait rentré en compte dans le calcul du positionnement, alors ça voudrait aussi dire qu'un site devrait aussi mériter d'avoir des backlinks parce qu'il est bien codé. C'est très rarement le cas...

Remarque : au passage, si le site du W3C listait les pages validés sur des pages PR7, PR6 ou PR5, j'imagine que là, d'un coup, il y aurait vachement plus de webmasters qui se soucieraient de leur validation.

Mais on peut faire les mêmes remarques sur pleins d'autres critères :

- un site au beau design mérite-t-il d'être mieux positionné ?

- un site rapide mérite-t-il d'être mieux positionné ?

- un site sans pub intrusive mérite-t-il d'être mieux positionné ?

- etc...

Hormis le contenu, ce qui fera la différence, ce sont les liens naturels récoltés... C'est l'expérience de l'utilisateur qui compte.

Modifié par blman
Posté

@captain_torche :

C'est bien sûr ce qui nous intéresse tous. (Quoique, je suis bien content aussi quand le design est beau, l'ergonomie plaisante, et si le site a des bonus visuels et/ou techniques, et aucun défaut d'affichage lié à des erreurs de code)

Cependant, on sait très bien tous les deux qu'il est de plus en plus difficile pour les moteurs de recherche de trouver des sites pertinents en terme de contenu. Il fait donc appel, par exemple pour Google, aux liens entrants pour juger de la qualité du contenu. Mais cette technique est de plus en plus révolue à cause des liens partenaires, etc...

Ce que j'évoquais alors, c'était la question : serait-il crédible de penser qu'un site pour lequel le webmaster aura été soucieux de la qualité technique du code, l'aurait été aussi de la qualité du contenu qu'il met en valeur ? J'ai tendance à croire que quelqu'un qui perdra du temps à respecter les standards aura aussi sûrement perdu du temps à respecter le contenu. Mais peut-être ce que je dis est-il complètement eronné (en ce cas, prouvez-le moi !)

@blman :

Quand je parle de contenu, je parle effectivement ce tout ce qui est entre <body> et </body>.

Et mon post précédant posait la question exacte : "le code du site (ie les <hn>, <p>, alt="", etc...) compte pour quel pourcentage du calcul de Google ? Il me semble être très très faible maintenant, face aux gros <title> et backlinks généraux. (Par exemple, il suffit d'une page d'annuaire contenant le nom piti*onde en title, et que cet annuaire ait plein de liens vers son index, pour qu'il apparaisse en première page de chez GG.)

@Anonymus :

Au delà du fait que Google soit mercantile, je trouve ça justement bien triste qu'il n'y ait que peu de raisons de respecter les standards. J'ai entendu il y a quelques jours dans une Ecole d'ingénieurs la phrase : "Ils nous bassinent à nous faire des cours de HTML, respecter les standards ça sert à rien..." J'avoue avoir été presque à court d'arguments. Effectivement, respecter les standards ne sert pas aux yeux de Google, et un site n'est rien s'il n'est pas dans ses yeux, justement.

@zantar :

Tu es sûr qu'une intervention sur une Meta ait pu modifier ton classement dans Google ? Ca me paraît bien étonnant tout de même... Il n'est pas connu pour faire beaucoup confiance aux Metas, le père Google.

@Angus & Captain_Torche :

Ils n'ont effectivement aucune raison de le faire, dans l'immédiat. C'est d'ailleurs bien pour ça qu'ils ne le font pas...

Cependant, Captain, c'est justement là tout le but de mon sujet : es-tu complètement certain qu'il n'y a aucune corrélation entre un bon webmaster et un bon contenu ? Personnellement, même si je me considère pas vraiment du grand public, j'aurais tendance à vouloir me tourner naturellement vers un bon webmaster, soucieux des web-techniques, plutôt que d'un site codé avec les pieds (qui aura, avec un peu de chance, copié son contenu sur Wikipédia).

Le contenu doit rester prioritaire, je suis en tout point d'accord avec toi là-dessus, mais pour trouver un bon contenu dans la masse de sites suroptimisés/à mauvais contenu, d'autres critères de sélection ne seraient-ils pas les bienvenus ?

@blman :

A mes yeux, à contenu à peu près égal, c'est effectivement un site rapide, valide et sans pub intrusive (déroulante à partir du bord gauche, popup masquante...) qui devrait être mis devant, plutôt que le site qui aura le plus de fois le mot-clef dans son title, ou le site qui aura eu 20 BL's de plus que les autres.

Posté
J'aurais plutot tendance a plussoiyer (plussoir?) avec Zantar.

Mais tout comme lui je n'ai pas d'etudes serieuse .. ce serait plutot un feeling.

Je pense que meme si Google et les autres outils de recherche n'ont pas d'interet pecunier a avantager les sites bien codes, il se peut qu'une petite babiole de recompense soit donnee dans la mesure ou cela peut arranger google pour des raisons techniques (facilite,vitesse de crawl, etc ...). Par contre ce n'est pas encre la peine de se palucher le W3C tout de suite dans la mesure ou ca ne doit pas representer grand chose.

Moi j'ai surtout remarquer en fait que les sites avec de grosses erreurs de codes ( 2 balises <title>, un code tres lourd avec des balises inutiles parfois, des liens casses) eux avait tendance a ramer dans les rankings malgre un contenu pertinent.

Sarc si tu veux mon avis continue dans la voie du code W3C et bien foutu. tout ce qu'il y a dans le body compte -

@blman :

Quand je parle de contenu, je parle effectivement ce tout ce qui est entre <body> et </body>.

Et mon post précédant posait la question exacte : "le code du site (ie les <hn>, <p>, alt="", etc...) compte pour quel pourcentage du calcul de Google ? Il me semble être très très faible maintenant, face aux gros <title> et backlinks généraux. (Par exemple, il suffit d'une page d'annuaire contenant le nom piti*onde en title, et que cet annuaire ait plein de liens vers son index, pour qu'il apparaisse en première page de chez GG.)

Dans le balises que tu as cite juste quelques exemple:

<div> --> parfaite pour la mise en page dans la mesure ou ces balise sont la pour mettre en place du TEXTE. Les tableaux sont fait pour les NOMBRES.

<hn> --> headings --> emphase du mot cle (fait attention a bien respecter l'order de ces balises)

<p> --> encore un fois mise en palce de texte dans la page

etc ...

Posté
J'ai tendance à croire que quelqu'un qui perdra du temps à respecter les standards aura aussi sûrement perdu du temps à respecter le contenu.

[...]plutôt que d'un site codé avec les pieds (qui aura, avec un peu de chance, copié son contenu sur Wikipédia).

Le souci, c'est que tout n'est jamais tout blanc ou tout noir !

On tombe fréquemment sur des systèmes de blogs extrêmement propres, mais dont les utilisateurs finaux se servent pour poster des phrases quelconques, qui auraient mieux fait de rester dans leur journal intime.

A l'inverse, on peut également tomber sur un site codé par un débutant, mais qui possède une véritable passion : pour lui, le web n'est qu'un moyen et non un but, et il se contrefiche de valider son site, tant que ça reste lisible.

C'est justement parce qu'il ne peut pas y avoir de relation de cause à effet entre qualité du code et du contenu, qu'un moteur de recherche ne peut pas se permettre de faire un tri en fonction de la validité du code.

Soit dit en passant, ce n'est pas parce qu'un site est valide qu'il est accessible (et réciproquement) : je peux très bien faire utiliser un frameset et des tableaux et valider, alors que côté accessibilité, on est loin des recommandations !

Pour valider l'accessibilité d'un site, il est nécessaire d'avoir une intervention humaine. Par conséquent, un moteur ne peut s'en charger, et donc il s'en contrefiche (CQFD) !

Posté

le raisonnement est implacable SARC...

mais je reste sur mes positions ;) tout en restant desole pour les webmaster debutant

Posté
Soit dit en passant, ce n'est pas parce qu'un site est valide qu'il est accessible (et réciproquement) : je peux très bien faire utiliser un frameset et des tableaux et valider, alors que côté accessibilité, on est loin des recommandations !

Pour valider l'accessibilité d'un site, il est nécessaire d'avoir une intervention humaine. Par conséquent, un moteur ne peut s'en charger, et donc il s'en contrefiche (CQFD) !

+1

Quand un internaute utilise une plateforme de blog, il n'a fait personnellement aucun effort de codage, il remplit juste avec du contenu. Donc quelle relation pourrait-on établir entre le choix d'une plateforme de blog et le sérieux du webmaster quant au contenu ?

Sinon, une présentation avec des

<table><tr><td style:font-size:14pt;margin:20px">mon titre</td>...

est valide, mais sémantiquement, est-ce correct ?

Avoir 3 fois dans sa page "lire la suite", est valide W3C, mais npn accessible, 2 mêmes ancre ne pouvant avoir des url de destination différentes.

De la même façon, une entreprise certifiée ISO fera-t-elle du meilleur travail qu'une non certifiée ? pas sur, la certification, c'est juste reconnaitre, qu'à un moment donné ils savaient faire les choses bien, et qu'ils ont même fait des procédures, mais les suivent elles toujours. ?

Posté (modifié)
@zantar :

Tu es sûr qu'une intervention sur une Meta ait pu modifier ton classement dans Google ? Ca me paraît bien étonnant tout de même... Il n'est pas connu pour faire beaucoup confiance aux Metas, le père Google.

Eh oui, la page en question a mis 7 mois à s'en remettre, pourtant cest une page unique spéciale site, ce sont de vagues référents qui ont pris sa place, pourquoi selon toi ? cette page était ancienne, avec bonne cote de confiance, stable et tout, 18 mois après on lui change subitement sa méta sans toucher à son contenu , elle plonge !

la même opération sur une page jeune n'a aucune conséquence presque, cest pourquoi je te parles d'un index fortement historisé!

Modifié par zantar
Posté

Et pour finir :

Le libraire ne se soucie pas de la qualité du papier lorsqu'il met ses magasines sur le présentoir :)

Le lecteur non plus, d'ailleurs ;)

Nico.

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...