Aller au contenu

Sujets conseillés

Posté (modifié)

Bonjour,

J'aimerais pouvoir discuter avec vous de l'importance d'avoir un site dont le contenu se charge rapidement et qui respecte les normes en matière de développement web (recommandations du W3C Consortium)

Je sais que Google donne des informations sur le temps de chargement moyen d'un site dans ses outils "Centres pour webmasters". Je suppose donc que ce critère est pris en compte par celui-ci pour déterminer le classement d'une page sur son moteur, ou bien que cela sera pris en compte dans le futur.

En ce qui me concerne je tente au maximum de respecter les recommandations du W3C, bien que je n'ai pas encore eu l'occasion de constater de grande différence au niveau du classement dans Google après le passage de mon site de "Vieux codage avec tables" sans réel respect des normes à un passage en CSS validé en "Strict".

Pareil au niveau du temps de réponse du site qui varie fortement dans les statistiques de Google. Pour exemple, je suis passé de 51% plus rapide que la moyennes des autres sites à 55% plus lent. Cela sans aucune modification importante du code, la différence provient de données "étranges" qui m'annoncent des temps réponse de plus de 20 secondes pour des pages légères qui s'affichent en principe en moins de 2 secondes.

Selon vous est-ce qu'avoir un site optimisé pour l'internaute est un critère qui peut faire la différence sur un positionnement dans les résultats de Google?

Avez-vous un retour là-dessus ou une expérience personnelle?

Le débat est ouvert :P

Modifié par Lugdunum
Posté

Salut

Tout d'abord, le validateur w3c n'est qu'un outil (qui a ses limites) qui vérifie la bonne imbrication des balises. Un site façon "vieux codage avec tables" peut parfaitement se retrouver officiellement valide w3c, alors qu'un site beaucoup plus conforme aux standards peut avoir un résultat d'invalidité pour quelques petites erreurs sans gravité.

Le validateur ne vérifie pas la bonne sémantique de tes balises. Si tu écris une liste sans les balises <ul> (par exemple tu ne fais que des <p>aragraphes avec une puce au début de chaque ligne) c'est mauvais sémantiquement, mais le validateur s'en moque éperdumment.

La règle d'or :

Valide ne veut pas dire conforme !

Ceci étant dit, il est couramment admis qu'un site conforme est plus simple à analyser pour un robot tel que ceux utilisés par les moteurs de recherche pour extraire du contenu. D'autant qu'il met souvent moins de temps à charger, ce qui est toujours mieux.

Mais ça s'arrête là : aucun moteur de recherche ne va vérifier si ton site est officiellement valide w3c, si le code est conforme et sémantique, etc.

Au passage, si tu veux optimiser les temps de chargement de ton site, quelques bons conseils (et une extension Firefox) ici : http://developer.yahoo.com/yslow/ Smush it est vraiment bien, notamment. Si tu utilises également le navigateur Safari, le menu Développement propose sensiblement les mêmes choses.

Posté (modifié)

Je suis d'accord avec toi valide ne veut pas dire conforme

Si on suit la politique de Google qui est d'offrir les résultats les plus pertinents aux internautes, je pense qu'il y ai de fortes de chances pour qu'un jour ou l'autre, le fait d'avoir un site qui respecte les standards du web soit plus à même d'avoir un meilleur positionnement qu'un autre qui ne l'est pas. (en admettant que ces 2 sites soient sur le même pieds d'égalité pour tout le reste)

L'information se trouvant sur le site soit accessible par la plupart des navigateurs, tout comme par un internaute aveugle ou mal voyant, alors que celle-ci le sera sans doute moins sur un site non standardisé.

En ce qui concerne le temps de réponse du site, on pourrait en conclure la même chose. Un site dont l'information s'affiche en 2 secondes ou un autre dont il faut 30 secondes pour afficher le contenu de la page n'intéressera pas autant l'internaute impatient qui désire obtenir son information rapidement.

Je suis persuadé que tout cela jouera un rôle à un moment donné (peut-être pas pour tout de suite au niveau du W3C, mais du moins le temps de réponse d'un site), Google nous donne déjà un petit indice en ayant ajouté des statistiques à ce niveau, Yahoo avec YSlow.

Modifié par Lugdunum
Posté

Au niveau de la validité du code, je ne sais pas, mais il me semble significatif que google fasse la promotion de l'extension Page Speed : http://googlewebmastercentral.blogspot.com/2011/03/page-speed-for-chrome-and-in-40.html et vienne de l'intégrer à son navigateur

Quoi qu'il en soit, cette extension donne de très bons conseils pour accélérer le chargement des pages, à mon humble avis les visiteurs en sont tout aussi contents que les robots ;)

Posté (modifié)

Lugdunum à soulevé un point important qui est l’accessibilité d'un siteweb.

Les standards w3c sont ni plus ni moins des consignes afin que nos sites web s'affichent de la même façon peut importe les naviateurs et c'est le nom respects de ses standards par ie6 qui à causé la colère de nombreux intégrateurs / développeurs.

Le fait d'avoir des standards permet également de développer des outils pour les mal voyant ou toute personne ayant un handicap qui l’empêche de consulter un site web comme il faut. Les outils utilisé par ces internautes doivent se baser sur des critères, des normes afin d’interpréter les pages et de les retranscrire au mieux pour l'utilisateur.

Les standards wai (Web Accessibility Initiative) sont la pour ça
/>http://www.w3.org/WAI/

le site http://www.accessiweb.org/ est le site d'une organisation française qui s'occupe justement de promouvoir ces normes wai et fixe différents critères de validité.

A noté que ce site semble avoir été infecté.

Il ne faut pas non plus oublier que les bot qui crawl nos sites agissent comme des navigateur et vont parser nos pages web et les interpréter celon certain critères Ex : H1,H2, ul, li, lat head, body ect ... Donc respecter les standard w3c est important ne plusieurs points. Mais pas essentiel. A noter également que le nombre de DTD différentes pour valider son site au w3c prouve bien que le référencement d'un site ne peut pas être basé sur son respect des normes. Car il y'a trop de dtd différente en les version strict et les différentes vers 1.0 1.1 ect ....

En revanche concernant la vitesse de chargement des pages c'est effectivement important si on se réfère sur le faite que yahoo, et google ont mis des outils à disposition


/>http://pagespeed.googlelabs.com/

On peut également retrouver des stats intéréssant avec GWT.

Modifié par NwK
Posté (modifié)

Il ne reste plus qu'à espérer que ce facteur soit pris en compte par Google et ses amis à un degré suffisament intéressant que pour que tout le monde se penche dessus.

Je trouve que ça revaloriserai le web et notamment rendrait celui-ci plus "standardisé" car à l'heure actuelle, c'est loin d'être le cas.

En ce qui concerne les performances de temps de chargement, je rajoute une petite adresse, il s'agit de GTMetrix qui reprends les statistiques de YSlow, ainsi que ses propres critères:


/>http://gtmetrix.com/

Très utile pour l'optimisation de son site puisque tous les facteurs sont répertoriés et un pourcentage vous est attribué à chacuns d'entre eux, vous savez donc quelle partie optimiser. En plus il propose une optimisation des images ce qui est assez intéressant je trouve.

En tout cas Google.com montre l'exemple avec un grade A à 99%, par contre moins fier du côté de YSlow avec un grade D à 67%.

Je mets ma main à couper que d'ici peu de temps Google tiendra compte de ce facteur et que l'on va vite reparler de tout ça :-)

Modifié par Lugdunum
Posté

Je n'en suis pas sûr du tout : le but d'un moteur de recherche est de proposer un contenu pertinent, correspondant à une requête précise.

Que le site soit bien ou mal codé est un critère qui ne doit pas rentrer en compte : en tant qu'utilisateur, je n'en ai rien à faire, ce que je veux, c'est accéder à une information.

La rapidité de chargement peut être un plus pour le crawl des pages, mais pas pour le positionnement.

Posté

La rapidité de chargement peut être un plus pour le crawl des pages, mais pas pour le positionnement.

Pourtant l'internaute aime quand il peut accéder à la page et au contenu qu'il recherche rapidement non?

Tu ne fais pas précédente pour prendre le résultat suivant lorsque ça va na pas suffisament vite et que le cache ne fonctionne pas comme prévu?

;)

Posté

Intéressant le site gtmetrix. L'analyse de mon petit site n'est pas trop mauvaise, mais il semble que ce qui le ralentit... c'est :

-http://www.google-analytics.com/ga.js (1 day)

-http://pagead2.googlesyndication.com/pagead/expansion_embed.js (1 day)

Comment vous faites pour parer ce problème ?

Posté (modifié)

Intéressant le site gtmetrix. L'analyse de mon petit site n'est pas trop mauvaise, mais il semble que ce qui le ralentit... c'est :

-http://www.google-analytics.com/ga.js (1 day)

-http://pagead2.googlesyndication.com/pagead/expansion_embed.js (1 day)

Comment vous faites pour parer ce problème ?

En fait c'est le temps d'expiration qui n'est pas suffisant, eux conseillent un minimum de 7 jours en cache pour tout ce qui est JavaScript, images, CSS, ...

J'ai du décommenter quelques lignes dans ma configuration d'Apache pour que par défaut cela soit 7 jours et non 1.

Si tu n'as pas accès au fichier de configuration d'Apache tu peux toujours utiliser un fichier .htaccess

Le code en question:

<IfModule mod_expires.c>
# turn on the module for this directory
ExpiresActive on

ExpiresDefault "access plus 7 days"
</IfModule>

Edit: Autant pour moi j'ai mal lu, les fichiers ne font pas partie de ton serveur, alors ça risque d'être difficile ;-)

Modifié par Lugdunum
Posté

Vu sur la page d'accueil de GTMetrix :-)

Google has announced that they are using page speed in their ranking algorithm.

Je me demande bien à quelle échelle.

Posté

En fait c'est le temps d'expiration qui n'est pas suffisant, eux conseillent un minimum de 7 jours en cache pour tout ce qui est JavaScript, images, CSS, ...

Edit: Autant pour moi j'ai mal lu, les fichiers ne font pas partie de ton serveur, alors ça risque d'être difficile ;-)

Je suis sur un serveur mutualisé.

Sinon, je devrais peut-être mettre tous les fichiers js ensemble, mais c'est une autre histoire et je sors du sujet.

Posté

Je suis sur un serveur mutualisé.

Sinon, je devrais peut-être mettre tous les fichiers js ensemble, mais c'est une autre histoire et je sors du sujet.

Le problème c'est que les 2 fichiers dont tu parles sont hébergés chez Google donc tu ne peux malheureusement pas définir via ton site combien de temps ces scripts vont être gardés en cache, c'est la configuration du serveur distant qui prime puisque ce sont ses fichiers.

Posté

Pourtant l'internaute aime quand il peut accéder à la page et au contenu qu'il recherche rapidement non?

Tu ne fais pas précédente pour prendre le résultat suivant lorsque ça va na pas suffisament vite et que le cache ne fonctionne pas comme prévu?

;)

Là, on ne parle plus de qualité de codage, mais de conception et hébergement du site.

Dans ce cas oui, ça peut poser un gros problème, mais ce n'est pas du tout dépendant du code généré par la page.

Posté

Pour optimiser un site, je pense que là ou tout se joue, c'est dans les accès à la base de données.

Il faut traquer les requêtes lentes en analysant les logs, car entre une bonne et une mauvaise requête sur une grosse base, l'écart peut carrément se jouer en secondes (quelques millisecondes pour une image non "smushitée" ?).

De plus, il faut user (et abuser ?) d'un cache d'opcode tel qu'APC.

Pour finir, et pour recentrer ma réponse par rapport au sujet initial, j'ai personnellement l'impression que la rapidité devient une obsession pour google depuis les deux dernières années :

- des DNS google que je trouve super rapide,

- le développement d'un nouveau format d'image plus léger

- les scripts google analytics en asynchrone pour ne pas bloquer l'affichage d'un site

- un nouveau protocole web qu'ils voudraient en remplacement d'html

- un navigateur chrome qui personnellement me bluffe niveau performance

et j'en oublie certainement...

Bref, tout semble indiquer que la rapidité d'un site sera un jour ou l'autre considéré comme un élément de qualité par google et que ce critère jouera plus sur le référencement que ce qu'il ne le fait actuellement !

Posté

Je vais être un peu hors-sujet, mais ce détail me fait tiquer :

Si on suit la politique de Google qui est d'offrir les résultats les plus pertinents aux internautes...
le but d'un moteur de recherche est de proposer un contenu pertinent

Bof, ça fait longtemps que je pense que les résultats sont biaisés par des paramètres non compatibles avec de la pertinence. Officiellement un gros client Adwords ne voit pas son positionnement naturel augmenter. Dans les faits, c'est quand même souvent le cas, et je ne compte plus le nombre de résultats inintéressants sur des requêtes pourtant pas trop concurrentielles.

Idem pour les messages du style : "on bloque l'accès à cette page parce qu'elle est susceptible de contenir un logiciel malveillant, si vous voulez y aller c'est à vos risques et périls". Franchement, autant désindexer directement ces pages plutôt que de me faire perdre mon temps, ce genre de résultats est tout sauf pertinent.

Posté

vi je suis bien d'accord avec toi dudu, les résultats googles sont tous sauf pertinent surtout quand google indique les mots clef dans le ndd ne font pas tout, mon oeil... combien de fois j'ai vu des sites pourris mais premier grâce a leur ndd uniquement...

Posté (modifié)

vi je suis bien d'accord avec toi dudu, les résultats googles sont tous sauf pertinent surtout quand google indique les mots clef dans le ndd ne font pas tout, mon oeil... combien de fois j'ai vu des sites pourris mais premier grâce a leur ndd uniquement...

A la base c'était pour permettre aux sites d'être retrouvés facilement car les mots clés utilisés qui pointent vers un site sont toujours d'abord ceux en rapport avec son nom.

Evidement d'autres malins ont décidés de ne pas donner de véritable nom à leur site et de l'utiliser dans leur nom de domaine mais plutôt d'y placer des mots clés pour monter dans le classement y étant associé.

Vivement que Google modifie son algorithme à ce sujet car cela devient de plus en plus fréquent et certains n'hésitent pas à utiliser des extensions genre "ws" ou "cc" qui sont rarement utilisées pour enregister des noms de domaines à mots clés.

Modifié par Lugdunum

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...