Aller au contenu

Sujets conseillés

Posté

Suis pas certain qu'on se comprenne :)

Le code HTML ou XHTML n'est que le carburant (Sans plomb, Diesel, Huile végétale), mais au final la bète de course c'est ton site web, et un bon moteur c'est le contenu et le developpement d'applications.

C'est pas la même philosophie ;)

  • Réponses 70
  • Créé
  • Dernière réponse

Contributeurs actifs dans ce sujet

Contributeurs actifs dans ce sujet

Posté (modifié)

Franchement je ne suis pas un radical du W3C (d'ailleurs je ne valide même plus mes pages).

Mais si on veut parler philosophie il faut quand même rappeller que les tableaux c'est Excel à la base. On l'a utilisé pour faire des pages Web faute de mieux.

Le XHTML et la CSS sont quand même plus approprié à la construction de pages Web.

Mais c'est vrai qu'ils y en a qui ralaîent quand le TVG ou l'Autoroute est passée chez eux.

Quand j'audite un site, je ne conseille pas systématiquement le passage en pages sans tableaux (j'ai aussi quelques pages en tableaux) et je n'ai rien contre ce mode de construction. Mais j'ai tout de même le droit de penser que le XHTML est plus logique, plus propre, plus universel et beaucoup plus simple et souple à travailler que le HTML qui reste un langage hybride du passé (XHTML est hybride aussi mais un peu plus actuel à mon humble avis).

Edit : en plus je ne fais pas de sites pour les autres donc mes impératifs ne sont pas les même que les tiens. Le client se moque en effet du code source. Comme tu le suggères, mon travail ne s'adresse qu'à moi-même en opposition au tien qui doit satisfaire d'autres exigences.

Modifié par thick
Posté

Je suis pas contre la modernité :D

Mais Il y'a encore trop d'utilisateurs (20%) qui ne peuvent pas lire correctement le XHTML, les tableaux eux sont reconnus par tous les navigateurs. Je choisis l'utilisateur :)

Posté

Salut :huh:

Mais Il y'a encore trop d'utilisateurs (20%) qui ne peuvent pas lire correctement le XHTML, les tableaux eux sont reconnus par tous les navigateurs. Je choisis l'utilisateur :)

:blink: :blink:

Heu tu le sors d'où ton chiffre ? Je code en XHTML à 99,9% de mon temps et je n'ai jamais vu personne me dire qu'il n'arrivait pas à lire correctement mon travail.

Et dans mes stats j'ai du Win/IE, du Firefox, du Mozilla, de l'Opera, des PDA en Java, du SunOS/NS4, des téléphones mobiles.. en gros du neuf comme de l'ancien, du moderne comme du préhistorique.

Je teste même assez souvent mes sites avec des navigateurs les plus exotiques possible (iCab est très imprévisible dans son genre) et aucun souci.

Comme tu disais plus haut, ce serait sympathique d'arrêter d'inventer de nouveaux trucs issus d'une imagination débordante puis de les débiter sur un forum comme si c'était la plus pure vérité du monde.

Sinon je veux bien ta source pour cette histoire, surtout pour le chiffre de 20%. D'avance merci.

Thick: je suis assez d'accord avec toi depuis le début de ce sujet, sauf sur ton dernier message et la comparaison HTML/XHTML. Il est possible de faire un site conforme aux standards, sans tableau, avec séparation présentation/contenu, accessible etc.. en HTML.

Exemple ? Tu connais peut être Eric Meyer (LE grand gourou des CSS s'il ne fallait en retenir qu'un) ? ou plus proche de nous Alsacréations ? Et bien meyerweb.com comme alsacreations.com sont codés en HTML 'sec'.

Posté

Pas besoin de navigateurs exotiques, pendant un certain temps, j'étais sous ie 5.5, le nombre de sites valide W3C, qui n'affichaient pas correctement etaient hallucinants, le contenu se déplacant en bas.

Je suis pour l'accessibilité numérique et rien de mieux que les tableaux, ca bouge pas, et c'est accepté par tous les navigateurs.

Maintenant, si j'ai la garantie qu'il y'a 99,99% qui affiche correctement, j'enleverai les tableaux, d'ailleurs je le fais pour certains de mes clients qui le souhaitent, ca sera pas un problème :)

Posté
Crois tu qu'un Bot aussi perfectionné soit-il, prend du temps à analyser le code source ? 

<{POST_SNAPBACK}>

Le crawler en lui même, peut être pas, mais les pages qu'il rapatrie elles sont bien parsée à un moment ou à un autre, sinon comment google mesurerait-il la pertinence des pages ? :)

Posté
Le crawler en lui même, peut être pas, mais les pages qu'il rapatrie elles sont bien parsée à un moment ou à un autre, sinon comment google mesurerait-il la pertinence des pages ?  :)

Sans même parler de pertinence, comment Google pourrait-il trouver un simple mot clé s'il n'analysait pas ta page ?

Pour extraire les mots clés du code html, il faut bien qu'il comprenne ce dernier, sinon on se retrouverait nombreux à être dans le moteur pour DIV, TABLE, SPAN, etc... non ?

Posté (modifié)

Certainement, mais je pense qu'il le parse à la volée, à mon sens, il y'a le contenu indexé en supprimant les balises (ca prend moins d'1 seconde) et de l'autre la page totale qui est indexé pour le cache.

Je ne crois pas qu'il y'ait un algo pour analyser la page (totale avec le code source) ensuite, mais bon je n'ai pas de certitudes, si vous avez des infos, ou un technicien de Google, on sait jamais ;) qui peut nous renseigner, ca serait super, mais peut etre que mon imagination est trop débordante ;)

Modifié par smile
Posté
Pour extraire les mots clés du code html, il faut bien qu'il comprenne ce dernier, sinon on se retrouverait nombreux à être dans le moteur pour DIV, TABLE, SPAN, etc... non ?

<{POST_SNAPBACK}>

Je parle des Crawlers Dan, et en ayant developper des spiders, j'ai une petite idée comment ca fonctionne :)

Posté

Je veux bien que tu parles des crawlers. Mais ce ne sont pas ceux-ci qui te donnent l'info lorsque tu fais une recherche.

On est bien d'accord sur le fait qu'un crawler ne s'intéresse pas au contenu, mais le moteur, et le traitement ultérieur au crawl, doit s'y intéresser.

Sans ça, pas de résultat de recherche.

Donc si dans ce traitement, l'info utile se trouve noyée au fin fond d'un fatras de code inexploitable, le moteur aura des difficultés à déterminer de quoi traite ta page. Et il peut arriver même, selon les dires de Googleguy, que leur moteur ne soit pas en mesure de décoder une page si le code HTML est par trop irrespectueux des standards.

Même si tu as développé des crawlers, tu dois savoir que les moteurs sont tous développés selon les standards, et ce n'est que le respect de ceux-ci que tu pourras avoir avec certitude une bonne interprétation de ta page.

Si tu veux, j'essaierai de retrouver le post de Googleguy sur WMW où il expliquait cela il y a deux ans déjà.

Posté (modifié)

Oui il faut distinguer les crawlers qui rapatrient le contenu et le moteur qui fait des recherches dans le contenu depuis sa base et à mon avis il fait des recherches sans les balises, le crawler a extrait à la volée le contenu sans les balises.

Dans ce cas, il n'y aura pas d'algo pour analyser le code source puisqu'il n'y en a plus. Maintenant si GoogleGuy dit autre chose alors j'ai peut etre tout faux :)

Modifié par smile
Posté

Si le crawler ne passait au moteur que les pages dénuées de balises, toutes les versions en cache de Google ou Yahoo (ou tous les autres) ne seraient que des pages blanches avec du texte à la mode de Lynx, voire simplement du texte linéaire.

Or, même après des changements de la charte graphique (par exemple au moment où je suis passé d'Invision 1.3.1 à la version 2.0, je voyais dans le cache Google les pages de la version précédente alors qu'elle n'était plus sur le serveur. Cela comprenait la mise en page (mais pas les images).

Donc je pense que tu te trompes ;)

Posté (modifié)

Si tu lis ce que j'ecris, j'ecris qu'il y'a deux index, un sans balise, l'autre avec balises pour le cache, mais le code source sert qu'au cache pas pour un eventuel algo, d'ailleurs c'est sur un autre data center.

C'est ce que je pense mais chacun est libre de penser ce qu'il veut :)

Modifié par smile
Posté
C'est ce que je pense mais chacun est libre de penser ce qu'il veut :)

Je pense que le code source est aussi utilisé pour tester certains filtres...

Mais c'est de la "cuisine interne" et sans avis formel de Google lui-même on n'avancera pas plus loin.

Comme tu dis "chacun est libre..." et perso je préfère m'assurer que le Hub sera compris correctement en le rendant valide.

Le fait d'avoir un site valide nous vaut d'avoir autant de pages dans l'index Google que forums.invisionpower.com qui a pourtant 6 fois plus de posts que nous et est beaucoup plus ancien. Mais là c'est une conviction personnelle, rien d'autre.

Posté

je suis pas contre des pages valides surtout que dans le code source du Hub, il y'a des tableaux ;)

Posté

Il y a forcement un parser même minimaliste pour suivre les liens, les frame, les iframe, calculer le pagerank, ... Il faut également pouvoir tester si un mot clef est en title, en h1/h2/..., dans un lien, en alt dans une balise img, ... On ne peut pas savoir jusqu'ou va le parser google. Ce qui est sur, c'est que vu les paramètres utilisés, il existe.

Posté
C'est juste, et dans un moteur "idéal",

Mais google n'est pas un moteur idéal. Il y a donc un certain nombre de règles à suivre et d'erreurs à éviter pour qu'un site se positionne bien dans google. Ceci indépendemment de la satisfaction qu'il procure à ses visiteurs.

L'exemple le plus frappant des "bugs" de google qui peuvent conduire à la catastrophe pour le référencement d'un site sont les redirections 302, qui ont abouti dans plusieurs cas avérés à des déréférencements.

<{POST_SNAPBACK}>

EXACT Merci la redirection 302 qui m a valu 1 blacklistage pendant 3 mois...

Posté (modifié)
Il y a forcement un parser même minimaliste pour suivre les liens, les frame, les iframe, calculer le pagerank, ... Il faut également pouvoir tester si un mot clef est en title, en h1/h2/..., dans un lien, en alt dans une balise img, ... On ne peut pas savoir jusqu'ou va le parser google. Ce qui est sur, c'est que vu les paramètres utilisés, il existe.

<{POST_SNAPBACK}>

j'espère quand même (pour l'occupance des serveurs de Google) que ces opérations sont faite une fois pour toute au moment de l'indexation et non à chaque requette de chaque internaute ...

je pense que ce traitement est fait pendant les qq heures qui séparent le moment où passent les bots, et le moment où la page apparait effectivement dans l'index ... d'ailleurs la logique veut que toutes les opérations statiques soient faites hors consultations (recensement des liens, mots clés, thématique de la page, etc ...) pour ne garder lors d'une requette que le calcul des indicateurs dépendants de la requette elle même) ...

Modifié par cendrillon
Posté

Salut

Pas besoin de navigateurs exotiques, pendant un certain temps, j'étais sous ie 5.5, le nombre de sites valide W3C, qui n'affichaient pas correctement etaient hallucinants, le contenu se déplacant en bas.
D'expérience ce genre de cas est rare, et je n'ai jamais vu aucun outil de stat m'afficher 20% de IE 5.5

Je réitère mon envie d'avoir une source sur cette histoire de 20%.

Je suis pour l'accessibilité numérique et rien de mieux que les tableaux, ca bouge pas, et c'est accepté par tous les navigateurs.
Ah bon tu es pour l'accessibilité numérique avec des tableaux de mise en page? Es-tu sûr que ta phrase ne comporte pas une méchante contradiction ? Je t'invite à utiliser des outils tels que des plages brailles ou des lecteurs vocaux: c'est avant tout pour ce public-cible que l'accessibilité numérique trouve sa raison d'être.

Sinon pour apprendre des choses très intéressantes (avant de déclarer "tout et n'importe quoi" comme tu disais si bien), tu as le lien de ma signature. Je précise que je n'ai rien à voir avec ce site ou son webmaster à part d'adhérer complètement à ce qui y est dit.

Je ne crois pas qu'il y'ait un algo pour analyser la page (totale avec le code source) ensuite, mais bon je n'ai pas de certitudes, si vous avez des infos, ou un technicien de Google, on sait jamais ;-) qui peut nous renseigner, ca serait super, mais peut etre que mon imagination est trop débordante ;-)

Je lis souvent dans les forums de référencement (comme le Hub par exemple) des sujets sur l'importance des mots présents par exemple dans une balise <title> ou une balise <h1> entre autres. Et j'ai moi-même fait le constat qu'une page sémantiquement bien structurée se référençait mieux que la même page (visuellement parlant) avec un code purement présentatif (<h1> remplaçé par <font size="5"><b> par exemple).

De là à penser que les moteurs de recherche parsent le code pour déterminer quels mots sont plus aptes que d'autres à devenir des mots-clés il y a un petit pas et je le franchis allègrement tel César franchissant le Rubicon B)

je suis pas contre des pages valides surtout que dans le code source du Hub, il y'a des tableaux ;)

Les tableaux peuvent être tout à fait valides.

C'est la manière de s'en servir qui peut se révéler invalide.

Énorme nuance ;)

Et d'un point de vue exclusivement sémantique, je trouve parfaitement légitime qu'un forum (c'est-à-dire une enfilade de messages, ou une enfilade de sujets, ou une enfilade de sections selon où l'on se trouve) use de tableaux. Ce ne sont pas des 'tableaux de mise en page' (usage invalide contraire aux règles les plus élémentaires de l'accessibilité numérique), mais des données tabulaires qui trouvent donc leur place dans des cellules de tableau.

Si l'on prend en exemple la page d'index des forums Webmaster-Hub on distingue clairement l'en-tête de chaque tableau:

Forum | Sujets | Réponses | Derniers messages

et ensuite les contenus respectifs des colonnes. Çà me semble aussi logique que valide.

Cendrillon: pour quelqu'un qui s'intéresse d'aussi près au référencement, tu me déçois ;)

-> requête ;-)

Posté
j'espère quand même (pour l'occupance des serveurs de Google) que ces opérations sont faite une fois pour toute au moment de l'indexation et non à chaque requette de chaque internaute ...

je pense que ce traitement est fait pendant les qq heures qui séparent le moment où passent les bots, et le moment où la page apparait effectivement dans l'index ... d'ailleurs la logique veut que toutes les opérations statiques soient faites hors consultations (recensement des liens, mots clés, thématique de la page, etc ...) pour ne garder lors d'une requette que le calcul des indicateurs dépendants de la requette elle même) ...

<{POST_SNAPBACK}>

Oui oui, je pense aussi

Posté (modifié)
Cendrillon: pour quelqu'un qui s'intéresse d'aussi près au référencement, tu me déçois ;)

-> requête ;-)

<{POST_SNAPBACK}>

mon dieu mon dieu, heureusement que le référencement n'est pas mon gagne pain, sinon ma carrière était foutue (juré, dès demain, je l'écris rekete) ... :fou:

plus sérieusement, et quelle que soit la façon dont je l'orthographie, j'aurais préféré une réponse sur le fond plutôt que cette remarque pas vraiment des plus élégantes ... ;)

Modifié par cendrillon
Posté
Salut

D'expérience ce genre de cas est rare, et je n'ai jamais vu aucun outil de stat m'afficher 20% de IE 5.5

Je réitère mon envie d'avoir une source sur cette histoire de 20%.

http://www.webmaster-hub.com/lofiversion/i....php/t6846.html

pas si rare que ca, tu comprends pourquoi je ne l'utlise pas pour le moment :)

Pour l'accessibilité numérique, je parlais plutôt de l'ergonomie d'une page, et son rendu.

De là à penser que les moteurs de recherche parsent le code pour déterminer quels mots sont plus aptes que d'autres à devenir des mots-clés il y a un petit pas et je le franchis allègrement tel César franchissant le Rubicon B)

c'est possible, dans ce cas, le travail se fait en amont après recupération du code source, comme le suggère Cendrillon, un programme analysant la page sur <h1>, alt, etc ...

Et d'un point de vue exclusivement sémantique, je trouve parfaitement légitime qu'un forum (c'est-à-dire une enfilade de messages, ou une enfilade de sujets, ou une enfilade de sections selon où l'on se trouve) use de tableaux. Ce ne sont pas des 'tableaux de mise en page' (usage invalide contraire aux règles les plus élémentaires de l'accessibilité numérique)

Là j'adhère pas, expliquer que les tableaux de mise en page sont invalides mais acceptable dans la hierarchie de l'information, c'est idiot. qui va comprendre que l'un est légitime et l'autre à jeter ?

En tous les cas ni les utilisateurs, ni les robots ...

Posté

Un p'tit peu de lecture pour tout le monde :

=> http://www.webmaster-hub.com/publication/article106.html

et

=> http://www.webmaster-hub.com/publication/article128.html

C'est expliqué ici même.

Pour pouvoir décripter une page, il faut savoir 'comment la prendre'.

Or, comme pour un journal, qui affiche les colonnes les unes à la suite des autres, les sites écrits en tableau sont difficilement décryptibles par un simple algo.

Par contre, pour une page décrite simplement, avec xhtml/css par exemple, les données sont rassemblées ensemble, pour former des groupes de texte logiques.

Sur mon site (un p'tit coup de pub ;) ), par exemple, on voit clairement le menu, les données au milieu, etc.. Si ca avait été fait en tableaux, ca aurait été une suite de cellules, tantot à coté, tantot au dessus/dessous, mais en aucun cas les données auraient été structurées.

Donc, d'un coté, la structure est à mon avis indispensable.

Ensuite, pour ce qui est de la hiérarchie de l'information, il me semble logique que ce qui est en haut est plus important que ce qui est 300 lignes plus bas. Evidement, on peut modifier le code source, pour faire remonter les trucs plus importants, .. etc, mais c'est assez rare. Tout du moins, plus rare que de mettre des balises <h1>, en taille standard.

De toute facon, les algos quelqu'ils soient doivent s'attacher au contenu, et y trouver un sens. le tableless le permet vraiment mieux que le table not less :D

Nico.

Posté
mon dieu mon dieu, heureusement que le référencement n'est pas mon gagne pain, sinon ma carrière était foutue (juré, dès demain, je l'écris rekete) ...  :fou:

plus sérieusement, et quelle que soit la façon dont je l'orthographie, j'aurais préféré une réponse sur le fond plutôt que cette remarque pas vraiment des plus élégantes ...  ;)

C'était une remarque censée être dite gentiment (d'où le smiley d'ailleurs), mais si tu préfères te braquer c'est ton choix et je le respecte.

(et moi juré, dès demain, je sors mon étiquette de modérateur, avec la charte des forums sur le respect de l'orthographe et les gros smileys pas contents ? tout çà pour çà ?)

Quant aux remarques sur le fond, une chose me paraît logique: si j'en avais eu je les aurais écrites.

Or le référencement n'est pour moi ni un métier, ni une passion, ni même un passe-temps. C'est juste quelque chose que je vois autour de moi au quotidien, donc je m'y intéresse de plus ou moins loin. Et lorsqu'on y aborde des sujets trop pointus pour mon faible niveau, je n'ai souvent aucun avis et me contente d'observer ce qui se dit.

Quoi de mal à çà ?

http://www.webmaster-hub.com/lofiversion/i....php/t6846.html

pas si rare que ca, tu comprends pourquoi je ne l'utlise pas pour le moment :-)

Forcément si tu cites des cas particuliers ;) Je préfère ne pas parler de Kooliss (le site même ou bien les kits) car j'ai une opinion un peu trop tranchée sur la question :)

Si simous ou kloobik (messieurs Kooliss) passent par ici et veulent en savoir plus, je pense la même chose de Kooliss que Tainted Words pense de Kalitee (et sujet clos pour ma part)

Pour l'accessibilité numérique, je parlais plutôt de l'ergonomie d'une page, et son rendu.

Ce qui, tu l'auras noté, est complètement différent. À vrai dire, j'ai même du mal à comprendre quel rapport peut-il y avoir entre l'ergonomie visuelle d'une page web, et son accessibilité.

Pour preuve, il est fort simple de créer une page parfaite d'un point de vue ergonomique, avec un code désastreux d'accessibilité. Et vice versa d'ailleurs.

Là j'adhère pas, expliquer que les tableaux de mise en page sont invalides mais acceptable dans la hierarchie de l'information, c'est idiot. qui va comprendre que l'un est légitime et l'autre à jeter ?

En tous les cas ni les utilisateurs, ni les robots ...

Avant toute chose je dois dire que c'est très élégant (:hypocrite:) de me taxer d'idiotie. Lorsque que plusieurs personnes n'ont pas le même avis sur un forum de discussion, je ne crois qu'il soit nécessaire pour autant qu'elles remettent en cause l'intelligence des autres et deviennent insultantes.

Je ne suis pas insultant avec toi (juste envieux d''en savoir plus sur ces fameux 20% whistling.gif), je ne permets donc pas de l'être avec moi (ou qui que ce soit de toute façon) en retour.

Ensuite pour répondre à ta question: les utilisateurs ET les robots.

Les utilisateurs: çà tu le sais déjà puisque depuis mon dernier message tu t'es documenté sur l'accessibilité numérique et tu as pu constater par toi-même le rendu d'une page "tabloïde" au travers d'un agent utilisateur adapté à certains handicaps physiques/moteurs.

Tu as pu constater l'importance des attributs de lecture horizontale/verticale qu'un intégrateur HTML ajoute à ses tableaux de données tabulaires afin que les cellules soient lues correctement et dans le bon ordre.

Tu as donc vu que ce genre de chose trouvait assez mal son application dans un tableau 'de mise en page'. Pas vrai ?

Les robots: on ne peut pas en être sûr lorsqu'on n'est pas un ingénieur de haut niveau travaillant pour un moteur de recherche, mais il est aisé comme je le disais plus haut de constater l'importance d'une certaine sémantique dans les algorithmes des moteurs de recherche. J'insiste sur le mot 'sémantique' et non sur une prétendue validité. Jusque là, personne n'a pu ni prouver ni constater que la 'validité' d'une page jouait en sa faveur pour le référencement, alors que la 'sémantique' oui (ne serait-ce que cette histoire de <h1> et de <title>.

Posté
Pour pouvoir décripter une page, il faut savoir 'comment la prendre'.

Or, comme pour un journal, qui affiche les colonnes les unes à la suite des autres, les sites écrits en tableau sont difficilement décryptibles par un simple algo.

Par contre, pour une page décrite simplement, avec xhtml/css par exemple, les données sont rassemblées ensemble, pour former des groupes de texte logiques.

<{POST_SNAPBACK}>

certes, ce que tu dis est vrai pour la vue source, mais rien à ce jour ne permet d'affirmer que l'analyse thématique et sémantique est appliquée sur la vue source ... imagine que l'anayse soit faite (comme je le pense) sur une vue "texte" expurgée de toute la partie HTML (aux attributs sémantiques et aux liens près) complètement inutile pour un moteur... dès lors table ou tabless ne fait plus aucune différence ... ;)

finalement, indépendamment des apports indiscutables de xhtml/css et au delà des positions plus ou moins puristes des uns et des autres, qq a t'il vraiment fait des tests (de référencement bien entendu) pour vérifier cette histoire de tableau ?

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant

×
×
  • Créer...