Diet Posté 5 Septembre 2007 Posté 5 Septembre 2007 Je ne comprends pas. J'ai tente de faire valider mon site et voilà ce que google me répond : "The validator has found the following problem(s) prior to validation, which should be addressed in priority: No Character Encoding Found! Falling back to UTF-8. I was not able to extract a character encoding labeling from any of the valid sources for such information. Without encoding information it is impossible to reliably validate the document. I'm falling back to the "UTF-8" encoding and will attempt to perform the validation, but this is likely to fail for all non-trivial documents. Read the FAQ entry on character encoding for more details and pointers on how to fix this problem with your document. Sorry, I am unable to validate this document because on line 506 it contained one or more bytes that I cannot interpret as utf-8 (in other words, the bytes found are not valid values in the specified Character Encoding). Please check both the content of the file and the character encoding indication. The error was: utf8 "\x99" does not map to Unicode " Pouvez vous m'éclairer?
Tizel Posté 5 Septembre 2007 Posté 5 Septembre 2007 De quel type de validation parles tu ? Validation W3C ? Quel rapport avec le référencement ? Tizel
binarygirl Posté 5 Septembre 2007 Posté 5 Septembre 2007 Vous devez spécifier le character set de votre page dans le <head> Exemple: UTF-8: <meta http-equiv="Content-Type" content="text/html; charset=utf-8" /> ou: <meta http-equiv="content-type" content="text/html; charset=iso-8859-1" />
bartpl Posté 6 Septembre 2007 Posté 6 Septembre 2007 De quel type de validation parles tu ? Validation W3C ? Quel rapport avec le référencement ? Tizel A mon avis grand rapport. Le site bien optimalisé est mieux indexé par les robots de recherche (par exemple: l'élément title dans les liens ou title dans les images). Je me trompe ? Mais c'est vrai que Diet devrait chercher la solution sur sur le forum (X)HTML et CSS.
captain_torche Posté 6 Septembre 2007 Posté 6 Septembre 2007 Ce n'est pas parce qu'un site sera valide (X)HTML, qu'il sera mieux placé dans les résultats de la recherche, ça serait trop facile. De nombreux sites sortent premiers, alors qu'ils ne valident rien du tout. L'essentiel étant de soigner son titre, sa description, et surtout son contenu !
karnabal Posté 6 Septembre 2007 Posté 6 Septembre 2007 (modifié) Le site bien optimalisé optimalisé -> optimisé / mais optimisé pour quoi ? Validation ? Moteur de recherche ? Bref, je ne pense pas que l'on doivent polluer ce sujet en relançant le débat "Un site valide W3C est-il ou non de ce fait plus performant du point de vue SEO ?". Même si j'encourage la création de sites accessibles (même si un site valide n'est pas forcément accessible), à ma connaissance, le rapport validité W3C et positionnement n'a jamais été démontré. Ce que j'ai du mal à comprendre c'est comment Google intervient dans la vérification de la validité de tes pages. (!) EDIT : doublé par captain torche Modifié 6 Septembre 2007 par karnabal
bartpl Posté 6 Septembre 2007 Posté 6 Septembre 2007 Je n'ai pas écrit que le site sera mieux placé, mais mieux indexé. Les robots pourront comprendre son contenu plus facilement. Bref, je pense que c'est mieux d'avoir le site en accord avec les standards que ne pas l'avoir. Au moins, au cas où... OK, je ne pollue plus le sujet.
captain_torche Posté 6 Septembre 2007 Posté 6 Septembre 2007 A moins d'avoir un code complètement horrible (balises non fermées, etc), le robot n'aura pas de problème pour en extraire le contenu. Ce qu'un navigateur fait, il est capable également de le faire
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant