Aller au contenu

Sujets conseillés

Posté

Voilà, tout est dans le titre, ou presque.

Je me suis laissé dire il y a quelques mois que lorsque Google indexait les pages des sites qu'il visitait, il récupérait toujours les 100 premiers ko de code avant de passer à la page suivante, d'ou l'intérêt de faire afficher son contenu au tout début du body, pas à la fin. Quelqu'un peut-il confirmer ? Il me semble à bien y repenser que c'est quand même beaucoup, 100 ko quand on prône une optimisation des pages pour ne pas dépasser les 50-60 kilo-octets...

Merci aux Googlemaniacs ! ^_^

Posté

Googleguy a répété a plusieurs reprises que la limite était de 101 ko. C'est précis...

Si on regarde l'index de Google, on ne trouve pas de pages dont la taille annoncée est supérieure à 101 ko...

J'ai regardé des pages de 101 ko de plus près : leur taille réelle est supérieure à 101 ko (cela on pouvait s'y attendre). La page en cache est-elle tronquée ? Non...

Les derniers liens au delà de la limite de 101 ko sont ils oubliés. Non... (vérifié sur mes propres pages).

Y'a de quoi être perplexe.

Posté

Est-ce qu'il n'y aurait pas là une confusion possible entre la limite des 100 liens et celles (hypothétique ?) des 100ko ?

Matthieu

Posté

La limite des 100 liens est pure theorie. De toute facon saux cas specifiques, une page avec plus de 100 liens devraient etre scindée en plusieurs amha. Celle des 101K est reelle.

Posté

Vu qu'il y a divergence d'avis: quand on parle de 100ko, qu'est-ce que vous considérez (Sebastien, Denis) ?

Vous "pesez" uniquement le code HTML ? La / les CSS qui vont avec ? les images ? d'éventuels include ?

Matthieu

Posté

Ben a priori ce serait les 100 premiers ko du code html non?

je pense de mon cote qu'il y a pas mal de fausses pistes, et qu'il n'est pas evident de s'y retouvrer dans la confusion info/intox ... la seule maniere est de juger par l'exemple, mais n'y a-t-il pas une part d'aleatoire parfois (ce qui induit tout le monde en erreur)?

Posté
Vu qu'il y a divergence d'avis: quand on parle de 100ko, qu'est-ce que vous considérez (Sebastien, Denis) ? Vous "pesez" uniquement le code HTML ? La / les CSS qui vont avec ? les images ? d'éventuels include ?

En fait, j'en sais rien du tout et c'est justement ce qui m'embête... À priori je croirais que c'est les 100 ou 101 premiers kilo-octets du document, incluant HTML, fichiers externes interprétés par l'agent utilisateur et contenu texte... ce qui serait logique puisque les tenants des normes et de l'accessibilité avancent qu'une séparation nette entre structure et présentation avec XHTML et CSS assure une meilleure indexation dans Google (parce que moins de code donc plus de place pour du contenu). Maintenant, sans preuve concrète, tout ça c'est rien de plus que du vent... <_<

Posté

Si on se base sur l'indication de taille des documents que google présente dans ses réponses (à coté de l'url), il s'agirait plutôt uniquement du contenu de la page html, excluant css externes, javascripts externes, et images.

Posté

GoogleGuy n'est sûr de rien, mais il s'appuie sur les connaissances d'un autre membre de WebmasterWorld pour dire que le contenu indéxable est fonction de la limite du cache qui est de 100 Ko (HTML seulement).

Le problème est que l'exemple cité dans le post parle du contenu non indexé après la limite des 100Ko dans un document .pdf

Ceci dit, pour moi c'est bien la limite du cache qui va limiter l'indéxage d'une page.

Si ça peut vous aider, voici le post original de WebmasterWorld

http://www.webmasterworld.com/forum3/23410.htm

Posté

En fait, il y a un autre post (toujours avec intervention de GGGuy) qui dit que le contenu après les 100Ko pourrait être indexé.

http://www.webmasterworld.com/forum3/20791.htm

Bref, ce n'est pas très clair cette histoire, même pour GoogleGuy qui dit que certaines personnes dignes de confiance chez Google ont certifié que le contenu après les 100Ko sont indexés.

Désolé d'ajouter à la confusion, mais si même GoogleGuy botte en touche (il préconise de rester en dessous des 100Ko), ça va être difficile de savoir.

Voilà un test tout trouvé pour DarkSEO.

Posté

Outre les problèmes éventuels d'indexation dans google, on peut aussi considérer qu'une page de 100k, même si on inclut les images et le fichiers externes dans ce nombre, c'est trop.

Il reste pas mal d'internautes connectés en 56kbits/s. Ils n'aiment pas forcément attendre.

Posté
De toute facon saux cas specifiques, une page avec plus de 100 liens devraient etre scindée en plusieurs amha.

Pour info, le label accessiweb (également référentiel des sites des administrations publiques françaises) retient la barre de 40 liens dans le contenu de la page hors menu de navigation

Posté
Si on se base sur l'indication de taille des documents que google présente dans ses réponses (à coté de l'url), il s'agirait plutôt uniquement du contenu de la page html, excluant css externes, javascripts externes, et images.

Donc essentiellement, le contenu du body, soupe de balises et contenu texte inclus ?

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...