goldo73 Posté 22 Mars 2007 Posté 22 Mars 2007 Salut, apparement, pour éviter que les moteurs n'ait plus envie d'explorer (ou de moins explorer) un site, il faut que les pages ne soit pas trop longues à télécharger. j'ai utiliser l'outil ozMonitor (fr.ozmonitor.org) et il me dis que les pages mettent en moyenne 3s à être télécharger (pourtant lorsque l'on surfe dessus c'est tout à fait fluide. Alors déjà, je me demande si cela peut venir de l'hébergeur, de mon code, etc ... Et par rapport au passage des moteurs je me disais que je pourrais par exemple desactiver les images, CSS et autres lorsque c'est un robots qui passe sur les pages. Qu'en pensez vous ? Est ce que l'on a le droit de faire ca (le contenu sera différent pour un visiteur ou pour un robot) En tout cas merci de vos réponse.
simminfo Posté 23 Mars 2007 Posté 23 Mars 2007 Si le contenu de ton site est statique, le tamps de téléchargement d'une page sera affecté surtout par le nombre et le poid des images, la vitesse de connexion de ton hébergeur et surtout, la vitesse de connexion de la personne qui visite ton site. Faut aussi prendre en considération, le trafic. Plus il y à d'utilisateurs qui demandent des pages de ton site en même temps, plus le chargement de ces pages sera long (ça aussi c'est lié aux équipements de ton hébergeur) La qualité du codage (HTML et CSS) n'affectera pas ou très peu la vitesse d'affichage mais il changera l'affichage lui-même. Si ton site est codé en PHP, ASP, etc avec ou sans bases de données. La qualité et la complexité du codage peut avoir un effet sur la vitesse d'affichage. Le code devant être interprété par le serveur avant d'être envoyé au client, cette vitesse est aussi tributaire des équipements de ton hébergeur et beaucoup du type d'hébergement que tu as (partagé, virtuel ou dédié). Enfin, c'est une très mauvaise idée de changer ton site pour les moteurs, de toute façaon, un moteur de recherche ne fait qu'examiner le code du site et le texte, en aucun cas, il ne téléchargent les images. imaginez la perte de bande passante et de mémoire.
theonlydrayk Posté 23 Mars 2007 Posté 23 Mars 2007 (le contenu sera différent pour un visiteur ou pour un robot) Ca s'apelle du cloaking et c'est une tres tres mauvaise idee, si google s'en appercoit tu est banis. Source : http://www.google.com/support/webmasters/b...py?answer=35769 Et par rapport au passage des moteurs je me disais que je pourrais par exemple desactiver les images, CSS et autres lorsque c'est un robots qui passe sur les pages. Qu'en pensez vous ? Est ce que l'on a le droit de faire ca. Les moteurs de recherche ne lise jamais le CSS et le Javascript. (Ok jai deja vue ca 2-3 fois mais c'est une execption) Tu peut utiliser le user-agent de google pour eviter qui crawle les images dans ton fichiers robots.txt, aucune image de ton site sera indexer, et ca peut accelerer un peut la vitesse. Mais en general, google vients chercher du html pas des images. User-agent: Googlebot-ImageDisallow: / Source(s) : http://www.google.com/support/webmasters/b...py?answer=40364 http://www.robotstxt.org/ apparement, pour éviter que les moteurs n'ait plus envie d'explorer (ou de moins explorer) un site, il faut que les pages ne soit pas trop longues à télécharger. Oui effectivement c'est vrai. Mais c'est un peu negligable. Si tu possede beaucoup de bon contenu, beaucoup de contenu qui arrive chaque jour, beaucoup de liens entrants, google va visiter ton site qu'il soit lents ou pas. Mets le focus sur le contenu de qualiter et du nouveau contenu regulierement. Ajoute des backlinks, et ne te soucie pas trop de la vitesse. j'ai utiliser l'outil ozMonitor (fr.ozmonitor.org) et il me dis que les pages mettent en moyenne 3s à être télécharger (pourtant lorsque l'on surfe dessus c'est tout à fait fluide. Alors déjà, je me demande si cela peut venir de l'hébergeur, de mon code, etc ... Je suppose que le programe que tu utilise download toute les pages en meme temps ce qui surcharge le server et fait ralentir. Si le site est fluide quand on le visite ca devrait etre ok. Tu peut changer la vitesse de google (il va chercher 1 page par 4 seconde au lieu de 1 page par 1 secondes:c'est juste un exemple) Il va prendre le meme nombre de page, et a la meme frequence que presentement, c'est uniquement pour eviter de surcharger un server. Tu t'inscrit dans Google Webmaster et il a une options pour changer cette vitesse la : http://www.google.com/support/webmasters/ Si la vitesse est agreable pour les utilisateur, je crois que tu devrais pas trop te soucier de la vitesse et concentrer tes efforts sur du contenu de qualiter et des liens de qualiter.
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant