Aller au contenu

Jan

Hubmaster
  • Compteur de contenus

    2 304
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jan

  1. Bonjour, La description de google est celle de dmoz (et de google directory): http://search.dmoz.org/cgi-bin/search?search=caplondon . C'est classique, rien d'inquiétant. Je pense que la Gérance a vu juste: un des problèmes est que les titres de toutes tes pages (à part l'accueil) sont identiques. Tes metas description sont elles aussi toutes identiques. Il est important de les personnaliser pour les rendre représentatifs du contenu de tes pages. Les sitemap n'est pas la solution miracle. Il peut sans doute aider google à trouver des pages enfouies dans l'arborescence du site, mais il faut commencer par rendre tes pages suffisamment différentes les unes des autres. Et ca commence par les titre et les metas descriptions.
  2. Tu trouveras les informations en français à http://www.gnu.org/licenses/licenses.fr.html
  3. WMW est gratuit, il suffit de s'inscrire.
  4. Certains webmasters de sites importants mentionnent une baisse de trafic et des pages passées en "résultats complémentaires" suite au blacklistage par google de ce site spamy de 5 milliards de pages. Dégat collatéral ou coïncidence? http://www.webmasterworld.com/forum30/34880.htm
  5. Bonjour, La solution théorique est de faire des redirections 301 (permanentes) de tes anciennes pages vers les nouvelles. Ainsi tes visiteurs qui cherchent à accéder aux anciennes URLs seront redirigés vers les nouvelles. Il en sera de même pour les robots des moteurs de recherche. A terme tes anciennes pages disparaitront au profit des nouvelles, et tes backlinks devraient être transférés. Ce processus peut être long (3 mois). En revanche, comme je le mentionnais plus haut, cette solution n'est que théorique. En effet, il y aura de la perte au feu au niveau du positionnement de tes pages sur leurs mots-clés dans google. Et l'audience de ton site va probablement baisser. Il vaut donc mieux éviter les déménagements de sites. Si tu as le choix, tu as tout intérêt à garder ton nom de domaine actuel.
  6. Bonjour, Tu peux en effet interdire aux robots des moteurs de recherche l'accès à ces pages dans le .htaccess. Pour ça, il te faut identifier les robots par leurs adresses IPs ou leurs user agents: http://www.webmaster-hub.com/publication/article5.html Mais c'est une solution qui me semble un peu lourde pour ce que tu veux faire. N'as-tu pas tout simplement la possibilité d'ajouter une balise méta robots interdisant l'indexation dans le code de tes pages "profil": <meta name="robots" content="noindex, follow">
  7. Le footer n'a pas la cote en ce moment, parce que c'est le lieu ou sont "traditionnellement" hébergés les liens échangés, à usage exclusif de google. Ce type de liens "spamy" a tendance a être dévalué (voire pénalisant?) pour google. Ceci dit, dans ton cas si j'ai bien vu, il s'agit de liens internes vers des pages du site. Certes pas vraiment pratiques pour tes visiteurs, mais en même temps ce n'est rien d'autre qu'un "menu". Je ne pense pas que tu risques une pénalité pour ça. Les structures de sites "à plat" (ou toutes les pages sont liées entre elles) s'en sortent plutôt bien ces derniers temps. Ils semblent faciliter le crawl des pages internes, que google peine à aller chercher profondément dans l'arborescence des sites ces temps-ci.
  8. Exclusivement en MP, pas sur le forum s'il te plait
  9. Bravo Soho, cette citation est largement méritée! Blog est le terme à la mode utilisé par les journalistes pour désigner un site. La plupart ne sait pas ce que ça veut dire, mais ça fait djeunz, alors...
  10. Dmoz ne semble pas suffir à éviter la sandbox. Peut-être aide-t'il à en sortir plus vite?
  11. Je te propose de partir de là, et de suivre les liens.
  12. Non, dmoz n'est pas l'arme absolue. Heureusement d'ailleurs
  13. Bourinho, A priori rien de tout ça dans le site en question. Une petite recherche dans les moteurs avec les commandes link: et site: t'aurait permis de voir que ce site est correctement lié mais qu'il n'utilise apparemment pas de pages satellites. Par ailleurs en examinant la page en cache, tu aurais vu qu'il n'y avait pas de cloaking: google voit bien la même chose que les visiteurs: http://72.14.207.104/search?q=cache:FEil_q...cd=6&lr=lang_fr "Objet publicitaire" figure plusieurs fois dans la page, et fait partie de l'ancre du lien du menu vers cette page. Il ne faut pas voir le mal partout, et éviter de montrer du doigt, surtout quand rien ne le justifie.
  14. Il y a 2 mauvaises raisons pour les annuaires qui font les liens en 302: - Soit la peur de faire fuir son PR, ce qui est absurde, puisque les annuaires les mieux référencés dans Google semblent être ceux qui font des liens directs. - Soit la volonté de "voler" le référencement de la page liée (la remplacer dans les résultats de Google). Google prétend avoir règlé le problème des redirections 302 néfastes et du pagejacking qui était très répandu il y a encore quelques mois, mais ce n'est pas tout à fait vrai. D'où le danger pour les sites qui sont inscrits dans des annuaires qui font des 302. Dans les 2 cas ce sont de mauvaises raisons. Un annuaire quel qu'il soit ne vaut que par les sites qui y sont inscrits. Le minimum est bien de leur fournir un backlink en contrepartie.
  15. Tout est une question de dosage. Si le menu est léger (disons 5 voire 10 liens), il n'y a pas de problème à le laisser en début de code. On peut même penser en effet que ça "aide" googlebot à les suivre (bien qu'il soit probable que google sache reconnaitre un menu, et n'y accorde donc pas une importance démesurée). En revanche si le menu est lourd, le fait qu'il soit en début de code relègue le contenu des pages en fin de code (forcément ). Le risque est alors que ce contenu soit considéré comme "accessoire" par google, au détriment du positionnement des pages sur leurs mots-clés. A l'extrême, il arrive même que google désindexe des pages ou les relègue dans ses "résultats complémentaires" quand leurs parts de contenu spécifique sont trop faibles par rapport aux menus. Ce phénomène semble amplifié quand la partie spécifique est en bas de code. Pour les pages à faible contenu, il peut même être nécessaire de cacher les menus à google, en les affichant en javascript par exemple. Evidemment, dans ce cas, bonjour l'accessibilité...
  16. Effectivement! Personnellement je ne respecte jamais ce critère et renvoie presque systématiquement mes menus en bas du code. Accessibilité et optimisation pour Google sont parfois incompatibles.
  17. Non, c'est à toi d'en placer un, si tu le souhaites, à la racine du site. En revanche si tu n'en mets pas, ton serveur doit renvoyer une erreur 404 aux robots qui cherchent à le lire. Assure-toi bien que c'est le cas en tapant -http:www.tonsite.tld/robots.txt dans ton navigateur)
  18. Je doute franchement que la fréquence et la profondeur de crawl d'un site soient proportionnelles à son PR visible dans la toolbar. C'était à peu près vrai il y a encore 6 mois, mais depuis big daddy il y a clairement autre chose... En revanche il semblerait logique d'après ce qu'a laissé supposer Matt Cutts que le crawl soit fonction d'un autre "ranking" que google attribuerait au site. Une sorte de savant mélange entre le pagerank tel qu'on le connaissait et des critères plus qualitatifs (qualité des backlinks, qualité des liens sortants, contenu, liens non réciproques, etc...) Après, la structure d'un site (organisation des liens internes, nombre de liens à suivre depuis la home pour atteindre une page) a aussi une grande influence sur le passage des robots. Il me semble donc difficile de tirer des conclusions fiables de la simple observation des bots vs le PR.
  19. Il vaut mieux que les redirections soient des 301. Si ce sont des 302 il y a un risque pour le référencement. Idem s'il n'y a pas de redirections et que les contenus renvoyés sur plusieurs urls sont identiques. Tu peux tester tes entêtes avec l'outil du Hub: http://www.webmaster-hub.com/outils/http-viewer.php
  20. Je constate quelque chose qui ressemble à un retour à une fréquence de crawl un peu plus élevée. Mais c'est encore timide, et variable d'un site à l'autre. Pourvu que ça se confirme
  21. Même si ce n'est pas le but que tu vises, référencer tes pages internes fera augmenter ton trafic, qui plus est du trafic ciblé. Tu t'y retrouveras et tes visiteurs aussi Le problème que tu rencontres pour les faire indexer est malheureusement monnaie courante ces temps-ci: Google est très lent. Pour inciter Googlebot à crawler tes pages, il faut développer tes backlinks et pas seulement les backlinks vers ta page d'accueil. Des liens bien ciblés vers les pages internes auxquelles tu tiens le plus seront une aide précieuse. S'il s'agit du site dans ta signature, je te conseillerais simplement de varier le contenu de tes balises <title>. Plusieurs de tes pages on pour titre "[Gamethink]". Il est important que ces balise title (comme les metas) aient un contenu unique, représentatif su contenu de chacune des pages.
  22. Pas de souci particulier, les blogs wordpress se référencent plutôt bien. Le principal risque, avec wordpress comme avec la plupart des blogs, est que certains billets se retrouvent "filtrés" pour cause de contenu similaire. Dans l'index général, les index thématiques, les index mensuels et les index des jours du calendrier, on retrouve souvent les mêmes billets ou extraits de billets. Il peut arriver que google désindexe certains billets parce que leur contenu est présent dans ces index. Il peut donc être judicieux de supprimer certains éléments du menu. Par exemple, si tu ne publie pas tous les jours, le calendrier n'est pas indispensable. Tu peux aussi par exemple mettre les liens vers les index thématiques en rel="nofollow" pour qu'il ne soient pas indexés, et éviter ainsi le problème mentionné plus haut. Dans le même ordre d'idée, mettre les liens vers les flux rss en rel="nofollow" peut être utile. Pour ce qui est des pings, il n'est pas utile, voir nuisible, de pinguer une même ressource via plusieurs services. Il vaut mieux cibler ses pings vers les quelques ressources qui génèrent du trafic, et ne les pinguer qu'à bon escient (1 seule fois, seulement quand il y a une mise à jour).
  23. Il serait intéressant de savoir si Google et Yahoo ont l'intention de s'y mettre. Cette option peut avoir son intérêt dans l'exemple, donné sur le blog MSN, d'un mot orthographié différemment en anglais et en américain. Ou dans le cas où la description ODP est peu représentative du contenu du site. Soit parce que le site a évolué, soit parce que l'éditeur dmoz a été mal inspiré.
  24. Bonjour, Google annonce sur son blog sitemaps que la mise à jour des résultats complémentaires s'est accompagnée de l'apparition d'un bug sur la commande site: Le bug touche les recherches avec un / final (site:www.example.com/) et les recherches sur des domaines contenant un tiret (site: www.example-site.com). Ce bug explique sans doute en partie la diminution des pages retournées par la commande site: constatée sur de nombreux sites depuis quelques temps. Il ne s'agirait donc pas de désindexations réelles. Google annonce avoir trouvé des parades à ce bug. En attendant ils mettent en stand-bye la mise à jour des résultats complémentaires. http://sitemaps.blogspot.com/2006/05/issue...ator-query.html
  25. Ton site ne semble pas blacklisté mais google est très lent ces temps-ci. Cependant la redirection par meta refresh sur la page d'accueil ne va pas faciliter les choses. Pas de redirection ou, au pire, une redirection 301 côté serveur serait préférable. Ton site a aussi très peu de backlinks (d'après Yahoo!). Il serait souhaitable de les développer pour accélérer son référencement.
×
×
  • Créer...