Aller au contenu

Sebastien

Hubmaster
  • Compteur de contenus

    2 598
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Sebastien

  1. Est-ce que cette baisse du nombre affiché de pages indexées se traduit par une baisse de trafic ? Car Google affiche des comptes fantaisistes, spécialement en ce moment. Je suis passé de 13000 à 11000 pages affichées, pourtant mon trafic n'est pas affecté.
  2. J'ai une idée un peu folle et probablement stupide : Créons un outil qui interroge google automatiquement 10.000 fois par jour sur un mot clé inventé (qui n'existe pas). Ce mot-clé deviendrait un indice fiable, puisque l'on sait exactement le nombre de fois ou il est demandé. Il suffirait alors de comparer la courbe de ce mot-clé avec les vrais mots-clé pour déduire approximativement le nombre de recherche par proportionnalité
  3. Get est bien sûr effectivement mieux pour le référencement. Avec Post tu fera partie du "web invisible"
  4. Chaque moteur a un comportement qui lui est propre, et n'attaque pas le web aux mêmes endroits, d'ou des indexes différents. Une étude très pointue sur le sujet, que j'ai bookmarqué mais n'ai pas eu le temps de lire : http://drunkmenworkhere.org/219
  5. .htaccess est bien supporté chez free, mais pas la reécriture d'URLs, il faud donc faire des redirections 301 "en dur".
  6. Sebastien

    Free et PHP

    Attention free mets à jours son architecture de pages perso d'ou certains bugs et plantages de serveurs. Les bugs sont trackés et la situation tend à s'améliorer depuis hier. Pour se tenir au courant, il faut aller sur le newsgroup proxad.free.services.pagesperso
  7. J'en ai beaucoup que je consigne dans mon annuaire... En vrac : Openweb, Alsacreations, les specs du W3C... plus une quantité de blogs...
  8. Effectivement il semble y avoir certains mouvements, j'ignore s'il vont durer : Je me vois dans le top 10 face à 3.850.000.000 pages dans Google sur le mot-clé "design" http://www.google.fr/search?sourceid=navcl...GLG:fr&q=design
  9. Bien sûr, et même plusieurs fois par jour ou par heure, tout dépend du site.
  10. Effectivement les moteurs tentent de determiner la periodicité de mise à jours de sites pour mieux gérer le crawl. Mais ce n'est qu'un élément parmi de nombreux autres : un site avec de nombreux liens entrants sera de toute façon parcouru très régulièrement. Nul besoin donc de changer du contenu de façon artificielle juste pour "appater" les spiders.
  11. Ah j'ai également débuté avec ce logiciel, qui était bien sympathique Bienvenue sur le Hub !
  12. Dans photoshop, fais un calque de reglage teinte/saturation. Tu selectionne la teinte rouge avec la pipette dans les parametres du calque puis tu fais varier la teinte
  13. A voir aussi : http://www.fire-soft-board.com/
  14. Je pense (sans avoir de preuve formelle) que les moteurs sont intelligents : si tu as 1000 liens avec une même ancre qui correspond à ton nom de domaine, c'est logique et les moteurs n'y verront rien de suspicieux. Si tu as par contre 1000 liens avec comme ancre "motclé 1, motclé2" ca pourrait éventuellement être un indicateur de spam. Quoique l'existence des Google bombings me laisse penser que les moteurs sont assez laxistes, ou que c'est seulement la conjonction de plusieurs indicateurs qui caractérise le spam (en gros sanction que si le site multiplie les alertes au spam).
  15. Ce n'est pas une réponse directe à ta question, mais personnellement je préfère consacrer mon energie à trouver 100 liens de qualité (éventuellement un peu plus) que de soumettre à 6000 annuaires que je ne connais pas.
  16. Je ferme le topic pour éviter les trolls inutiles. Les différents points de vue ont déjà été exposés.
  17. Je suis partisan de réutiliser l'harmonie de la nature. Je prend donc une photo dont j'apprécie les tonalités et je "sample" les couleurs à la pipette. Les couleurs seront en harmonie la plupart du temps, et moins saturées souvent que les couleurs choisies sur une palette électronique
  18. Ce qui est remis en cause n'est pas le fait d'afficher un lien. Mais les utilisateurs avaient consenti à afficher un lien vers Spywords, en échange du service gratuit. La destination de ce lien change (Alice) et je n'ai pas envie de paraitre promouvoir les services de ce FAI, c'est tout. Je veux bien promouvoir Spywords par contre.
  19. Effectivement je n'apprécie guère, j'ai donc retiré spywords de mon site.
  20. Les serveurs free connaissent des ralentissement occasionnels. Aucun problème de mon coté, mais je suis en 8 megas
  21. Pas de probleme avec Google. Concernant l'accessibilité il vaut mieux cacher les contenu via javascript, comme ça quand javascript est désactivé, les contenus restent accessibles. Une bonne dégradation quoi
  22. Non d'après ce que dit Matt Cutts : Mediapartners crawle les pages Adsense, les mets dans le proxy, mais ça n'accélere pas les accès à la version cachée des pages par Googlebot. A la limite (cas d'école) on peut concevoir une page Adsense qui soit crawlée et caché quotidiennement par Mediapartners mais jamais accédée par Googlebot parce que ne possédant aucun lien entrant.
×
×
  • Créer...