
Jan
Hubmaster-
Compteur de contenus
2 304 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Jan
-
Outil Google de suppression d'url de l'index
Jan a répondu à Cleden - Forum : Techniques de Référencement
Salut Cleden, Je n'ai pas testé récemment, mais à une époque, il fallait 6 mois avant que google ne réindexe les pages supprimées par leur outil de suppression. Ca semble toujours être le cas: http://www.google.com/support/bin/answer.py?answer=13657 -
Mincoin, Ton site est victime du phénomène de "pages en résultats complémentaires sur big daddy" dont je parlais ici: http://www.webmaster-hub.com/index.php?sho...ndpost&p=157703 - Sur les DCs big daddy: que des pages en "résultats complémentaires" sauf la home: http://66.249.93.104/search?lr=&hl=fr&ie=U...com&btnG=Search et tes pages ne sortent évidemment plus sur leurs mots-clés - Sur les DCs non big daddy: tout va bien: http://216.239.53.104/search?hl=fr&q=site%...=Rechercher&lr= et ton site sort sur ses mots-clés Beaucoup de sites sont affectés. L'hypothèse la plus probable (et la plus souhaitable) est que cette situation n'est que transitoire, une étape vers la résolution du problème d'url canonique/ duplicate content par google. En attendant, les sites touchés voient leur trafic en provenance de google chuter, du fait que les DCs big daddy sont par moment ceux qui sortent sur www. Comme tous ceux qui sont affectés, je regrette que google n'ait pas attendu d'avoir fini son update avant de balancer ces résultats absurdes sur www
-
Salut Soho, La situation est grave mais pas désespérée. Ton site, comme beaucoup de sites depuis quelques jours a un problème sur les data centers big daddy, mais pas sur les autres. Par exemple: http://216.239.53.104/search?hl=fr&q=site%...=Rechercher&lr= Le problème visible sur big daddy, sur beaucoup de sites mais pas tous, est que toutes les pages listées (sauf parfois la page d'accueil) par la commande site: sont des résultats complémentaires. Et bien sûr les pages "non complémentaires" ne sortent plus sur leurs mots-clés. Un de mes sites est lui aussi touché: http://66.249.93.104/search?hl=en&lr=&q=si...com&btnG=Search Cette discussion sur webmasterworld est dédiée à ce problème: http://www.webmasterworld.com/forum30/33351-1-10.htm Dans mon cas, comme dans beaucoup d'autres, ces pages en "résultats complémentaires" sont de vielles pages que google avait éliminées pour de bonnes raisons. Pour ce qui est de mes pages, pour cause de contenu identique à d'autres pages, qui étaient celles qui sortaient sur leurs mots-clés (les urls canoniques justement). Big daddy est sensé règler le problème d'URL canonique/ duplicate content présent sur google depuis plusieurs mois. Pour l'instant on voit l'effet inverse: il élimine les pages qu'il devrait garder, au profit des résultats complémentaires, qu'il devrait éliminer. Tout porte à croire que ce phénomène n'est que transitoire, et que google va maintenant recrawler les sites affectés dans le but de vraiment corriger le problème d'url canonique. Si ce n'était pas le cas, google serait bel et bien cassé cette fois
-
C'est certain! Il est toujours amusant de constater que la petite barre verte suffit à rendre une page sexy aux yeux de nombreux webmasters
-
Ta page a sans doute bénéficié d'un backlink de http://www.spip.net/fr_article884.html (PR6) au moment où Google a arrêté son calcul de PR. Cette page est très performante pour "passer" du PR. De nombreux utilisateurs de SPIP l'ont constaté. Maintenant ton lien n'est plus sur cette page. Il est passé sur http://www.spip.net/article884.html?debut_signatures=100 (pr4). Tu peux d'ailleurs y constater que quelques uns des sites inscrits dans les mêmes dates que le tien ont un bon PR, ce qui conforte l'hypothèse que SPIP est "responsable" d'une bonne partie de ton pr6.
-
Bonjour, Le problème en étant hébergé chez blogspot est que tu auras plus de mal à positionner ton blog dans google.fr que s'il était hébergé en France. Pour bien figurer sur google.fr, un hébergement en France est préférable.
-
Des crawls "frénétiques" de Googlebot sont signalés par beaucoup de webmasters depuis deux jours, notamment sur webmasterworld. Je vois même Mediapartners s'acharner sur des pages qui n'affichent pas d'adsenses
-
Et vous Webmasters vous êtes plutôt logiciels ou ?
Jan a répondu à un sujet : Le salon de Webmaster Hub
Coder à la main, rien de tel. Je suis fan de HTML Kit. -
Je prendrais apm42.com sans hésitation. Rien n'empêche ensuite de faire des urls avec les mots clés visés: apm42.com/materiel.html apm42.com/btp/ etc...
-
Ca n'est pas forcément surprenant. Par exemple les ndd qui pointent sur une page en frame (donc sans contenu) sont souvent bien positionnés sur un mot-clé. Pour peu que ce mot-clé soit dans le ndd, le title et les metas. Faute de contenu, google les juge sur ces seuls critères. Ta page "coming soon" avait sans doute très peu de contenu, mais tout ce que google pouvait y lire était sans doute très dense en mot-clé. Du coup le site sortait sur le mot-clé. Depuis qu'il y a du contenu, cette densité s'est retrouvée diluée. Ajoute à ça le duplicate content pour cause de trop grande similarité de toutes les pages, et la chute n'a rien d'étonnant.
-
Pour la version fr, seule la page d'accueil du site est connue de google: - elle est 2ème sur son mot-clé et sort normalement sur les data centers alignés sur big daddy (snippet + titre) - elle est en mode listing (ni snippet ni titre) et évidemment n'est nulle part sur son mot-clé sur les autres DCs Je ne vois pas d'autre issue que ce que propose Jeff: du contenu. A défaut tu risques de perdre ta 2ème position sur tous les DCs. Un site d'une page n'a pas beaucoup de chance de bien figurer, à moins de le google bomber façon artillerie lourde. Si ton client t'interdit de toucher au contenu il devra accepter de se passer du trafic de google ou mettre en place des "workaround" qui risquent de le faire éjecter de google définitivement un jour ou l'autre. Il va falloir être pédagogue Sarc
-
C'est la page de Marie qui semble avoir un problème. La mienne fonctionne: http://jan.actulab.googlepages.com/ Je te laisse juge du code
-
Personnellement, je ne critique pas ddn, non pas seulement pour ne pas montrer du doigt, mais aussi parce qu'il ne me dérange pas. Pour tout dire il me laisse même assez admiratif dans son genre. Si je ne vais plus sur le forum en face, ce n'est pas parce que j'en suis banni, mais parce que le nombre de posts intéressants par discussion varie entre 0 et 1. La faute à une mauvaise modération. Les modos de valeur ont tous fini par baisser les bras depuis quelques temps.
-
Les comptes de Google semblent avoir été faits au 20 janvier.
-
A voir à http://www.webmaster-hub.com/outils/backlinks.php
-
Big Daddy est toujours en décalage par rapport aux autres DCs. Les 2 index sont différents (très différents pour certains sites), y compris au niveau des versions prises en compte en cache. Je constate que Big Daddy contient beaucoup de caches issus du crawl de "Mozilla Googlebot" alors que les autres DCs sont basés, comme depuis toujours, sur les crawls de "Googlebot". J'ai tendance à penser que Big Daddy est en train de règler le problème d'URL canonique/ duplicate content, et que s'il y parvient, il deviendra, comme Matt Cutts l'a annoncé, le futur Google. Ceci dit, il n'est pas encore prouvé que Big daddy soit complètement satisfaisant sur ce point (même si quelques progrès sont visibles). Je pense aussi que ce que nous voyons sur Big Daddy n'est pas ce que sera Google, même si l'opération URL canonique est réussie. En effet, certains résultats cachés dans Big Daddy datent de crawls anciens, et une prise en compte de crawls récents sera certainement l'étape suivante avant de généraliser Big daddy. A mon avis les étapes suivantes sont, dans l'ordre: - Mise au point de la solution au problème d'URL canonique sur Big daddy - Recrawl et rafaraichissement de Big daddy avec les résultats des crawls récents - généralisation de Big daddy à tous les DCs - Mise à jour des backlinks et PR Toolbar Ca pourrait encore durer quelques semaines. J'ajoute que les versions en cache dans Big daddy par les liens "en cache" proposés par Google ne montrent pas forcément la version "vraiment" prise en compte par ces data centers. On le constate en testant la présence de mots récemment ajoutés dans les pages. Ils ne sont pas dans les versions "en cache" présentées par Google et pourtant, les pages sortent dans les recherches sur ces mots. Ce qui ajoute à la confusion ambiante.
-
Tu peux voir un exemple de formulaire transmis par mail à http://www.webmaster-hub.com/publication/article110.html
-
Tout est possible, mais en attendant d'y arriver, il est sans doute possible de générer un trafic ciblé sur le site depuis les moteurs de recherche, grâce à des mots-clés plus accessibles. Par exemple, puisque l'entreprise de ton ami est à Paris, il y a des chances qu'en positionnant son site sur des mots-clés tels que "serrurier paris" ou "dépannage serrure paris" il obtienne un meilleur taux de conversion de son trafic moteur... et te facilite au passage la tâche
-
Pour que tes nouvelles URLs remplacent les anciennes dans google, il faut faire des redirections 301 (permanentes) des anciennes urls vers les nouvelles. Je suis incapable de te donner le code, mais c'est peut être possible en utilisant une condition de réécriture: RewriteCond %{QUERY_STRING} !^$ ... suivie (si la condition est vraie, donc si l'url a une query string) d'une redirection 301 (que je ne sais pas coder ) Ceci dit, ce qui se passe sur bigdaddy n'est sans doute que temporaire. Google semble être en train d'essayer d'y règler le problème d'url canonique. S'ils réussissent, et que tes liens internes et externes pointent en majorité vers les URLs que tu veux référencer, tout devrait rentrer dans l'ordre naturellement d'ici quelques jours (semaines?). Mais comme rien n'est jamais rien sûr avec google, le rewrite 301 n'est sans doute pas inutile.
-
Pour supprimer tes propres pages: http://www.google.fr/intl/fr/remove.html Pour supprimer les pages te concernant sur d'autres sites, c'est plus compliqué, puisque l'outil de google cité plus haut nécessite une intervention dans le code des pages. Mais je pense que la loi informatique et libertés te permet d'exiger la suppression de ces pages. Si ces pages ont été supprimées mais restent dans le cache de google, tu peux demander aux webmasters de ces sites d'utiliser l'outil de google pour en faire disparaitre les pages qui te concernent.
-
Sans doute pour mieux "filtrer" les SMS qu'on voudrait envoyer en Chine
-
Il semble que ça soit en train de changer
-
Googlebot fait ça sur plusieurs sites en ce moment. Il se dit qu'il serait en train de crawler pour règler son problème d'url canonique/ duplicate content (il cherche parmi son historique quelles pages éliminer, et surtout quelle page garder). Le mieux est d'attendre sans rien faire Est-ce googlebot ou mozilla googlebot qui crawle? Vois tu des grosses différences sur la commande site: entre les data centers "big daddy" et les autres?
-
Il y a cloaking et cloaking. Le fait de jouer avec les skins dans le seul but de faciliter le passage des bots ne sera probablement pas sanctionné par Google, même en cas de spam report. Les robots voient bien une page différente de celle vue par défaut par les visiteurs, mais les différences ne portent pas sur le "contenu utile" des pages, c'est à dire les posts, mais seulement sur la structure des liens du forum. Donc, dans l'esprit, il n'est pas destiné à tromper Google sur le contenu des pages, mais seulement à faciliter la vie de Googlebot En revanche, s'il s'agissait de présenter à Google un contenu différent de celui visible par les humains, ou d'ajouter un grand nombre de mots-clés dans la page par exemple, là le risque serait réel. D'ailleurs, si je ne me trompe pas, la skin présentée à Google sur les forums IPB est aussi visible des humains en cliquant sur un lien (lofiversion). Du coup, c'est vraiment sans risque.
-
Si c'est le robot de google, lui présenter la "vraie" page Sinon, lui présenter le test de sécurité Il y a au moins une chose spécifique quand c'est googlebot qui visite la page, c'est son adresse IP. Un petit script de cloaking t'aiderait. L'IP de googlebot est de la forme 66.249.6* ou 66.249.7* Idéalement il faudrait faire la même chose pour les robots des principaux moteurs (yahoo, msn, ...)