Loulo Posté 7 Août 2004 Posté 7 Août 2004 Cette modification proposée par Dan est une fois de plus excellente et très intéressante. Je dispose d'un forum IPB 1.3 final moi aussi, je suis intéressé, et vais sans doutes faire la modification. Une question me vient à l'esprit, mon forum a actuellement un PR 0 (je suis passé d'un phpBB à un ipb il y'a à peine d'un mois, j'ai changé de domaine, j'ai perdu le PR de l'ancien forum), les liens qui seront en signature ne seront donc pas intéressants dans un premier temps pour les membres qui voudront y mettre leur site en signature. Imaginons maintenant que dans quelques temps mon forum est un PR, même faible (vivement la prochaine GD ), et que je mette chez moi, dans ma signature, ladresse de mon forum ou/et celle de mon site (le forum est sur le même domaine que le site). Googlebot passe et crawl les signatures dans mes posts, il y trouve un grand nombre de liens vers le forum lui même ainsi que le site. Mais voila ces liens et potentiels backlinks sont internes. Si jai bien compris ce qui a été dit cest la chose à ne surtout pas faire, cela serait considéré comme une pratique frauduleuse ? Ou bien la proportion de liens internes/externes est elle prise en compte ? Je pose cette question non pas dans le but de trouver une combine pour faire augmenter mon PR grâce à mon forum, mais parce que si je fais la modif, je serais obligé de faiore éditer la signature d'un certain nombre de mes membres qui ont mis l'adresse de mon site et/ou de mon forum en signature, ce qui pourrait m'être péjudiciable.
Cendrillon Posté 25 Août 2004 Posté 25 Août 2004 (modifié) Bonjour à tous, je me posais une question concernant ce "lacher de signatures" ... certains membres ont des miliers de post sur ce forum, n'y avait il pas un risque que l'apparition brutale de milliers de BL vers leur site ne provoque une réaction "épidermique" de la part google ? Modifié 25 Août 2004 par cendrillon
Cariboo Posté 25 Août 2004 Posté 25 Août 2004 Heureusement, Google n'a pas de réactions épidermiques ! A force d'observer les gens de Google, on s'aperçoit qu'ils ont une culture très tournée vers la résolution générale de problèmes à coup d'équations, d'algos et d'automatisation. Bref, dans les "décisions" du moteur, le facteur humain est réduit au minimum... Même s'il existe certainement des systèmes d'alerte, et une surveillance, il est clair qu'à mon avis, personne ne sait exactement chez Google qu'est-ce qui se passe exactement dans telle ou telle portion du web. Ce qui te semble un lâcher "massif" est une goutte d'eau dans les 4 milliards de pages que l'index est (censé) comporter. Bref il faut vraiment en faire des tonnes, des kilotonnes, des mégatonnes pour que Google décide de "réagir". Cela s'est vérifié à de multiples occasions.
Cendrillon Posté 25 Août 2004 Posté 25 Août 2004 Heureusement, Google n'a pas de réactions épidermiques ! désolée, quand j'ai dit Google, je pensais aux bots bien sûr ... Ce qui te semble un lâcher "massif" est une goutte d'eau dans les 4 milliards de pages que l'index est (censé) comporter. Je ne parlais au niveau global, mais au niveau de chaque site ... j'avais entendu que Googlebot était sensible aux variations importantes (dans un temps très court) de backlink et que cela pouvait conduire à une pénalisation ... mais peut être que cela ne concerne que les sites récents ...
Xavfun Posté 25 Août 2004 Posté 25 Août 2004 Salut, En ce moment, Google réagit étrangement (voir résultats concours de positionnement actuels). Un jour c'est blanc, le lendemain c'est noir, et au bout de 3 ou 4 jours, c'est à nouveau blanc
Dan Posté 25 Août 2004 Posté 25 Août 2004 Pas de risque de réaction épidermique de Google, pas non plus de risque si la signature comporte un lien vers le même site. J'ai bien un lien vers les règles du forum dans la mienne, et n'ai été aucunement pénalisé par mes quelques 3000 posts. Si le fait de mettre des liens externes faisait perdre du PR, les annuaires comme Yahoo et Dmoz seraient à PR0... il y a donc bien une autre notion qui intervient, celle "de hub" (rien à voir avec notre Hub, mais à mettre en parallèle avec la notion de "authority" servant à la mesure de l'importance d'une page. Matt Cutt a effectivement dévelopé ce point lors de la conférence de Londres. En d'autres mots, si j'ai un site qui recense un grand nombre de sites (en faisant des liens) sur un sujet quelconque, je suis donc considéré comme un spécialiste de ce sujet et verrai mon positionnement s'améliorer. Si en plus les différents sites vers lesquels j'émet des liens me renvoient l'ascenseur, c'est carrément Bizance Dan
Cariboo Posté 26 Août 2004 Posté 26 Août 2004 j'avais entendu que Googlebot était sensible aux variations importantes (dans un temps très court) de backlink et que cela pouvait conduire à une pénalisation ... Oula ! Bon, tordons le cou à cette rumeur... C'est encore un avatar de l'effet sandbox, qui n'a jamais été véritablement démontré. Le comportement de Googlebot s'explique assez bien, et en toutes circonstances par le fait qu'il tient compte d'un certain nombre de critères pour déterminer les pages "prioritaires" ou non à indexer. Ce qui a produit cette (fausse) interprétation, c'est qu'une augmentation brutale de backlinks et de PR ne se traduit pas forcément par une indexation plus rapide des pages... Mais le contraire arrive aussi, c'est ce que pourront confirmer la troupe des "mangeurs de cigogne", gros générateurs de backlinks pas toujours très "naturels".
thick Posté 26 Août 2004 Posté 26 Août 2004 Puisqu'on appelle un mangeur de cigogne... Pendant le concours, il n'était pas rare de faire des transactions d'échanges de liens qui portaient sur plusieurs milliers de pages à la fois. Aucune pénalisation a été noté et j'ajouterais même plus en disant que l'anchor text était identitique sur des milliers de backlinks et cela n'a pas empêché tout le monde de retrouver sa page à la fin du concours. En fait, il n'y a eu aucun "blacklistage" parmi les concurrents, malgré les abus et les spamreport à notre encontre. Faut-il en tirer des généralités ? Je ne pense pas car les pénalités et le blacklistage existent, mais il y a de la marge avant de se trouver dans la tourmente, à moins d'être positionné sur des requêtes très concurrentielles et surveillées comme le XX et les jeux d'argent.
Cendrillon Posté 26 Août 2004 Posté 26 Août 2004 Bonjour à tous, ... il y a donc bien une autre notion qui intervient, celle "de hub" (rien à voir avec notre Hub, mais à mettre en parallèle avec la notion de "authority" servant à la mesure de l'importance d'une page. Matt Cutt a effectivement dévelopé ce point lors de la conférence de Londres. ---> Je suis complètement d'accord ... ce qui me tracassais c'était plutôt l'augmentation brutale de BL (passer de 200 à 4000 BL avec le même anchor text, dans la nuit c'est n'est pas franchement "naturel", non ?) ... C'est encore un avatar de l'effet sandbox, qui n'a jamais été véritablement démontré. ---> tu as raison Cariboo, c'est bien un peu à cela que je pensais (c'est pourquoi j'ai précisé : mais peut être que cela ne concerne que les sites récents ... et je connais ta position sur la sandbox Pendant le concours, il n'était pas rare de faire des transactions d'échanges de liens qui portaient sur plusieurs milliers de pages à la fois. Aucune pénalisation a été noté et j'ajouterais même plus en disant que l'anchor text était identitique sur des milliers de backlinks et cela n'a pas empêché tout le monde de retrouver sa page à la fin du concours. ---> tant mieux pour tout le monde ... mais je ne comprends pas pourquoi il n'y a pas de réaction, dans la mesure où les backlink sont essentiels au fonctionnement de Google (je parle sous le contrôle de Cariboo) ... et au vu de ce qui se passe avec les Farm link en ce moment ...
Cariboo Posté 26 Août 2004 Posté 26 Août 2004 L'explication est simple : je pense que le seuil d'alerte automatique (s'il en existe même un) doit être très élevé... Dans la plupart des cas, ce sont les webmasters eux-mêmes qui alertent Google par le système des "spam-reports", ou en postant sur les forums en vue comme webmasterworld.
thick Posté 26 Août 2004 Posté 26 Août 2004 tant mieux pour tout le monde ... mais je ne comprends pas pourquoi il n'y a pas de réaction, dans la mesure où les backlink sont essentiels au fonctionnement de Google (je parle sous le contrôle de Cariboo) ... et au vu de ce qui se passe avec les Farm link en ce moment ... Je ne suis sûr de rien, mais voici une idée : Il est certains que les filtres sont adaptés au requêtes. "mangeur de cigogne" était un mot clef sans résultats et qui n'était pas tapé. GG nous a sans doute laissé s'amuser sans nous pénaliser, puis quand le mot clef a pris de l'importance( au maximum, il y avait 700 000 résultats), un filtre s'est activé (au bout de 2 mois de concours) pour geler les résultats de la première page et ne plus faire de mises à jour des positions et du cache. Il fallait des efforts énormes pour faire bouger sa page et le Refresh quotidien était minimaliste. Cependant, on peut imaginer que si le concours avait duré plus longtemps, les pénalités seraient peut-être tombées. De toutes façons, je ne m'amuserais pas et je ne conseillerais à personne de faire le 1/4 des bidouilles de mangeur de cigogne car si ça marche pendant un concours de 3 mois, il est vraisemblable que GG capte un jour ou l'autre les tricheries visant à le bluffer. L'exemple des farm links est parfait puisque ça marche très bien jusqu'au jour où GG repère ça et met tout le monde au panier.
Lloyd Posté 16 Février 2006 Posté 16 Février 2006 Bonjour, J'ai quand-même une question par rapport à tout ça, le PR n'a-t-il pas un effet "boule de neige" au final?! Et encore une autre, est-ce que le cache de google à un apport particulier au niveau du PageRank? Voilà, Merci beaucoup!
Dan Posté 16 Février 2006 Posté 16 Février 2006 Bonjour, J'ai été surpris de voir ce post remonter dans la liste... cela fait longtemps qu'il avait été abandonné Non, le cache de Google n'a aucune incidence sur le PR. Quant-à ta question sur l'effet "boule de neige"... je répondrais "oui"... mais c'est la raison pour laquelle Google revoit régulièrement à la hausse le nombre de "votes" nécessaires pour gagner un point de PR. Dan
Amibien Posté 16 Février 2006 Posté 16 Février 2006 J'ai été surpris de voir ce post remonter dans la liste... cela fait longtemps qu'il avait été abandonné smile.gif Pour une fois je remercie celui qui a réactualisé ce post, il était très intéressant. Ps : je note au passage que tes messages Dan sont passés de 3000 à presque 12000 !!! plutôt impressionnant
Dan Posté 16 Février 2006 Posté 16 Février 2006 Moi je note surtout que le "lâché de backlinks" s'élève maintenant à environ 300 000 liens en signature sortants... Tout cela sans le moindre frémissement du PR du Hub
Nicolas Posté 17 Février 2006 Posté 17 Février 2006 Pour une fois je remercie celui qui a réactualisé ce post, il était très intéressant. Peut-être qu'on devrait épingler ce sujet ? Avec plus de 7700 lectures, il interesse du monde!. Il faudrait pas qu'il retombe en page 2
Dan Posté 17 Février 2006 Posté 17 Février 2006 Peut-être qu'on devrait épingler ce sujet ? Avec plus de 7700 lectures, il interesse du monde!.Il faudrait pas qu'il retombe en page 2 C'est chose faite !
HecateOR Posté 4 Mai 2006 Posté 4 Mai 2006 J'ai pas eu le courage de tout lire mais une question me turlupine... Si on a un site tout récent et qu'on poste beaucoup, ça fait beaucoup de BL.. C'est pas la sandbox assurée pour les sites des gros posteurs?
Reivilo Posté 4 Mai 2006 Posté 4 Mai 2006 Salut, Si tu maintiens le rythme, je ne pense pas. Au pire, tu peux toujours mettre nofollow...
Dan Posté 4 Mai 2006 Posté 4 Mai 2006 On n'a en tout cas jamais eu le problème... Poster beaucoup, c'est à dire: 10-15 messages/jour (c'est à peu près ma moyenne) ? Aucun risque d'avoir 10BL supplémentaires par jour à mon avis. Encore faut-il que Google indexe toutes les nouvelles pages du Hub, et ceci jour après jour. Lors du dernier concours, je faisais tourner ma signature vers les sites des participants qui le souhaitaient. Personne ne s'est jamais plaint d'avoir été sandboxé. Perso je ne crois pas à la Sandbox, en tout cas pas sous cette forme là. Un nouveau site qui arrive à se créer plusieurs milliers de liens lors de son premier mois d'existance risque d'êtr déclassé, mais pas pour un accroissement normal des BL.
HecateOR Posté 4 Mai 2006 Posté 4 Mai 2006 Merci, je débute et à force d'entendre parler de sandbox Je vais pouvoir m'en donner à coeur joie sur Hub si j'ai des choses à dire alors
Régis Posté 4 Mai 2006 Posté 4 Mai 2006 J'ai pas eu le courage de tout lire mais une question me turlupine... Si on a un site tout récent et qu'on poste beaucoup, ça fait beaucoup de BL.. C'est pas la sandbox assurée pour les sites des gros posteurs? Bonjour "HecateOR", J'ai, récemment, posé à peu près le même type de question : GG et inscription dans 5/6000 annuaires... peut-être que les réponses pourront t'aider.
Dan Posté 30 Mai 2006 Posté 30 Mai 2006 Je signale à tous que j'ai changé à nouveau les sources de cette nouvelle version d'Invision. Les signatures sont donc bien vues et suivies par les moteurs pour les membres ayant dépassé 20 posts. Cette limite de 20 posts est le quota nécessaire pour pouvoir prétendre "contribuer au forum" et évite le "passage éclair" de membres juste pour faire un BL de plus en laissant une signature. Dan
captain_torche Posté 30 Mai 2006 Posté 30 Mai 2006 De toutes façons, c'est du donnant-donnant : plus de contributions, plus de BL potentiels D'ailleurs, lisons doit avoir un nombre impressionnant de BL venant du Hub ...
Arlette Posté 30 Mai 2006 Posté 30 Mai 2006 De toutes façons, c'est du donnant-donnant : plus de contributions, plus de BL potentiels D'ailleurs, lisons doit avoir un nombre impressionnant de BL venant du Hub ... Pas autant que tu ne le penses. Google ne prend pas tous les liens lorsqu'ils viennent d'un même site... Sinon effectivement j'en aurais + 14 000 alors qu'actuellement je tourne autour de + 800 (tous sites confondus).
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant