Aller au contenu

Sujets conseillés

Posté (modifié)

La Google sandbox qui s'applique aux nouveaux sites créés n'était pour moi qu'une vague rumeur. Créant mes sites un par un, en ajoutant progressivement des pages à chacun d'eux, je n'avais jamais eu l'occasion de l'expérimenter par moi-même et je me contentais de lire les comptes rendus affligés, publiés à ce sujet sur tous les forums consacrés au référencement.

Puis je me suis lancé dans un projet de création de sites "industriel" et je met désormais en ligne des sites par dizaines, chacun d'eux comportant dès sa naissance plusieurs centaines de pages. BOUM! je tombe en plein sous le couperet.

Cette expérience n'est pas encore terminée, mais je souhaite partager les premières conclusions auxquelles je suis arrivé afin de savoir si certains d'entre vous peuvent les contester, les confirmer ou les compléter :

  1. Les sites comportant plus de 50 pages lors de leur mise en ligne sont pénalisés pour une période de 6 mois dans les résultats de Google
  2. Les sites comportant plus de 150 pages sont pénalisés pour une période de 9 mois
  3. Les sites comportant plus de 500 pages sont pénalisés pour une période de 1 an

Il va sans dire qu'un site bénéficiant de backlinks de qualité se mettant en place progressivement mais de façon soutenue pourra se débarrasser de la pénalité avant les délais ci-dessus. Ces délais ne sont donc valables que pour des sites ne faisant PAS l'objet d'une quelconque promotion et que l'on laisse "murir" de façon naturelle.

Je suis parvenu à contourner cette limitation en procédant comme suit :

  1. Mettre en ligne un site limité à environ 40 pages
  2. Ajouter 10 pages au bout d'un mois
  3. Ajouter 20 pages chaque mois suivant, jusqu'à avoir mis en ligne toutes les pages

En procédant de cette façon, je parviens à avoir environ 200 visiteurs par jour au bout de 6 mois, alors qu'en mettant tout en ligne dès le départ, je n'ai toujours que 20 à 30 visiteurs/jour au bout de 6 mois (ces chiffres sont des moyennes correspondant à des fréquentations mesurées sur des thèmes très variés).

Petite conclusion accessoire : un site nouvellement mis en ligne avec une page d'index comportant une redirection sur une autre page (du même site) et envoyé directement en prison (sans toucher la prime).

Autre conclusion accessoire : les revenus Adsense ne sont pas proportionnels à la fréquentation. Il restent médiocres tant que le site n'a pas atteint un minimum de 700 visiteurs/jours puis progressent à la vitesse grand V, même si le site stagne en fréquentation. Je ne doute pas qu'il y ait tout un tas d'exceptions à cette règle, car le fonctionnement d'Adsense est très complexe, mais je cite simplement un constatation faite sur mon panel de sites. Je reviendrais en détail sur mes hypothèses à ce sujet dans le forum consacré à Adsense.

Petite constatation étonnée : certains sites semblent se débarrasser de la pénalité pendant 2 à 3 semaines puis retombent dans le bac à sable pour de bon. Dès que les visiteurs apportés par Google augmentent, les visiteurs apportés par Yahoo diminuent. Quand les visiteurs apportés par Google retombent, ceux apportés par Yahoo reprennent du poil de la bête. Je dois avouer que cette constatation me laisse extrêmement perplexe.

Pour ceux qui voudraient en savoir un peu plus sur le panel de sites qui m'a amené à ces constatations et conclusions : Wikibis

Vous accéderez aux différents sites en utilisant le menu de gauche.

Modifié par zapman
  • Réponses 66
  • Créé
  • Dernière réponse

Contributeurs actifs dans ce sujet

Contributeurs actifs dans ce sujet

Posté
Petite constatation étonnée : certains sites semblent se débarrasser de la pénalité pendant 2 à 3 semaines puis retombent dans le bac à sable pour de bon. Dès que les visiteurs apportés par Google augmentent, les visiteurs apportés par Yahoo diminuent. Quand les visiteurs apportés par Google retombent, ceux apportés par Yahoo reprennent du poil de la bête. Je dois avouer que cette constatation me laisse extrêmement perplexe.
Ça alors, j'ai constaté la même chose récemment.

J'ai lancé un site il y a 6 mois, j'avais très peu de requêtes provenant des moteurs (le temps que le site se fasse indexer). Et j'avais donc 3 ou 4 requêtes par jour venant de chez Yahoo!

Désormais, je fais un carton plein sur le Gougle, et Yahoo! m'apporte toujours 3 ou 4 visiteurs... mais par semaine maintenant :huh:

Pareil, ça m'a laissé perplexe :unsure:

Posté

zapman, ton raisonnement est erroné, tu ne t'es attaché qu'a l'aspect nombre de pages. Mais en allant sur le site, j'ai surtout trouvé une reprise des textes de wikipedia, donc ne cherche pas, la pénalité viens de la, et forcement, plus tu as de contenu dupliqué, plus la pénalité est grande

Pour ma part, ayant eu à mettre un projet contenant un bon nombres de pages, je n'ai remarqué aucun effet de sandbox

Posté (modifié)
...en allant sur le site, j'ai surtout trouvé une reprise des textes de wikipedia, donc ne cherche pas, la pénalité viens de la, et forcement, plus tu as de contenu dupliqué, plus la pénalité est grande...

Je m'attendais à cet argument, Dadou. Tu es le gagnant !

J'ai fait une longue étude sur le Duplicate Content pour savoir dans quel condition une page était considérée comme dupliquée ou non. (voir http://www.rankspirit.com/duplicate-content.php et http://www.rankspirit.com/resultats-experi...-duplicate.php)

Wikibis ne tombe pas sous le couperet du Duplicate Content pour de nombreuses raisons (j'ai pris le maximum de précautions à cet effet) et notamment pour UNE très bonne raison : contrairement aux apparences (car nous, humains, ne fonctionnons pas comme des robots) ses pages ne sont pas des copies conformes de Wikipedia. Elles ont toutes fait l'objet d'une ré-écriture calculée pour que leur contenu soit considéré comme original par Google. Plusieurs des sites du réseau connaissent d'excellentes fréquentations et démontrent que la technique utilisée fonctionne.

Combien de pages ton projet comportait-il et de quel façon a-t-il été mis en ligne ? En paquets ou tout d'un coup ?

Modifié par zapman
Posté (modifié)

Ha, ha ! je vois qu'on s'obstine !!

Il va falloir me croire sur parole ou alors prendre le temps de comparer ces deux pages plus en détail. Je me permet d'être formel : seul le grand nombre de page lors de la mise en ligne à constitué un problème. A ce jour, mes 10 sites les plus anciens connaissent des fréquentations qui seraient absolument impossible si leurs pages étaient classées en "Duplicate Content".

Peut-on fermer cette parenthèse et revenir au sujet ?

Modifié par zapman
Posté
Je m'attendais à cet argument, Dadou. Tu es le gagnant !

Je gagne quoi :P ?

J'ai fait une longue étude sur le Duplicate Content pour savoir dans quel condition une page était considérée comme dupliquée ou non. (voir http://www.rankspirit.com/duplicate-content.php et http://www.rankspirit.com/resultats-experi...-duplicate.php)

Je ne suis pas convaincu par ces expérimentations, d'autant plus qu'elles datent, et que Google a depuis très certainement fait des modifications sur ses algos

Wikibis ne tombe pas sous le couperet du Duplicate Content pour de nombreuses raisons (j'ai pris le maximum de précautions à cet effet) et notamment pour UNE très bonne raison : contrairement aux apparences (car nous, humains, ne fonctionnons pas comme des robots) ses pages ne sont pas des copies conformes de Wikipedia. Elles ont toutes fait l'objet d'une ré-écriture calculée pour que leur contenu soit considéré comme original par Google. Plusieurs des sites du réseau connaissent d'excellentes fréquentations et démontrent que la technique utilisée fonctionne.

Tout comme captain_torche, je ne vois pas de réelles différences avec wikipédia, pour moi c'est bien du contenu dupliqué.

Combien de pages ton projet comportait-il et de quel façon a-t-il été mis en ligne ? En paquets ou tout d'un coup ?

Une bonne cinquantaine et français et autant en anglais, le français à été publié, puis après l'anglais (une fois que les traduction étaient prêtes), et donc selon ton estimation, le site devrais être actuellement être en sandbox puisque sortir fin octobre (donc moins de 6 moins). Et je n'ai remarqué sur ce dernier aucun effet sandbox

Peut-on fermer cette parenthèse et revenir au sujet ?

Tu plaisantes, on es en plein dedans, que les réponses te déplaisent, ça c'est autre chose, non ce n'est certainement pas le nombre qui vient foutre le bordel

Mais j'ai aussi une autre piste : le nombre de backlink important d'un coups : a cause des sous domaines

Posté (modifié)
Je gagne quoi :P ?

Allez, un bisou !

Je ne suis pas convaincu par ces expérimentations, d'autant plus qu'elles datent, et que Google a depuis très certainement fait des modifications sur ses algos

Tout comme captain_torche, je ne vois pas de réelles différences avec wikipédia, pour moi c'est bien du contenu dupliqué.

J'ai précisé dans ma première réponse que les humains ne voyaient pas les choses du même point de vue que les robots. Il est vrai que mon étude sur RankSpirit date de 2 ans, mais le projet Wikibis comportent suffisamment de pages (environ 15 000 à l'heure actuelle) pour constituer une bonne étude à lui tout seul. Encore une fois, il va falloir me croire sur parole ou étudier de près les différences, refaire les mêmes expérimentations que moi et comprendre à votre tour ce qui fait tomber une page dans le Duplicate Content ou non.

Une bonne cinquantaine et français et autant en anglais, le français à été publié, puis après l'anglais (une fois que les traduction étaient prêtes), et donc selon ton estimation, le site devrais être actuellement être en sandbox puisque sortir fin octobre (donc moins de 6 moins). Et je n'ai remarqué sur ce dernier aucun effet sandbox

Voilà qui est intéressant. J'étais arrivé à la conclusion que 50 pages étaient le maximum. C'est peut-être 55 ? Moi je me suis limité à 40 histoire d'avoir une petite marge de sécurité. Si quelqu'un à tenté une expérience avec 60 pages, ça nous permettra peut-être d'affiner la fourchette.

En tout cas, la version anglaise ayant été publié après le français, ça ne contredit pas vraiment ce que je dis. Te souviens-tu combien de semaines ce sont écoulées entre les 2 mises en ligne ? Tu as peut-être échappé de très peu au problème que je signale.

Tu plaisantes, on es en plein dedans, que les réponses te déplaisent, ça c'est autre chose, non ce n'est certainement pas le nombre qui vient foutre le bordel

Ce n'est pas du tout qu'elles me déplaisent, mais je sais bien comment un sujet part facilement en vrille et j'aimerais beaucoup avoir des points de vue sur le sujet principal de mon post plutôt qu'une longue digression sur le Duplicate Content.

Je peux bien évidemment me tromper sur la raison pour laquelle certains de mes sites décollent rapidement et d'autres non, mais on est quand même en train de parler d'une quarantaine de sites, pas d'un cas isolé et sujet à toutes les hypothèses. Si je suis aussi formel sur le Duplicate Content, c'est que j'ai vraiment creusé le bazard de très très prés.

L'objectif précis de mon post est de savoir si d'autres webmasters ont constaté eux aussi une pénalité liée à un grand nombre de pages mis en ligne dès la création du site.

Mais j'ai aussi une autre piste : le nombre de backlink important d'un coups : a cause des sous domaines

L'idée est bonne mais ne correspond pas à mon expérience : les premiers sites étaient des sites totalement indépendants et ils ont quand même bien morflé quand je mettais des grandes quantités de pages en ligne d'un seul coup.

Modifié par zapman
Posté
Allez, un bisou !

eurk, c'est gluant un Yoda??

J'ai précisé dans ma première réponse que les humains ne voyaient pas les choses du même point de vue que les robots. Il est vrai que mon étude sur RankSpirit date de 2 ans, mais le projet Wikibis comportent suffisamment de pages (environ 15 000 à l'heure actuelle) pour constituer une bonne étude à lui tout seul. Encore une fois, il va falloir me croire sur parole ou étudier de près les différences, refaire les mêmes expérimentations que moi et comprendre à votre tour ce qui fait tomber une page dans le Duplicate Content ou non.

Je pense qu'en grande partie ces expérimentations ont été faussées aussi par le fait que c'est apparemment le même site qui hébergeait les pages dupliquées.

Voilà qui est intéressant. J'étais arrivé à la conclusion que 50 pages étaient le maximum. C'est peut-être 55 ? Moi je me suis limité à 40 histoire d'avoir une petite marge de sécurité. Si quelqu'un à tenté une expérience avec 60 pages, ça nous permettra peut-être d'affiner la fourchette.

Heu, en fait, je n'avais pas compté les pages, et rien qu'avec les pages de descriptif des produits il y a 80 pages, et je n'avais pas compter dans mon estimation ces dernières, le site en question dépasse tranquillement les 100 pages, je dirais a vue de nez 120 pour la partie française.

Ce n'est pas du tout qu'elles me déplaisent, mais je sais bien comment un sujet part facilement en vrille et j'aimerais beaucoup avoir des points de vue sur le sujet principal de mon post plutôt qu'une longue digression sur le Duplicate Content.

Ce n'est pas partir en vrille, mais c'est une forte probabilité que cela intervienne dans ton phénomène de sandbox.

Posté (modifié)
eurk, c'est gluant un Yoda??

Un peu râpeux, à cause de l'âge. (c'est bien connu, tous les Yoda sont pluri-centenaires. Il faut croire qu'on est déjà très âgés à la naissance)

Je pense qu'en grande partie ces expérimentations ont été faussées aussi par le fait que c'est apparemment le même site qui hébergeait les pages dupliquées.

---->

...les premiers sites étaient des sites totalement indépendants et ils ont quand même bien morflé quand je mettais des grandes quantités de pages en ligne d'un seul coup.

Heu, en fait, je n'avais pas compté les pages, et rien qu'avec les pages de descriptif des produits il y a 80 pages, et je n'avais pas compter dans mon estimation ces dernières, le site en question dépasse tranquillement les 100 pages, je dirais a vue de nez 120 pour la partie française.

120 pages mises en lignes d'un seul coup ? Ou 50 d'abord et le reste peu à peu ?

[Edit]

... et après réflexion, je reviens sur l'une de tes remarques précédentes : l'étude réalisée sur RankSpirit date en fait de presque trois ans et c'est finalement une bonne chose car en regardant aujourd'hui comment sont placées les pages dupliquées (les pages ayant servi de base à l'étude sont toujours en ligne), on peut constater qu'elles sont toujours pénalisées au bout de 3 ans. L'hypothèse du Duplicate Content ne colle définitivement pas avec ce que je constate pour Wikibis : un décollage retardé, mais qui a bel et bien lieu au bout d'un certain délai.

Modifié par zapman
Posté

Les 120 puisque le site en version française à été publier d'un bloc, puis les traductions sont venues plus tard mais aussi d'un bloc

Posté
Les 120 puisque le site en version française à été publier d'un bloc, puis les traductions sont venues plus tard mais aussi d'un bloc

Ca t'embêterais de me donner l'adresse de ton site ? Ca m'intrigue !

Posté
donc ne cherche pas, la pénalité viens de la, et forcement, plus tu as de contenu dupliqué, plus la pénalité est grande

Si ça venait de là, les sites ne sortiraient jamais et seraient perpétuellement pénalisés, non ? Je ne vois pas bien comment des pages considérées comme non originales pourraient grimper de manière durable sur quelque requête que ce soit.

Intéressant le constat sur le nombre de pages, merci !

Posté

qu'est ce qui te dis que les sites faisant du duplicate content ne sont pas pénaliser perpetuellement?

Posté

Zapman a l'air de dire que les sites en question sont sortis au bout de tant de temps, c'est donc que leur plombage ne venait pas du duplicate, sans quoi ils ne seraient pas sortis du tout ?

Posté

Je ne pense pas que la "punition" soit plus sévère s'il y a plus de pages en duplicate content. Selon moi, c'est un algo qui se suffit à lui-même : une page dupliquée n'apparaît pas dans les résultats. Plus il y a de pages dupliquées, moins il y a de pages dans les résultats ;)

Par contre, quel que soit l'origine du problème, les pages anciennement considérées comme duplicate remontent quand elles ne copient plus le site d'origine; ça ne semble pas être une pénalité définitive.

Posté

Sans vouloir etre insistant par rapport au duplicate, en faisant une petite recherche TRES rapide sur 3 pages de ton site prise au hasard avec copyscape, on retrouve tres souvent wiki et plein d'autres (tu n'es pas le seul a pratiquer ce "sport") et le constat est la, il y a énormément de duplicate.

Exemple 1 : 2583 mots identiques

Exemple 2 : 2155 mots identiques

Exemple 3 : 929 mots identiques

Pour ceux ne connaissant pas copyscape, ce qui est surligné est le contenu similaire.

Alors bon, moi je veux bien que la théorie des 50Pages + amènent a une sandbox, j'ai jamais constaté cela, mais je ne demande qu'a être contredit, mais mon experience m'a prouvé que pour 2 ou 3 phrase de duplicate une page peut être écarté des SERP et dans ton cas, on ne parle pas de 2 ou 3 phrases mais de plusieurs dizaines...

Après, effectivement, un trop gros nombre de pages d'un coup pour des sites avec nom de domaine tres jeune, google ne leur accorde que très peu de confiance et amène probablement a une sandbox. A cela on ajoute une tripoté de duplicate...

Ce qu'il faut se poser comme question au final, c'est, qu'est ce que ton site apporte de mieux que wikipedia pour un moteur de recherche ?

Navigation différente, mais la finalité, c'est un contenu similaire, voir identique ...

Posté
Sans vouloir etre insistant par rapport au duplicate...

Si, si, un peu quand même... :c_tonguesmile:

Si le filtre "Duplicate Content" était aussi perfectionné que ce que fait CopyScape, il faudrait à Google des milliers d'ordinateurs rien que pour gérer cette fonction (chaque page devant être comparée à l'ensemble des pages du Web pour savoir si elle n'en constitue pas une copie plus ou moins importante). En réalité, et heureusement pour moi, ce filtre est une jolie passoire, comme on peut le constater tous les jours en regardant les résultats que nous propose Mister G.

Ce qu'il faut se poser comme question au final, c'est, qu'est ce que ton site apporte de mieux que wikipedia pour un moteur de recherche ?

Navigation différente, mais la finalité, c'est un contenu similaire, voir identique ...

Je pense que Wikibis présente de réels avantages pour l'utilisateur (ou du moins pour une catégorie d'utilisateurs). Cela dit, ta remarque est pleine de bon sens : du point de vue des moteurs, le défi était en effet de ne pas tomber sous le coup d'une pénalité qui a toutes les raison de s'appliquer car elle n'est pas conçue pour gérer ce cas précis d'utilisation de contenus dupliqués. Je maintiens y être parvenu.

Je renouvelle donc humblement ma demande : peut-on oublier le temps d'un post la question du Duplicate Content et revenir au sujet qui m'intéresse ? Dadou m'a proposé un contre-exemple très intéressant pour moi

Quelqu'un d'autre a-t-il une expérience concernant la mise en ligne massive de pages lors de la création d'un site ?

Posté (modifié)

Salut,

Je ne crois pas du tout en cette limitation de pages pour un nouveau site. Cela sera trop pénalisant même pour Google, si ce moteur a connu un tel succès c'est justement grâce à l'idée que dans le web on peut réussir du jours au lendemain. Mais pour cela, il faut avoir une idée originale et crée un site qui peut avoir un réel intérêt pour l'internaute. Et ce même si la concurrence est énorme ou le ndd jeune.

Si on suit ton raisonnement, il faut attendre six mois ou 1 ans pour faire quelques centaines de visites par jours. Là où tu te trompes, c'et que tu prends un site en exemple pour en sortir une analyse sur le moteur de recherche le plus puissant. De plus, sur le hub pas mal de novices au référencement passent par là pour glaner quelques infos. Il suffit qu'il tombe sur ce post, pour croire qu'il y a une limitation dès la sortie d'un site.

A partir du moment ou un site est bien conçut et qu'il ne génère pas de duplicata content entre sa home, les pages de catégories/rubrique et les articles, il n' y a pas de problème à attendre de GG. De toute façon, avant de proposer un site dans l'index il faut qu'il ai du contenu. Et pour qu'il est du contenu, il faut des pages.

Par contre, je vois deux problèmes majeurs aux nouveaux sites:

- La fraicheur d'indexation de son site et de ses news.

Pour que google, revienne indexer un site et le plus rapidement possible, il faut du contenu fréquemment mis à jour. Ce qui est encore contradictoire avec la thèse de la limitation sur les nouveaux sites.

- Et les backlinks. Car pour exister aussi bien du point de vue des internautes que des moteurs de recherches. Il faut des backlinks de référence. De toutes façon, on en revient au même point, si le site est UTILE, les backlinks viendront tout seul.

Enfin, voici deux exemples, de sites qui sont sortie du jours au lendemain dans des domaines ultra concurrentielles avec énormément de pages. Pour exister ces sites se devait d'avoir du contenu et fréquemment mis à jours. Alors si ta thèse existe, il se seraient limités à créer 10 pages par mois. Dans ce cas , pas la peine d'ouvrir un site. Il n' y aurait que toujours les mêmes sur le web ( Les sites de 2000 et avant l'arrivée de Google)

Le domaine est le foot: 10Sport.com, Foot01.com.

Voila un autre exemple, le plus évident, je te pose une question, tu crois que quand Facebook a été indéxer, il ne comportait que 10 pages? En plus pour la richesse en contenu de ses pages :shutup:

Cordialement,

Djames

Modifié par Djames-Allen
Posté
En réalité, et heureusement pour moi, ce filtre est une jolie passoire, comme on peut le constater tous les jours en regardant les résultats que nous propose Mister G.

si tu crois que juste en remplaçant "quand il galope" par "lorsque il galope" cela suffit pour ne pas faire du duplicate http://www.google.fr/search?q=Morvac%27h%2...=utf-8&aq=t

C'est sûr, ton site est bien indexé, mais on ne peut le voir qu'en cliquant sur "relancer la recherche en incluant les pages ignorées."

Sur des sites de 3-4 mois, j'en suis à environ 400 pages (réelles et environ 300 indexées par google) chacun, car il faut qu'ils saisissent les fiches produits, fassent les photos, etc... et ça prend du temps.

Posté

Tout à fait Leonick, du temps c'est ce qu'il faut, beaucoup croient parce que c'est google alors il doit indexer plus vite que son ombre.

Du temps + un site bien construit + suivre les bonnes techniques de référencements (les bases). Et normalement on peut obtenir des bons résultats même avec un nouveau site en quelques mois. Sandbox par ci SandBox par là, on l'entend à toutes les sauces :sick:

Posté

sandox c'est la solution de facilité pour (se) faire croire qu'on a tout fait dans les règle et c'est juste gg qui n'est qu'un moteur amorphe qui ne veut pas de nouveaux sites.

Mais quand le contenu vient d'ailleurs, ça s'appelle du duplicate content et ça ça n'intéresse pas les internautes (moi en tout cas) de retrouver 5 fois les mêmes infos sur la 1° page de google. Et comme gg veut la satisfaction des internautes, il essaie de ne pas mettre de duplicate dans ses SERP.

Après, qu'il y en ait qui arrivent à passer le filtre soit, mais la question à se poser ce n'est pas "pourquoi lui il y arrive à tromper google", mais plutôt "est-ce que mon site a un réel intérêt pour l'internaute". S'il ne m'appartenait pas serais-je content d'arriver sur ce site ?

Si la réponse est non et que gg ne nous place pas en premières pages des SERP c'est que c'est normal :cool2:

Posté
Je ne crois pas du tout en cette limitation de pages pour un nouveau site. Cela sera trop pénalisant même pour Google, si ce moteur a connu un tel succès c'est justement grâce à l'idée que dans le web on peut réussir du jours au lendemain.

Je crois quant à moi que si Google a conservé son succès au cours des dernières années, c'est surtout parce qu'il parvient de façon relativement efficace à lutter contre le spam et, par exemple, à écarter des résultats tous les sites créés de façon automatique dans le seul but de "faire du volume", quitte à polluer le Web. Le filtre "Duplicate Content" n'est pas, loin sans faut, la seule protection mise en place dans ce but. Il n'y aurait rien d'étonnant à ce qu'il ait mis en place une limitation telle que celle que je suppose dans ce post. Combien de webmasters mettent directement en ligne des sites de plus de 50 pages hyper riches en contenu ? Vu le peu de témoignages recueillis jusque là, il ne semble qu'il y en ait tant que ça. De là à ce que Google trouve cela suspect...

Là où tu te trompes, c'et que tu prends un site en exemple pour en sortir une analyse sur le moteur de recherche le plus puissant.

Le projet couvre une dizaine de noms de domaines différents. Mes premières expériences portaient sur des sites indépendants. J'ai ensuite hébergé mes sites dans des sous-domaines de WikiBis. Pour le moment, je ne constate aucune différence entre la progression des NDD indépendants et celle des sites en sous-domaine. Les sites comportant moins de 50 pages démarrent vite dans les deux cas. Ceux comportant plus de 50 pages semblent pénalisés dans les deux cas.

De plus, sur le hub pas mal de novices au référencement passent par là pour glaner quelques infos. Il suffit qu'il tombe sur ce post, pour croire qu'il y a une limitation dès la sortie d'un site.

Alors là, je tousse un peu. Le fait de partager son expérience serait donc une démarche nuisible ?

Voila un autre exemple, le plus évident, je te pose une question, tu crois que quand Facebook a été indéxer, il ne comportait que 10 pages? En plus pour la richesse en contenu de ses pages :shutup:

Qui sait comment le projet Facebook a été élaboré et à quoi il ressemblait au moment de sa mise en ligne et de quelle façon il a progressé ? Et même si j'aimerais en savoir plus sur ces questions, elles sont hors sujet. Comme je l'indique dans le premier post, mon analyse ne porte que sur des sites qui ne bénéficient d'aucune promotion et que l'on laisse "murir" de façon naturelle.

Je n'affirme pas que, même dans ces conditions, il faut limiter la création de pages à 10 par mois. Je dis que ma précaution personnelle consiste à ajouter un maximum de 20 pages par mois et que ça semble marcher. Je suppose qu'au bout d'un an (ou peut-être avant), une fois que le site a réussi à obtenir des backlinks naturels et bénéficie d'une bonne côte de confiance de la part de Google, il n'y a plus la moindre limitation quand à sa vitesse de croissance. Mais je n'en suis pas encore là.

Enfin, voici deux exemples, de sites qui sont sortie du jours au lendemain dans des domaines ultra concurrentielles avec énormément de pages...Le domaine est le foot: 10Sport.com, Foot01.com.

Voilà qui m'intéresse. Mais tu ne précises pas combien les sites comportaient de pages lors de la mise en ligne et combien de temps ils ont mis à décoller. Pourrais-tu préciser ?

Posté
sandox c'est la solution de facilité pour (se) faire croire qu'on a tout fait dans les règle et c'est juste gg qui n'est qu'un moteur amorphe qui ne veut pas de nouveaux sites.

Je suis tout à fait d'accord. Tu fais référence aux "plaintes affligées" dont je parles au début de mon post.

J'ai simplement constaté un phénomène et je souhaite savoir si d'autres ont fait la même expérience.

Après, qu'il y en ait qui arrivent à passer le filtre soit, mais la question à se poser ce n'est pas "pourquoi lui il y arrive à tromper google", mais plutôt "est-ce que mon site a un réel intérêt pour l'internaute". S'il ne m'appartenait pas serais-je content d'arriver sur ce site ?

Si la réponse est non et que gg ne nous place pas en premières pages des SERP c'est que c'est normal :cool2:

Tout à fait d'accord encore une fois. Comme je le dis plus haut, je pense que WikiBis représente un réel intérêt pour certains internautes. L'avenir me dira si j'ai raison.

Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...