Aller au contenu

thick

Membre+
  • Compteur de contenus

    3 093
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par thick

  1. Franchement, je ne me suis pas encore trop posé de questions sur le Trustrank et je ne voudrais pas lancer de suppositions dessus. Par contre, il est certain que ce que tu suggères est tout à fait logique. La notion de site de référence est pour moi essentielle car cela permet à Google d'avoir une certaine cohérence dans ses résultats de recheche tout en balancant aux oubliettes des catégories de sites en permanence. C'est à dire que certains sites ne bougent pas ou très peu car ils ont acquis leurs lettres de noblesse (c'est là que le TrustRank pourrait intervenir)et ils permettent surtout à Google de présenter la pertinence qui a fait son succès tout en continuant de progresser dans la lutte anti-spam. Pour reparler un peu de notre exemple NASA et fleurs, on pourrait imaginer que le site NASA sorte une page sur les fleurs en parlant d'éxpériences faites dans l'espace pour faire pousser certaines espèces. Cette page pourrait alors se positionner (toujours par exemple) sur "livraison fleurs" avec une faible occurence de mots clés sur la page, mais simplement parce que le site est populaire (grâce au TrustRank ou autre). On peut alors penser que la page n'est pas pertinente puisqu'elle parle bien de fleurs mais de "livraison fleurs" dans un contexte qui est autre que la vente de fleurs en ligne (sais pas moi, ils pourraient parler de livraison de fleurs dans l'espace par exemple). Ainsi, on va penser que Google n'est pas si pertinent que ça ? Bien, la réponse est toute simple et les publications du Hub rédigées par Cariboo vous apporteront un début de réponse, mais sans suspense je dirais que Google ne comprend pas vraiment ce qu'il lit et ce qu'il affiche. Tout ça nous ramène dans un débat sur la sémantique appliquée, mais comme je risque de largement partir hors sujet, je m'arrête là
  2. Encore une fois, il faut savoir de quel PR on parle. Si c'est celui de la Toolbar, je ne vois pas en quoi il peut effectivement aider en quoi que ce soit. Si on parle du PR réel, il est clair que c'est un indice de popularité, donc le site doit effectivement bénéficier de cette popularité pour réussir à faire grimper des pages facilement. Quand on a réussi à bâtir un site populaire aux yeux de Google, il est très facile de faire des pages qui montent toutes seules sur les requêtes, quelque soit la thèmatique. Si la NASA fait une page de fleurs, il est certain qu'elle se positionnera efficacement. Mais, il est aussi évident que l'on peut essayer de gonfler le PR d'un site lambda artificiellement en faisant du mass linking et en générant des pages internes pour choper de nombreux liens internes et pourtant le site ne deviendra pas populaire pour autant car le niveau du PR, aussi haut soit-il, sera peu de chose par rapport aux caractère spammy des backlinks et au manque de pertinence de son contenu. Donc un bon PR c'est bien, mais un bon PR à tout prix ne sert à rien. C'est à dire que vous pouvez tout à fait construire un site "populaire" à PR5 alors que vous pouvez aussi construire un site "peu populaire" à PR7. Pour parler concrètement, je me contente d'un PR4 ou 5 sur un site à thèmatique ciblée et contenu original qui apporte une réele valeur ajoutée au visiteur car les liens entrants auront de grandes chances d'arriver naturellement depuis des pages à contenu similaire ou complémentaire. En opposition, je ne vais pas compter sur un site qui génére 10 000 pages avec 3 lignes de php en récupèrant du contenu déjà présent sur le Web et qui comptera dans ses backlinks toute la panoplie de liens facilement obtenables sur le Web. Bref, c'est tout bête et peut-être qu'il faut le rabacher encore et encore, mais la théorie du référencement est d'une simplicité extrème tout compte fait, mais la réalité est que c'est un travail acharné et difficile car tout compte fait il faut simplement mais difficilement faire un vrai et bon site comme il se doit pour observer succès et pérennité sur le Web. Ceci dit, c'est sûr qu'on peut me montrer tout un tas de contre-exemple avec des sites spammy qui arrivent en tête de requêtes, mais je voudrais bien savoir depuis combien de temps ces sites sont là et pour combien de temps encore ? Et donc pour parler franc, les techniques de spam marchent peut-être encore, mais pas toujours et jamais sur le long terme.
  3. Ca aussi on devrait l'encadrer quelque part et peut-être qu'un jour on arrivera enfin à ne plus parler de PR. En d'autres termes, le PR vient naturellement si on travaille les points essentiels que Jeff cite et il n'y a aucunement besoin de se retourner les méningues pour essayer de grignoter un peu plus de vert dans la GGToolbar
  4. Raisonnement hyper simpliste qui ne peut s'appliquer à un algorithme comportant plusieurs centaines (milliers) de paramètres. Pour référencer un site, il serait prétentieux d'apprendre comment faire en 3 posts de forums et 4 lectures de blogs. De notre côté (le côté de ceux qui pataugent depuis longtemps dans la marmite du référencement), on essaye, dans la mesure de nos petites connaissances, de donner des conseils, mais il me semble que les gens n'écoutent pas ou plutôt ils écoutent ce qu'ils veulent bien entendre. Vous voulez un résumé du référencement ? Bien, c'est tout simplement comme un jeu de poker, sauf que vous n'avez pas l'énoncé des règles et que ces mêmes règles changent en permanence et personne ne vous met au courant. Maintenant que la problèmatique est posée, pour comprendre le référencement, il faut avoir un peu d'instinct, un bon sens de l'observation et surtout travailler, travailler et encore travailler. Ceux qui se reposent sur leurs lauriers ou croient être des cracks du référencement sans jamais se remettre en question sont voués à l'échec. Glanez l'info que vous pouvez et commencez à absorber l'algorithme de Google pour vous faire votre propre sauce en testant et retestant les méthodes d'optimisation et/ou facteurs d'amélioration du référencement/positionnement mais je ne pense pas que vous puissiez trouver un mode d'emploi qui vous propulse en tête des résultats. Si ce mode d'emploi pour être numéro 1 sur Google existe, je veux bien le connaître
  5. google sandbox PR0 et pourtant ma petite page se débrouille pas trop mal http://www.7-dragons.com/sandbox.php J'ai pris cet exemple car c'est ma seule page sans PR (enfin je crois), mais j'en ai des centaines d'autres à faible PR où je passe devant tous les PR du monde. De plus, je voulais ajouter que le PR de la Toolbar n'est absolument pas celui utilisé dans l'algo. Donc vous basez vos pronostics sur un indice qu'on sait dévalué, mais en plus qui ne correspond pas à la réalité. Résultat des courses, c'est du pipeau et ça m'étonnera toujours que les webmasters tombent encore aujourd'hui dans le panneau.
  6. Avant que Monique ne passe par là pour recommander http://www.opquast.com/ voici le lien
  7. thick

    1001dessous

    Excellent !!! Bravo à toi et continue sur ce cap
  8. Je crois vraiment que ce qu'il faut au Hub est un mode d'emploi Tu nous proposes un Airbus quand on roule en Clio alors pas étonnant qu'on soit perdu avec tous ces boutons
  9. Pas mieux thick = 51 300 000 http://www.google.com/search?hl=en&q=thick...G=Google+Search
  10. j'ai voté Oui mais en fait "c'est parfois" car j'ai un max de sites et j'ai fait des SiteMaps seulement pour les nouveaux et certains récents.
  11. Depuis l'update Bourbon, je dois dire que Google a franchi un grand pas pour semer les référenceurs. Cette mise à jour de l'algo est pratiquement impossible à cerner car les raisons plausibles d'une chute de positionnement ne sont pas identiques au sein d'un panel de sites. D'ailleurs, on ne sait pas trop quelles sont les raisons plausibles Enfin bref, les généralités à propos de paramètres influents sur le positionnement ne sont plus de mises et c'est au cas par cas qu'il faut traiter la problèmatique du référencement et du positionnement. Il y a bien quelques filtres majeurs qui balancent du gros calibre afin de descendre certaines catégories de sites, mais on arrive maintenant aussi à varier les techniques de référencement selon les requêtes en plus de la personnalisation extrème de l'optimisation selon les sites dont je parle juste avant.
  12. C'est vrai que dans mon esprit (et celui de Seb) il n'était pas question de compararer Brioude à Picasso et Marie à Kandinsky ! Heureusement que Seb est venu clarifier tout ça
  13. Et moi je suis extrèmement d'accord avec Seb. Le référencement (pour être efficace) est tellement lié à la conception de fond d'un site Web que ce n'est pas du tout facile de le mettre en place et encore moins facile de le rectifier par la suite. Le cahier des charges "référencement" tient peut-être sur une 1/2 page, mais la multitude de paramètres qu'il faut prendre en compte l'élève certainement au rang d' "art".
  14. 50% de similitude c'est la limite forte à mon avis. Je n'ai pas testé en détail, mais tu as par exemple cette discussion qui ne présage rien de bon au niveau du duplicate http://www.webmasterworld.com/forum30/31430.htm En gros, Google ne se borne plus à chercher la page la plus pertinente car il vire tout le duplicate en bloc ! Concernant ton annuaire sud ouest, l'idée est bonne et tu devrais récupérer quelques pubs payants si tu as une bonne visibilité.
  15. Oui mais j'hallucine un peu quand même car si on voit un tel désastre technique, graphique et référencement sur la grosse majorité des sites, c'est bien que les sociétés qui ont construit ces mêmes sites bossent comme des porcs ? Le client ne connaît rien à la création de site et c'est bien le prestataire qui doit proposer un projet viable ? Pour moi ce n'est pas du tout la faute aux entreprises mais bien aux professionnels du Web qui font n'importe quoi. De plus, on dirait bien que plus l'agence Web est importante et plus ils sont incapables de mener à bien un projet Web viable, malgré des budgets conséquents.
  16. Gaffe à DMOZ aussi qui peut être un signe de site spammy pour Google. GoogleGuy nous a donné un avertissement sans frais : duplicate content à propos des sites qu'on appelle des "scraper sites", c'est à dire qui récupère du contenu sans donner de valeur ajoutée comme par exemple avec l'utilisation et/ou récupération à base de phpdig, dmoz, wikipedia, etc... Ta désindexation massive me semble être un bon indice que Google a capté le caractère "similaire" de tes pages entre elles ou avec d'autres pages sur le Web. Faut tout gicler et repartir sur de nouvelles pages car c'est assez pénible d'essayer de récupèrer des pages que Google éjecte ou alors il faut faire un massif changement de contenu dessus et ensuite allumer un cierge. Bon courage
  17. Tu as vraiment des clients qui lisent les rapports de positionnement ? C'est certainement un devoir de faire parvenir un rapport de positionnement, mais je n'ai jamais observé que c'était un document très prisé par le client car il n'y comprend rien Encore une fois, c'est à la conception du site que le référencement doit prendre sa place et ceux qui vont continuer à faire du "référencement rustine" vont se taper la tête contre les murs à essayer d'expliquer le pourquoi du comment des malheurs de Google. Un soir de grande inspiration, j'avais écrit le cycle de création d'un site Web
  18. Rien à dire sur le design car je suis nul. Par contre, je me rappelle que tu étais blacklisté il y a 1 an et là je vois que ton site n'est plus blacklisté mais plutôt mal en point dans Google. Indexer les résultats de recheche de Google sur ton propre site n'est pas la meilleure des idées. Il faut savoir qu'il est encore plus dur de sortir d'un 2ème blacklistage et je ne parle pas de ton compte Adsense qui est en péril. A mon avis, tu devrais enlever ces pages fissa. Désolé pour le semi-hors sujet.
  19. +1 avec Cendrillon A la limite tant mieux car si les projets Web étaient mieux appréhendés dès le départ (en incluant le référencement lors du développement), il y aurait sans doute moins de techniques borderline utilisées par les référenceurs pro. C'est clair que ça va écrémer dans la torride industrie du référencement, mais peut-être que les clients vont enfin avoir des propositions plus viables par les agences de conception de sites.
  20. OK j'ai rien dit alors... Alors, il faudrait peut-être un mode d'emploi complet du Hub? Il est digne d'un cockpit d'Airbus ce forum et on ne connaît pas tous les boutons.
  21. Je milite pour un avertissement des réponses aux posts par email.
  22. Disons que tout la verité tient en ce que tu viens de dire. C'est un peu malsain comme sentiment vis à vis de Google, mais tellement et simplement vrai. "It's only business, nothing personal"
  23. Il y avait un topic qui donnait un script performant pour coder les emails mais je ne le trouve pas. Je vous laisse fouiner avec la fonction Recherche du Hub si ça vous dis, mais en attendant j'ai quand même trouvé ces 2 threads http://www.webmaster-hub.com/index.php?showtopic=14963&hl= http://www.webmaster-hub.com/index.php?showtopic=3927&hl=
  24. Je subis la même forme d'assaut de spam par referers et je n'essaye même plus de les stopper car j'ai de nouvelles URLs tous les jours. En fait, j'avais opté pour le blocage des IPs dans le .htacess, mais quand ce dernier faisait 3km de long j'ai laissé tomber l'affaire. C'est agacant et ça prend des ressources serveurs, mais mes stats sont privées donc il ne prennent pas de backlink.
  25. Hmmm Aubade.... le calendrier est un "must have". Merci Cendrillon de me rappeler de commander celui de 2006 Concernant nos trouvailles sur vos sites institutionnels c'est tout de même au référenceur de conseiller de faire ou ne pas faire certaines choses et de refuser comme certaines petites sociétés de référencement un site en appliquant de telles techniques. C'est le référenceur qui est responsable de son travail et il faut assumer le bon comme le mauvais. D'ailleurs, je connais nombre de référenceurs qui sont en train de virer tout le boulot spammy chez leurs clients, vu la progression de Google dans la détection de ces pages sat sur-optimisées et redirigées via un Javascript. Je n'accuse pas en défenseur d'un web "propre" car je suis bien coupable de méthodes un peu "borderline", mais j'assume et surtout je ne me présente pas comme un référenceur professionnel. Enfin bref, tout ça n'est pas bien grave, mais un peu désolant de voir des pros pleurer sur un forum et surtout se livrer à des techniques de spam hyper basiques sur leurs sites institutionnels.
×
×
  • Créer...