Aller au contenu

thick

Membre+
  • Compteur de contenus

    3 093
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par thick

  1. J'utilise php-stats depuis longtemps avec bonheur, mais après avoir testé Google Analytics mon coeur balance....
  2. Tu vises 950 pixels en largeur de page et ça rentrera parfaitement pour du 1024
  3. Le succès commercial de ton site va dépendre du positionnement mais aussi de la thématique. Dis nous en plus...
  4. Le problème de Matt Cutts est qu'il valide ce qu'on pense, mais c'est rare de tomber sur de l'info inédite. C'est un peu comme si la radio t'annonce qu'il pleut alors que tu es dehors en train de te mouiller.
  5. Puisqu'il faut dire quelque chose d'utile je dirais simplement que le PR est un paramètre parmi tant d'autres pour estimer si une page Web est "populaire", mais ce n'est pas celui que je préfère Comme les autres je pense que tu devrais zapper les frames et pour le reste j'ai tout dit dans mon site
  6. Je dirais que MSN est le plus régulier, Google prend le plus de pages et Yahoo est le plus anarchique.
  7. Ce sont des régies d'affiliation que tu cherches ? Quelque chose comme ça ? http://www.netaffiliation.com/
  8. Le footer ou le lien dans un menu (type blogroll) n'est pas très "efficace". Un lien est toujours content quand il est entouré d'un environnement contextuel favorable. C'est à dire qu'un lien situé au sein d'un paragraphe de texte pertinent greffé sur un site à thématique similaire ou complémentaire est sans doute un vote hyper favorable en faveur du site qui reçoit une telle offrande. Ceci dit, on dit toujours "un lien ne se refuse jamais", donc tout racolage de backlinks est à accepter, même si ça vient d'un site à faible popularité.
  9. Ben oui les farm links veulent ressembler à tout sauf à des farms links En fait, il faut vraiment éviter quand on te demande d'installer une page qui affichera tous les sites qui participent au "programme".
  10. Attend un petit mois avant de t'inquièter pour de bon. Google est en pleine mouvance sur des paramètres importants de son algorithme. La rumeur veut que tout soit en place dans 1 semaine ou 2, mais je donnerais un peu plus de temps avant de vérifier la bonne tenue du site.
  11. Personnellement je fonctionne plutôt sur le phénomène de la landing page. C'est à dire que je vais lire uniquement le billet qui concerne ma visite. J'arrive par divers chemins comme mes Live Bookmarks de Firefox ou ma page personnalisée de Google http://www.google.com/ig Il y a aussi le post de forums qui m'entraîne vers un blog ou un billet de blog qui engendre le même chemin. Bref, ça répond à côté de ta question, mais il est vrai que ma "non-navigation" sur les blogs peut laisser penser que le billet en lui-même pourrait être optimisé pour influencer le visiteur à visiter d'autres pages.
  12. Google ne donne qu'un échantillon des liens qui pointent vers ton site. Il y a très peu d'intérêt à inspecter les backlinks sour Google. Comme il a été conseillé plus haut tu devrais regarder sur Yahoo. Concernant tes requêtes la commande link: donne le fameux échantillon de tes backlinks alors que :www.monsite.com donne toutes les pages qui citent ton URL, même si ce n'est pas un lien (comme sur ce post lorsqu'on parle de monsite.com).
  13. thick

    Carte son externe

    J'ai vu la Sound Blaster Audigy fonctionner et c'est très performant : Sound Blaster Audigy 2 mais c'est aussi pour l'édition vidéo. Par contre il y a ce boîtier Sound Blaster Audigy 2 NX qui m'a l'air sympathique. Concernant le Hercules Muse Pocket je crois que c'est pratique, mais je ne vois pas d'attributs qualitatifs flagrants. Sur Clubic l'essai semble mitigé.
  14. J'ai aussi remarqué ça. D'ailleurs ce sont les indexations les plus lentes que j'ai jamais vu, notamment pour les nouveaux sites = 14 jours pour figurer dans l'index avec une mise en ligne au début du mois. Parce contre le Bot passait tous les jours
  15. Ouf je reviens pile poil pour fêter l'anniversaire du boss ! Bon anniversaire Dan.
  16. Je rejoins Zimounet dans son analyse. En fait le référencement consiste à profiler le site pour que rien ne vienne entraver le travail des robots de crawl des moteurs de recherche. Ensuite comme dit Seb c'est le contenu original et intéressant qui permet de se distinguer sur les occurences de mots clés. Puis pour finir on fait des échanges de liens, préférablement de pages à thématique similaire ou complémentaire, afin d'augmenter la popularité de ton site. PS : j'ai aussi appris le réf sur les forums et pas dans les bouquins (d'ailleurs il n'y avait pas de bouquins sur ce sujet à l'époque).
  17. Ce document reste à destination des analystes financiers avec toute l'hypocrisie latente que cela implique. Car reste sans surprises si on suit un peu de près l'actu Google.
  18. Un lien de plus à te mettre sous la dent : http://www.eyetools.com/inpage/research_go...ing_heatmap.htm
  19. zapman, 100% vrai sur ce que tu dis. Il beaucoup plus courant d'auditer un site qui a déjà connu une prestation réf. A la louche je dirais que 20% maxi des sites que j'ai vu passer ne sont pas passés dans les pattes d'un référenceur au prélable. C'est vrai aussi que j'ai plutôt du site institutionnel à cible hautement commerciale.
  20. J'ai bien fait un peu de SEO pour les autres mais j'en suis vite parti Puis tu sais dans quelles conditions je gère mes audits donc c'est vrai que pour moi le côté commercial et éducation du client se fait dans un fauteuil. Mais dans sa globalité le travail d'audit n'est pas si simple : 1) faut voir toutes les merdouilles 2) faut pas se planter dans le conseil 3) faut valider les modifs Par contre, je crois que l'audit est persuasif car le client visualise mieux les problèmes grâce au texte et aux screenshots. En principe il fait "glup" quand il voit tous les soucis, décelés sur son site, mis à plat noir sur blanc dans un rapport de 50 pages. De plus il existe aussi le pré-audit pour ceux qui veulent travailler le réf en amont, notamment pour les stratégies de netlinking. Heu je fais pas du hors-sujet là ?
  21. Ce débat prend une bonne tournure Maintenant j'ai une question pour mes potes référenceurs Est-ce que vous sentez que la synérgie dont parle Cendrillon dans son post #71 est de plus en plus d'actualité ? Je veux dire que les sites actuellement en ligne sont pour la vaste majorité vraiment peu optimisés pour le référencement, mais est-ce que les sites en phase de conception à l'heure actuelle englobent plus qu'avant le référencement dès le cahier des charges ? Pour reformuler ma question : est-ce que vous pensez que la tendance suggère une prise en charge du réf dès la conception du site ?
  22. Enfin quelqu'un qui me comprend dans ce monde de brutes
  23. Salut le-juge, Ton post est vraiment clair et j'espère que de nombreux visiteurs du Hub le liront. Tu résumes très bien la situation du point de vue des référenceurs Petit bémol cependant quand tu dis En effet, j'audite des sites Web à longueur de temps et je peux affirmer que la vaste majorité des clients n'ont absolument aucune idée des saloperies planquées par les précédentes boîtes de réf sur leurs sites. J'ajoute aussi que la majorité des sites que j'audite comportent des pages sat ou autres joyeuseries. Donc oui je dois être un peu blasé de tirer à boulets rouges dans mes rapports sur ces pratiques. Cependant je dois souligner que les mauvaises pratiques qui figurent dans mes rapports viennent quasiment toutes des mêmes sociétés de réf. Pour finir je comprend les impératifs économiques qui obligent à dire "oui" au client, mais je reste persuadé que ça reste possible de faire sans car certains pros refusent catégoriquement ces pratiques (une poignée gravite sur le Hub). De plus, même si je ne gère pas le réf, mes audits sont mis en oeuvre et tout ce qui est planqué ou spammy passe à la poubelle.
  24. Sans parler spécifiquement du Google Pulling on sait que le dernier update BigDaddy est couplé d'une mise à jour de l'infrastructure des DataCenters. Google a ainsi annoncé qu'ils seraient capables de gérer de nombreuses choses impossibles à prendre en compte auparavant.
  25. Salut Zapman, En fait ce que j'essaye maladroitement de dire c'est que le spam et surtout les pages sat semblent être légitimées par certaines boîtes de réf. Même si GG n'est pas la Sainte Loi il peut réprimender certaines pratiques et si on opte pour la mise en place de ces dites pratiques douteuses/interdites il faut le faire en toute connaissance de cause. C'est là que je situe mal la position de certains car si on fait le mal il faut avoir conscience que c'est... mal. Bien sûr que les moteurs avouent à demi mots leur incapacité à régler le problème des spammeurs d'un seul coup, mais ils progressent petit à petit. Cela implique que le spam d'aujourd'hui n'est pas le spam d'il y a 6 mois et n'est pas non plus le spam de l'an prochain. Ainsi, pour répondre au titre du thread, je dirais que non les pages sat ne sont pas en fin de vie, mais croire que la page sat telle qu'elle était pratiquée il y a quelques mois est une technique durable est faux d'après moi. Bref spammer est un vrai métier et pour y être efficace il faut s'y coller autant qu'à la mise en place de contenu viable et original. Tout cela pour dire que la page sat n'est certainement pas une technique de facilité.
×
×
  • Créer...