Aller au contenu

Stephane

Hubmaster
  • Compteur de contenus

    809
  • Inscrit(e) le

  • Dernière visite

Messages postés par Stephane

  1. En théorie, Google est capable de suivre les liens contenus dans des fichiers swf puisqu'il utilise le Flash SDK de Macromedia (il ne l'utilise que pour ça d'ailleurs, ce qui est vraiment dommage...)

    Je suppose, par contre, que l'indexation de liens flash prend plus de temps que pour des liens Html.

    La meilleure solution est celle préconisée par Marie, car malheureusement les liens dans le Noembed ne sont pas toujours suivis par Googlebot :(

  2. Bonjour tazs et bienvenue sur le Hub,

    Il ne reste plus que quelques jours avant la clôture des inscriptions.

    Je te conseille d'inscrire une page pour le concours très rapidement...

    Il sera toujous temps ensuite de former une équipe ou d'en rejoindre une.

    Le forum spécialement consacré au concours me semble être le meilleur endroit pour trouver des coéquipiers.

    http://www.webmaster-hub.com/index.php?showforum=81

    Tu peux aussi chercher des partenaires sur la mailing-list du concours.

  3. Personnellement (pour un daltonien  :unsure: ), j'aime bien les couleurs qui sont plus douces,

    Daltonien aussi, mais j'aime pas malgré tout. Les urls sont presques illisbles pour moi (en tant que référenceur j'ai tendance à ne regarder que ça d'habitude...)

    Je comprends bien le changement concernant les Adwords. C'est une bonne chose pour moi (mais sans doute pas pour l'internaute lambda) puisque cela entraine davantage d'ambiguïté sur le statut des liens sponsorisés. Je pense que la suppression des carrés pastels va permettre d'augmenter le taux de clic des campagnes Adwords.

    Je regrette en revanche la disparition de la barre de taux de clic des Adwords, qui était une indication intéressante sur les concurrents.

    Le Directory n'a pas tout à fait disparu, mais il n'est plus présenté au premier plan.

    Ca me semble logique du point de vue de Google, et ça ne me gêne pas de voir disparaître des résultats de recherche les descriptions Dmoz qui étaient trop souvent inadaptées du fait des guidelines particulières de cet annuaire.

    J'apprécie que la barre de recherche soit plus grande. Par contre, le RCHER de la version Fr est absolument ridicule...

  4. c'est très bien mais pouvez-vous m'expliquer pourquoi j'apparais sur yahoo.com mais pas sur yahoo.fr ?

    Des suggestions ?

    Inktomi semble être le composant principal de YST.

    Il y a donc de fortes chances que son fonctionnement soit similaire.

    Inktomi fonctionne sur un système de clusters.

    C'est à dire qu'il n'existe pas un seul index, mais 5 index différents (sans compter des clusters privés maintenus par certains clients d'Inktomi, et ne communiquant pas avec les autres clusters).

    Il existait 5 clusters différents : 4 aux Etats-unis, et un en Europe (au Royaume uni).

    Les 4 clusters américains sont situés en Virginie, en Californie, et à Washington. Les délais de synchronisation entre ceux-ci sont assez rapides.

    Le 5eme cluster (européen) a toujours eu des délais de synchronisation plus lents avec les autres.

    C'est peut-être ce qui explique en partie les décalages observés entre l'(index utilisé par Yahoo US, et celui utilisé par les versions européennes de Yahoo.

  5. Noarchive plutôt que noindex.

    Cela empêche la mise en cache. Presque tous les sites cloakés utilisent cela sinon le cloaking ne sert à rien.

    D'ailleurs, si Google ne dispose pas d'une version en cache de la page c'est très souvent un indice qu'il s'agit d'une page cloakée.

    Si le cloaking est bien fait (IP delivery +noarchive), il n'y a normalement aucun moyen d'avoir la preuve du recours au cloaking.

    Aucun moyen légal en tous cas...

  6. Salut Sid,

    Une société 'productrice' pourra dégager de fortes marges grâce à ce type de coût alors qu'une société 'non productrice' qui elle dispose de marges plus réduites se verra limiter dans sa stratégie d'acquisition de trafic.

    Oui, je suis d'accord. C'est d'ailleurs pour ça que je disais que les formules de paiement au trafic n'étaient pas avantageuses pour tous les types de sites.

    Néanmoins, il y a moyen même pour un distributeur de gagner de l'argent via ce système. Sinon, il n'y aurait pas autant d'annonceurs chez Overture et Google.

    Il faut arrêter de dire que le positionnement publicitaire nécessite de gros investissement !

    Ce n'est pas du tout ce que j'ai dit. Je ne parlais en fait que du cas du site de ZN, et surtout des Adwords dont le coût serait prohibitif pour lui sauf à miser uniquement sur quelques mots-clés à faible trafic.

    Mais le positionnement publicitaire est effectivement en théorie à la portée de tous (quelques centaines d'euros suffisent pour une première campagne).

    D'ailleurs, je pousse de plus en plus mes clients dans ce sens lorsque cela peut être intéressant pour eux.

    Il n'y a pas de concurrence pour moi entre positionnement publicitaire et référencement. Ce sont deux leviers complémentaires au service d'une même stratégie : générer du trafic qualifié et utile depuis les moteurs de recherche.

    Ce n'est vrai que si on choisit d'adopter une stratégie de 'leader' et de prendre la première place sur tous les mot-clés où l'on souhaite obtenir une visibilité forte. Dans ce cas, effectivement, il faut des budgets conséquents pour pouvoir suivre.

    Il y a quand même une particularité chez Google, qui fait qu'un annonceur va souvent se retrouver contraint d'adopter malgré lui une "stratégie de leader" même s'il n'en a pas envie... Les désactivations de mots-clés pour cause de taux de clic...

    Un annonceur lambda gérant tout seul sa campagne aura du mal à tenir une "stratégie de présence" sur la durée.

    Vous pouvez adopter une stratégie de 'présence' via ces outils au coût le plus bas (0.10 chez Espotting, 0.15 chez Overture, et 0.05 sur Google)

    Je sais bien que tu es un expert dans le domaine du positionnement publicitaire, mais reconnais qu'il y a peu de mots-clés en langue anglaise sur lesquels il est encore possible de générer du clic à 0,05 sur Google...

    Il est impossible de garantir le positionnement d'un site. Ceux qui s'y sont essayé ont depuis abandonné même étant les précurseurs de ce type de prestations.

    Il est impossible de garantir à 100% un positionnement, cela voudrait dire que l'on maïtrise à 100% les supports, donc en ce qui nous concerne les algos des moteurs.

    Mais même les prestataires qui utilisent cet argument commercial ne prétendent pas au 100% de réussite, loin de là :D

    Si tu observe les offres existantes dans ce domaine, la plupart concernent des objectifs ridicules et extrêmement faciles à atteindre.

    Comme je l'ai dit plus haut, la véritable valeur-ajoutée d'une prestation de référencement ne se situe pas à ce niveau. Heureusement pour le client ;)

  7. crois tu que la prestation "paiement au trafic" existe?

    Oui, bien sûr cela existe. En fait mon agence est loin d'être la seule à proposer ce type de formule.

    Sinon nouvelle donnee "sympa": j ai de nouvelles deadlines pour d'autres projets (achat d assurance en ligne par exemple) donc cool j ai plus le temps a consacrer a mon optimisation (arrggh!)

    Désolé ;) Mais en définitive, se documenter et comprendre le référencement n'est jamais du temps perdu. Même si au bout du compte, le référencement est confié plus tard à un prestataire, les connaissances acquises seront toujours très utiles !

  8. J'ai hésité avant de répondre, mais l'envie de donner mon avis sur ce point précis a été la plus forte...

    Si tu utilises une société de référencement, choisis-en une que tu payes (au moins en partie) aux résultats. Par résultats, j'entends positionnement sur la première page ou les x premières réponses des principaux moteurs sur tes mots-clés (la position à viser dépend du caractère + ou - compétitif de tes mots-clés).

    Loin de moi l'idée de dénigrer les confrères qui pratiquent ce genre de garanties de positionnement.

    Il m'est moi-même arrivé d'en proposer en quelques occasions à la demande de certains clients.

    Mais présenter ce genre de garanties comme du "paiement aux résultats" me semble très exagéré.

    Le positionnement n'est qu'un moyen, pas une finalité. Une fois positionné, il faut transformer. D'abord transformer en visites, puis transformer en ventes sur le site.

    Le nombre et le choix des mots-clés optimisés seront essentiels. Or, le corollaire habituel des garanties de positionnement est que cela incite les prestataires à la feignantise... Il va avoir tendance à restreindre le champ des mots-clés à un nombre plus restreint que ce que permet potentiellement le site, et/ou à "orienter" son client vers des mots-clés peu compétitifs qui feront certes plaisir à l'égo du dirigeant mais pas forcément à son carnet de commandes...

    Comme dit plus haut, j'ai parfois accepté (et toujours atteint) ce genre de garanties. Mais ce n'était pour moi qu'une manière de me rendre comparable vis à vis de l'un de mes concurrents, et je n'ai jamais cherché à faire croire à mes clients que la valeur-ajoutée de mes prestations se situait là.

    Une meilleure approche du "paiement aux résultats" me paraît être le paiement au trafic.

    C'est déjà plus concret, et surtout moins risqué pour le client.

    Ce genre de formule n'est pas envisageable pour tous les types de sites, mais pour un site tel que celui indiqué dans le profil de -ZN- cela me semble a priori possible et intéressant.

    Par rapport à l'investissement nécessaire en Pos-pub, les coûts d'un référencement payé au trafic seront sans comparaison...

    En regardant simplement sur la régie de Google, je vois des coûts par clic de ce genre là pour la 1ère place :

    health insurance - 9,36 $

    travel insurance - 8,71 $

    Difficile en effet de rentabiliser un investissement en liens sponsorisés dans ces conditions !

    Je ne doute pas que certains confrères seront en désaccord complet avec moi sur la question des garanties de positionnement, mais je veux bien en débattre publiquement avec eux s'ils le souhaitent. :)

  9. Oui, j'aimerais comprendre pourquoi il vous semble qu'un stemming anglophone est plus facilement réalisable qu'un stemming anglophone ?

    Parce qu'en français, la grammaire est plus complexe, et les différentes déclinaisons des pluriels/singuliers et féminin/masculin sont plus nombreuses.

    Cela augmente d'autant le nombre de suffixes possibles pour un mot de même racine.

    Il y a deux façons de faire du stemming :

    - la façon "feignante" qu'avait adoptée Infoseek à l'époque ; on ignore le suffixe et on renvoit tous les résultats possibles.

    Ce qui donne des erreurs sémantiques énormes, du genre une recherche pour "référencement" renvoit des résultats pour "référence"

    - le stemming sélectif, qui repose sur un certain filtrage, et donc des règles de troncature nécessairement basées sur chaque langue.

    Même cette forme de stemming n'est pas de l'analyse linguistique poussée.

    Le principe du stemming est certainement aussi vieux que l'invention des premières bases de données informatiques.

    Quant à la sémantique, elle ne peut pas exister sans analyse linguistique.

    Comment comprendre le sens d'un mot, si l'on ne connait pas d'abord sa langue ?

  10. L'incident est clos.

    Je ne sais pas si j'étais vraiment visé par le qualificatif de sectaire, mais après tout ça ne me vexe pas.

    Désolé par ailleurs si ma remarque avait vexé quelqu'un. Je n'ai en effet qu'exprimé un avis, sans réelle intention polémique.

    On ne va tout de même pas y passer le réveillon ...

    Tu as raison, ce serait dommage d'en rester là sur cette discussion.

    D'autres avis sur le stemming, la sémantique, les critères de Google ?

  11. Désolé, au vu de l'heure de mon post, il était assez tard et je devais être fatigué pour poster ça (bien que je le pense).

    A la place de Dan, j'aurais édité la dernière partie en cryptant davantage le nom du site en question.

  12. Google affirme utiliser le "stemming". Ca ne me semble pas encore très évident sur les termes francophones. Peut-être est-ce la raison pour laquelle florida et austin ont semblé "heurter" les sites anglophones plus violemment que les sites francophones.

    Possible... en fait, il me semble assez évident qu'un stemming selectif tel que veut le mener Google ne se fait pas de la même manière sur les pages anglophones et sur les pages d'autres langues.

    Pour l'anglais, les règles de stemming sont plus simples à mettre en oeuvre que pour le français par exemple.

    La seule chose qui me gêne est que quand on parle de stemming est qu'on dirait que c'est la grande nouveauté

    C'est une nouveauté pour Google en tous cas, pas depuis ce week-end mais depuis quelques mois déjà. Par contre, Google n'a effectivement pas inventé l'eau chaude. Altavista et Infoseek fonctionnaient depuis le début sur le principe du stemming. Et même eux n'avaient rien inventé puisque le stemming existait bien avant la naissance d'Internet.

    mais a priori, l'analyse sémantique, c'est depuis belle lurette la base d'un outil de recherche et encore plus de Google, non ?

    Pas d'accord sur ce point. L'introduction de critères sémantiques est vraiment un virage idéologico-technologique pour Google. Jusqu'ici ils ont toujours dénigré l'analyse sémantique comme une voie de recherche ininteressante.

    Leur conversion à la "sémantique" est donc étonnante. Reste à voir ce qu'ils mettent derrière ce mot.

    Pour moi, il n'existe qu'une seule définition au terme analyse sémantique : donner du "sens" aux mots.

    Les related links par exemple sont des sites ayant 'théoriquement' un contenu similaire, et il est d'autant plus intéressant de savoir que sur une requête donnée, un lien sur tous ces related links vers votre site vous propulse dans les tops Google.

    Tu mets l'accent avec les "related links" sur l'une des fonctions les plus obscures et en même temps les plus intéressantes de Google...

    A mon avis aussi, ce que nous cache Google de ce côté là est probablement extrêmement intéressant :)

    localrank

    Franchement, je pense que je vais arrêter de lire Webmaster World...

    Tous les vrais référenceurs ont déjà fui, et ça devient presque aussi vide de contenu que le forum W********** en France...

    <edit=Dan: évitons de tirer sur les ambulances ;) >

  13. C'est bien la première fois que je vois Googleguy parler autant que depuis quelques jours.

    Parler pour dire quelque chose en tous cas...

    D'habitude, la politique de Google était plutôt d'encourager toutes les rumeurs sans se prononcer sur aucune.

    C'est déjà une bonne nouvelle en soi, donc.

    Autre bonne nouvelle, l'introduction de critères sémantiques.

    Reste à voir maintenant ce que Google entend par "sémantique"...

    Paradoxalement, je n'ai jamais entendu autant de définitions différentes de ce mot que depuis quelques mois, dans le petit monde des moteurs de recherche.

    Quelqu'un a-t'il des idées sur les nouveaux critères utilisés par Google ?

    Aucune idée pour le moment.

    En tous cas, ce n'est pas l'introduction du stemming, qui me semble être déjà en place depuis novembre non ?

    Il n'y a peut-être pas d'ailleurs de nouveaux critères, juste une pondération différente des anciens.

    A propos du stemming, je me pose une question...

    Je réflechis tout haut, et il ne faut surtout pas prendre ce que je vais dire pour argent comptant.

    Et si c'était l'introduction du stemming en novembre qui avait provoqué la croyance en un "filtre" ?

    Après tout, les conséquences pratiques peuvent être les mêmes, surtout avec un mode de stemming aussi limité et incomplet que celui qui semble être en place sur Google actuellement.

    Le stemming est aussi une affaire de filtrage...

  14. Juste une petite remarque HS en passant...

    En tant que référenceur d'origine bretonne, je trouve qu'avec Brandy il y a du mieux dans le nommage des updates.

    A quand une update Cognac ou Calva ? :)

    Pour le reste, 100% d'accord avec Cariboo. Ou est l'amélioration des résultats ?

    Le buzz mené actuellement par quelques personnes sur WMW ne suffit pas à me convaincre...

  15. Les réponses de msn.fr semblent toujours provenir de la base inktomi...

    Les réponses de msn.com semblent provenir de ... ? On ne sait pas.

    C'est toujours Inktomi dans les deux cas, même si ce sont des clusters différents du moteur d'où quelques différences.

    Les différences peuvent venir aussi des résultats du Guide Web, un mini annuaire édité par MSN France qui n'est effectivement pas très à jour.

  16. Merci pour cette info,

    Les conclusions semblent claires en effet, mais il y a un petit souci quand même au niveau de la méthodologie du test.

    La quasi-identité de contenu des deux pages de test ne permet pas à mon avis de vérifier l'hypothèse.

    Google peut très bien avoir considéré la deuxième url comme un doublon de la première, ce qui expliquerait qu'il ne l'ait pas indexé malgré le fait qu'il la connaisse.

    http://www.google.fr/search?hl=fr&ie=UTF-8...echerche+Google

    En fait, il faudrait attendre que Google indexe cette page (s'il le fait un jour) pour pouvoir tirer une quelconque conclusion.

    En tous cas, il était utile de souligner avec justesse la forte ambiguïté d'une déclaration telle que "Underscores are not word seperators in google"...

  17. Sans vouloir être alarmiste, ca semble plus grave que prévu..

    Y a pas de raisons d'alarmer les gens :) L'update est pas finie et y a pas que du mauvais pour le moment je trouve :)

    Beaucoup de site qui arrivait à se positionner avec des techniques un peu agressive ont carrément perdu le positionnement de leur home bien que leurs pages internes soient toujours positionnées et présentes.

    Remarque intéressante. C'est vrai que pour les sites audités ce week-end, si je ne vois pas de révolution au niveau du classement, il y a quand même de grosses différences sur les 1ères urls présentées : moins de homepages et plus de pages internes.

    Peut-être une modification du mode de clustering ?

    Et apparemment, la cible est encore une fois les sites un peu trop optimisées ;-) ..

    Franchement, j'y crois pas. Ou alors ça voudrait dire que mes clients sont pas assez optimisés, ce qui me vexerait un peu ;)

    Bon, j'ai pas le temps d'investiguer davantage ce week-end pour cause d'avalanche d'appels entrants et autres appels d'offres ces derniers jours, mais je vais essayer de regarder ça de plus près dès que j'aurai plus de temps.

  18. Jan, tu as raison sur plusieurs points à mon avis :

    - les critiques vis à vis de Dmoz ne sont pas faites de façon concertée pour lui nuire

    - les webmasters non-inscrits dans Dmoz ont souvent tendance à râler

    - il n'y a pas de hasard (mais je n'en tire pas les mêmes conclusions que toi)

    - il n'y a aucun lien entre insécurité et sentiment d'insécurité (mais c'est un autre débat, et j'arrête là tout de suite pour ne pas me faire taper sur les doigts par Dan pour avoir exprimé des opinions poitiques ici :lol: )

    Selon toi, il y aurait une campagne médiatique calomnieuse anti-dmoz.

    Quels sont donc les medias impliqués ? Qui finance la campagne ?

    Franchement, je n'ai rien vu de tel... Et pourtant je suis plutôt bien informé en général.

    Je me souviens aussi que les critiques à l'egard de Yahoo étaient beaucoup plus féroces et plus nombreuses à une époque, lorsqu'ils ont pris le virage du référencement payant. Un choix qu'ils n'ont pas eu à regretter depuis au vu de leurs résultats financiers actuels...

    Et pourtant, je n'ai pas cru non plus à l'époque à un complot, ni à une campagne médiatique anti-Yahoo.

    Ce n'est pas parce que plusieurs personnes disent la même chose en même temps qu'ils sont forcément soit membres d'un complot, soit manipulés par les médias.

    Douter de tout et se poser des questions est une très bonne chose, mais il serait souhaitable d'avoir au moins un élément concret étayant ton opinion si tu souhaites que la discussion puisse s'engager sur ce thème.

×
×
  • Créer...