Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. Je relève deux réflexions de fond présentes transversalement dans les posts de Stéphane et de Cendrillon. Tout d'abord, définir le code de déontologie devient plus difficile si l'on prend conscience que le métier de référenceur a des contours flous, a connu une évolution rapide dans le passé, et évoluera encore dans le futur... Or, il est clair que le métier de référenceur évoluera avec le web, et avec les outils de recherche, qui ne seront pas dans dix ans ce qu'ils sont aujourd'hui... Il y'a deux aspects dans le "référencement", un mot qui à mon avis perd petit à petit tout de son sens initial. Un aspect technique, et un aspect "marketing/communication". L'aspect technique est totalement tributaire de l'évolution technique extrêmement rapide du web, et de l'évolution encore plus rapide des outils de recherche... L'optimisation des pages webs aujourd'hui est un besoin, parce que les algos des moteurs de recherche ont des limites coupables... Mais demain ? L'aspect "marketing/communication", alias les méthodes de "génération de trafic", est lui, en passe de se développer et de durer à mon avis... Bref, il faut sans doute prendre garde à ne pas établir de règles dépassées, et au contraire chercher à se projeter dans l'avenir. Ensuite, Cendrillon souligne avec force que le code de déontologie ne résout pas les problèmes de fond. C'est juste, le code de déontologie ne sert : - que comme outil de communication pour une profession "déconsidérée" - comme "règles internes" pour une organisation professionnelle, pour crédibiliser cette organisation vis à vis des clients et partenaires. Enfin, un code de déontologie est une "machine à exclure" ceux qui ne jouent pas selon les règles jugées économiquement viables par la profession, ou qui nuisent à son développement. En ce sens, c'est un outil utile. Mais cela ne résout sans doute pas les problèmes de fond...
  2. Gilbert, je crois que si ta question n'a pas de réponse, c'est parce que j'ai la nette impression que les acteurs les plus concernés sont "gênés" pour effectuer des démarches. D'abord il y'a OR et OR. Stéphane a raison de souligner que dans ce domaine il y'a Google et les autres. Les autres OR entretiennent des relations avec les référenceurs, collaborent avec eux, ont une "politique" claire vis à vis de la profession. Si un référenceur cherche un interlocuteur chez eux, il en trouvera un sans difficulté. Pour Google, c'est moins simple : officiellement, les SEO sont souvent des escrocs dont il faut se méfier, optimiser son référencement ne sert à rien. Evidemment, une fois que l'on a écrit cela sur son site, accepter le dialogue avec les SEO, c'est un peu se contredire... Par ailleurs, l'équipe réduite (essentiellement une délégation commerciale) de Google France est mal armée pour répondre, parce que la politique qu'elle applique, jusqu'à une époque récente, se décidait à Mountain View. Ceci dit, pour répondre à une question, encore faut-il qu'on vous la pose... Je soupçonne nombre des acteurs de brûler de s'adresser directement et individuellement à Google. Certains l'on fait. Mais rien ne les oblige à communiquer sur les réponses de Google, ni de filer des "tuyaux" à leurs confrères qui restent avant tout des concurrents. Le problème, c'est que le "rapport de forces" est très en faveur de Google... Un SEO isolé peut quémander (pour ne pas dire "mendier") des réponses, ou un traitement de faveur. Il est possible qu'il en obtiendra. Mais ce sera plus par "charité chrétienne" de la part de Google, pour ne pas laisser croire qu'ils veulent "la mort du petit cheval", que par calcul, ou par intérêt... Or dans le monde des affaires, ce qui ne marche pas par calcul et par intérêt, résiste mal à l'épreuve du temps et des comptes de fin d'année... Bon maintenant, mettons nous à la place d'un outil de recherche, et demandons nous quelle image de la profession il peut avoir ... Une image de professionnels unis, solidaires ? Euh... Une image de gens qui savent ce qu'ils veulent ? Euh... Une image de profession structurée, avec des organisations représentatives, et des représentants qui peuvent parler au nom de la profession ? Euh... Bref, il y'a du boulot de ce côté là. J'ai l'impression que les référenceurs prennent conscience de ces problèmes avec acuité, et que des changements rapides sont en marche. Mais y'a un sacré boulot quand même... Tout cela pour dire que pour qu'un dialogue s'instaure, il faut être deux, deux à vouloir ou devoir dialoguer, et deux, cela ne signifie pas un d'un côté et 348 individus de l'autre... Bref, le préalable à ce dialogue c'est que les organisations représentatives de votre profession fonctionnent... Il y'a un passé à faire oublier là !
  3. Les spiders sont conçus pour n'indexer que ce qui leur est utile, donc le code inutile est tout simplement ignoré , quelle que soit leur importance dans la page... Ensuite, certaines balises permettant de "hiérarchiser" le contenu comme <H1> sont exploitées, mais on est loin du web sémantique là ! C'est plutôt une survivance des premiers algos qui tournaient il y'a dix ans sur des pages sans mise en page sophistiquée... Les moteurs ont jusqu'ici surtout cherché à référencer plus de pages, ce qui produit un "nivellement par le bas". Histoire de ne pas favoriser le contenu "conforme" dans un web encore majoritairement "non conforme", les critères retenus sont compatibles avec le code contenu dans 95% des pages web. Donc, même s'il est logique de penser que les pages aux normes W3C sont plus faciles à indexer, et qu'un moteur les indexe mieux, il ne faut pas oublier que le problème du "classement" des pages est au coeur des algos des moteurs. Et que favoriser ces pages pose plus de problèmes que cela n'en résout... Ceci explique cela... Par ailleurs, je confirme à narcisse que, si le thème du site le permet, créer un contenu riche, aidé par une bonne structure de liens internes et de nombreux liens externes de qualité suffit à faire des merveilles... Après il y'a des trucs, des "rustines", mais la méthode "organique" donne les résultats les plus fiables et les plus durables... Mais c'est du boulot, et il faut être sacrément patient.
  4. Avant que l'on reparte sur un débat stérile sur la nécessité de passer ou non aux CSS et au XHTML, il faut bien dire que pour l'instant, en ce qui concerne le référencement, que l'on respecte les normes ou pas, on ne voit pas beaucoup de différences... En fait on n'en voit pas du tout. En clair, il faut éviter de faire des erreurs de HTML, mais les spiders se fichent pas mal de savoir si le code est valide W3C ou pas... C'est normal, parce qu'ils sont faits pour aspirer TOUTES les pages, y compris les pages bourrées d'erreurs ... Il y'a tellement de pages non "conformes" que si Google décidait de n'indexer que celles qui passent au validateur, il ne resterait plus grand chose à se mettre sous la dent dans l'index ! Cela changera peut-être un jour, mais pour l'instant, telle est la situation.
  5. Je ne sais pas s'il se remet à zéro. Depuis novembre 2003, j'ai toujours dépassé le seuil tous les mois donc je ne peux pas te le dire. En tout cas, si je regarde mes stats depuis les origines, il ne me remet rien à zéro. Par contre les paiements correspondent bien aux montants calculés pendant le mois précédent. Pas de problème de ce côté là.
  6. J'ai mis en ligne la suite et la fin de ce long article sur CIRCA et Adsense (je vais enfin pouvoir passer à autre chose ). Adsense en action Dans cet article, je fais quelques expériences pour montrer les limites du système Adsense, et pour mieux comprendre pourquoi la pertinence des annonces est un problème plus compliqué qu'il n'y parait. Au passage, on apprend que Google semble avoir "thématisé" de très nombreux sites... et pas seulement ceux qui adhèrent au programme.
  7. La mise en paiement est automatique. Si tu as dépassé le seuil des 100 $ avant le 31 août, ton chèque a été envoyé aux alentours du 15 septembre, et mettra de une à trois semaines à te parvenir. Il est donc peut-être normal que tu n'aies encore rien reçu.
  8. La version 1.8.2 ? Elle n'est pas encore stable, cela n'a rien d'étonnant... C'est une version de développement, mieux vaut attendre un peu effectivement... Mais ton retour d'expérience est intéressant...
  9. Ton analogie est intéressante Cendrillon, car je pense qu'effectivement l'un des principaux problèmes que rencontrent les référenceurs, c'est le fait que leur métier se greffe sur des "technologies" en pleine évolution et qui ne sont pas arrivées à maturité. Par contre la "mauvaise réputation" des référenceurs pro et les débats actuels me rappellent aussi un peu le cas des agents immobiliers (profession que je connais pour l'avoir exercée dans une autre vie) qui avaient jadis d'énormes problèmes d'image, et qui ont réclamé et obtenu une législation contraignante pour l'accès à la profession avec une carte professionnelle (la loi Hoguet, entrée en vigueur en 1970) pour qu'on arrête de les considérer comme des escrocs... 34 ans plus tard, la profession a toujours des problèmes d'image ! (euh, je suis conscient que mon exemple est démoralisant ) Mais tout cela incite à penser qu'il est interessant de se projeter dans l'avenir, et se demander ce que sera ce métier demain... (dans deux ou trois ans, dans 34 ans, je me demande si ce métier existera toujours... )
  10. Ce post est ouvert pour lancer une réflexion sur les relations des référenceurs avec les outils de recherche. Les règles particulières de fonctionnement de ce sujet sont rappelées sur ce post Ce post s'inscrit dans la continuité directe de celui lancé par Gilbert Wayenborgh : Référencement -Outils de recherches, Etablir des relations Les évènements récents ont montré que l'absence d'interlocuteurs pour les référenceurs professionnels, notamment chez Google, pouvait causer malentendus et problèmes... Par ailleurs, comment travailler avec des outils de recherche qui ont des politiques différentes vis à vis du spam, voire des politiques fluctuantes et qui ne définissent pas le spam de la même façon (voire ne le définissent pas tout court). Quelle attitude avoir lorsque les outils de recherche contribuent à développer la mauvaise image des référenceurs professionnels ? Que peuvent apporter les référenceurs professionnels aux outils de recherche. Comment faire en sorte que les OR ne considèrent pas les SEO comme des parasites, des "hackers" d'algo, des "pollueurs d'index", mais comme des partenaires économiques contribuant au développement d'un marché dans une relation "gagnant - gagnant" ? Et pour reposer l'excellente question de Gilbert, comment amener les outils de recherche au dialogue (avant même de penser à une quelconque négociation).
  11. Ce post est ouvert pour lancer une réflexion sur un code de déontologie. Les règles particulières de fonctionnement de ce sujet sont rappelées sur ce post A mon grand étonnement, je vois que les professionnels du référencement en sont encore à parler d'un code de déontologie commun, alors qu'il en existe un défendu par l'IPEA, et un autre, adopté par l'association SEMA 7. Le code de déontologie de l'IPEA La définition du spam selon l'IPEA La charte de déontologie de l'association SEMA7 La lecture de ces "codes" et de ces "chartes" révèle : - de nombreux points communs - des différences, parfois subtiles J'ai déjà entendu de nombreuses critiques à propos du code de l'IPEA (mais ces critiques visent elles véritablement le texte, ou ses auteurs, ou l'organisation ?). Je ne sais pas si la charte de SEMA7 est réellement utilisée par les professionnels (j'ai l'impression que les membres ont tendance à promouvoir leur code de déontologie propre). Que pensez-vous de ces textes ? Sont-ils applicables ? Si non, quels sont les points qui posent problème ? Pensez-vous qu'il est utile que les professionnels respectent un code de déontologie commun ? Si oui, qu'en faire et comment le faire respecter ?
  12. Dans l'absolu, si les entreprises étaient capables de tout réaliser du premier coup de manière parfaite, il y'aurait des dizaines de types de consultants au chômage : conseils en communication, en gestion des ressources humaines, en organisation, en marketing... Il y'a un vrai business pour les "pompiers" capables d'intervenir sur des dossiers mal montés... Les référenceurs n'étant que l'un des nombreux types de "médecins" capables d'intervenir sur des projets "malades". Bref, je ne crois pas que demain, toutes les entreprises penseront à intégrer toutes les problématiques en amont. Certaines agiront toujours avant de réfléchir, et, suivant le vieil adage selon lequel "un con qui marche va plus loin qu'un intellectuel assis", ces boîtes là sont souvent celles qui réussissent ! Ton post, Cendrillon, a le mérite de poser indirectement une question de fond : c'est quoi le métier de référenceur ? David Degrelle remarquait à juste titre que tout le monde n'avait pas la même conception de ce métier. Et si le métier tel qu'il était couramment pratiqué était condamné à évoluer drastiquement ? Un métier se caractérise notamment par les techniques utilisées : un ramoneur ramone, un référenceur référence, mais qu'est ce que cela veut dire référencer ? Le sens d'origine ne décrit déjà plus la réalité de ce métier ! Les anglo-saxons parlent de SEO : optimisation pour les moteurs de recherche. C'est déjà très différent. Mais si demain plus personne ne crée de sites miroirs, de pages satellites, de doorway etc... que devient cette profession ? Si l'on élimine l'utilisation des techniques qui sont propres à cette profession, le métier de référenceur commence à avoir des contours flous, et empiète sur le web-marketing ou le consulting en génération de trafic...
  13. Voici un lien vers la transcription du chat du Journal du Net avec Jean-Pierre Eskenazi (Netbooster). http://www.journaldunet.com/chat/retrans/0..._eskenazi.shtml
  14. Merci David pour ce post très intéressant... Il ouvre de nombreuses pistes de débat, et annonce sans doute le début d'une réflexion sur certains problèmes de fond. La communication de crise est un art très, très difficile... Je ne suis pas surpris que dans cette situation, quelqu'un se prenne les pieds dans le tapis. Ma boîte aussi est mal préparée à cela, ce qui est un sujet d'inquiétude pour moi. Je suis en fait plus surpris que vous n'ayez pas plus tôt décidé de "lutter" contre les rumeurs de blacklistage, qui elles se répandaient dans la "communauté" du référencement depuis des semaines... Le communiqué de l'IPEA est arrivé sur un terreau particulièrement fertile, et n'a fait qu'accréditer (officialiser) ces rumeurs. Le résultat, c'est que tout le monde a pris cela pour argent comptant, et que le doute subsiste encore aujourd'hui. En tant que "client", ce que je vois, ce sont effectivement des gens différents, et c'est clair que quand on s'adresse à des consultants indépendants et à Netbooster, on a la certitude qu'ils ne font pas le même métier. Pour les règles déontologiques : je trouve cela hélas inévitable. Tant que votre métier ne sera pas organisé, et tant que nulle organisation n'aura la possibilité d'imposer un code déontologique, il y'aura autant de codes de déontologie que de sociétés de référencement. Si l'on peut faire avancer le schmilblick, ce sera avec joie. Il est clair que notre décision de créer un forum sur le référencement professionnel a été prise en constatant que de nombreux référenceurs cherchaient, dans cette situation de crise, des espaces de débats dépassionnés. En ce qui concerne le code de déontologie, nous allons lancer deux sujets ce week end pour susciter un débat sur les relations moteurs/référenceurs/référencés d'une part, et sur les relations référenceurs/clients d'autres part. Je partage cette impression, et c'est un vrai problème... Comment faire changer certaines choses quand les référenceurs américains acceptent sans sourciller certains modes de fonctionnement qui peuvent amener à des dérives préjudiciables ? Ce que je fustige, ce n'est pas tant les annonces opportunes qui donnent l'impression d'une "conversion" tardive et intéressée, que le discours lui même en fait sur le "référencement éthique"... Mais ce débat est inabordable sur un forum anglosaxon : d'abord parce que "ethic" ne recouvre pas du tout la même chose pour un américain (surtout protestant) que pour un français (surtout catholique), et que nos amis américains sont majoritairement, comme tu l'as noté, au degré zéro de la réflexion sur certains problèmes. Je trouve dangereux de manipuler les notions d'éthique et de morale à propos des problématiques liées au référencement. Car cela recèle de nombreux pièges... Notamment cela ouvre un boulevard au discours des moteurs sur "l'intérêt supérieur des internautes", et sur les notions de ce qui est "bien" ou "mal" dans les index... On peut élaborer des codes de déontologie vis à vis des clients. Promouvoir une "éthique professionnelle". Définir un code de bonne conduite avec les moteurs... Ces codes de déontologie existent, de manière formalisée ou non, dans la plupart des professions... Mais l'insistance des référenceurs à parler d'éthique à chaque mot révèle un malaise, accrédite l'idée qu'il y'a un problème. Et s'il faut se démarquer en disant "moi je suis honnête, mes confrères sont des voleurs", c'est à la fois un constat d'échec, et une manière de confirmer que, oui, il y'a un vrai problème avec les référenceurs... Ce qui pose problème, c'est le glissement régulier entre "éthique professionnelle" (ne pas faire prendre de risques à ses clients, préserver ses intérêts, respecter la réglementation, etc... etc...) et les références morales simplistes : "les pages sat', c'est mal !", "sites mirroir : pas bien", "cloaking : péché mortel". Tout cela occulte les vraies questions qui sont avant tout techniques et économiques. Qui plus est, le "référencement éthique", c'est comme le "commerce équitable" : cela part d'un bon sentiment, mais cela finit par devenir du marketing. Du référencement "Max Havelaar". La profession ne s'assainira pas avec des mots... Notez bien que je parle du discours sur le "référencement éthique" dans ses versions diverses et variées... Le "Webmarketing éthique" que prone David est un autre sujet. Voilà qui est vraiment dommage... J'espère que l'on parviendra a maintenir sur le Hub suffisamment de sérénité dans ce débat et éviter les polémiques stériles et les attaques personnelles. Bref j'espère que le climat t'incitera au contraire à nous faire profiter de tes réflexions.
  15. Euh, grosse, cela veut dire quoi pour toi, en méga octets ? L'un des principaux problèmes avec les hébergeurs Linux/Apache/PHP/Mysql, c'est que la plupart ne permettent pas les connexions distantes à la base (uniquement à l'hôte localhost). C'est logique parce que l'accès possible par des utilisateurs distants pose de sérieux problèmes de sécurité.
  16. Selon les informations que tu donnes, tu n'es pas victime d'un blacklistage, et sans doute pas d'une pénalité... Certaines de tes pages ont peut-être disparu pour cause de "duplicate content". Qui plus est, google a de fréquents problèmes avec l'indexation des pages d'accueil... Donc, à ta place, j'attendrais quelques semaines pour voir si la page index ne retrouve pas son PR dans quelque temps, ce qui est probable... Et je continuerais à travailler mon référencement, parce qu'un PR de 3 ne permet pas de "lutter" contre des concurrents aux pages mieux optimisées que les tiennes...
  17. Un commentaire dans un article de 01.net sur la conversion au référencement organique et éthique de 1ère Position... http://www.01net.com/article/251709.html La Société Première position est donc devenue "Agence de WebMarketing éthique", qu'on se le dise...
  18. En tout cas merci pour l'info Dan, cela m'a permis d'acquérir (en catastrophe) une licence "à vie" d'Invision, à un tarif "promo". J'ai un projet de forum a installer en novembre derrière un de mes sites, sans cela, je me serais réveillé trop tard... Il n'y a pas de petites économies...
  19. J'ai peur de ne l'avoir jamais publié cet article Je viens de le mettre en ligne... Il n'est pas fini, mais presque. Cela m'apprendra à laisser des chantiers en plan pendant près d'un an !
  20. Oui, Pierre en fait tu as parfaitement compris... Les outils statistiques linguistiques dont tu parles ne sont que des suites de chiffres alignés derrières des lemmes, des lexèmes , ou des flexions... La linguistique n'étudie en aucun cas par contre le "sens", c'est l'objet de la sémantique. La linguistique n'étudie que la langue (sa grammaire, sa syntaxe, ses mots), pas à quoi sert la langue. La sémantique est d'ailleurs une science bizarre, car étudier le "sens" crée vite des effets d'abyme, isoler le sens des signes qui le représentent quand on utilise les mêmes signes pour parler d'isoler le sens des signes qui le représentent, c'est un joli casse tête d'épistémologiste Les outils sémantiques utilisés dans CIRCA ne font que mesurer la probabilité pour que des mots aient tel sens ou tel autre, ou la similarité avec des concepts stockés dans l'ontologie sous forme de triplets (mots, sens, syntagmes). Bref, tous ces outils sont complètement idiots. Il faut un travail de fourmi de linguistes pour réaliser une ontologie solide dans un premier temps, ensuite le système "apprend tout seul". Chez Applied Semantics, ils appellent cela "l'extension mécanique de l'ontologie". CIRCA est un système capable de déterminer le sujet abordé dans un texte. Il le "détermine", il ne le "comprend" pas. En fait, il le détermine le plus souvent, pas toujours, car il ne sait pas résoudre tous les cas ambigus... Pour cela, il faudrait un corpus de taille infinie (et encore, l'infini de aleph1 probablement, un infini indénombrable), et des machines capables de calculer sur des corpus infinis. Par contre, les humains "comprennent" le thème abordé, même s'il est ambigu. Mais le problème n'est pas de "comprendre" le contenu, mais de le "catégoriser". Dans ce domaine, les expériences menées ont démontré que la machine est (contrairement à ce que l'on pourrait penser) beaucoup plus efficace qu'un opérateur humain... Et je suis d'accord avec toi, Pierre, pour m'étonner que ces techniques ne soient pas plus utilisées... Je pense qu'il ne faut pas trop chercher l'explication : c'est une technologie qui arrive lentement à maturité. On la verra exploser dans quelque temps, et tout le monde mettra les espaces vectoriels de Salton à toutes les sauces...
  21. CIRCA, c'est une ontologie + des stats de fréquence + des probabilités de co-occurence. Donc il y'a beaucoup de stats dans l'appli. Les stats "linguistiques" contribuent à la catégorisation syntaxique dans CIRCA, mais faiblement à la désambiguation sémantique. Pour la désambiguation sémantique, les probabilités de co-occurence et la mesure de la connectivité sont beaucoup plus utiles. Je pense rédiger un article sur le sujet, car il a des applications directes nombreuses en matière de référencement et en technique de recherche d'informations... Non, pas du tout. Ce sont des relations sémantiques, ce n'est pas de la linguistique. Pour info, la recherche française dans ce domaine est très, très pointue... Ce qui pèche, comme d'habitude, c'est la recherche appliquée.
  22. Il semble que le SEMA7 ait déja tiré les bonnes conclusions... Le premier communiqué "officiel" du SEMA7 sur le sujet me semble aller dans la bonne direction : http://www.categorynet.com/fr/cp/details.php?id=54741 Un nouvel article dans VNUnet.fr à propos des suites de la réunion du 23/09 : http://www.vnunet.fr/actualite/e-business/.../ent/index.html
  23. Je viens de mettre en ligne la seconde partie de l'article... "Principes de la technologie CIRCA" Je suis assez conscient du caractère parfois indigeste de cette prose... Désolé, j'ai essayé de faire simple, mais je crois que cela reste quand même pas très passionnant pour le newbie et le webmaster qui ne s'intéresse pas aux outils linguistiques, ce qui doit bien représenter 95% de nos membres... On va essayer de se rattraper sur la troisième partie, dans laquelle on répondra aux trois questions suivantes : - comment fonctionne Adsense ? - pourquoi Adsense peut avoir du mal à "catégoriser" une page - et y'a-t'il moyen d'optimiser ses pages pour adsense ?
  24. Cet article démontre que les sociétés de référencement doivent apprendre à utiliser les médias ... Netbooster via l'IPEA contribue à surmédiatiser ses propres problèmes : est-ce une bonne tactique ? Quels dégâts cela fait-il à son image ? Quel est l'enjeu le plus important : stigmatiser Google, ou conserver la confiance de ses clients ? Quant aux autres : il semble que l'écran de fumée qu'ils ont créé la semaine dernière est à présent dissipé, et que les journalistes vont recommencer à les associer à l'"affaire Netbooster". C'est un joli cas d'étude à proposer pour une école de relations presse...
  25. Un lien vers le communiqué de l'IPEA suite à la réunion du 23 septembre : http://www.emarrakech.info/index.php?actio...d_rubrique=8306
×
×
  • Créer...