Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. Ca c'est dû plutôt au fait que toute campagne de pub traditionnelle hors internet sur une url échoue lamentablement... Les gens qui voient une pub à la télé pour un site internet "googlent" le nom de la marque, et ne tapent plus "www.mondomaine.com". Tant pis pour ceux qui communiquent sur des urls genre "www.mondomaine.com/promo.html" sur des 4x3, l'impact est encore plus faible. Il y'a eu des études qui démontrent ce phénomène. Et je l'ai vu fonctionner de près lors d'une récente campagne télé sur mon site. Concernant le Google Pulling, je suis sceptique sur l'utilisation pratique du concept en SEO. Soit il faut avoir beaucoup de disponibilités en temps, et beaucoup de moyens pour réagir correctement. Ou beaucoup de chance, l'exercice relevant du tricotage d'un pull over à la bonne taille sur le dos d'une mouche en plein vol (binoculaires de rigueur en plus). Ou plus exactement, d'une idée consistant à récupérer l'énergie des cyclones pour éclairer une ville (le problème, c'est que ces machins naissent où ils veulent, quand ils veulent pendant la bonne saison et passent où ils veulent). Dans le cas où on crée tout seul l'évènement, on retombe soit dans la comm traditionnelle, soit dans le gaspillage de moyens si on crée l'évènement juste pour une éphémère position sur les moteurs. Le "predictive SEO" est plus sûr et plus rentable.
  2. On parle d'éthique et de morale, je rappelle que ce n'est pas du tout la même chose. De quelle éthique parle-t'on d'ailleurs ? De l'éthique du référenceur à l'égard de son client ? De l'éthique du webmaster vis à vis des moteurs ? Ou de l'éthique du webmaster par rapport à son influence sur la portion du world wide web qui l'entoure ?. Le problème c'est que beaucoup donnent une réponse technique à cette question : telle technique, ça va. Telle autre, c'est pas bien. Or ce ne sont pas les techniques utilisées qui sont bien ou mal, ce sont les objectifs poursuivis. Les moteurs interdisent certaines techniques pour des raisons en général... techniques, pas morales. Rendre visible sur le net une page qui mérite d'être lue, cela ne devrait pas poser de problèmes... Créer du contenu automatique sans intérêt et polluer le web avec des pages pourries, cela n'enfreint aucune règle des moteurs, et pourtant. Ceci dit, ce n'est même pas si clair que ça : la fin ne justifie pas les moyens. Poursuivre un objectif louable ne permet pas d'utiliser certaines techniques, et surtout d'oublier les conséquences de ses actes pour d'autres. Ne l'oublions pas "l'enfer est pavé de bonnes intentions". Ce n'est pas tout à fait vrai. C'est vrai que c'est un réflexe conditionné chez les citoyens français aujourd'hui de demander toujours plus de législation, de textes, de lois etc... Et les parlementaires les suivent, car il se vote de plus en plus de lois, et que là où elles duraient trente ans jadis, il arrive fréquemment que certains articles survivent ... 3 mois. Sauf que dans de nombreux domaines, et c'est vrai notamment sur le net, il existe de grands principes juridiques, il existe un Code du Commerce et de nombreuses lois directement applicables sans qu'il soit besoin d'ajouter de nouveaux textes. Nul besoin de lois nouvelles pour attaquer un moteur pour violation du droit d'auteur, du droit des marques etc... Nul besoin de nouvelles lois pour attaquer un spammeur pour parasitisme, ou concurrence déloyale, etc... Plutôt que de faire de nouvelles lois, je préconise surtout que l'on donne des cours sur l'e-business à l'ENM, cela évitera les jugements étranges qui sont rendus ici et là par des magistrats ignorants des réalités sur le web.
  3. Disons aussi que certains (moi en tout cas) se sont accordés un "break" après le séminaire... J'ai un certain nombre sous le coude, je vais tâcher de les mettre en ligne incessamment sous peu. Avant de réattaquer sur le projet suivant
  4. J'ai suivi de loin ce débat passionné... Nous avons déjà eu ici, à plusieurs reprises, des débats souvent enflammés sur les notions de référencement éthique et de l'éthique dans le référencement... Cela m'amène à rappeler quelques conclusions tirées de ces débats précédents, et à rappeler quelques éléments parfois oubliés en route... D'abord, les moteurs actuels ne sont pas parfaits... Loin de là ! Sont-ils capables de classer correctement des pages en fonction de leur pertinence comme réponse à une requête donnée ? Non ! Il font du mieux qu'ils peuvent, mais le résultat n'est pas toujours probant. Il y'a deux raisons à cela : la pertinence est en partie une notion subjective (elle dépend du point de vue de l'internaute) et ensuite les moteurs les plus utilisés (au hasard Google) sont techniquement imparfaits. Résultat des courses : quand un moteur décide qu'une page est pertinente, il le fait sur des critères qui peuvent être pris en défaut. S'il y'avait une dizaine de moteurs différents se partageant le marché, utilisant une grande variété d'algorithmes, cela instaurerait un certain équilibre, et un site malmené par un moteur serait favorisé par un autre. Mais la prééminence de Google pose problème. Car un seul algorithme détermine les pages qui doivent apparaitre en premier. Or ce classement utilise des critères en fait assez étranges, car partant tous d'une hypothèse de départ fausse, dans l'absolu. Exemple 1 : les pages importantes sont celles qui reçoivent beaucoup de liens de la part d'autres pages. Ah ? Dans un WWW envahi par les pages dynamiques, la plupart des liens sont créés par des programmes, l'analogie de départ avec la bibliométrie (les articles importants sont ceux souvent cités par d'autres auteurs) est mise à mal. Les publicités par liens sponsorisés, les liens d'affiliation et autres fermes de liens polluent suffisamment ce critère pour le rendre suspect. En tout cas, il est sensible au spam Exemple 2 : les pages pertinentes sur une requête sont celles qui ont un score de similarité élevé avec cette requête (un pur calcul de linguistique statistique). Ah ? Ce serait vrai si les internautes cherchaient des pages similaires dans un moteur. C'est parfois vrai, mais dans la plupart des cas, ils cherchent une information... Or le critère de similarité ne garantit pas que l'information cherchée est dans la page. C'est seulement probable. Exemple 3 : une page dans laquelle les mots clés sont dans la balise <title> doit être classée avant une page dans laquelle ces mots sont absents. Ah ? La pertinence de la page aurait donc quelque chose à voir avec la compétence du webmaster ? Dans ces conditions, il est obligatoire que certaines pages de contenu qui pourraient pourtant bénéficier d'un consensus pour les juger pertinentes, soient mal classées par les moteurs. Quelle que soit la méthode utilisée, quand on "optimise" ce genre de pages pour les faire remonter dans les classements, cela ne pose pas de problèmes éthiques particuliers... Quand une boîte a utilisé Lotus Domino pour son site, et ne veut pas changer de technologie, à part les pages sat', quel est le problème à utiliser cette technique ? En fait il y'en a un : le moteur interdit cette technique ... Par contre le moteur n'interdit pas d'autres techniques, qu'il a même du mal à détecter et combattre, et qui permettent à des webmasters astucieux de squatter des positions avec des pages dont l'absence de pertinence ne fait pas débat. Le problème dans cette histoire, c'est que le moteur ne tient pas un discours très honnête. Un discours honnête, ce serait un truc du genre "euh... désolé, j'ai un peu de mal avec vos pages. En fait, c'est déjà assez compliqué pour moi de faire le tri et de classer vos pages quand vous ne trichez pas, alors de grâce, pas de spam... En plus j'ai vraiment du mal à détecter ces fichues pages de spam, alors tant pis : je vire tout ce qui ressemble à des pages sat'. Tant pis s'il y'a des gens honnêtes derrière, en général ce n'est pas le cas. Et pour les autres techniques ? Bah, y'en a plein qu'on détecte mal, alors là, on préfère tout laisser, sinon, on virerait plein de pages qui ne le méritent pas et on perdrait des parts de marché". Le discours véritablement tenu c'est plutôt : "Le spam, c'est mal. Notre moteur dispose d'un algorithme efficace, capable de trouver les pages pertinentes au milieu d'un web qui constitue la plus grande bibliothèque du monde que l'Humanité ait jamais connue. Notre mission est de faciliter l'accès à cette information pour les internautes du monde entier, mais cette quête est gênée par des individus déviants et amoraux qui polluent le web en utilisant des techniques malfaisantes et malhonnêtes." J'ai forcé le trait et caricaturé pour me faire comprendre. En matière de techniques de spam, les choses ne sont en général ni blanches ni noires mais plutôt entre le gris foncé et le gris anthracite... Dans le même temps le relativisme n'est pas non plus mon truc, et je pense que l'on peut aussi faire le tri entre ce qui doit être encouragé et combattu dans les pratiques de référencement. Mais il faut aussi comprendre que derrière les règles édictées par les moteurs, les notions de bien et de mal ne sont pas les seules en jeu : les enjeux économiques, et les carences techniques ont aussi un rôle important. Quand à l'avenir des pages sat' : je ne partage pas l'avis du journaliste. Google a fait un exemple, et en fera d'autres, mais comme pour la peine de mort, les "exemples" confortent surtout les honnêtes citoyens dans l'idée de ne pas "fauter", mais cela ne fait pas disparaître les problèmes de délinquance. En tout cas force est de constater que la technique marche toujours... Peut-être va t'on blacklister les "black hats", mais les "grey hats" ?
  5. Il n'y a pas de "pénalité" pour duplicate content. Il y'a élimination de pages similaires des pages de résultat, ça oui ! Si google trouve que deux pages sont identiques, il risque de les classer l'une après l'autre dans ses pages de résultats. C'est ce qui arrivait avec AltaVista au début : on tournait des pages et des pages de résultats, toutes identiques... Dans un tel cas, les moteurs choisissent l'une des deux pages pour la placer dans ses résultats. Le seul truc gênant, c'est que l'on ne maîtrise pas bien celle qui va apparaître (l'original ? La copie ?) La syndication de textes est une pratique ancienne, qui à mon avis ne pose aucun problème, sauf pour les gens qui se focalisent tellement sur les problèmes de référencement qu'ils en oublient certains fondamentaux. Déjà, le premier :le site doit plaire aux internautes, avant de plaire aux moteurs. Quand on a pas de contenu, difficile de faire un site intéressant. Quand on ne peut pas produire soi-même le contenu, il faut aller le chercher ailleurs. J'utilise au quotidien la réutilisation de contenus de partenaires, et je fournis du contenu "copié collé" à d'autres partenaires. Globalement, l'effet est positif, dans les deux cas !!
  6. Dans ma boîte, pour éviter ce genre de problèmes, j'ai fait annexer une "charte informatique" au règlement intérieur. Cette charte établit toutes les règles et règles du jeu concernant les systèmes informatiques et l'utilisation du mail et d'internet. Pour ton problème : dans l'absolu, on enregistre ce que l'on veut quasiment sur l'activité des salariés, la règle, c'est de prévenir les salariés qu'une surveillance est possible et que leur activité est contrôlée. Quand à une exploitation à des fins techniques : elle est possible, reconnue par les tribunaux comme indispensable, mais je l'ai mise noir sur blanc dans la charte informatique histoire d'être tranquille.
  7. J'ai cherché aussi de mon côté, et pour les mêmes raisons que Nicolas (et pour cause), et effectivement, je n'ai pas le souvenir d'avoir vu l'info sur des bases gratuites. A ma connaissance, on la trouve sur des bases payantes de l'IGN. Et sur certains sites d'université, mais sans licence d'exploitation autorisée.
  8. Si tu vois cet écran, c'est que ton installation s'est effectivement bien passée. Il faut que tu rentres le login/mot de passe que tu as choisis pour entrer dans l'interface d'administration, c'est tout Par contre cette page a l'air mal chargée, il manque des images et des textes ?!
  9. Ce n'est pas du tout interdit de poster un numéro de téléphone sur un forum, mais c'est de l'inconscience pure !! Si ce numéro de téléphone n'est pas le sien: alors on risque des poursuites, c'est différent. Si c'est le sien : on risque d'être dérangé par tous les tordus et farceurs de la planète, et dieu sait s'il y'en a... Sans compter qu'en cas de repentir, il y'a de fortes chances que Google, Yahoo ou Msn ait indexé le numéro, et le maintienne pour les générations futures dans leur cache... Bref, la politique de nombreux forums, c'est de virer tout ce qui ressemble de près ou de loin à des coordonnées, cela évite des ennuis aux membres...
  10. Oula ! Impossible de te répondre en moins de trois volumes de 500 pages. Pour te donner des réponses précises et pertinentes, il faudrait avoir accès à de nombreuses pièces et informations que tu ne fournis pas. En plus, on ne peut pas espérer avoir de consultations juridiques sur un forum : il y'a des avocats pour ça. Pourquoi pas, s'ils peuvent s'appuyer sur des éléments précis. Tout dépend du caractère formalisé ou non de cet "accord". Propriétaire ? Cela n'a pas le sens que tu lui donnes. Tu disposes des droits moraux sur le code et les éléments graphiques du site. Pour les droits patrimoniaux et notamment les droits d'exploitation, le deal : site gratuit contre inscription club fait que tu les as cédés au club (éventuellement provisoirement, mais je doute que ce point ait été clarifié par écrit). Bref, tu peux empêcher le club de toucher à ton code, et de le réutiliser.
  11. En fait, l'encodage qui posera le moins de problèmes à la plupart des utilisateurs (en France), c'est sûrement le iso 8859-1. Maintenant, c'est clair que proposer AUSSI l'UTF-8 est un bon choix, qui permet une portabilité dans de multiples autres langues. Quand au temps : à Paris il fait 7°, le temps est gris...
  12. Quelques unes, mais pour résumer, disons que ce produit n'est pas une grande réussite commerciale, et le projet a connu une certaine réduction de voilure. Mais Big Blue peut se le permettre. On risque de le voir réapparaître sous une autre forme dans quelques mois. Pour l'instant il sert d'outil de data mining pour quelques multinationales qui veulent faire de l'intelligence économique.
  13. Cette technique est au point, elle est utilisée par Google dans son système de "Personalized Search", qui est sortie de la version bêta depuis un certain temps maintenant. Ceci dit, cela ne fait pas de Google un moteur "thématique"... Ce que fait seekport est plus proche probablement de ce que tu cherches ... Cela fonctionne à l'aide d'un algorithme de clustering et d'un corpus d'entrainement. Genre folksonomie ? C'est une possibilité, mais la classification directe est souvent suffisante. Le "tag" n'est intéressant que s'il est placé par les sites eux mêmes, et là, entre ceux qui s'en fichent et ceux qui mettent n'importe quoi dans les balises ...
  14. Ces sites communiquent une info qui sort des fichiers xml accessibles via l'API de Google... Le problème c'est que, bien que certains prétendent qu'il s'agit du futur pagerank, je n'ai jamais vu une démonstration sérieuse du caractère prédictif de cette valeur... En fait, les baisses et hausses annoncées ont plutôt tendance à ne jamais se confirmer. Pour connaître ton futur pagerank, ton astrologue préféré sera de meilleur conseil (c'est pour dire ) Il est probable que cette valeur corresponde à autre chose... Quoi ? Mystère ou presque...
  15. Non, rien d'officiel. En plus nous sommes en France, le 1er amendement n'existe pas ici. Dans la pratique, oui, c'est l'usage. Ce pouvoir n'est pas exorbitant. Un forum n'est pas tout à fait un espace public. Il s'agit d'un support d'initiative privée, qui permet de publier sur un espace dont l'admin est responsable (avec ce que cela suppose d'obligation de police), des messages publiés par une communauté, en respectant une charte dont l'objectif est de fixer des règles. C'est autre chose. Proférer des propos insultants à l'égard d'une persone est un délit. La grossièreté, non. Non, ce n'est pas le far west. Le forum est un espace privé, qui appartient à quelqu'un. Si ce quelqu'un estime que tu n'es pas le bienvenu, c'est son droit de ne pas t'accepter chez lui. Y compris si ce pouvoir de police a été délégué à un modérateur peu diplomate. Ce qui te reste à faire, c'est : - de créer ton blog ou ton propre forum (au moins tu seras chez toi) - ou d'aller rejoindre une communauté dans laquelle tu seras plus en phase
  16. Même réponse que Dan. Dans l'absolu : aucun facteur bloquant Par contre, dans certains cas, ce genre de situation peut avoir des effets de bords sur la transmission de PR, et le PR interne. Il faut faire attention aux liens internes figurant sur tes pages rubriques et ta page "pomme". Le problème n'affectant pas la page pomme, mais pouvant induire un PR trop faible de tes pages rubriques...
  17. Dans la position actuelle de Google en france, il y'a une grande part d'irrationnel. La suprématie n'est pas la même ailleurs : notamment aux états unis, là bas Yahoo et MSN ont plus que des parts de marché symboliques. Donc il peut se passer des choses... Il suffit juste que le buzz positif s'arrête autour de Google. Aujourd'hui, tout le monde dit "Google, Google, Google ... La recherche sur internet, c'est google ! Le meilleur moteur de recherche, c'est Google etc..." Exalead est à l'heure actuelle au coeur du projet Quaero. Ce qui leur permet de bénéficier d'une campagne de comm' sans précédent !! En fait, l'agence de comm chez Exalead, c'est devenu un certain... Jacques Chirac ! Et ça marche... Et tout le monde parle d'un projet qui n'existe pas
  18. Intéressant. C'est vrai que dans ce contexte, Franck Poisson doit avoir l'impression de passer à l'ennemi, tant on oppose, jusqu'à l'absurde, les deux moteurs
  19. Les grosses différences sont dans le paramétrage et la configuration, pas trop au niveau du code... Ensuite, comme ton hébergeur l'explique, il faut tenir compte des spécificités des deux OS... Et là, cela influence le code. Par exemple : la syntaxe des "paths" (chemins d'accès) est très différente !! Par contre je déconseille d'utiliser php avec IIS. Ca marche, mais tu vas être confronté à des problèmes de performances et de particularismes mal documentés. Le couplé gagnant, c'est php avec Apache version Win32.
  20. Réponse : dans l'absolu non... Dans la pratique : oui, car on se sent un peu plus seul ! Difficile de trouver des ressources pour savoir comment faire de l'url rewriting, éviter les sessions dans les urls et autres broutilles.
  21. Tu peux effectivement poser tes questions sur le forum, en principe tu auras un certain nombre de réponses. Regarde aussi les bibliographies sur mes articles dans la partie publications... C'est une porte d'entrée vers de très nombreuses lectures sur le sujet (les articles ont eux aussi une bibliographie, qui mentionnent des articles ayant une bibliographie...) Pour trouver les articles : Google est ton ami.
  22. Je confirme que j'utilise cela de manière industrielle, aucun problème... Par contre je déconseille l'utilisation de l'invocation dans une iframe dans phpadsnew si le serveur est local. Au niveau performances, l'idéal est l'invocation locale... Si on ne peut pas faire d'invocations locales, le mieux est une invocation javascript. Adsense marche très dans ce contexte. Avec les iframes, il a du mal parfois.
  23. On utilise une div cachée que l'on fait apparaître ou disparaître, c'est fait en DHTML (HTML + javascript).
  24. Les changements sur la commande site démontre que google permet de faire des requêtes complexes sur les pages d'un domaine donné : avant on pouvait faire : site:www.domaine.com site:smurtz.domaine.com mais pas site:www.domaine.com/rep1/ ! Maintenant ça marche Autre chose, certaines syntaxes ne marchaient pas autrefois dans la commande site, maintenant oui.
  25. J'ai l'impression que le principal changement visible dans Bigdaddy, c'est la taille de l'index... Ces datacenters sont ceux sur lesquels on avait observé en décembre une inflation considérable du nombre de résultats, qui laisse penser que l'index de google dépasserait maintenant les 20-25 milliards de pages (en tout cas comme c'est invérifiable, disons que c'est ce google semble vouloir que l'on croie) Cela a probablement nécessité une refonte de leurs datacenters.
×
×
  • Créer...