Aller au contenu

Cariboo

Membre+
  • Compteur de contenus

    3 376
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Cariboo

  1. Il y'a de fortes chances que ce test suive le même chemin que de nombreux tests d'interface que Google fait depuis quelque temps : celui de la poubelle.
  2. Je ne demande les stats que si un site me propose "une semaine de présence sur la home" par exemple. Mais je fais plus confiance à Nielsen Netratings, voire Alexa, qu'aux stats editeur. Donc, comme je n'ai jamais confiance, je préfère : - n'acheter que des campagnes au CPM, CPC, CPL comme ça, je ne paie que ce qui est réellement délivré (100000 affichages, clics, ou formulaires) - toujours remettre un code d'invocation, et jamais les bannières elle même, comme cela je mesure moi-même les affichages avec mon outil (phpadsnew est idéal pour ça) Avec ces règles là, tant pis si le webmaster a "gonflé" ses chiffres, tu ne peux pas être floué.
  3. Je plussoie aussi... Spip, jusqu'à la 1.8, permettait de créer des squelettes valides, mais certaines balises utilisées dans le code généré pour présenter la base d'articles (ex le contenu de #TEXTE) empêchaient (parfois, pas toujours) d'avoir un code valide XHTML strict. Ce problème est résolu avec la 1.8, donc il faut arrêter de critiquer SPIP sur ce point... Il reste, mais c'est la même chose dans Dotclear par exemple, que si on rentre à la main du code html pourri dans la base, ce code pourri ressort : "garbage in, garbage out" On me conseille régulièrement de passer à un autre CMS. Tous les magnifiques CMS que l'on m'a proposé pour l'instant ont un défaut : soit ils ne savent générer que des pages trop statiques, soit ils sont "dynamiques" mais quand il s'agit de servir des pages à 40 000 visiteurs par jour, ils ont un peu tendance à mettre le serveur à genoux. J'ai quand même l'impression que SPIP est surtout victime son succès, que certains aiment bien brûler ce qu'ils ont adoré, préférer le CMS obscur sorti d'on ne sait où, à une solution que n'importe quel webmaster béotien utilise (sacrilège). En environnement de production, mieux vaut utiliser une solution stable, bien connue, bien maîtrisée, capable de tenir la charge, que de faire des expériences avec des outils nouveaux mais dont on ne sait pas si l'équipe de développement sera encore là dans six mois...
  4. Si c'est une transaction en bonne et due forme (attention, une transaction, pour être valable, doit respecter une forme précise), les parties ne peuvent pas derrière engager des poursuites civiles contre l'autre partie. Les tribunaux rejetteront la requête. C'est le principe de la transaction. Par ailleurs, on ne peut pas obliger la partie adverse à fournir ses "preuves", sauf dans le cadre d'une procédure. Pour info, on peut "démonter" un constat d'huissier mal fait sur internet devant un tribunal. La plupart des huissiers sont des buses en informatique, et ne prennent pas les précautions les plus élémentaires. Avec un avocat futé, on peut démontrer que la soit disant preuve ... ne prouve rien. Dans certaines affaires, j'ai dû communiquer la procédure technique à respecter à l'huissier pour "prouver" que je visionne un site donné, pas un proxy, pas une page en cache, etc... Et cela a pourtant donné lieu à une bataille d'arguments techniques devant des juges dépassés... Jack Bauer >La démarche de l'avocat est une tentative d'intimidation à l'américaine. L'objectif est de se faire de l'argent sur ton dos, et faire payer ses honoraires par toi plutôt que par sa cliente. Je ne vois qu'un conseil à te donner : prend un avocat énergique, et laisse le faire...
  5. Hmm... C'est très difficile à dire avec certitude, mais je pense que le Trustrank et des mécanismes similaires, sont probablement déjà à l'oeuvre sur Google depuis des mois, et que cela explique certains effets de bord comme ce que beaucoup appellent la sandbox.
  6. Cet index est composé de tout ce dont Google dispose comme pages indexées, anciennes ou récentes... Il y'a eu un crawl "Kolossal" ces dernières semaines que certains ont remarqué. Pour l'instant je n'ai pas encore réussi à savoir quel index a grossi chez google (il y'en a au moins deux). Le "fresh" ou le "supplemental" ?
  7. Ah oui ! Très jolie galaxie de sites Si ça, ce n'est pas du spamdexing, alors, rien ne sera jamais du spamdexing
  8. Je trouve intéressant ce qui se passe sur deux datacenters donnés par l'outil du Hub : Le 64.233.171.104 et le 64.233.179.104 Quelqu'un travaillant dans une importante société de référencement m'a signalé hier de "grands changements à venir". Il semblerait que cela soit vrai. La taille de l'index de Google semble avoir fait un bon impressionnant ! On dirait que Google veut repasser devant Yahoo. Quand aux pages de résultats, et bien : là aussi, on voit apparaître des changements sérieux.
  9. Non, il n'y a pas d'outils performant de ce genre à ma connaissance.
  10. C'est bien le problème... Matt ne le précise pas Mais il s'agit probablement de sites faisant autorité dans un domaine, pas de sites "authority" au sens de l'algo HITS, ni de sites d'autorités gouvernementales. En plus ce que je dis est approximatif : le terme exact est "extrapolation quadratique".
  11. On ne peut plus sûr. "Google Personalized Search" est la reprise directe des travaux des chercheurs de Stanford qui ont créé la startup Kaltix, rachetée par Google. Cela fonctionne à partir de deux innovations qu'ils ont introduite : le calcul du Pagerank au niveau des blocs, et non plus au niveau des pages, ce qui a permis notamment le rolling update, et qui permet, combiné avec l'approximation quadratique, une accélération de la convergence et un calcul au moins dix fois plus rapide qu'avant. Et le Pagerank thématique : dans l'article initial, ils calculaient 16 pageranks différents + le pagerank "normal". Plusieurs choses : D'abord, historiquement, la croyance dans l'intégration de l'algorithme Hilltop dans Google. Hilltop est un Trustrank calculé dans le mauvais sens, c'est d'ailleurs pour cela que cela marchait moyen, une fois étendu à l'ensemble du web Une phrase lâchée à plusieurs reprises par Matt Cutts : "créez des liens vers des sites "authority", c'est une bonne chose pour vos sites". Et d'une manière générale, toute une série de rumeurs qui courrent dans le monde des référenceurs anglo saxons. Non, ce qui est utilisé, c'est l'ontologie "Oingo" et la classification des sites en fonction de cette ontologie. C'est l'autre source d'infos thématiques. Pour info, il n'est pas utile d'avoir une infinité de pageranks thématiques pour gérer une recherche personnalisée. On stocke quelques pageranks, et la pondération entre les pageranks est changée d'une sous thématique à une autre.
  12. Le Trustrank n'est, définitivement, qu'un filtre antispam. Mais un filtre antispam qui permet une pénalisation non binaire (je vire ou je laisse), en attribuant une note de confiance qui pondère les résultats obtenus par un calcul classique de popularité par les liens (pagerank). J'ai dit : pondère. Pas remplace. Le Trustrank est un rank de plus. Il ne remplace pas le pagerank. Pour le reste, la plupart des moteurs utilisent de la linguistique statistique avant tout, et peu de choses issues de l'analyse sémantique. Mais certains outils de Google (ex: Adsense) sont des applications directes d'analyse sémantique, à partir d'ontologie, et de clustering. Mais on ne les retrouve pas de manière visibles dans le fonctionnement de Google classique. Sauf que la thématique des sites est peut-être utilisée par Google : l'information est à sa disposition, l'ontologie d'Oingo (celle derrière Adsense) est utilisée pour "classer" tous les sites, qu'ils disposent d'adsense ou non, dans une thématique donnée. Par ailleurs, les pagerank thématiques existent, sont calculés aussi pour chaque site, chaque page, ce qui permet le fonctionnement en "Personalized search". Ce qui veut dire aussi que chaque page se voit doter d'une importance "thématique" dans Google. Est-ce exploité dans l'algorithme général ? Mystère. En tout cas, l'info existe, elle peut être utilisée.
  13. Pour les syndicats : les délégués syndicaux sont responsables. Pour le CE : c'est moins clair. A mon avis la responsabilité est partagée entre le président du CE ( le chef d'entreprise) mais qui se contente de présider, et le responsable exécutif (le secrétaire général).
  14. Tiens ! C'est marrant que tu viennes parler de ça aujourd'hui... Alors qu'un certain Gilles (alias Klelugi sur le forum) m'en parle depuis deux jours en pestant contre l'absence de ces sites dans l'espace francophone. Tu as raison, c'est étonnant, et c'est une initiative à développer.
  15. En fait les progrès du plugin Invision Blogs sont insuffisants. On peut "skinner" les blogs, et donc proposer des "looks" un peu différent d'un blog à l'autre, mais le skinning sur Invision est trop complexe pour créer des dizaines de blogs et les proposer... J'ai abandonné cette solution. La galerie est sympa, mais il y'a mieux ailleurs.
  16. Tu viens de redécouvrir quelque chose décrit dans l'article de Jon Kleinberg : Authoritative sources in a hyperlinked environment.
  17. Alors que nous sommes en plein travail de création d'un lexique pour nos sites, le développement de cette fonction dans la partie francophone est intéressante. Ce qui est assez intriguant, c'est la manière dont les sites apportant le contenu "définitions" sont choisis... Il semble qu'il faille une certaine structure et la présence des termes lexique ou glossaire... Faut qu'on accélère le processus
  18. Google n'utilise pas d'algorithme se basant sur les "hubs and authorities", comme Teoma par exemple. Ce qui veut dire que son algorithme ne donne pas de "points" supplémentaires à des pages qui remplissent les caractéristiques d'un hub de qualité. Mais créer des pages "hub" a quand même un intérêt. C'est à dire des pages listant les pages faisant autorité dans un domaine donné. L'intérêt est double : d'abord, c'est une page susceptible de recevoir des liens spontanés créés par d'autres webmasters : plutôt que de recréer la même liste de liens (et surtout d'avoir à l'entretenir, gare aux liens brisés), la plupart vont faire un lien vers votre page. L'algorithme HITS (celui basé sur les "hubs" and "authorities") part justement sur l'observation que sur le web, il y'a deux catégories de pages importante : les pages faisant autorité, d'une part, et les pages "hubs" qui contiennent les liens vers ces pages autorité. L'algorithme du pagerank part du principe, lui, qu'il est inutile de distinguer hubs et authorities, dans les deux cas leur "importance" est mesurable par le nombre de liens entrants qu'elle reçoit. Et une bonne page "hub" reçoit elle aussi beaucoup de liens. La deuxième source d'intérêt, c'est le pagerank... Là cela devient subtil, car il convient de bien connaître la structure idéale des liens internes dans un site et la structure des liens dans son environnement pour bénéficier des avantages en matière de pagerank. Une page hub peut apporter du pagerank, mais aussi parfois en faire perdre... Mais comme on place rarement les pages hub en haut d'une arborescence, l'impact négatif est nul le plus souvent. Pour la création d'une page hub, le guide sera donc un objectif éditorial plus que de référencement. Quant à ce qui se dit à gauche et à droite : comme souvent, c'est un mélange de plusieurs vérités. D'abord, les algorithmes de type "HITS" ont longtemps été sensibles à ce genre de tricherie, et notamment aux stratégies de référencement à base de galaxies de sites et de liens croisés. Ce n'est plus tout à fait le cas aujourd'hui. L'algorithme de "link popularity" de Google, le pagerank, est moins sensible à ce genre de méthodes. On soupçonne google de tenir compte de la thématique des sites dans le poids des liens, mais ce n'est qu'un soupçon, et s'il en tient compte, cela n'a rien à voir avec les "hubs". Les pages hubs à créer sont donc des pages à fort PR, et capables de transférer du PR à la page à référencer. Autant dire qu'il vaut mieux qu'elle préexiste plutôt que d'avoir à la créer ex nihilo.
  19. Les versions "dev" peuvent introduire des bogues de temps en temps, mais en même temps là le retour en arrière pose plus de problèmes qu'il n'en résout. Il semble que la bonne solution soit de passer à une 4.4.x-dev, comme le recommande SquirrelMail. C'est ce que Dan a fait sur les dédiés qu'il supervise, dont les miens, et je ne constate aucun problème (à part que SquirrelMail marche).
  20. Faut que j'arrête de taper avec des moufles sur mon ordinateur portable...
  21. Je pense que Zapman avec son article (bravo au passage, Zapman) rappelle des règles de bon sens que beaucoup commencent à oublier (en tout cas ceux qui les ont apprises dans le passé). Ce que prône Zapman ressemble trait pour trait à ce que je prêche également en interne dans ma boîte : à trop chercher à générer du trafic avec les moteurs, les liens sponsorisés, l'affiliation, on en oublie quelques fondamentaux en terme de communication, de marketing, et de stratégie. Soyons clairs : un site dont le trafic est construit uniquement sur le référencement (payant ou organique) dans les moteurs de recherche est construit sur du sable. Ce n'est pas parce que le web permet à des sites inconnus d'être visible dans les moteurs de recherche, que cela doit permettre à un webmaster d'oublier de travailler l'image de son site, sa notoriété, son positionnement, les relations presse, les relations publiques etc... Le problème, c'est que la plupart des acteurs du web ont une expérience de deux ou trois ans en "web marketing". Quand le seul passé que l'on peut observer ne représente que quelques mois d'activité, c'est clair que c'est difficile d'imaginer l'avenir au dela d'un horizon de deux ou trois ans. Et pourtant ! Le propriétaire d'un site web doit se préparer dans les années qui viennent à suivre un rythme effréné de changements technologiques. Il doit se préparer à affronter une concurrence qui n'existe peut-être pas encore. Il doit se préparer à changer de "modèle économique". Et pour avoir la capacité de résister, il faut des bases solides : une bonne image, une solide notoriété, sans compter la capacité d'innover et des bases financières sérieuses. Bref, asseoir sa position pour pouvoir résister aux attaques dans un marché mouvant et pleins de dangers, cela passe d'abord par les méthodes défendues par Zapman.
  22. On parle beaucoup de Google Base ces temps ci, mais surtout par "oui dire", et les spéculations vont bon train. Comme quelques bonnes âmes ayant eu accès à l'application on pris soin de faire des copies d'écran, il est dorénavant possible de se faire une idée par soi même... J'ai donc publié les écrans les plus intéressants dans un article de la partie "publication" Google Base dévoilé !
  23. Il est interdit de faire de la publicité pour des jeux d'argent en france. Pas uniquement d'en organiser : en faire la promotion suffit à avoir des ennuis. Ceci dit la machine répressive est un peu en panne de ce côté là, c'est assez facile à voir. S'inscrire à un programme d'affiliation en tant que tel n'est pas illégal, surtout si ton site internet affiliant est basé dans une quelconque réserve indienne au Québec, où c'est autorisé. Par contre, tu n'as pas le droit de faire de la pub, donc intérêt limité. Cela fait des années, notamment depuis le rapport Truche, que l'on s'attend à ce que cela évolue et que les choses soient clarifiées au niveau réglementation, mais rien... C'est le flou le plus total : c'est interdit, clairement, mais pas de sanctions, pas de poursuites...
  24. Karolyn a raison, l'expérience démontre amplement, et on a suffisamment de recul pour le dire avec certitude maintenant, que les valeurs de <RK> n'ont aucune valeur en terme de prédiction du futur PR de la toolbar... Le contre-exemple, c'est que dans de nombreux cas le PR affiché au moment d'une dance donne un chiffre différent de toutes les valeurs qu'a pris <RK> depuis la dance précédente. "My 2 cents" (copyright Dudu) : <RK> et PR de la toolbar sont deux indicateurs de nature différente. Hypothèse : Le PR de la toolbar est calculé "à l'ancienne", c'est un pagerank, donc un indicateur de la popularité par les liens. Le <RK> est un "Rank", c'est une note stockée dans l'index, qui peut être, soit un pagerank thématique, soit une note donnée par un algorithme de popularité par les liens biaisé, soit une note personnalisable, soit un Trustrank, soit... une combinaison de tout cela avec des pondérations. Mais je préfère dire en fait que l'on en sait rien.
×
×
  • Créer...