-
Compteur de contenus
3 376 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Cariboo
-
Ca me rappelle un pb que j'ai eu avec mes propres fils rss, sur un spip 1.6 il y'a un an. Le problème et la solution trouvée : Il s'avère que spip, dans ses boucles, laisse passer les "html special chars". Pour une page web, ce n'est pas un problème, dans un flux xml, si... J'avais donc ajouter un filtre de mon cru pour éliminer le problème. Dans la 1.7.2, le filtre ad-hoc existe, mais il faut le rajouter dans le backend je crois, par défaut il n'existe pas dans le code (il faudra que je vérifie). Le problème provenait du fait que le backend fonctionne tant que l'on tape les articles en ISO pur. Les ennuis arrivent quand le contenu des articles comporte des specialchars ou autres caractères bizarres. Comme le dit Dan c'est un problème typique qui se voit avec des articles qui ont fait l'objet d'un copier coller.
-
Le problème, Denis, c'est que si cette pratique n'était pas pénalisée, les index seraient polluées par des centaines de pages identiques... En effet, les moteurs se basent sur les urls pour indexer les sites. Donc une page identique accessible par deux domaines différents est, au départ, vue comme deux pages différentes (alors qu'en vérité, il y'a un seul contenu, pas deux). Techniquement, multiplier les pages référençables en "mappant" des noms de domaine différents au niveau du serveur de DNS serait trop facile : la page : /var/www/page.html par exemple devient www.nomdedomaine.com/page.html si elle est accédée par www.nomdedomaine.com ou www.autredomaine.com/page.html si elle est accédée par www.autredomaine.com La solution prudente consiste : - à ne référencer qu'un seul domaine - à faire pointer tous les noms de domaine supplémentaires vers une page de redirection vers le domaine référencé. Depuis des années, on parle de "pénalité" chez Google pour "duplicate content". Pénalité ? Voire... Je ne connais pas de cas de blacklistage véritable pour duplicate content. En fait Google, lorsqu'il voit plusieurs pages identique dans son index, en garde une et enlève les autres... Comme dit Dan, le problème, c'est que Google ne choisit pas toujours la page que l'on aurait voulu. Mais de là à appeler cela une pénalité...
-
En plus, sur ce secteur des tests payants sur internet, il y'a déjà du monde, et il va te falloir d'emblée faire aussi bien que les sites déjà bien installés. Si malgré tout tu te lances, il va falloir que tu fasses preuve d'une grande persévérance, parce qu'il est probable qu'il te faudra plusieurs années, toute seule, pour acquérir le savoir faire, les contacts, et développer ta visibilité sur le Net.
-
référencement de page sans commentaire (google)
Cariboo a répondu à un sujet : Techniques de Référencement
Cette histoire de pages avec l'URL seule référencée réapparait régulièrement. Cela résulte d'un problème survenu au cours du traitement des pages crawlées par Google pour définir la "description" de la page. Cela affecte toujours un petit nombre de pages nouvelles en temps normal, de temps à autre (une fois tous les six mois) cela concerne une part importante de l'index (y compris des pages précédemment crawlées). Si l'on en juge par le nombre de posts considérable concernant ce problème dans les forums spécialisés, il semble que Google ait eu un problème dernièrement avec son "repository". La description reviendra après le prochain crawl... -
C'est difficile de faire des squelettes qui valideront la DTD systématiquement, donc d'accord avec Dan pour dire que l'engagement de conformité est à éviter prudemment. Mais s'il y'a juste les squelettes à faire en XHTML, on peut quand même y'arriver sans problème. C'est surtout la partie admin qui pose problème. Sinon 2500 à 3000 pour tout cela, je pense que tu peux essayer de pousser jusqu'à 3500 (ou de séparer la formation du reste, la pilule passe mieux...). Pour ce prix là c'est donné... N'hésite pas à proposer une prestation de maintenance logicielle et de mise à jour aussi...
-
Législation sur le droit d'auteur et le copyright
Cariboo a répondu à Cariboo - Forum : Administration & Droit
tibidou>Le "c" du copyright n'a aucune valeur légale en France (il n'a un sens que dans le contexte américain en fait). Mais cette mention est utile vis à vis des internautes étrangers. lafleur>L'enveloppe SOLEAU permet effectivement de prouver une antériorité sur une création... C'est ce qui permet le plus souvent de savoir qui a copié qui ! Attention, c'est juste un élément de preuve, elle n'est pas toujours suffisante pour protéger une oeuvre en France. Prouver l'antériorité est par contre nécessaire dans la plupart des contentieux. En tant qu'élément de preuve, son utilisation dans le cadre d'une juridiction étrangère doit être possible. Mais sa validité peut être contestée et je ne sais pas s'il y'a eu des précédents... Il y'a quand même de nombreux accords internationaux tentant d'harmoniser la législation sur les marques, les brevets, et la propriété intellectuelle, donc je pense que l'utilisation de l'enveloppe SOLEAU peut apporter une protection réelle pour la plupart des pays. Pour la Belgique, le Benelux propose une enveloppe i-DEPOT, pour les dessins et modèles uniquement, disponible auprès du Benelux Design Office. -
Législation sur le droit d'auteur et le copyright
Cariboo a répondu à Cariboo - Forum : Administration & Droit
Puisque je suis interpellé, je répond, et cela me donne l'occasion de rappeler des règles souvent méconnues à propos des photos de bâtiments... La jurisprudence a tout d'abord étendu la notion de droit à l'image aux bâtiments et à leur propriétaire. Par exemple, dans sa décision du 10 mars 1999, la Cour de Cassation a jugé qu'il était interdit de reproduire un immeuble sur une carte postale sans l'accord du propriétaire, ce dernier pouvant réclamer des indemnités. Donc il est prudent que M. X, Architecte, demande effectivement l'autorisation des propriétaires... Toutefois, la jurisprudence évolue, et un arrêt très récent de la Cour de Cassation, en date du 7 mai 2004, a rappelé que ce "droit à l'image" ne pouvait être invoqué que si l'exploitation de l'image causait un préjudice sérieux au propriétaire. La preuve de ce préjudice sera rapportée si le propriétaire du bien arrive à démontrer que la publication a violé l'intimité de sa vie privée au sens de l'article 9 du Code Civil ou qu'elle l'a privé du produit de l'exploitation de l'image du bien photographié. A l'inverse, l'exploitation de l'image d'un bâtiment par son propriétaire se heurte au droit d'auteur de l'architecte... A condition que ce bâtiment soit "empreint de la personnalité de l'auteur", ce qui ne sera pas reconnu à tous les bâtiments. Par contre, impossible de faire une carte postale de la Pyramide de Peï sans l'autorisation de l'architecte. En ce qui concerne les formalités à accomplir pour préserver le droit d'auteur sur un site web, aucune démarche officielle n'est obligatoire. La loi préserve les droits des auteurs sans qu'ils n'aient à justifier de l'accomplissement de quelque formalité que ce soit. Par contre il est important de démontrer la preuve de la violation d'un droit d'auteur, il est donc prudent de prendre ses précautions : l'enveloppe SOLEAU fait partie des moyens les plus efficaces pour les textes et les illustrations, ou l'enveloppe scellée pour les fichiers numériques, mais tout élément de preuve est acceptable. Le watermarking est une bonne solution pour les photos également. -
Hmm... En règle générale, les webmasters ne se communiquent pas facilement leurs taux de transformation. Je ne suis pas sûr que tu auras des réponses à ta question. Par ailleurs, en faisant des comparaisons, il faut être sûr que l'on compare bien des taux comparables (c'est à dire que l'on a la même définition dans les deux cas du numérateur et du dénominateur : ce n'est pas toujours garanti). Mais ce n'est pas très grave dans l'absolu de ne pas connaître le taux de transformation du voisin, si l'on dispose des chiffres permettant de savoir si un site est rentable... Mais, là, il te manque des infos : quel est le panier moyen par commande par exemple ?
-
Oui, c'est clair que cette fonctionnalité est directement issue des recherches de Kaltix. Le Hub n'était pas en retard sur ce coup là : voila deux articles rédigés le 2 novembre 2003 dans lesquels je décrivais comment fonctionnait le "topic sensitive pagerank". Vers un moteur de recherche sensible au contexte (1ère partie) 1ère partie 2eme partie 3ème partie J'ai relu la conclusion de l'article, et huit mois plus tard, elle prend une actualité certaine :
-
Nous avons dans notre boîte un studio de PAO complet (normal on édite des magazines)... Nous avons un lecteur Agfa, mais en général, on ne s'embête pas: les diapos ektachromes que l'on nous fournit sont scannées par un scanner EPSON d'entrée de gamme, mais particulièrement performant, qui est le Perfection Photo... (on est au modèle 1670 maintenant) Le résultat est tout bonnement excellent... tarif neuf dans les 110 Important : c'est le modèle "photo" (il coute 20 de plus que le modèle "normal")
-
ce qui est diffusable sur un site internet
Cariboo a répondu à denis finch - Forum : Les fondations d'un site
Le gros problème que tu vas avoir à mon avis, c'est que tu ne peux mettre sur ton site que des fichiers dont tu es le titulaire des droits. Cela restreint pas mal déjà (vrai pour les images, textes, videos, mp3 etc...) -
Ce qu'il veut dire ici, c'est que ce sont les "anchor text" sur les termes "Apple Computer" (plus le PR du site probablement) qui placent apple en tête des résultats sur Computer, et pas le contenu de la page...
-
Faut pas croire tout ce qu'on lit dans les forums... Le Hub y compris Surtout quand il s'agit de commentaires sur des traductions de propos rapportés... Que dit Olivier Ok. Mieux vaut trois liens PR5 externes, qu'un lien PR6 interne... Ces propos n'ont jamais été tenus par Matt Cutts, ni par Olivier Duffez... Aucun autre référenceur présent à cette conférence ne les a rapportés, sauf un... Curieux non ? En fait cela vient d'un post de Tururillo, qui reprend le compte rendu d'un de ses amis... : Cette interprétation ne figure dans aucun des compte rendu. Cette version ne colle pas avec celle d'Olivier Duffez, qui elle me semble coller à celle de SEOCHAT et SEARCHENGINEWATCH. Il semble que ce que Matt Cutts appelle des "authority sites" ne se traduit pas comme des sites "authority" au sens de l'algo HITS, mais comme un site faisant autorité. Attention aux faux amis... Je suis désolé de tordre le coup à une légende urbaine naissante. Non, Google n'utilise pas HITS (ce serait drôle, c'est comme si un marxiste léniniste devenait un chantre du capitalisme, ou comme si Coca mettait du Pepsi dans sa formule...)
-
Le PR d'autres sites influe forcément et directement sur le PR des sites liés. C'est le principe même de l'algorithme du pagerank. L'algorithme traite tous les liens de la même façon. Cela signifie donc que tous les liens sont pris en compte de la même façon : le lien à PR6 d'un site de Microsoft est considéré comme un lien à PR6 de la société Tartempion...
-
Oui, je l'ai fait, et j'ai bien trouvé. Compte tenu de la qualité des deux auteurs, nul doute que c'est un bon bouquin... Je ne l'ai pas encore acheté, mais cela ne devrait pas tarder...
-
http://www.webmaster-hub.com/index.php?showuser=981 Regarde attentivement l'avatar d'un membre dénommé Ganf [édité : ça y'est je sais qui est ganf parmi les deux co-auteurs]
-
Spip est un CMS ("Content Management System"), un système de gestion de contenu... Par contenu, il faut entendre "contenu éditorial". Spip gère très bien le problème de la gestion d'une base d'articles à publier par une équipe de rédacteurs. On peut lui faire faire autre chose, mais comme tout logiciel qui n'a pas été prévu pour, ce n'est pas une bonne idée. Par contre, il n'y aucun problème à ajouter du php dans des squelettes SPIP, à ajouter des pages en php pur à côté de pages SPIP etc... On peut même mettre dans le même site un forum fait avec Invision et une partie publications en SPIP (évidemment je pense au Hub là). Le problème est avant tout de savoir quelles fonctionnalités tu prévois sur le site, et quelles sont celles réservées aux membres....
-
Spip ne t'aidera que pour réaliser un script d'inscription en tant que rédacteur ... Si ton projet prévoit autre chose, il faut faire un script en php mysql... Et gérer un espace membres indépendant de spip sur un site fait avec spip n'est pas une sinécure...
-
Il est très rare de constater ce genre de phénomènes... En règle générale, il faut quelques minutes, point. N'oubliez pas qu'il existe des pages "déroutantes" pour un logiciel sémantique comme celui d'applied semantics... Pour certaines pages, il va mesurer une probabilité de 100% pour que telle page colle avec telle catégorie d'annonces. Dans d'autres cas, ce sera du 50/50... Et là... et bien il se passe quelque chose qui permet à Adsense de trouver probablement la bonne réponse au bout d'un moment. Ma théorie (qui vaut ce qu'elle vaut) : Il est clair que les gens vont cliquer majoritairement sur les liens contextuels les plus appropriés, et au bout d'un moment, Google peut décider d'affiner ces affichages. Mais il faut pas mal d'affichages et de clics pour que les statistiques puissent être considérées comme fiables, donc un délai de plusieurs jours est logique.
-
Oui, il est à peu près sûr que leur but n'est pas d'arnaquer les éditeurs. Mais Google ne nous a pas forcément habitué non plus à répondre précisément à la question des revenus à attendre de leur programmes, et à la transparence sur les taux de reversements... En fait le service que l'on retrouve dans Websearch existait déjà, mais était réservé à de gros clients... La nouveauté consiste ici à mettre à disposition à la fois la boîte de recherche personnalisée de google et SiteSearch et d'offrir des reversements à de petits sites ou des moyens. Le système de reversement est calqué sur le programme "grands comptes". Mon petit doigt me dit quand même que le lancement de Websearch a été un peu précipité. Le fait d'annoncer des revenus non garantis relève de la faute de communication, de l'erreur marketing ou... de l'obligation de reprendre le système de tarification grand compte parce qu'il fallait faire vite... Je ne serai pas surpris de voir apparaître une offre de Yahoo (ou de MSN) pour les webmasters dans les jours à venir... Cela expliquerait bien des choses !
-
Si ça pouvait être une erreur de traduction... Il semble que le système de rémunération websearch soit différent d'Adsense. D'après les infos glanées ici et là sur les forums américains, en fait il faut s'attendre à ce que deux montants soient prélevés sur les revenus websearch : un coût forfaitaire d'accès au service et un cout au CPM... Le problème, c'est que l'on a aucune info tarifaire ...
-
Oui, sauf que sur ce forum, le principe de mettre des liens en signature n'a jamais été discuté. Sur d'autres forums, les liens sont soit interdits, soit rendus non cliquables, soit "cloakés" (rendus invisibles au moteur). On a eu des débats sur le nombre (un, deux, trois pas de limites ?) pour finalement fixer le nombre à deux. Il y'a eu des discussions sur les enjeux du PR (utile, inutile, moyennement utile pour un bon référencement). Mais le principe de laisser les membres mettre des liens dans la signature n'a jamais été remis en cause. En l'occurrence, il a fallu demander à Invision de modifier le code du forum pour permettre aux robots d'indexer et de suivre ces liens, qui sont bel et bien comptabilisés dans les backlinks de Google (je le confirme). Cette politique a été initiée par Dan dès le lancement de ce forum, la nouveauté, c'est juste que ces liens sont maintenant réellement indexés par les robots, contrairement à tous les autres forums Invision...
-
Loupilo, c'est quoi le problème là ? A ma connaissance, les développeurs de SPIP n'ont jamais demandé que le copyright SPIP ou SPIP powered apparaisse sur les squelettes développés par des tiers.
-
Je suis en train de tester websearch... Déjà je suis intrigué par cette petite phrase sur les stats : Ah ??? Quels frais ? Où est le barème... M'enfin
-
Merci pour ta vigilance Loupilo. Je confirme que par manque de temps hier j'ai dû battre pour cet article des records de vitesse de mise en forme et de rédaction. Pardon donc pour les quelques imperfections...