-
Compteur de contenus
3 376 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Cariboo
-
Corrélation PR et positionnement
Cariboo a répondu à erickdream - Forum : Techniques de Référencement
Un article à lire absolument pour comprendre comment on peut calculer des pagerank sur un index ouvert, et quasiment "à la volée" : "Inside Pagerank" par Monica Bianchini, Marco Gori, et Franco Scarselli, université de Sienne Italie. L'article est payant, mais vous pouvez lire aussi http://meyer.math.ncsu.edu/Meyer/PS_Files/DeeperInsidePR.pdf par Carl D Meyer. C'est bourré de mathématiques, désolé , mais cela démontre que l'époque des calculs matriciels "bourrins" de 1997 est bel et bien terminée, et que l'on calcule des PR maintenant beaucoup plus rapidement. Par contre, je crois qu'il ne faut pas compter sur Google pour communiquer sur le pagerank réellement utilisé dans l'index pour classer les pages. Cela rendrait le "reverse engineering" de l'algorithme trop facile... -
Corrélation PR et positionnement
Cariboo a répondu à erickdream - Forum : Techniques de Référencement
Il s'est dit beaucoup de choses intéressantes dans ce sujet. Après quelques années de travail pour développer mes sites et de travail sur le référencement, je me retrouve à penser exactement comme Thick. Mais j'ai un peu "théorisé" le truc. Le PR ne sert pas à rien. Je remarque que ceux qui ont dit "le PR ne sert à rien" savent pertinemment à quoi il sert Mais face au véritable culte que certains vouent au PageRank, seul ce genre de propos iconoclastes peut faire mouche et faire se poser des questions aux nouveaux adeptes de certaines méthodes de référencement. Donc je n'en veux pas à ce qui profèrent ce genre de pieux mensonges : c'est utile. Comme cela a été dit plusieurs fois, le PR n'est que l'un des critères qui sert à classer les résultats dans les pages, et non "LE" critère. Pour que les résultats soient pertinents, on utilise d'abord des critères linguistiques pour classer les résultats, c'est à dire la "proximité" ou la "similarité" entre la requête et les pages. Déjà à ce niveau, pour éviter d'avoir des milliers de pages avec les mêmes scores (c'est possible) on utilise de nombreux critères supplémentaires pour dire "telle page est plus pertinente que telle autre" comme la présence des mots clés dans le TITLE, entre des balises STRONG etc... Mais même en inventant des centaines de critères de ce type, on se retrouve toujours avec des dizaines de pages avec les mêmes scores. Pire, le score de la page 1 n'est souvent que très légèrement supérieur au score de la 10 000e page sur une requête concurrentielle. Et quand on demande à des cobayes de tester la pertinence des résultats, il est fréquent qu'ils disent que la 10000e page devrait être la 1e et réciproquement ! Tout ça parce que la notion de "pertinence" n'a pas plus à voir avec une mesure de similarité linguistique que la popularité par les liens avec le "vote des internautes". Mais bon, ça marche à peu près, donc on utilise ces critères. Le critère de popularité par les liens (le pagerank à la Google) est donc utilisé dans tous les moteurs grands publics pour "favoriser" certaines pages par rapport à d'autres. Déjà, un calcul de pagerank interne fait souvent passer les pages "tête de rubrique" avant les pages internes à cette rubrique : ce n'est pas idiot. Ensuite cela permet de favoriser les pages qui reçoivent beaucoup de liens externes et internes : cela ne signifie en aucun cas qu'elles sont plus pertinentes, elles sont juste jugées plus importantes. Et cela marche, cela améliore vraiment le classement des pages, qui sera perçu comme beaucoup plus pertinent. Bref, si on applique ces informations au référencement, on se rend compte que pour sortir dans les premières pages, il est nécessaire (et parfois suffisant) de bien "scorer" sur des critères de similarité avec la requête. Il est donc possible de sortir premier sur une requête donnée avec un petit PR sauf si cette requête est concurrentielle et/ou ramène beaucoup de résultats. Dans ce cas, il y'a de fortes chances qu'un grand nombre de pages ont des résultats quasi identiques sur les critères linguistiques. Et le pagerank permet de les départager de manière intelligente. Donc dans ce cas, il faut d'abord avoir un bon score de similarité linguistique, et ensuite, avoir un gros PR... Mais pour info, on est obligé de donner un poids faible au PR par rapport aux critères linguistiques, car sinon, adieu la pertinence Je déduis ces infos de l'observation de nos tentatives de travail de construction d'un vrai moteur (qui ne tardera pas à être lâché dans la nature). Bon, maintenant, revenons en à ce que dit Thick : 100% d'accord. Je viens d'engager quelqu'un pour travailler sur notre référencement. Et voila les consignes que je lui ai donné : 1. On vérifie le code de nos pages, la structure de nos sites, pour que le contenu soit crawlable et référençable. On vérifie que pour un contenu donné, la structure des pages (les balises TITLE, H1 etc...) contient ce qu'il faut pour être éventuellement bien classé sur la requête la plus évidente sur le contenu de cette page. 2. Ensuite, on oublie le référencement. On gère les échanges de liens, et les partenariats, en pensant uniquement à la génération de trafic (bref faire venir des vrais internautes qui cliquent sur des liens sur une page) 3. On fait de la promo, de la comm, des RP, pour que des webmasters créent des liens spontanés vers le site... 4. S'il manque du contenu qui peut sortir sur une requête, on crée le contenu. Ces pages de contenu doivent apporter quelque chose au site Le 1 demande un certain savoir faire, voire un savoir faire certain. Mais pour le reste, cela a toujours marché. Les spams d'annuaires, les galaxies de sites, les pages sat', les sites miroirs, c'est efficace, à court terme. Mais comme un site vit de son trafic, c'est dommage de se préparer des lendemains difficiles. Trop de référencement tue le référencement. Il y'a des limites à ne pas dépasser. Par contre, travailler pour faire venir des internautes, produit un double effet kiss cool : cela crée vraiment des sites qui plaisent aux internautes, et ces sites finissent par plaire aux moteurs. Et les moteurs font venir aussi beaucoup d'internautes. -
Ce que t'a dit Crazy est très juste, et recoupe mes propres observations. En fait les Googledance d'antan son bel et bien finies : c'est à dire l'apparition d'un index différent sur un datacenter, puis sa propagation sur tous, ce qui fait que le nouvel index finit par apparaître sur www.google.fr Des index "expérimentaux" apparaissent sur certains datacenters, et ne se propagent jamais partout... Des changements peuvent apparaître sur un tiers des datacentre à la fois. Et surtout, www.google.fr peut renvoyer n'importe quel index, au moins temporairement : il n'y a plus de logique de propagation systématique. Donc il n'est plus rare de se dire "tiens, les résultats ont changé sur une requête", on vérifie, on se dit "oh ! une googledance ?", sauf qu'une heure après, tout revient à la normale. C'est déroutant pour ceux qui ont le nez collé sur google et leurs outils de ref. Pour les autres, cela donne juste des résultats étranges dans les referers
-
19,6%
-
Hmm... C'est surtout une bonne nouvelle pour Himedia, et les annonceurs. Pour les editeurs, j'attend de voir la rémunération nette.
-
Une évidence d'abord : ta fonction extract attend qu'on lui passe un argument de type "array". Logique, puisque normalement, si ton script fonctionne, $ligne est bien un array. Sauf que ta requête ne renvoie rien, en toute probabilité. Pour déboguer la chose : affiche la requête à coups de "echo $sql". Et teste la requête obtenue, si tu ne vois pas le problème au premier coup d'oeil, dans phpmyadmin par exemple, tu auras sans doute une explication supplémentaire. C'est peut-être un problème avec la syntaxe de {$_SESSION['logname']}
-
Ce qui te trouble, c'est que tu reçois des visites soit disant émanant de Google, alors que tu penses ne pas être apparaître dans les pages de résultats pour ces mots clés là ? Si c'est bien ça, il y'a une explication bien simple : - vérifies tu TOUS les datacenters pour savoir si par hasard tu n'es pas déjà indexé sur l'un d'entre eux - vérifies tu REGULIEREMENT TOUS les datacenters ? Car il n'est pas rare (pour ne pas dire maintenant : fréquent) que des index nouveaux, expérimentaux, apparaissent sur tel ou tel datacenter, puis dans les résultats de www.google, pour se propager ensuite ou retomber dans les limbes de l'oubli. - vérifies tu REGULIEREMENT TOUS les datacenters en testant avec les différentes extensions (.com, .fr, .co.uk) pour accéder aux index subtilement différents que Google concocte pour chaque pays. Tout ça pour dire que je ne serais pas étonné que tu apparaisses en première page ou en deuxième page quelque part...
-
Pour Kelkoo, c'est la même chose : il s'agit d'un robot d'indexation qui cherche des catalogues de produits sur internet, pour les intégrer ultérieurement dans Kelkoo. Pour Cafekelsa, le robot explore le web systématiquement pour repérer ce qui peut ressembler à des offres de jobs sur tous les sites... Un site corporate avec une page "on recrute" l'intéresse, mais aussi bien sûr les sites "job board". Donc dans un premier temps, ce robot à un peu tendance à passer n'importe où ... Cela s'affinera avec le temps...
-
C'est le bot du service HotJobs de Yahoo, un méta moteur d'annonces d'emploi. CafeKelsa est le nom de code du projet hotjobs... Yahoo reprend une vieille idée des gens d'Altavista avec ce truc.
-
Absolument pas. Il faut juste que l'objet social de l'entreprise "vendeuse" ne soit pas trop éloigné de cette activité là. Là, c'est la loi de l'offre et de la demande... Et il n'y a pas de marché pour cela, donc impossible de te donner des indications. Dans la plupart des cas, il s'agit de simples fils syndiqués, et les articles ne sont pas vendus. Pour info, la cession des droits d'un article écrit par un journaliste à une société tierce est souvent un vrai casse-tête quand ce n'est pas prévu dans le contrat initial.
-
Oula ! Le problème c'est que la pertinence est quelque chose de subjectif, et une page de résultat jugée 100% pertinente, cela n'existe pas. Chacun voit midi à sa porte. Les moteurs comme Google, Yahoo, MSN font régulièrement des études de pertinence, en demandant à des échantillons de cobaye de juger leur algo, et en "observant" sur quels liens cliquent les internautes. Dans cette évaluation, l'avis des "propriétaires" de site n'a aucune importance. Et pour avoir lu une de ces études sur un site américain il y'a quelques mois, la surprise c'est qu'un majorité d'internautes jugent les liens vers des sites "scrapers" (ceux qui ne contiennent que des liens vers ebay ou amazon, ou des annuaires de site) pertinents ! Le monde que tu décris existe bien. Et Google a bien une responsabilité en ayant intoxiqué une génération complète de webmasters avec ses histoires de pagerank, de backlinks et de googledance. Mais travailler le contenu, la comm, les RP, les partenariats, cela continue de payer, et cela permet aussi d'obtenir des bonnes positions sur Google. Cela demande du temps c'est sûr, mais cela finit aussi par garantir des positions plus stables...
-
taxes, impôts, facturation entreprise québécoise..
Cariboo a répondu à Ken A - Forum : Administration & Droit
1°) Dans la pratique ton client fait ce qu'il veut. Mais s'il est cohérent, il fait un chèque à l'ordre de l'entité qui lui a facturé la prestation. Si Darty te fait une facture, tu paies Darty, pas Conforama 2°) Oui, on peut utiliser son compte de particulier... Mais faut aimer les ennuis. Il est fortement conseillé, pour une entreprise individuelle, d'avoir un compte séparé. Cela rend la comptabilité bien plus claire, et en cas de contrôle fiscal, c'est mieux. 3°) Comme il s'agit d'un "export" hors UE, en principe, non, pas de TVA. 4°) Facture en dollars canadiens : en pratique, ce n'est pas possible, sauf si l'hébergeur accepte ce genre de complication, ce qui est douteux. Pour la déduction : je ne suis pas spécialiste de la fiscalité canadienne. Mais une facture est une facture, et tu peux probablement la déduire. Pour les taxes : probablement sans les taxes, inapplicables... -
Non, la carte de journaliste n'a rien à voir avec le statut juridique de SARL de Presse... La carte de journaliste est attribuée par la CCIJP (Commission de la carte d'identité des journalistes professionnels). "Le journaliste professionnel est celui qui a pour occupation principale, régulière et rétribuée l'exercice de sa profession dans une ou plusieurs publications quotidiennes ou périodiques ou dans une ou plusieurs agences de presse et qui en tire le principal de ses ressources." (Article L761-2 du code du travail) On peut obtenir une carte de presse, dès lors que l'on fait un travail de journaliste. Le statut de la société n'entre pas en ligne de compte (ma société emploie des journalistes, et c'est une société anonyme "normale", qui dépend de la convention collective de la publicité, pas de la presse).
-
Il y'a plusieurs façons de faire cela. Le plus classique est d'invoquer une zone particulière, en appelant en même temps un format défini par sécurité. Pour ne pas avoir de problème, il ne faut pas copier coller le code, mais laisser phpadsnew générer le code à votre place (pour qu'un id d'invocation unique soit créé). On peut le faire de différentes manières. Personnellement, j'utilise les mots-clés, que l'on peut appeler de manière très souple grâce à une syntaxe appropriée. Euh... ça c'est en natif dans phpadsnew
-
Mais cela n'interdit pas les recettes publicitaires, ou les abonnements pour accéder au contenu, heureusement.
-
Une SARL de presse est une SARL, point barre. Seule particularité : l'objet social "presse" permet de s'affranchir du capital minimum habituel... Donc les avantages : on peut se contenter d'une mise de fond minimum. Les inconvénients : si on se contente de cette mise de fonds, la société est sous-capitalisée, et la structure est donc fragile. Autre inconvénient : lorsque l'on écrit ce capital "rikiki" sur le papier à en-tête de la société, ou mieux sur les factures, c'est souvent de nature à inquiéter les clients et les fournisseurs...
-
Merci pour tous ces renseignements kraig ... C'est très intéressant d'avoir des précisions sur le fonctionnement de ces services, souvent mal connus. Or la cybercriminalité n'est pas en hausse, elle en pleine explosion ! Bref, on a de plus en plus besoin de la police et de la justice, le temps où l'on réglait les choses "entre geeks" est bien révolu. (je note au passage que vous avez d'excellents agents de veille au BEFTI ... J'utilise aussi ce genre d'outils pour surveiller ce qui se dit sur ma société sur le net. C'est idéal pour tordre le coup à une rumeur ou rectifier des approximations).
-
La procédure via LRAR me semble quant à moi parfaitement logique. Et elle est parfaitement légale. C'est l'usage en matière de contrats...
-
Tout dépend de la version de ces logiciels... Pour les versions avec base propriétaire, généralement ils ne proposent qu'un import plus ou moins simple à utiliser. Transférer des écritures dans ce cas revient à : - générer un fichier au bon format - lancer l'importation à l'aide d'une macro, un cron, ou une tâche programmée windows C'est lourd, mais ça marche... Pour les logiciels qui s'appuient sur des bases du marché, comme SQL Server ou Oracle, c'est beaucoup mieux, on peut insérer des écritures directement dans la base. Mais mieux vaut maîtriser alors le logiciel comptable à fond. Parce qu'on risque vite de faire des bêtises.
-
ams51>Oui ça j'ai vu, mais on aucune info sur : - le programme des conférences - les intervenants Tant que je n'ai pas ça, vu le tarif, je ne risque pas de m'inscrire
-
L'équipe de Searchenginewatch organise une première conférence SES à Paris fin novembre, et en Français ! Sauf que sur le blog des SES, rien, pas de programme, et seulement deux sponsors cités. Quelqu'un a-t'il des infos sur cet évènement, parce que pour le moment, c'est maigre !
-
Rencontre des Hubmasters le 17 septembre.
Cariboo a répondu à Dan - Forum : Le salon de Webmaster Hub
S'il y'a des gens qui partent ou passent par Montpellier demain, et qui ont des places dans leur voiture, ce serait sympa de nous prendre au passage... Nous arriverons avec Klelugi demain matin en gare de Montpellier à 11h43... Sinon, on se déguise en Xavfunette et on fera du stop -
Sympa, comme à l'habitude... Yvy ne nous avait pas menti, elle était bien là, avec Stephane et Lyes. On y a retrouvé également Sébastien de Spywords, mais aussi Souany, Philippe Sasso, Frédéric d'Overblog, et beaucoup de gens des régies et des plateformes d'affiliation... J'ai pas mal parlé business, donc je n'ai pas pu faire le tour complet des popotes...
-
Attention : je précise que la loi n'autorise pas explicitement une loterie dès lors qu'il y'a un remboursement des frais. La loi de 1836 interdit explicitement les loteries, sauf pour quelques cas particuliers !! La loi interdit en fait toute loterie dès lors que : - c'est une offre faite au public : c'est toujours le cas sur ce type de loterie sur internet - il y'a une espérance de gain : évident aussi - il faut payer pour participer : aïe... cela me paraît plaidable dans beaucoup de cas - le jeu fait appel au hasard : évident aussi Ces derniers critères sont définis par la jurisprudence. Bref, tous les systèmes de remboursement inventés, surtout ceux tendant à limiter le nombre de remboursement, sont "borderline" et même du mauvais côté de la ligne jaune. Donc ce n'est pas parce que personne n'a saisi la justice pour poursuivre les organisateurs de ces jeux, que certains d'entre eux ne sont pas rentrés dans l'illégalité, et ce n'est pas non plus parce qu'il y'a une certaine tolérance aujourd'hui que cela ne va pas changer demain... Mieux vaut donc être prudents...
-
Gilles (klelugi) et moi allons à la soirée organisée par Rentabilisez.com ce soir ... Si d'autres personnes du Hub y vont aussi, ils peuvent nous contacter par MP pour qu'on se retrouve ce soir autour d'un verre