-
Compteur de contenus
3 376 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Cariboo
-
Je confirme qu'il ne faut aucun diplôme spécial pour exercer ce type d'activité.
-
Vu ton besoin, pourquoi n'utilises tu pas Active Desktop ? C'est fait pour ça...
-
Sur le "démarrage automatique de campagne" oui, j'ai eu ce problème autrefois. Faudrait que je vérifie si le problème a été corrigé sur la dernière version... Pour le comptage de clics sur les bannières flash : si, ça marche, mais à certains conditions... Il faut laisser phpadsnew changer les liens contenus dans le fichier flash en cochant la case adhoc (ce qui ne marche qu'avec des fichiers flash "natifs", les swf faits avec Golive, par exemple, cela ne marche pas. Mais dans certains, la syntaxe générée "bogue", et les clics ne sont pas comptabilisés. Du moins c'était le cas jusqu'à l'avant dernière mise à jour qui corrige ce problème en principe.
-
Et bien je suis content que participer au Hub puisse apporter ce genre d'effet bénéfiques...
-
Le pagerank a la même importance qu'avant. Mais le pagerank n'a jamais eu l'importance que les webmasters ont cru pouvoir lui donner. Même chose pour l'avenir : l'abandon d'un critère de "link popularity" n'est pas pour demain matin chez Google.
-
Algorithme Google Breveté au Etats Unis !
Cariboo a répondu à xpertiz - Forum : Techniques de Référencement
Comme l'a dit kimberlyclarko, il ne faut pas se tromper sur la nature de ce brevet et de son contenu. Il s'agit d'une jolie collection de "mesures" possibles sur les pages, les sites et leur environnement pour arriver à "classer" les pages. Certaines ont déjà été utilisées, et abandonnées. D'autres n'ont jamais été encore utilisées pour des raisons techniques. Dans tous les cas de figure ce brevet a probablement un double objectif : "protéger" des idées au cas où, et semer le trouble... Sur le deuxième point, on peut dire que l'objectif est atteint. Surtout chez les référenceurs anglo-saxons. Les tentatives d'explication de la sandbox à partir des infos de ce brevet m'ont bien fait rigoler -
Il s'agit d'un acte clair de parasitisme, et tu as tout intérêt à agir. Google dispose d'un service maintenant pour gérer ce genre de conflits, tu peux les alerter : la procédure est décrite ici http://www.google.com/tm_complaint.html Si tu arrives a récupérer les coordonnées postales du fautif, tu peux lui adresser (à lui et à Google) une LRAR les enjoignant à faire cesser le trouble.
-
Ce n'est pas très orthodoxe, mais à mon avis cela ne nuit pas au référencement. Sauf que tu as mis "mes mots clés" dans le descriptif de ton image... Le texte des balises alt fais partie des techniques de keyword stuffing en usage depuis le siècle dernier Cela fait partie des choses très surveillées par les moteurs. A utiliser avec discernement
-
Si le contenu est dans deux langues différentes, en fait le contenu est différent, et tu n'auras pas les mêmes pubs sur les deux sites. A mon avis, il y'a zéro problème
-
Cherche dans les "variables super globales" et notamment dans ce qui concerne $_SERVER[]
-
Les conseils de Marvin Le Rouge sont avisés : face à un problème de ressources Mysql, il faut commencer par op-ti-mi-ser, avant de songer à des solutions de type cache, qui soignent les symptômes, mais pas les causes du mal. Je sais par expérience qu'une requête mal fichue ou un serveur mysql mal configuré peut mettre un serveur à genoux, quelle que soit la puissance du serveur et les "trucs" employés pour faire en sorte que la requête ne soit appelée qu'une fois par heure au lieu d'une fois par seconde... Sur la config serveur : dès que l'on arrive aux "limites" d'une configuration donnée, des changements dans la config Apache/Mysql peuvent avoir des conséquences spectaculaires. Sur l'optimisation des requêtes, c'est facile avec un peu d'expérience dans le domaine. L'instruction "EXPLAIN" aide beaucoup également à détecter des index manquants, ou la nature du problème... Les règles à suivre sont simples : - avoir une structure de tables cohérente - indexer les champs sur lesquels on fait des recherches fréquentes - faire attention aux "jointures" sur plusieurs tables qui génèrent si l'on n'y prend pas garde des fichiers temporaires de taille gigantesques (dès que je vois un select * from table1,table2,table3 quelque part, j'ai un panneau "danger" qui s'allume dans ma tête) - et surtout n'appeler que les données dont on a réellement besoin (pourquoi faire un select * from table, quand on a en fait besoin de select champ1 from table where ...)
-
Je pense que Wanadoo fait une bêtise... J'ai l'impression qu'il s'agit surtout d'une stratégie de "suivisme" pour arrêter une hémorragie de budgets pub en direction de Google, Overture et Espotting. Au profit de tous les sites qui proposent les liens sponsorisés de ces sociétés. Je n'ai pas pour l'instant de preuves formelles que l'offre de liens sponsorisés ait tendance à augmenter le CA / client, et encore moins le CA / page vue. Je pense qu'au contraire une dégradation sensible peut être observée. Si les liens constituent des revenus supplémentaires, tant mieux, c'est pas grave. Si les clients arrêtent la pub au CPM pour se tourner vers les liens au CPC, la claque peut-être sévère. La seule chance pour que ça marche, est de développer de manière sensible le nombre de clients. Mais tout le monde n'est pas Google.
-
Là on est carrément dans la dérive au niveau de la protection des marques... Quel est l'angle d'attaque choisi par la marque en question ? Contrefaçon ? Atteinte à l'image de la marque ? Tromperie ? Je vois bien deux ou trois cas dans lequel une marque peut réellement subir un préjudice en raison de l'utilisation de sa marque dans un pseudo. Si tu n'es pas dans ce cas, les actions lancées par les avocats de la marque risquent de ne pas aller très loin.
-
Si quelqu'un a des stats, cela m'intéresse aussi. Par contre, la pub locale sur internet est très en retard en France... Aux Etats-Unis, n'importe quelle pizzaiolo a pris l'habitude d'acheter des liens sponsorisés géolocalisés sur Google. En France, ils achètent dans les pages jaunes via l'ODA...
-
Cette version est plus "lourde" et n'a pas que des avantages... Je pense de plus qu'il est un peu trop tôt aussi pour s'en servir en "production". Je vais attendre un peu avant de migrer mes sites en 1.8...
-
Une précision importante (qui arrive trop tard je sais) : mettre à jour sa machine est une mesure préventive, qui n'a aucune action sur les spywares déjà installé. Au contraire, il est assez hasardeux de faire des mises à jour majeures (comme passer de SP1 à SP2) avec un spyware qui écrit des clés dans la base de registre... Ta mésaventure trouve peut-être son explication là dedans...
-
De rien ! Bonne nouvelle, je n'ai pas encore reçu mon premier numéro... Cela ne devrait pas tarder alors.
-
J'ai expérimenté hier une chose qui relativise le caractère sécurisé de Firefox... En surfant avec Firefox, j'ai réussi à télécharger sans rien demander le malware HSA... Firefox n'était pas affecté, car ce malware ne sait pas utiliser Firefox... Sauf que la machine était bien contaminée, lançait IE automatiquement et HSA a commencé à télécharger ses petits copains tout seul comme un grand. Bref, Firefox ou IE, il faut rester prudent.
-
Merci pour ce témoignage. Juste une précision : les hubmasters, c'est toi ou moi, c'est à dire les membres. Le forum, c'est soit Webmaster-Hub, soit le Hub
-
[google] "sous-pages" lors d'une recherche ?
Cariboo a répondu à Sarc - Forum : Techniques de Référencement
C'est ce qu'on appelle le "clustering". Le procédé consiste à rapprocher les pages émanant du même site qui apparaissent dans les résultats... Mais aussi de limiter les réponses émanant du même site. Exemple : si trois pages de ton site sortent en position 2, 8 et 10 des pages de résultat, google va afficher la réponse 2 normalement, la page arrivant en position 8 juste en dessous en retrait (elle monte donc en position 3 !), par contre la 10 passe à la trappe... Ce qui permet à la page arrivant en position 11 de passer en 10e position, et d'apparaître en première page (merci pour eux ) Par contre, le clustering ne fonctionne que quand Google identifie clairement les pages comme émanant du même domaine. En règle générale, les sous domaines sont considérés comme des domaines séparés (mais pas toujours). Le clustering est fait "à la volée" et ne marche pas pour les pages dont les positions sont trop éloignées. C'est sans doute ce qui se passe pour tes pages -
C'est effectivement un problème de DNS... J'ai essayé avec un nslookup depuis wanadoo et free : nada... www.adifco.fr inconnu au bataillon. Le serveur de DNS ne répond pas du tout. Le fait que des gens arrivent quand même à se connecter : c'est lié aux caches DNS, mais apparemment le problème se propage. Un dig sur dns.ovh.net et ns.ovh.net sur ton domaine produit une erreur "server failed"...
-
Lafleur, tes propos sont clairement de bon sens. Dans ce domaine, rien de "révolutionnaire" n'a été inventé. Il s'agit juste d'avancées technologiques. En plus, Amazon fait partie des cas atypiques : la plupart des sociétés de VPC qui tiennent le choc dans la durée sont des "click and mortar", comme la Redoute, ou les 3 Suisses. Elles ont pourtant parfois investi tardivement, prudemment sur le net, et ont rarement "expérimenté", mais plutôt étendu des méthodes testées depuis de longues années sur les systèmes de vente on line. Ceux qui savaient faire de la vente par téléphone depuis 30 ans ont appris sans trop de difficulté à vendre sur internet. Par contre, la logistique ne s'improvise pas, comme dit Lafleur, et beaucoup de start'up se sont plantées parce qu'elles ne savaient pas gérer les flux de stocks, les achats etc... Par contre, je pense que certains types de data mining sont à la portée de sociétés modestes, et peuvent être rentables. Mais comme je l'ai expliqué, à condition d'avoir les ressources nécessaires en interne. On peut écrire de jolis logiciels de data mining et de calculs statistiques qui tournent très bien en laboratoire sur un pc de base. Mais quand on s'appelle Amazon, on s'amuse à traiter des quantités de données gigantesques, ce qui oblige à résoudre des problèmes complexes comme : - créer une architecture distribuée entre plusieurs machines pour le repository - inventer une manière performante pour "requêter" les bases - inventer des algos pour travailler sur des matrices de taille importante etc... Et ça, ce n'est pas à la portée du premier ingénieur venu... Le data mining a bouleversé ce milieu là, mais bien avant que le web soit inventé. Dans l'assurance, le métier d'actuaire, c'est du data mining appliqué à l'évaluation des risques, et du profiling d'assuré. Dans la banque, on aime bien aussi faire tourner les ordinateurs pour déterminer les clients "à risque" et les "bons pères de famille". C'est ce que l'on appelle le scoring, et c'est aussi issu des méthodes du data mining. C'est très ancien, notamment lorsque l'on parle du "scoring" de solvabilité en matière d'entreprises. Les sociétés de crédit jouent aussi beaucoup avec ces méthodes de scoring. Mais que ce soit dans le domaine des assurances, ou (surtout) dans le domaine de la banque, ces méthodes d'évaluation sont en-ca-drées par la loi. C'est un sujet particulièrement sensible, sur lesquels banques et sociétés d'assurance n'aiment pas communiquer. Ce data mining se fait sur des données le plus souvent récupérées "off line", donc c'est pour cela que tu as l'impression que rien ne se fait "on line". Nicolas a raison, c'est un mining super simple... Une simple requête sur les commandes suffit : "compte le nombre articles commandés par les clients dont une commande contient l'article affiché, et affiche les dix premiers résultats par ordre de nombre de commandes" et hop ! Ce que fait Amazon est plus sophistiqué, mais pas beaucoup plus impressionnant... Il s'agit de prévoir les articles qui peuvent intéresser un individu en fonction de son profil d'acheteur... Dans son "profil" sont pris en considération des informations plus étendues que ce qu'il a déjà commandé.
-
Bon annif' (mon mal aux cheveux me rend laconique ce matin )
-
oula bravo et merci les gars... C'est super ça... Euuuuh ! Juste pour savoir, d'où viennent les infos ?
-
Ce sujet a été fermé par un modérateur [ceci est un message automatique]