Aller au contenu

Jeanluc

Membre+
  • Compteur de contenus

    2 003
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jeanluc

  1. Bonjour, Pas compris la question. Tu pourrais donner un exemple de ce que tu veux faire ? Jean-Luc
  2. Ben, demande à ta banque... Quand j'ai posé cette question à ma banque, ils m'ont dit que ce n'était pas leur business et que je devais m'adresser à Bank Card Company (Bancontact, etc.) et, chez Bank Card Company, on m'a parlé d'Ogone. Jean-Luc
  3. Bonjour, Va voir chez Ogone. Jean-Luc
  4. Bonjour Monique, Un "hotlink", c'est quand un autre site affiche une image de ton site (ou un autre contenu multimedia) sur son site au moyen d'un simple lien vers l'image sur ton site. Ce n'est pas nécessairement nuisible. Tu peux, par exemple, utiliser cette technique pour obtenir des informations statistiques sur le nombre d'affichages de ton image ailleurs, ce que tu n'as évidemment pas si tu autorises la simple copie de ton image sur l'autre site. Souvent les "hotlinks" sont des images volées que le voleur ne prend même pas la peine de recopier sur son serveur pour que la bande passante utilisée par l'image soit à ta charge plutôt qu'à la sienne. Ce vol laisse des traces puisque tu le détectes facilement avec un logiciel de stats comme AWStats. Pour empêcher les "hotlinks" par la force, on utilise généralement la détection du referrer. Dans ce cas, habituellement on affiche la bonne image seulement si le referrer est son propre site ou si le referrer est masqué. Si le referrer est un autre site, on n'affiche rien ou on affiche "une autre image au choix". Cette solution n'est pas parfaite, car elle empêche l'affichage des images dans les pages en cache des moteurs de recherche et elle alourdit le fonctionnement du serveur. Parfois, un email ferme et sympa au webmaster qui fait le "hotlink" suffit à faire supprimer ce lien sauvage ou à le faire remplacer par un lien de qualité vers une page de ton site. Je préfère de loin cette solution. Voilà, c'est à peu près tout ce que je sais sur les "liens chauds". Jean-Luc
  5. Bonjour, En tout cas, il n'y a aucune redirection dans le .htaccess, juste de la réécriture d'URL. Jean-Luc
  6. Bonjour, Dans les deux choix que tu proposes, il n'y a aucune différence sensible dans le coût en ressources du système. Une de tes hypothèses de départ n'est pas correcte pour Google. Pour Google, le '_' (= souligné = underscore) est vu comme une lettre. Il ne sépare pas les mots. Son emploi comme "séparateur" dans tes URL n'est donc pas une bonne solution. Pour les séparateurs, je donnerais la préférence au '-' (tiret) et à la ',' (virgule). Il y a quelque mois, j'avais fait des tests et j'ai mis les résultats ici : - Google - Les séparateurs de mots - MSN Search - Tiret dans l'URL ? Personnellement, je mettrais les mots clés en avant et les "numéros" derrière. Jean-Luc
  7. Bonjour, Moi aussi. C'est utile à quelqu'un ? Parce que, dans cette logique, si [i]http://www.mattcutts.com/blog/googlebot-keep-out/?googlebot=nocrawl'>]http://www.mattcutts.com/blog/googlebot-keep-out/?googlebot=nocrawl n'est pas indexé, [i]http://www.mattcutts.com/blog/googlebot-keep-out/ le sera quand même. Cette info se trouve aussi dans supprimer des informations de l'index Google. Les wildcards ne sont pas pris en compte selon la norme robots.txt, mais ils peuvent l'être par certains robots. Ceci veut dire qu'il faut absolument limiter l'emploi de ces wildcards aux directives concernant les robots qui les acceptent, comme ceci : User-agent: * Disallow: pas de wildcards ici User-agent: nom_du_robot Disallow: wildcards possibles ici Jean-Luc
  8. Les deux robots en question existaient déjà avant l'arrivée du sitemap et avant la naissance de Bigdaddy, non ? Jean-Luc
  9. C'est normal qu'un analyseur d'en-tête HTTP ne voit que le code "200", car c'est une redirection "meta refresh" (HTML). Tu peux la tester avec mon outil [i]http://www.annuaire-info.com/redirection-test.html . Jean-Luc [edit] PS: en réalité, la page contient deux redirections : la "meta refresh" et une redirection JavaScript [/edit]
  10. Bonjour Zapman, Alors là bravo, pour cet article très complet et qui surtout entreprend de remettre à jour tout ce qu'il faut savoir sur les redirections. Merci pour le travail et le temps que tu y as consacré. Très utile. Jean-Luc
  11. Bonjour kashu, Je ne vois pas trop l'intérêt de ta manip... Presque tous les serveurs sont configurés pour afficher la page /index.html quand on demande [i]http://www.mondomaine.tld/. Pas besoin de redirection pour ça. Jean-Luc
  12. Bonjour, La syntaxe correcte pour le .htaccess est : ErrorDocument 404 /erreur,404.html Il faut supprimer le [i]http://.... C'est quelque chose que j'ai appris grâce à ce forum. J'ai fait un test des liens de http://www.cap-sizun.com/cap,wiki,cleden-cap-sizun.html. Il n'y a aucune erreur 404, mais il y a un lien inaccessible (401 Authorization Required). Jean-Luc
  13. Bonjour, 1° Rien ne t'empêche d'étabir une facture même si Google ne la demande pas. L'essentiel pour toi est qu'elle soit soigneusement classée dans ta compta. 2° Banque française ou américaine, peu importe, cela ne concerne que les modalités de paiement et pas la facturation. Le contrat est avec Google (USA) qui est le client, donc TVA = 0% (hors Union Européenne). Jean-Luc
  14. Bonjour et bienvenue, A proprement parler, il ne s'agit pas de faire une redirection, mais d'indiquer l'URL qui doit répondre en cas d'erreur. Je ne comprends pas le sens que tu donnes à "URL relative" dans ce contexte-là. Jean-Luc
  15. D'accord avec Modibo. Attention toutefois, si ton site déménage dans un autre pays, ce sera détecté et influencera le positionnement. Jean-Luc
  16. C'est vrai que les référants sont un moyen astucieux de découvrir des pages cachées, mais je ne pense pas que ça explique le phénomène. Le référant, c'est l'adresse de la page sur laquelle il y avait un lien qu'on a cliqué. Si on tape une adresse dans la barre d'adresse ou si on utilise les favoris, il n'y a pas de référant. Jean-Luc
  17. Pas le 3 janvier, mais le 1er mars. Chez Google, ils écrivent les dates à l'envers (à l'anglaise, quoi). Très bonne nouvelle, en tout cas. Jean-Luc
  18. Salut Dudu, Oui, Mossieur! Je n'ai pas de source officielle, mais le sujet a déjà été discuté sur ce forum (désolé, je ne remets pas la main sur les messages). Maintenant si tu as une meilleure explication pour les sites dont le nom de domaine est tout nouveau et qui apparaissent dans Google, alors qu'il n'existe aucun lien nulle part vers ces sites, je suis preneur. Svp, ne pas répondre que c'est à cause de "liens dont je ne connais pas l'existence" ou à cause de la "Google Toolbar" (je n'utilise pas ce genre de gadget). La même constatation a été faite sur Yahoo! Search et on peut y vérifier que la commande link:http://www.domaine.com/ ne donne aucun résultat alors que cette commande donne pourtant des résultats très complets. Jean-Luc P.S. je ne vois pas l'intérêt de cette manip pour les moteurs de recherche, si ce n'est, d'un point de vue purement marketing, de donner une certaine impression de dynamisme.
  19. Bonjour, Le spam n'est pas un problème technique, mais un problème relatif à la loi. Je pense que, dans la plupart des pays, il y a un organisme officiel qui supervise et surveille l'emploi de l'internet. A mon sens, c'est à lui (et pas à une société commerciale ou à une association) qu'il faudrait s'adresser. Jean-Luc
  20. Bonjour, Ils peuvent avoir un contrat avec un registrar pour obtenir l'URL. Actuellement, Google et Yahoo référencent souvent des pages d'accueil de sites (.com ou .net) qui n'ont aucun lien entrant, simplement sur base de l'information obtenue des registrars. Jean-Luc
  21. Bonjour, <a href="http://www.mon-site.com/divers/page.html>bla bla</a> ou <a href="/divers/page.html>bla bla</a> C'est du pareil au même. C'est le "b a ba" de la navigation pour les robots. <a href="../divers/page.html>bla bla</a> A supposer que tu sois, par exemple, sur [i]http://www.mon-site.com/cool/waw.html, c'est bon aussi, mais ça demande un peu plus de boulot au robot. C'est pour cela que Google demande qu'on donne la préférence aux deux premières versions, mais cela n'a probablement aucune influence sur le référencement. D'ailleurs, si mon navigateur arrive à interprèter correctement les tois versions, il n'y a aucune raison pour les robots de ne pas y arriver. Jean-Luc
  22. Vous n'aviez pas vu cette condition au début parce qu'elle n'y était pas. Google l'a rajoutée discrètement le 25 janvier (date approximative). Et attention, les 90 jours sont théoriques, car il faut être "éligible pour le paiement" à ce moment, or (suivant le jour du mois) il faut parfois attendre plus de 40 jours entre le moment où on atteint les 100 $ et le moment où AdSense paie. Jean-Luc
  23. Bonjour, Vous m'inquiétez... Le risque dont vous parlez est seulement présent si /index.php ne traite pas ces variables avec toute la prudence nécessaire ou je me trompe ? Jean-Luc
  24. Pour compléter tes infos, voir ma signature. Jean-Luc
  25. Tu pourrais commencer par enregistrer l'adresse IP de celui qui envoie le formulaire (ou récupérer un cookie si tu en utilises). De là à retrouver le plaisantin en question, c'est une autre histoire. Que veux-tu dire par "retrouver" ? La ligne "bcc: bob_AT_*********.com" me fait penser à un hacker qui teste s'il peut envoyer des e-mails (spam) à partir de ton site. Si ça ne fonctionne pas comme il l'espère, il va se lasser très vite et passer à un autre site (hier, il y en a un qui a fait une dizaine de tentatives sur un de mes sites). Jean-Luc
×
×
  • Créer...