Aller au contenu

Jeanluc

Membre+
  • Compteur de contenus

    2 003
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jeanluc

  1. Bonjour, Tout dépend jusqu'où tu veux aller. Le fondement de l'algorithme de Google est ce papier de Sergey Brin et Lawrence Page: The Anatomy of a Large-Scale Hypertextual Web Search Engine. Bon amusement. Jean-Luc
  2. Bonjour, Qu'est-ce que tu ferais à leur place ? Jean-Luc
  3. Et ça ? <?php echo "salutpetithommeelliottà bientôt"; ?> Jean-Luc
  4. Bonjour, Essaie ceci: <?php $type[1]="null"; $type[2]="salut"; $type[3]="null"; $type[4]="petit"; $type[5]="null"; $type[6]="homme"; $type[7]="null"; $type[8]="elliott"; $type[9]="null"; $type[10]="à bientôt"; $type[11]="null"; for ($i=1; $i<=11; $i++) { if ($type[$i]!="null") { echo $type[$i]; } } ?> Jean-Luc
  5. Bonjour, Le seul moyen est de ne pas l'envoyer. Jean-Luc P.S. malgré les apparences, c'est une réponse sérieuse.
  6. Bonjour, Microsoft URL Control - 6.00.8xxx Probablement un bot mal intentionné. A été observé depuis toutes sortes d'adresses IP. Microsoft Data Access Internet Publishing Provider DAV 1.1 Pour les intimes, MSDAIPP. A aussi été observé depuis toutes sortes d'adresses IP. Je n'ai pas encore réussi à décrypter ceci: Jean-Luc
  7. C'est ce que je fais sur un de mes sites où je ne gère pas de sessions. C'est de cette expérience que je retire les 10% de "referrers masqués". Ils n'ont donc pas accès au fichier recherché et ils voient un message disant que l'accès au fichier est seulement possible si les referrers sont activés. Environ la moîtié de ces 10% refait alors un essai avec referrer correct dans les secondes qui suivent. L'autre moîtié n'insiste pas, mais dans cette autre moîtié se trouvent aussi les robots (qui ne savent pas lire le texte concernant les referrers). Pour mon utilisation, cela veut dire que c'est simple, efficace et que les "pertes" sont négligeables. Je ne suis pas en train de dire que tout le monde doit toujours faire comme ça, loin de là! Tout dépend du contexte, mais la méthode est simple à mettre en oeuvre. Et il ne faut pas oublier non plus qu'à côté de ceux qui désactivent les referrers, il y a ceux qui désactivent les cookies... Jean-Luc
  8. Bonjour, N'exagérez pas! Le referrer fonctionne de manière normale sur tous les browsers, donc c'est fiable pour 90% des internautes. Reste 10% d'internautes qui masquent les referrers: des passionnés et passionnées de technique qui touchent à tout et quelques paranos qui pensent que des puissances occultes les surveillent. Et puis il y a les spammeurs de referrers, des robots (= programmes) dont le seul objectif est (pour se faire de la pub) d'indiquer de faux referrers dans les stats des webmasters (thèmes principaux: casinos, devenir riche en 5 minutes, sites de Q,...). Moralité: une fois que tu as fait le tri, c'est vraiment une info super-utile. Jean-Luc
  9. Bonjour, La notion de droit d'auteur s'applique dans le monde entier à peu près de la même façon. En gros, si tu crées quelque chose d'original (un roman, un site web, une peinture, un film, un programme informatique,...), c'est AUTOMATIQUEMENT protégé par le droit d'auteur et tu es le seul à autoriser ou limiter son utilisation. Donc personne ne peut copier ton site sans ton accord. En gros aussi, tout ce qui est "brevet" et "copyright", c'est du show avec très peu de valeur réelle. En pratique, il y a deux difficultés : 1° prouver la date de création et donc que tu es bien l'auteur et que ce n'est pas toi qui as fait une copie. Il y a divers moyens peu coûteux pour cela, selon le pays où tu trouves (par exemple, s'envoyer à soi-même une lettre recommandée qu'on n'ouvre pas et dans laquelle se trouve une copie du contenu à protéger). 2° devoir se lancer dans des démarches administratives laborieuses et parfois coûteuses pour faire cesser la copie illégale et obtenir réparation. Difficile d'aller payer un avocat pour mettre fin à une copie de site sur un serveur au bout du monde. Heureusement souvent, un simple email courtois et ferme adressé au copieur suffit à faire cesser l'abus. Jean-Luc
  10. Ah bon ? Ceux qui polluent le web avec des pages dont la seule raison d'être est de tromper les algo des moteurs de recherche sont meilleurs ? Ce n'est pas mon avis. Google demande d'ailleurs qu'on l'aide à éliminer ce genre de pages de son index au moyen du spam report. Jean-Luc
  11. Et moi, je ne la vois pas (pourtant, j'ai Flash). Peut-être que ça ne marche qu'avec certaines versions de Flash ? Jean-Luc
  12. Bonjour, J'ai tout lu, mais pas tout suivi... D'ici, je peux voir que: - [i]http://www.gcc.asso.fr/ est à l'adresse 82.196.5.72 - [i]http://gccasso.free.fr/ est à l'adresse 212.27.63.112 - [i]http://gccasso.ifrance.com/ est à l'adresse 82.196.5.72 On dirait donc que le nom de domaine pointe bien vers iFRANCE. Soit il faut patienter un peu (48 heures maximum) que les infos de nom de domaine soient bien propagées partout, soit iFRANCE n'a pas encore fait le nécessaire pour que votre adresse pointe sur gccasso.ifrance.com. Jean-Luc
  13. Bonjour, Je vais essayer, mais je vais peut-être te choquer. C'était sûrement très dur, financièrement et psychologiquement, mais dire qu'on fait faillite à cause des concurrents et des sociétés de recouvrement, c'est dire qu'à l'avenir, on doit traiter ses affaires avec plus de prudence. Bravo, allez de l'avant! C'est l'occasion de rebondir en tirant des leçons lucides du passé. Là, tu déconnes. Toute cette histoire est du passé maintenant. Ton avenir est ailleurs. Tu as mieux à faire. Ne gaspille pas ton énergie à ça. Mes conseils sont gratuits. Jean-Luc
  14. Je comprends que tu ne comprennes pas. Chaque régie a ses propres règles et chaque campagne aussi. Je perds aussi beaucoup de temps à essayer de décoder tout ça. Pour le capping affichage/visiteur, chez NetAffilliation, je ne crois pas que ce soit indiqué, mais je leur ai posé la question pour une campagne donnée. Ils m'avaient répondu qu'ils ne comptaient qu'un affichage par visiteur par jour (donc capping à 1 affichage). C'était pour cette campagne-là; pour les autres, je ne sais pas. Il faudrait leur poser la question. Mais il y a une autre sorte de capping qui lui, dans ton exemple, est indiqué clairement: 2000 affichages payés pour 1 vente. Bonne continuation. Jean-Luc
  15. FrenchyNeo, tu exagères! Tu confonds 0,0006 euro par affichage et 0,0006 euro par 1000 affichage!!! Ils sont très bien chez NetAffiliation. J'ai plusieurs annonces de chez eux sur www.annuaire-info.com et j'en suis très satisfait. On peut aussi dire quand on est content, non? Jean-Luc
  16. Bonjour, Il y a certainement des sites qui font des redirections vers ton site, puisqu'il y en a vers pratiquement tous les sites du web. Ils ne sont pas mal classés par Google pour autant. Si tu as une référence précise, on peut faire une vérification plus détaillée. Sinon, je ne crois pas que tu dois t'inquiéter pour un problème qui existait il y a 6 mois, mais qui a (en principe) complètement disparu. Jean-Luc
  17. Ce n'est pas exact. Ils rémunèrent à l'affichage, au clic, au double-clic, au formulaire ou à la vente. Cela dépend uniquement de l'annonceur. Jean-Luc
  18. Suggestion: RewriteEngine On RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteCond %{REQUEST_FILENAME} !-l RewriteRule .* page-ki-nexiste-pa.html [QSA,L] Mon interprétation: si la requête ne correspond pas à un directory existant, ni à un fichier existant, ni à ("-l", c'est quoi ?), alors la page demandée est ré-écrite en page-ki-nexiste-pa.html. Comme cette page n'existe pas, Apache renvoie un code 404. Si, par ailleurs, tu as le ErrorDocument adapté, la page affichée à l'internaute est celle que tu veux. Non testé! Qu'en penses-tu ? Jean-Luc
  19. Pourquoi pas ceci, tout simplement ? ErrorDocument 404 /index.php Jean-Luc
  20. Je ne vois pas le rapport avec le problème précédent. De toute façon, ces coyotes se cachent derrière des proxies (d'où les changements d'IP). Tu pourrais ajouter (au moins provisoirement) une étape de validation ou l'impossibilité de poster des URL dans ton livre d'or. Jean-Luc
  21. Le problème n'est-il pas que tu as un double saut de ligne à la fin de chaque ligne et donc que toutes tes lignes vont être affichées en sautant une ligne intermédiaire ? Fais un essai en supprimant la ligne: $f[1]= ""; Cela devrait éclaircir les choses. Jean-Luc P.S. tu peux utiliser rtrim(fgets(...)) au lieu de fgets(...) pour supprimer un saut de ligne.
  22. Message supprimé (c'était une fausse piste, désolé). Jean-Luc
  23. Bonjour, Oui, le positionnement est différent, dans les "Search the web", sur google.co.uk, sur google.com, sur google.ca, etc., même si toutes ces recherches sont faites en anglais. Tu peux tester très facilement par toi-même en prenant quelques mots clés de ton domaine et en comparant les résultats sur les différents google.__. Les résultats dépendent du degré de compétition du domaine. Jean-Luc
  24. Bonjour, Si tu redéfinis un nouveau frameset dans target ="_top", tu devrais y arriver en mettant une frame avec "logout" dans 'menu' et la page d'accueil dans la frame 'base'. Jean-Luc
  25. Bonjour, Le code source doit être corrigé. Il y a des <head>, des <body> et du JavaScript un peu partout, ce n'est pas comme ça qu'une page doit être construite. Difficile de prévoir ce que va y comprendre un navigateur ou un moteur de recherche... Avec quel outil as-tu créé ta page ? Moteur de recherche = Google ou Yahoo ou MSN Search ou ... Navigateur = Internet Explorer ou Opera ou Firefox ou ... Jean-Luc
×
×
  • Créer...