Aller au contenu

Jeanluc

Membre+
  • Compteur de contenus

    2 003
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jeanluc

  1. C'est bien là le problème. Le code 404 n'est pas un code de redirection, mais un code d'erreur et on peut éventuellement afficher une page d'erreur personnalisée (ce que tu appelles "redirection 404"). Comme Google et les autres moteurs n'indexent pas les pages d'erreur, aucune de ces pages ne sera indexée. Donc, comme le dit xgamer, remplace cela par une redirection 301 (une vraie redirection ). Jean-Luc
  2. Jeanluc

    Adresse hôte

    Ils veulent peut-être dire l'adresse IP de ton site. Si tu ne la connais pas, va sur http://whois.webhosting.info/ et tape ton nom de domaine, puis clique sur GO. Jean-Luc
  3. Bonjour, Le registrar n'a pas d'importance. Pour un TLD (top level domain) international (.com, .net, .info,...), comme le dit webadev, c'est la localisation de l'IP, donc le lieu d'hébergement, qui sont déterminants. Jean-Luc
  4. On en parle depuis quelques jours. Tout webmaster ou tout membre de Google Co-op peut créer très facilement un ou plusieurs moteurs de recherche personnalisés en spécifiant les sites (ou les pages) sur lesquels les recherches doivent ou ne doivent pas avoir lieu. Exemples d'application : - exclusion de sites spammeurs ou d'autres sites indésirables - moteur destiné à un public spécifique (enfants, étudiants, chercheurs, moteur régional,...) - moteur spécialisé qui sélectionne un petit nombre de sources considérées comme plus fiables Actuellement le service est seulement proposé en anglais par Google, mais il y a déjà plusieurs exemples français en ligne : - moteur de recherche sur le bouddhisme Theravada de Sébastien Billard - recherche sur les principaux forums "référencement" Tout cela me semble très prometteur. Jean-Luc
  5. Il est normal que tu n'aies pas le droit de déplacer un fichier généré par le système (par exemple, un fichier de stats). Jean-Luc
  6. Merci pour l'info et bienvenue sur le forum. Jean-Luc
  7. Bonjour, Je ne comprends pas. .htaccess n'agit que sur les accès en HTTP. Tu n'as pas d'accès FTP à tes fichiers ? C'est quoi ce "ou" ? Tu veux dire une erreur 404 à l'adresse [i]http://www.s183019186.onlinehome.fr/ ? Pour accéder à [i]http://www.nikopole.fr/logs/, tu dois entrer le nom d'utilisateur et le mot de passe que tu as définis dans .htaccess et .htpasswd. Rien d'anormal là-dedans. Si tu ne te souviens plus du mot de passe, crée un nouveau .htpasswd. Le titre "Error 400!" de toutes les pages d'erreur t'induit en erreur. Il ne faut pas confondre le code 404 retourné par certaines de tes adresses et le code 401 des pages protégées par un mot de passe. J'espère avoir un peu débroussaillé le terrain. Jean-Luc
  8. Bonjour, Google optimise le prix par page affichée, pas le prix par clic. Cela veut dire que Google préfère afficher une annonce à 0,05 $/clic cliquée 100 fois sur 10000 affichages, plutôt qu'une annonce à 1,00 $/clic cliquée 1 fois sur 10000 affichages. Pour 10000 affichages, la première rapporte 5 $ et la seconde 1 $. Sur AdSense, les comparaisons de prix par clic ne permettent pas de mesurer la rentabilité des annonces. Jean-Luc
  9. Bonjour, Qu'est-ce qu'il y a dans ton .htaccess ? Jean-Luc
  10. Sauf que ce n'est pas à nous de surveiller ces stats, mais à Google. Je suis d'accord d'informer Google si je vois quelque chose de suspect, mais ce n'est pas mon boulot. C'est à Google de faire ce travail en premier lieu. Jean-Luc
  11. D'accord avec adn, TD répond lentement et souvent à côté de la question. J'obtiens des réponses de meilleure qualité via un contact direct chez TD que par les formulaires prévus. L'interface est difficile d'emploi et il y a des incohérences. Je confirme aussi que NetAffiliation est excellent. C'est un modèle d'efficacité. Jean-Luc
  12. En comparant les données de l'outil Google aux stats que j'obtiens avec Spider-Reporter, je confirme que d'autres visites de robots que celles de Googlebot sont comptabilisées. Par contre,si j'additionne les visites de Googlebot et celles de Mediapartners, je dépasse de beaucoup les chiffres de l'outil Google... Peut-être que Google ne compte qu'une seule page vue, pour une même page vue plusieurs fois sur une journée par ses robots ? Jean-Luc
  13. Donc tout se passe comme si ton sous-domaine n'existait pas. S'il a été créé récemment, je suppose qu'il suffit de patienter quelques heures (quelques jours dans le pire des cas), le temps que les serveurs de noms de domaines soient mis à jour pour ton nouveau sous-domaine. Si la création du sous-domaine date de plus de 48 heures, demande à l'hébergeur de vérifier qu'il a bien créé le sous-domaine. Jean-Luc
  14. Bonjour, La procédure que tu as suivie semble correcte. Quel type d'erreur as-tu avec [i]http://monsousdomaine.mondomaine.com/ ? Jean-Luc
  15. Je vais essayer de me répondre moi-même... Il se pourrait que le critère soit le temps moyen de téléchargement d'une page (dernier tableau du rapport). A vérifier. Jean-Luc
  16. Ce que dit Google à ce sujet, c'est que je comprends comme ceci : En quelque sorte, Googlebot dit "Je veux bien venir plus souvent, mais il faut que vous me le demandiez parce que j'ai un doute sur la capacité de votre serveur à accepter la charge supplémentaire". Quant à savoir sur quelles bases Google décide qu'il y a un risque que votre serveur ne supporte pas un supplément de trafic,... Jean-Luc
  17. Il faudrait commencer par remplacer tous les Disallow:/machin.php3 par des Disallow: /machin.php3 (avec un espace). Je ne comprends toujours pas cette histoire d'URL extérieures. Pourrais-tu donner un exemple ? Jean-Luc
  18. Bonjour. C'est recommandé par Google, mais ce n'est pas standard. Ce code sera donc uniquement compris par Google. Là, je ne comprends pas ce que tu veux dire. Le robots.txt n'a aucun effet sur les URL des autres sites. Ce code est correct. Il est conforme au standard et interdit bien aux robots de visiter les pages de type /page.php3?valeur=$valeur En théorie, ce n'est pas parce que Google ne peut plus visiter une page qu'il doit obligatoirement l'enlever de son index. En pratique, la page non visitée ne sortira probablement plus très souvent dans les résultats de recherche, mais on ne sait jamais... Ce code n'est pas standard et, même avec Google, il ne marchera pas mieux que le code standard que tu utilises actuellement. Si la méthode du robots.txt ne donne pas des résultats satisfaisants, il reste :- l'outil Google de désindexation forcée des pages (attention, bien tout lire avant d'utiiser cet outil dangereux) - la possibilité de mettre des "nofollow" sur tous les liens pointant vers ces pages - la possibilité de mettre, dans ces pages, une ligne <meta name="robots" content="noindex,nofollow"> Ce serait utile que tu donnes l'URL de ton site pour qu'on puisse vérifier que ton robots.txt est accessible et sans mauvaise surprise. Jean-Luc
  19. On ne peut rien conclure de seulement 3 clics. Jean-Luc
  20. Voici un exemple de mauvaise gestion des spams (parmi de nombreux autres, reçus aujourd'hui) : internetofficer.com est un de mes domaines, mais l'utilisateur Moses Delgado, alias ahi n'a jamais existé. Le logiciel détecte que le domaine qui a envoyé le mail est 89.0.117.222 qui est en Israël, mais il envoie un mail d'avertissement en Belgique, induit en erreur par le spammeur qui a évidemment indiqué une adresse d'expéditeur fictive ! Et tout cela semble généré automatiquement par un ... anti-spam. Jean-Luc
  21. Ici ça marche : "L'image de webcam est mise à jour toutes les 10 minutes environs mais ne fonctionne que durant la journée. Problème de cache sur ton PC ? Jean-Luc
  22. Tu veux dire que [i]http://www.arlon-is-on.be/fr/webcam.html existe, mais [i]http://www.arlon-is-on.be/webcam.html n'existe pas. Jean-Luc
  23. Bonjour zantar, Une preuve de bonne foi pour quoi faire ? Quand on dispose d'un logiciel d'envoi d'email et qu'on connaît un tout petit peu la technique, on peut indiquer n'importe qui comme expéditeur (George Bush, Zidane, Fogiel, Jean-Luc ou Zantar). Le nom de l'expéditeur d'un spam n'est absolument pas une preuve de quoi que ce soit. Seule l'adresse IP de l'expéditeur est une preuve et on peut la trouver dans les entêtes de l'email. Il n'y a donc pas d'alibi à rechercher. Le seul problème est que des personnes mal informées pourraient croire que toi ou ton système y sont pour quelque chose, mais, contre ça, tu ne peux pas faire grand chose. Jean-Luc
  24. Bonjour, RewriteRule webcam.htm http://www.arlon-is-on.be [R=301] renvoie la page webcam vers la page d'accueil. Il faut enlever cette ligne puisque tu ne veux pas ce renvoi. ErrorDocument 404 http://www.arlon-is-on.be/404.html n'est pas correct, même si cela semble fonctionner. Il faut le remplacer par ErrorDocument 404 /404.html Voilà, voilà,... Jean-Luc
  25. Idem chez moi. Depuis quelques jours, je reçois des tonnes de mails non délivrés qui me parviennent de serveurs de mails qui renvoient les spams qu'ils reçoivent vers l'adresse indiquée dans le champ "expéditeur". Je suppose que les administrateurs de ces serveurs de messagerie ne sont pas conscients qu'en agissant ainsi ils ne font qu'aggraver le problème du spam. Jean-Luc
×
×
  • Créer...