Aller au contenu

Jeanluc

Membre+
  • Compteur de contenus

    2 003
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jeanluc

  1. J'ai l'impression que tu confonds URL rewriting et redirection: - URL rewriting: le navigateur demande l'URL /abcd.html et le site affiche le contenu se trouvant à n'importe quelle autre adresse locale sans en informer le visiteur (la barre d'adresse affiche toujours /abcd.html). - redirection: le navigateur demande l'URL /abcd.html et le site renvoie le visiteur vers une autre adresse locale ou externe (la barre d'adresse affiche l'adresse de la redirection). Jean-Luc
  2. Si le sous-domaine existe toujours et si le sous-domaine et le nouveau domaine pointent sur le même répertoire, tu mets ce fichier .htaccess dans ce répertoire. 1. S'il n'y a pas d'autres sous-domaines: Options +FollowSymlinks RewriteEngine on RewriteCond %{HTTP_HOST} !^www.nouveau_domaine.com$ RewriteRule ^(.*) http://www.nouveau_domaine.com/$1 [QSA,L,R=301] 2. S'il y a d'autres sous-domaines: Options +FollowSymlinks RewriteEngine on RewriteCond %{HTTP_HOST} ^ancien_sous_domaine.ancien_domaine.com$ RewriteRule ^(.*) http://www.nouveau_domaine.com/$1 [QSA,L,R=301] Jean-Luc
  3. Bonsoir, Il faudrait donner un peu plus de détail pour qu'on puisse aider plus précisément. Ton problème pourrait être que tu crées les pages en "iso-8859-1" et que tu demandes aux navigateurs de les afficher en "UTF-8". Si tu sors les données d'une database, il faudrait aussi s'assurer que le format dans la database est le bon. Jean-Luc
  4. C'est bien ça: tu mets le fichier robots.txt dans le répertoire principal là où il y a picturebrowse.php. Vu que tu demandais que les robots de Google, Yahoo et MSN ne viennent plus visiter les URL "picturebrowse.php", l'emploi de robots.txt est la meilleure solution. C'est exactement à cela que sert ce fichier: demander aux robots de ne pas visiter certaines adresses. Tu constates aussi que c'est extrêmement simple. Avec un .htaccess, tu pourrais renvoyer un code "accès interdit" à certains robots, mais cela a au moins deux inconvénients: 1. cela va t'obliger à y placer la liste des user agents des robots concernés (pour tester si c'est un robot interdit ou un visiteur autorisé) 2. les robots essaieront quand même de visiter les pages et c'est à ce moment seulement qu'ils recevront le code "accès interdit" Jean-Luc
  5. Ok, c'est facile. Tu mets ceci dans ton robots.txt: User-agent: * Disallow: /picturebrowse.php Ce code interdit la visite de toute URL commençant par "/picturebrowse.php". Jean-Luc
  6. Pourrais-tu expliquer ce que tu veux faire, parce que "demander aux robots de ne plus visiter une page et, en même temps, leur imposer de conserver cette page dans l'index" ne me semble pas possible ? Jean-Luc
  7. Essaie ceci: RewriteCond %{QUERY_STRING} catid=(\d+) RewriteRule ^index\.php$ http://www.monsite.com/blabla/%1-voitures.html? [L,R=301] Jean-Luc
  8. Je pense que Leonick a raison, car, dans le texte original, Google dit exactement: qui se traduit en: Le "généralement" peut très bien vouloir dire que les abus sont détectés. Jean-Luc
  9. La meta "keywords" n'est pas utilisée par Google. Elle ne nuit pas, mais elle n'apporte rien pour Google (c'est précisé dans les commentaires de l'article de Google en anglais et dans le texte de ma traduction). Jean-Luc
  10. Bonjour, Google Webmaster Central Blog vient de publier une liste des balises META qu'il supporte et comment il les interprète. L'article contient la confirmation d'informations bien connues et quelques nouvelles infos: "notranslate", "unavailable_after" et le remplacement possible de la META "robots" par une en-tête HTTP “X-Robots-Tag” (très intéressant pour les pdf et d'autres fichiers dans lesquels on ne peut pas placer de META). A ce sujet, Yahoo vient d'annoncer qu'il allait également supporter les en-têtes HTTP “X-Robots-Tag”. L'article original de Google: Answering more popular picks: meta tags and web search L'article original de Yahoo: Yahoo! Search Support for X-Robots-Tag Directive to Simplify Webmaster's Control and Weather Update Adaptation en français de l'article de Google: Google et META tags Jean-Luc
  11. Merci pour les encouragements. Pour le filtre sur la date d'inscription dans la base, voir la sélection "Mises à jour / Derniers inscrits" au bas du formulaire. Jean-Luc
  12. Bonjour, Tenir à jour les infos sur plus de 6000 annuaires n'est pas une mince affaire, mais je suis bien d'accord avec ta remarque qui est tout à fait justifiée. Nous sommes occupés à restructurer le site et la database des annuaires. Nous voulons ajouter encore d'autres infos pour rendre le site plus utile, mais chaque info ajoutée doit être tenue à jour. C'est un vrai challenge, mais on y travaille. Encore un peu de patience. Si tu as des suggestions pour des améliorations ou des changements, n'hésite pas. Donne-les ici ou envoie-moi un message privé. Merci. Jean-Luc (annuaire-info.com)
  13. Là, tu pars de l'idée que l'algo de Google est bête et méchant... Quand on parle de duplicate content, on pense à des sanctions ou pénalités infligées par Google. En réalité, les sanctions pour duplicate content sont rares. Et je pense bien qu'avant de prendre des sanctions, Google vérifiera qu'il n'y a pas de redirection. Même s'il n'y a pas de sanction, le duplicate content présente l'inconvénient que le "poids" (PR ou link juice) de la page est partagé entre deux URL au lieu de le concentrer sur une seule URL. A mon avis, la redirection 301 est le meilleur moyen pour limiter les dégats. Jean-Luc
  14. Oui, l'inscription chez Google, Yahoo et Live Search n'est pas utile. Ce qu'il faut, ce sont des liens. Voir comment inscrire un site. Jean-Luc
  15. Comme d'habitude: redirection 301 de l'ancienne URL vers la nouvelle. Jean-Luc
  16. Voir Pourquoi dois-je signaler les liens payants à Google ? Mon avis personnel est que tout cela appartient à une logique assez curieuse. L'époque où le webmaster devait créer des pages de qualité sans se préoccuper des moteurs de recherche serait terminée. Selon la nouvelle politique de Google, le webmaster doit compenser les lacunes des méthodes et des algorithmes actuels de Google en indiquant explicitement quels sont les liens payants. Inutile de dire que je reste opposé à l'existence même du rel="nofollow". Jean-Luc
  17. C'est indispensable pour respecter les règles de Google. Jean-Luc
  18. Je ne pense pas que ce soit une très bonne solution, mais si tu y tiens, il suffit d'ajouter une règle qui envoie vers une adresse non existante à la fin de ton .htaccess: RewriteEngine on RewriteRule ^index\.html$ /index.php [L] RewriteRule ^index2\.html$ /machin/index.php [L] RewriteRule ^(.)$ /nexiste.pas [L] Jean-Luc
  19. Une chute si brutale du trafic ne peut s'expliquer que par: 1. dégringolade sur une ou plusieurs requêtes importantes dans Google; 2. problème technique sur le site depuis le 18 août (peu probable); 3. changements dans l'outil ou la méthode d'établissement des statistiques. Je penche pour le (1), mais vérifie quand même si ce n'est pas le (3). Jean-Luc
  20. Disons qu'il suit la redirection JavaScript qui est dans la page d'accueil. C'est pour ne pas tromper les utilisateurs qui, pour la plupart, ne voient jamais ta page d'accueil. C'est assez logique. Il n'existe pas de Googlebot particulier pour la France, l'Italie, l'Allemagne,... Ce sont les mêmes robots qui indexent tout le web quelle que soit la langue du site. Si j'ai bien interprété ton JavaScript, il n'y a pas de redirection quand le navigateur n'est pas dans une langue que ton site connaît. Il me semble que, dans le passé, Googlebot n'avait pas de langue; peut-être que c'est changé et qu'il se considère maintenant comme anglophone. En observant la page indexée par Google, j'ai l'impression que c'est ce qui se passe: Googlebot passe automatiquement à la version anglaise de ta page d'accueil. Jean-Luc
  21. Si le champ "cs-username" est défini dans tes logs, AWStats pourra te donner des stats par utilisateur. Dans la ligne de log que tu donnes comme exemple, ce champ est "-", donc c'est un utilisateur non identifié. Pour que cette méthode marche, il faut que l'authentification utilise "cs-username". Jean-Luc
  22. Désolé, mais je ne vois pas le rapport entre ton besoin de watermarks et la redirection permanente demandée dans ton premier post. Je ne vois pas non plus où est la difficulté d'ajouter un paramètre "&site=siteX" après le "?%{REQUEST_FILENAME}" dans ta règle de réécriture. Est-ce que "http://www.gutz.fr/images/image2.php?%{REQUEST_FILENAME}" renvoie bien une image ou est-ce que tu espères que l'image sera renvoyée indépendamment de cette opération ? J'y perds mon latin et mon PHP... Jean-Luc
  23. RewriteEngine on RewriteRule ^(.*)\.jpg http://www.gutz.fr/images/image2.php?%{REQUEST_FILENAME} [L,R=301] devrait faire l'affaire (si j'ai bien compris ta question). Jean-Luc
  24. Si ce sont des stats basées sur des marqueurs JavaScript (Google Analytics), il n'y aura pas de trace des redirections dans les stats. Si ce sont des stats basées sur les logs (AWStats), tu verras les redirections seulement quand tu examineras la liste des URL qui ont renvoyé un code 301 ou 302. Dans les deux cas, les referrers des visiteurs provenant des moteurs de recherche devraient apparaître pour /DOCPDF/ comme tu le souhaites. Jean-Luc
  25. Jeanluc

    variables sans mySQL

    Ton exemple est très simple et c'est pour cela que tu as l'impression que $nom a une valeur bien connue, mais il ne faut pas nécessairement une base de données pour avoir besoin de variables. La valeur d'une variable peut être lue dans un fichier qui n'est pas une base de données, elle pourrait aussi provenir de données entrées au clavier, elle peut aussi résulter d'un calcul compliqué ou être incrémentée dans une boucle. Voilà, voilà,... Jean-Luc
×
×
  • Créer...