Aller au contenu

Jeanluc

Membre+
  • Compteur de contenus

    2 003
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jeanluc

  1. Tu n'aurais pas une règle dans le style de ceci ailleurs dans ton .htaccess ? RewriteCond %{HTTP_HOST} !^www.psgclan.com$ RewriteRule ^(.*) http://www.psgclan.com/$1 [QSA,L,R=301] Jean-Luc
  2. Essaie ceci: Options +FollowSymlinks RewriteEngine on RewriteCond %{HTTP_HOST} ^www.site2.com$ RewriteRule ^(.*) http://www.site1.com/site/$1 [QSA,L,R=301] Jean-Luc
  3. On est d'accord sur la définition, mais pas sur son interprétation dans ce cas-ci. Chez TradeDoubler, ils parlent souvent d'incentive pour désigner des outils de motivation des éditeurs, comme 1% de comm en plus ou la possibilité de gagner un prix pour les éditeurs les plus performants. Il ne s'agit donc pas d'avoir le droit ou non d'inciter les visiteurs à cliquer. Jean-Luc
  4. Je suppose que tu parles de la version html mise en cache par Google. Tu ne peux pas redirigé une page du domaine google.com. Google a généré cette version html en cache quand la version pdf de ta page était accessible. Je suppose que cette cache restera en place encore quelque temps, tant que Google n'a pas propagé l'information de la redirection 301 dans tous les recoins de sa database. Jean-Luc
  5. Dans le fichier de configuration AWStats, remplace URLReferrerWithQuery=0 par URLReferrerWithQuery=1 Jean-Luc
  6. "nofollow" est totalement inapproprié pour remplacer "Disallow". Cariboo a expliqué pourquoi dans sa réponse. On devrait plutôt comparer "Disallow" avec "noindex": - "Disallow" interdit le crawl des pages - "noindex" interdit l'indexation (et n'interdit pas le crawl) Il est parfois possible de réduire le nombre de "Disallow" en les écrivant de manière optimale (surtout si on vise Google en particulier). Jean-Luc
  7. Il faudrait corriger ton diagnostic. Ton site est en tout cas accessible depuis la Belgique et Google a indexé 3150 pages, donc le site est accessible depuis les USA. Jean-Luc
  8. Oui, je crois aussi que ton str_replace fonctionne, mais que c'est ton test qui n'est pas bon. Jean-Luc
  9. Exactement. Il ne s'agit pas du robots.txt de ton site, mais de ceux des sites qui sont cités. Par exemple, pour la première adresse de la liste, c'est [i]http://images.google.hu/robots.txt. Tu ne peux rien faire à cela et, de toute façon, l'impact est négligeable. Jean-Luc
  10. Quelque chose comme ceci: RewriteRule ^tourisme\/(.*.jpg)$ /$1 Jean-Luc
  11. Merci beaucoup Kioob. Je voulais faire un essai avec frihost.net et on dirait que ce n'est pas concluant même pour un essai d'un site en construction. Je n'ai pas eu de soupçon envers l'hébergeur dans la mesure où bourse-bruxelles.com qui est a été mis à la même adresse le même jour était accessible moins de 24 heures après la mise à jour des DNS. J'ai bien lu ton explication sur la différence de fonctionnement entre .be et .com, donc je vais voir ce qu'en dit l'hébergeur et je vais probablement déménager le site. Merci encore. Jean-Luc
  12. Merci KnockedMaster. Y a-t-il un problème général avec les .be ? Quelque part cela m'étonnerait car je n'ai aucun problème avec d'autres .be. Malheureusement nous sommes une semaine plus tard et mon problème de DNS est toujours présent... Le nom de domaine est www.bourse-bruxelles.be et je n'arrive toujours pas à y avoir accès via Belgacom. Ce que j'ai essayé: - connexion depuis différents ordi à Bruxelles et Ostende via Belgacom: DNS résolu moins d'une fois sur deux. - ipconfig /flushdns suivi de nouvelles tentatives: DNS résolu moins d'une fois sur deux. - connexion via l'outil de test HTTP du Hub ou en demandant la traduction à Google: connexion sans problème. - ping sur ssh depuis différents hébergeurs aux USA et en Belgique: connexion sans problème. J'ai rapporté le problème à Belgacom ce matin. Quelqu'un aurait-il un conseil ou une explication ? Merci d'avance. Jean-Luc
  13. Bonjour, Ajouter un mot "répertoire fictif" est autorisé, mais cela ne changera pas grand chose à ton référencement. Essaie comme ceci: Options +FollowSymLinks RewriteEngine on RewriteCond %{HTTP_HOST} !^www\.auberge\.com [NC] RewriteRule (.*) http://www.auberge.com/$1 [QSA,R=301,L] RewriteRule ^index.html$ /index.php RewriteRule ^tourisme\/location-(.*).html$ /location.php?ville=$1 ErrorDocument 404 / J'ai aussi corrigé ton ErrorDocument qui n'était pas correct. Jean-Luc
  14. robots.txt est un fichier par lequel tu informes les robots. Après, ils font ce qu'ils veulent. S'ils sont polis (comme ceux de Google, Yahoo ou Microsoft), ils vont faire leur possible pour respecter tes demandes de ne pas visiter certaines parties de ton site. S'ils sont mal intentionnés (comme les robots des spammeurs et des hackers), ils pourraient utiliser le contenu de robots.txt pour savoir où aller faire leurs mauvaises actions. Ne pas oublier le s dans robots.txt. Les robots lisent le fichier robots.txt, mais ils ne liront jamais un fichier robot.txt ! Jean-Luc
  15. Avec bloc-notes de Windows (notepad), quand tu fais "Fichier", puis "Enregistrer sous ...", en bas de la fenêtre, tu peux choisir le type de codage. Il doit y avoir une option de ce type dans tous les éditeurs, mais je suppose que parfois elle est bien cachée. Jean-Luc
  16. En voici quelques uns: é = é è = è ê = ê à = à Et pour les autres, demande à Google. Il doit savoir où on peut trouver une liste d'entités HTML. Jean-Luc
  17. Ton fichier header.inc.php est effectivement encodé en UTF-8 alors que ta page est supposée s'afficher en ISO8859. Je n'ai pas vérifié pour les autres fichiers inclus. Il faut réenregistrer ces fichiers en changeant le format. Jean-Luc
  18. Certains de tes fichiers sont enregistrés au format ISO8859 et d'autres au format UTF-8. Quand tu les combines avec l'include, tu te retrouves avec des caractères accentués codés de deux façons différentes. La différence de codage peut aussi se trouver au niveau de données stockées dans la database s'il y en a une. Soit tu mets des entités HTML partout (é, par exemple), soit tu codes tous tes fichiers de la même façon, soit tu convertis les données du "mauvais" format vers le "bon" quand c'est nécessaire. Essaie de localiser plus précisément d'où provient la différence de format Jean-Luc
  19. Pour la question 2, ce que tu veux faire est parfaitement possible. Va voir la partie concernant les critères personnalisés dans la page Optimisation à l'aide des critères. Jean-Luc
  20. Bonjour, 1. Non 2. Oui, dans les "rapport avancés" 3. Google ne communique pas cette info. Jean-Luc
  21. Bonjour, Le 2 juillet, j'ai acheté un .com et le .be correspondant. Le 7 juillet, j'ai pris un hébergement et j'ai fait pointé les DNS vers les serveurs DNS de l'hébergeur. Après quelques heures, j'avais accès au .com; par contre, aujourd'hui je n'ai toujours pas d'accès au .be de manière stable. Pourtant les GWT de Google ont vérifié sans problème le fichier de contrôle du .be et l'outil de test d'en-tête HTTP du hub trouve aussi le .be sans problème. D'ici, c'est plus bizarre. Je me connecte sous Windows via mon routeur WiFi. Ce matin, mon ordi trouvait le .be, mais maintenant il est à nouveau inaccessible. Où pensez-vous que le problème se trouve ? - dans mon manque de patience. Je devrais encore attendre quelques jours. - dans mon ordi - chez mon fournisseur d'accès - chez mon hébergeur - chez le registrar Encore deux remarques: 1. le .com et le .be sont au même endroit avec une redirection 301 vers le .be 2. je pensais que les DNS était mis en cache sous Windows, mais si cela était le cas, comment se fait-il que la connexion que j'avais le matin ne soit plus là l'après-midi. Entretemps, je me débrouille avec l'adresse IP et le nom de domaine dans le fichier HOSTS. Jean-Luc
  22. Effacé, t'es sûr ? Sur les serveurs qui proposent un FTP anonyme, il arrive qu'on puisse uploader des fichiers dans un répertoire sans pouvoir visualiser le contenu de ce répertoire. Jean-Luc
  23. Essaie ceci: Options +FollowSymlinks RewriteEngine on RewriteRule ^/$ http://www.exemple.com/mon-beau-site/ [L,R=301] Jean-Luc
  24. Je pense que Google est une excellente entreprise avec beaucoup de bonnes idées techniques et commerciales et des risques d'abus de position dominante. Cela est propre à toute entreprise qui a du succès. Par contre, beaucoup de webmasters ne font pas preuve de discernement en lui confiant leurs statistiques et leurs emails et en lui indiquant leurs objectifs de vente (transformations dans AdWords). Jean-Luc
  25. Aucun souci si tu n'utilises pas ces scripts. Ces robots tirent dans toutes les directions. Tant qu'ils ne dévorent pas trop de bande passante, je les laisse faire. Jean-Luc
×
×
  • Créer...