-
Compteur de contenus
2 003 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Jeanluc
-
On est d'accord sur la définition, mais pas sur son interprétation dans ce cas-ci. Chez TradeDoubler, ils parlent souvent d'incentive pour désigner des outils de motivation des éditeurs, comme 1% de comm en plus ou la possibilité de gagner un prix pour les éditeurs les plus performants. Il ne s'agit donc pas d'avoir le droit ou non d'inciter les visiteurs à cliquer. Jean-Luc
-
Je suppose que tu parles de la version html mise en cache par Google. Tu ne peux pas redirigé une page du domaine google.com. Google a généré cette version html en cache quand la version pdf de ta page était accessible. Je suppose que cette cache restera en place encore quelque temps, tant que Google n'a pas propagé l'information de la redirection 301 dans tous les recoins de sa database. Jean-Luc
-
Dans le fichier de configuration AWStats, remplace URLReferrerWithQuery=0 par URLReferrerWithQuery=1 Jean-Luc
-
nofollow ou Disallow dans robots.txt, que préférer ?
Jeanluc a répondu à xoninkara - Forum : Techniques de Référencement
"nofollow" est totalement inapproprié pour remplacer "Disallow". Cariboo a expliqué pourquoi dans sa réponse. On devrait plutôt comparer "Disallow" avec "noindex": - "Disallow" interdit le crawl des pages - "noindex" interdit l'indexation (et n'interdit pas le crawl) Il est parfois possible de réduire le nombre de "Disallow" en les écrivant de manière optimale (surtout si on vise Google en particulier). Jean-Luc -
Il faudrait corriger ton diagnostic. Ton site est en tout cas accessible depuis la Belgique et Google a indexé 3150 pages, donc le site est accessible depuis les USA. Jean-Luc
-
Oui, je crois aussi que ton str_replace fonctionne, mais que c'est ton test qui n'est pas bon. Jean-Luc
-
blocage de l'exploration des pages par robot Adsense
Jeanluc a répondu à sylvainz - Forum : Google Adsense
Exactement. Il ne s'agit pas du robots.txt de ton site, mais de ceux des sites qui sont cités. Par exemple, pour la première adresse de la liste, c'est [i]http://images.google.hu/robots.txt. Tu ne peux rien faire à cela et, de toute façon, l'impact est négligeable. Jean-Luc -
simuler un répertoire fictif
Jeanluc a répondu à slom - Forum : Fichier .htaccess et réécriture d'URLs
Quelque chose comme ceci: RewriteRule ^tourisme\/(.*.jpg)$ /$1 Jean-Luc -
Merci beaucoup Kioob. Je voulais faire un essai avec frihost.net et on dirait que ce n'est pas concluant même pour un essai d'un site en construction. Je n'ai pas eu de soupçon envers l'hébergeur dans la mesure où bourse-bruxelles.com qui est a été mis à la même adresse le même jour était accessible moins de 24 heures après la mise à jour des DNS. J'ai bien lu ton explication sur la différence de fonctionnement entre .be et .com, donc je vais voir ce qu'en dit l'hébergeur et je vais probablement déménager le site. Merci encore. Jean-Luc
-
Merci KnockedMaster. Y a-t-il un problème général avec les .be ? Quelque part cela m'étonnerait car je n'ai aucun problème avec d'autres .be. Malheureusement nous sommes une semaine plus tard et mon problème de DNS est toujours présent... Le nom de domaine est www.bourse-bruxelles.be et je n'arrive toujours pas à y avoir accès via Belgacom. Ce que j'ai essayé: - connexion depuis différents ordi à Bruxelles et Ostende via Belgacom: DNS résolu moins d'une fois sur deux. - ipconfig /flushdns suivi de nouvelles tentatives: DNS résolu moins d'une fois sur deux. - connexion via l'outil de test HTTP du Hub ou en demandant la traduction à Google: connexion sans problème. - ping sur ssh depuis différents hébergeurs aux USA et en Belgique: connexion sans problème. J'ai rapporté le problème à Belgacom ce matin. Quelqu'un aurait-il un conseil ou une explication ? Merci d'avance. Jean-Luc
-
simuler un répertoire fictif
Jeanluc a répondu à slom - Forum : Fichier .htaccess et réécriture d'URLs
Bonjour, Ajouter un mot "répertoire fictif" est autorisé, mais cela ne changera pas grand chose à ton référencement. Essaie comme ceci: Options +FollowSymLinks RewriteEngine on RewriteCond %{HTTP_HOST} !^www\.auberge\.com [NC] RewriteRule (.*) http://www.auberge.com/$1 [QSA,R=301,L] RewriteRule ^index.html$ /index.php RewriteRule ^tourisme\/location-(.*).html$ /location.php?ville=$1 ErrorDocument 404 / J'ai aussi corrigé ton ErrorDocument qui n'était pas correct. Jean-Luc -
robots.txt est un fichier par lequel tu informes les robots. Après, ils font ce qu'ils veulent. S'ils sont polis (comme ceux de Google, Yahoo ou Microsoft), ils vont faire leur possible pour respecter tes demandes de ne pas visiter certaines parties de ton site. S'ils sont mal intentionnés (comme les robots des spammeurs et des hackers), ils pourraient utiliser le contenu de robots.txt pour savoir où aller faire leurs mauvaises actions. Ne pas oublier le s dans robots.txt. Les robots lisent le fichier robots.txt, mais ils ne liront jamais un fichier robot.txt ! Jean-Luc
-
Avec bloc-notes de Windows (notepad), quand tu fais "Fichier", puis "Enregistrer sous ...", en bas de la fenêtre, tu peux choisir le type de codage. Il doit y avoir une option de ce type dans tous les éditeurs, mais je suppose que parfois elle est bien cachée. Jean-Luc
-
En voici quelques uns: é = é è = è ê = ê à = à Et pour les autres, demande à Google. Il doit savoir où on peut trouver une liste d'entités HTML. Jean-Luc
-
Ton fichier header.inc.php est effectivement encodé en UTF-8 alors que ta page est supposée s'afficher en ISO8859. Je n'ai pas vérifié pour les autres fichiers inclus. Il faut réenregistrer ces fichiers en changeant le format. Jean-Luc
-
Certains de tes fichiers sont enregistrés au format ISO8859 et d'autres au format UTF-8. Quand tu les combines avec l'include, tu te retrouves avec des caractères accentués codés de deux façons différentes. La différence de codage peut aussi se trouver au niveau de données stockées dans la database s'il y en a une. Soit tu mets des entités HTML partout (é, par exemple), soit tu codes tous tes fichiers de la même façon, soit tu convertis les données du "mauvais" format vers le "bon" quand c'est nécessaire. Essaie de localiser plus précisément d'où provient la différence de format Jean-Luc
-
Pour la question 2, ce que tu veux faire est parfaitement possible. Va voir la partie concernant les critères personnalisés dans la page Optimisation à l'aide des critères. Jean-Luc
-
Bonjour, 1. Non 2. Oui, dans les "rapport avancés" 3. Google ne communique pas cette info. Jean-Luc
-
Bonjour, Le 2 juillet, j'ai acheté un .com et le .be correspondant. Le 7 juillet, j'ai pris un hébergement et j'ai fait pointé les DNS vers les serveurs DNS de l'hébergeur. Après quelques heures, j'avais accès au .com; par contre, aujourd'hui je n'ai toujours pas d'accès au .be de manière stable. Pourtant les GWT de Google ont vérifié sans problème le fichier de contrôle du .be et l'outil de test d'en-tête HTTP du hub trouve aussi le .be sans problème. D'ici, c'est plus bizarre. Je me connecte sous Windows via mon routeur WiFi. Ce matin, mon ordi trouvait le .be, mais maintenant il est à nouveau inaccessible. Où pensez-vous que le problème se trouve ? - dans mon manque de patience. Je devrais encore attendre quelques jours. - dans mon ordi - chez mon fournisseur d'accès - chez mon hébergeur - chez le registrar Encore deux remarques: 1. le .com et le .be sont au même endroit avec une redirection 301 vers le .be 2. je pensais que les DNS était mis en cache sous Windows, mais si cela était le cas, comment se fait-il que la connexion que j'avais le matin ne soit plus là l'après-midi. Entretemps, je me débrouille avec l'adresse IP et le nom de domaine dans le fichier HOSTS. Jean-Luc
-
Effacé, t'es sûr ? Sur les serveurs qui proposent un FTP anonyme, il arrive qu'on puisse uploader des fichiers dans un répertoire sans pouvoir visualiser le contenu de ce répertoire. Jean-Luc
-
Essaie ceci: Options +FollowSymlinks RewriteEngine on RewriteRule ^/$ http://www.exemple.com/mon-beau-site/ [L,R=301] Jean-Luc
-
Est ce que Google utilise les informations de ces services
Jeanluc a répondu à Galdon - Forum : Techniques de Référencement
Je pense que Google est une excellente entreprise avec beaucoup de bonnes idées techniques et commerciales et des risques d'abus de position dominante. Cela est propre à toute entreprise qui a du succès. Par contre, beaucoup de webmasters ne font pas preuve de discernement en lui confiant leurs statistiques et leurs emails et en lui indiquant leurs objectifs de vente (transformations dans AdWords). Jean-Luc -
Aucun souci si tu n'utilises pas ces scripts. Ces robots tirent dans toutes les directions. Tant qu'ils ne dévorent pas trop de bande passante, je les laisse faire. Jean-Luc