-
Compteur de contenus
2 003 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Jeanluc
-
C'est bien là le problème. Le code 404 n'est pas un code de redirection, mais un code d'erreur et on peut éventuellement afficher une page d'erreur personnalisée (ce que tu appelles "redirection 404"). Comme Google et les autres moteurs n'indexent pas les pages d'erreur, aucune de ces pages ne sera indexée. Donc, comme le dit xgamer, remplace cela par une redirection 301 (une vraie redirection ). Jean-Luc
- 3 réponses
-
- htaccess
- mod_rewrite
-
(et 2 de plus)
Étiqueté avec :
-
Ils veulent peut-être dire l'adresse IP de ton site. Si tu ne la connais pas, va sur http://whois.webhosting.info/ et tape ton nom de domaine, puis clique sur GO. Jean-Luc
-
Localisation nom de domaine pour site anglais
Jeanluc a répondu à Calimero - Forum : Techniques de Référencement
Bonjour, Le registrar n'a pas d'importance. Pour un TLD (top level domain) international (.com, .net, .info,...), comme le dit webadev, c'est la localisation de l'IP, donc le lieu d'hébergement, qui sont déterminants. Jean-Luc -
On en parle depuis quelques jours. Tout webmaster ou tout membre de Google Co-op peut créer très facilement un ou plusieurs moteurs de recherche personnalisés en spécifiant les sites (ou les pages) sur lesquels les recherches doivent ou ne doivent pas avoir lieu. Exemples d'application : - exclusion de sites spammeurs ou d'autres sites indésirables - moteur destiné à un public spécifique (enfants, étudiants, chercheurs, moteur régional,...) - moteur spécialisé qui sélectionne un petit nombre de sources considérées comme plus fiables Actuellement le service est seulement proposé en anglais par Google, mais il y a déjà plusieurs exemples français en ligne : - moteur de recherche sur le bouddhisme Theravada de Sébastien Billard - recherche sur les principaux forums "référencement" Tout cela me semble très prometteur. Jean-Luc
-
Il est normal que tu n'aies pas le droit de déplacer un fichier généré par le système (par exemple, un fichier de stats). Jean-Luc
-
Merci pour l'info et bienvenue sur le forum. Jean-Luc
-
Bonjour, Je ne comprends pas. .htaccess n'agit que sur les accès en HTTP. Tu n'as pas d'accès FTP à tes fichiers ? C'est quoi ce "ou" ? Tu veux dire une erreur 404 à l'adresse [i]http://www.s183019186.onlinehome.fr/ ? Pour accéder à [i]http://www.nikopole.fr/logs/, tu dois entrer le nom d'utilisateur et le mot de passe que tu as définis dans .htaccess et .htpasswd. Rien d'anormal là-dedans. Si tu ne te souviens plus du mot de passe, crée un nouveau .htpasswd. Le titre "Error 400!" de toutes les pages d'erreur t'induit en erreur. Il ne faut pas confondre le code 404 retourné par certaines de tes adresses et le code 401 des pages protégées par un mot de passe. J'espère avoir un peu débroussaillé le terrain. Jean-Luc
-
Bonjour, Google optimise le prix par page affichée, pas le prix par clic. Cela veut dire que Google préfère afficher une annonce à 0,05 $/clic cliquée 100 fois sur 10000 affichages, plutôt qu'une annonce à 1,00 $/clic cliquée 1 fois sur 10000 affichages. Pour 10000 affichages, la première rapporte 5 $ et la seconde 1 $. Sur AdSense, les comparaisons de prix par clic ne permettent pas de mesurer la rentabilité des annonces. Jean-Luc
-
A l'aide! 404 sur toutes mes pages
Jeanluc a répondu à michmuch51 - Forum : Techniques de Référencement
Bonjour, Qu'est-ce qu'il y a dans ton .htaccess ? Jean-Luc -
Sauf que ce n'est pas à nous de surveiller ces stats, mais à Google. Je suis d'accord d'informer Google si je vois quelque chose de suspect, mais ce n'est pas mon boulot. C'est à Google de faire ce travail en premier lieu. Jean-Luc
-
D'accord avec adn, TD répond lentement et souvent à côté de la question. J'obtiens des réponses de meilleure qualité via un contact direct chez TD que par les formulaires prévus. L'interface est difficile d'emploi et il y a des incohérences. Je confirme aussi que NetAffiliation est excellent. C'est un modèle d'efficacité. Jean-Luc
-
Definition Crawl Rate sur Google Webmasters Tools
Jeanluc a répondu à plusdegolf - Forum : Techniques de Référencement
En comparant les données de l'outil Google aux stats que j'obtiens avec Spider-Reporter, je confirme que d'autres visites de robots que celles de Googlebot sont comptabilisées. Par contre,si j'additionne les visites de Googlebot et celles de Mediapartners, je dépasse de beaucoup les chiffres de l'outil Google... Peut-être que Google ne compte qu'une seule page vue, pour une même page vue plusieurs fois sur une journée par ses robots ? Jean-Luc -
Donc tout se passe comme si ton sous-domaine n'existait pas. S'il a été créé récemment, je suppose qu'il suffit de patienter quelques heures (quelques jours dans le pire des cas), le temps que les serveurs de noms de domaines soient mis à jour pour ton nouveau sous-domaine. Si la création du sous-domaine date de plus de 48 heures, demande à l'hébergeur de vérifier qu'il a bien créé le sous-domaine. Jean-Luc
-
Bonjour, La procédure que tu as suivie semble correcte. Quel type d'erreur as-tu avec [i]http://monsousdomaine.mondomaine.com/ ? Jean-Luc
-
Definition Crawl Rate sur Google Webmasters Tools
Jeanluc a répondu à plusdegolf - Forum : Techniques de Référencement
Je vais essayer de me répondre moi-même... Il se pourrait que le critère soit le temps moyen de téléchargement d'une page (dernier tableau du rapport). A vérifier. Jean-Luc -
Definition Crawl Rate sur Google Webmasters Tools
Jeanluc a répondu à plusdegolf - Forum : Techniques de Référencement
Ce que dit Google à ce sujet, c'est que je comprends comme ceci : En quelque sorte, Googlebot dit "Je veux bien venir plus souvent, mais il faut que vous me le demandiez parce que j'ai un doute sur la capacité de votre serveur à accepter la charge supplémentaire". Quant à savoir sur quelles bases Google décide qu'il y a un risque que votre serveur ne supporte pas un supplément de trafic,... Jean-Luc -
Page dynamiques et google
Jeanluc a répondu à yankey - Forum : Fichier .htaccess et réécriture d'URLs
Il faudrait commencer par remplacer tous les Disallow:/machin.php3 par des Disallow: /machin.php3 (avec un espace). Je ne comprends toujours pas cette histoire d'URL extérieures. Pourrais-tu donner un exemple ? Jean-Luc -
Page dynamiques et google
Jeanluc a répondu à yankey - Forum : Fichier .htaccess et réécriture d'URLs
Bonjour. C'est recommandé par Google, mais ce n'est pas standard. Ce code sera donc uniquement compris par Google. Là, je ne comprends pas ce que tu veux dire. Le robots.txt n'a aucun effet sur les URL des autres sites. Ce code est correct. Il est conforme au standard et interdit bien aux robots de visiter les pages de type /page.php3?valeur=$valeur En théorie, ce n'est pas parce que Google ne peut plus visiter une page qu'il doit obligatoirement l'enlever de son index. En pratique, la page non visitée ne sortira probablement plus très souvent dans les résultats de recherche, mais on ne sait jamais... Ce code n'est pas standard et, même avec Google, il ne marchera pas mieux que le code standard que tu utilises actuellement. Si la méthode du robots.txt ne donne pas des résultats satisfaisants, il reste :- l'outil Google de désindexation forcée des pages (attention, bien tout lire avant d'utiiser cet outil dangereux) - la possibilité de mettre des "nofollow" sur tous les liens pointant vers ces pages - la possibilité de mettre, dans ces pages, une ligne <meta name="robots" content="noindex,nofollow"> Ce serait utile que tu donnes l'URL de ton site pour qu'on puisse vérifier que ton robots.txt est accessible et sans mauvaise surprise. Jean-Luc -
On ne peut rien conclure de seulement 3 clics. Jean-Luc
-
Voici un exemple de mauvaise gestion des spams (parmi de nombreux autres, reçus aujourd'hui) : internetofficer.com est un de mes domaines, mais l'utilisateur Moses Delgado, alias ahi n'a jamais existé. Le logiciel détecte que le domaine qui a envoyé le mail est 89.0.117.222 qui est en Israël, mais il envoie un mail d'avertissement en Belgique, induit en erreur par le spammeur qui a évidemment indiqué une adresse d'expéditeur fictive ! Et tout cela semble généré automatiquement par un ... anti-spam. Jean-Luc
-
Problème avec htaccess et une seule page.
Jeanluc a répondu à fgaascht - Forum : Fichier .htaccess et réécriture d'URLs
Ici ça marche : "L'image de webcam est mise à jour toutes les 10 minutes environs mais ne fonctionne que durant la journée. Problème de cache sur ton PC ? Jean-Luc -
Problème avec htaccess et une seule page.
Jeanluc a répondu à fgaascht - Forum : Fichier .htaccess et réécriture d'URLs
Tu veux dire que [i]http://www.arlon-is-on.be/fr/webcam.html existe, mais [i]http://www.arlon-is-on.be/webcam.html n'existe pas. Jean-Luc -
Bonjour zantar, Une preuve de bonne foi pour quoi faire ? Quand on dispose d'un logiciel d'envoi d'email et qu'on connaît un tout petit peu la technique, on peut indiquer n'importe qui comme expéditeur (George Bush, Zidane, Fogiel, Jean-Luc ou Zantar). Le nom de l'expéditeur d'un spam n'est absolument pas une preuve de quoi que ce soit. Seule l'adresse IP de l'expéditeur est une preuve et on peut la trouver dans les entêtes de l'email. Il n'y a donc pas d'alibi à rechercher. Le seul problème est que des personnes mal informées pourraient croire que toi ou ton système y sont pour quelque chose, mais, contre ça, tu ne peux pas faire grand chose. Jean-Luc
-
Problème avec htaccess et une seule page.
Jeanluc a répondu à fgaascht - Forum : Fichier .htaccess et réécriture d'URLs
Bonjour, RewriteRule webcam.htm http://www.arlon-is-on.be [R=301] renvoie la page webcam vers la page d'accueil. Il faut enlever cette ligne puisque tu ne veux pas ce renvoi. ErrorDocument 404 http://www.arlon-is-on.be/404.html n'est pas correct, même si cela semble fonctionner. Il faut le remplacer par ErrorDocument 404 /404.html Voilà, voilà,... Jean-Luc -
Idem chez moi. Depuis quelques jours, je reçois des tonnes de mails non délivrés qui me parviennent de serveurs de mails qui renvoient les spams qu'ils reçoivent vers l'adresse indiquée dans le champ "expéditeur". Je suppose que les administrateurs de ces serveurs de messagerie ne sont pas conscients qu'en agissant ainsi ils ne font qu'aggraver le problème du spam. Jean-Luc