Aller au contenu

Jeanluc

Membre+
  • Compteur de contenus

    2 003
  • Inscrit(e) le

  • Dernière visite

Tout ce qui a été posté par Jeanluc

  1. Jeanluc

    Caractères accentués

    Il ne suffit pas de changer la META dans la page web. Il est indispensable que la META (s'il y en a une) soit cohérente avec le type de codage indiqué par l'entête HTTP. Actuellement, la META dans ta page indique bien ISO-8859-1, mais l'entête HTTP dit UTF-8. Jean-Luc P.S. [edit] On dirait que maintenant, tu as aussi changé l'entête HTTP... ;-) [/edit]
  2. En fait, le problème de vitesse s'en va, puis revient. Maintenant, il faut 8 secondes pour afficher la page d'accueil aux deux adresses. Ce n'est pas acceptable, mais j'ai eu d'autres choses à régler que cette question. Il faut que je relance les deux hébergeurs. J'ai d'autres sites WordPress hébergés chez Combell (99 euros/an) et je n'ai aucun problème de vitesse. Jean-Luc
  3. As-tu essayé de visiter ton site avec un navigateur sans Flash comme nous t'avons suggéré ? Jean-Luc
  4. Bonjour, Je vais essayer de deviner. Googlebot ne supporte pas Flash, donc, comme pour toute visite de ton site avec un navigateur sans Flash, le &flash=non s'ajoute à l'URL. Googlebot ne supporte pas les cookies et beaucoup de scripts ajoutent un numéro de session quand ils sont visités par un navigateur qui n'accepte pas les cookies. Pas sûr à 100%, mais très probable. Jean-Luc
  5. Il y a une liste de langues pas mal du tout dans la colonne de gauche de la page d'accueil de Wikipedia et si tu indiques un nom de pays dans leur moteur de recherche interne (colonne de gauche un peu plus haut), tu arrives à la page du pays avec notamment le nom dans la (les) langue(s) locale(s). Jean-Luc
  6. Ton hébergeur devrait pouvoir te répondre mieux que nous. Jean-Luc
  7. Merci pour ta réponse. Oui, le domaine apprendre1langue est hébergé chez Celeonet. Pour ce qui est du support, je ne me plains pas du tout. Je ne voyais pas ce problème de vitesse comme une question pour le support, mais je viens quand même de le signaler à Celeonet. Ils ont d'ailleurs déjà répondu, mais le problème a miraculeusement disparu ... C'est tout bonnement extraordinaire. Il a suffi que je crée ce fil de discussion, il y a 2 heures, pour que le problème de vitesse disparaisse aussi bien chez Celeonet que chez Sivit. Comme je n'ai pas rêvé, j'aimerais savoir si vous pensez que c'est une coïncidence ou si cela pourrait être lié à un délai de mise en cache ou à l'influence médiatique du hub ? Jean-Luc
  8. Bonjour, J'ai un tout petit site (moins de 50 pages) créé sur une base WordPress. Je n'y ai encore rien ajouté de sophistiqué qui pourrait ralentir le fonctionnement. J'ai cherché des "petits" hébergements en France qui supportent PHP et MySQL. Je suis tombé sur l'offre CeleoPrimo de Celeonet à 25 euros/an et l'offre Sivit Mutualisé 150 Mo à 35 euros par an. J'ai fait la même installation chez les deux hébergeurs et ça marche, mais beaucoup trop lentement (typiquement 10 secondes pour charger n'importe quelle page). Si vous voulez voir par vous-même, c'est [i]http://www.apprendre1langue.com/ et [i]http://test04853.mutu.sivit.org/ . Le trafic sur ces sites est très faible actuellement et ma connexion internet est très rapide. Une page statique placée aux mêmes adresses apparaît instantanément. Je pense que le problème vient de l'incapacité de ces serveurs à traiter les requêtes MySQL dans un temps raisonnable. Que dois-je faire ? Est-il normal que ces hébergements très bon marché fournissent des performances aussi faibles alors que je reste loin en-dessous de ce qu'ils sont supposés offrir (trafic, espace disque,...) ? Quels hébergeurs français pas chers offrent de meilleures performances ? Si vous voulez, je suis prêt à installer le site chez un autre hébergeur (auquel vous auriez accès) rien que pour faire un comparatif de vitesse. Jean-Luc
  9. Bonjour, Tu veux que Google ne mette plus la page en cache ou tu veux qu'il désindexe totalement la page ? Jean-Luc
  10. Ce serait plus simple de rechercher les erreurs 404 dans le fichier log. Tu peux en reproduire quelques lignes avec des 404 ici, si tu veux qu'on y jette un coup d'oeil. Jean-Luc
  11. Si tu as un accès FTP à l'autre site, il y a des fonctions pour cela. Si tu n'as pas d'accès FTP au site, en général, les webmasters ne donnent pas d'accès HTTP à leurs répertoires. Entre parenthèses, il n'est pas certain qu'une adresse comme [i]http://www.monsite.ext/mondossier/ corresponde à un répertoire. Jean-Luc
  12. Un autre comparatif publié le 15 mars 2006: Comparatif de navigateurs : Internet Explorer, Firefox et Opera. Jean-Luc
  13. Il n'y a pas de miracle: ou ce sera les logs, ou ce sera un marqueur. Si tu disposes des logs de l'hébergeur des vidéos pour ce jour-là, un analyseur de log, comme AWStats, configuré spécialement, aurait vite fait d'identifier les pages qui amenaient les visiteurs vers ces 216 Giga de download. Jean-Luc
  14. Bonjour, Curieux! Le problème est seulement présent avec Firefox (uniquement dans le sens de la hauteur). Avec IE et Opera, l'image est cliquable normalement. Pas sûr que cette remarque aide vraiment... Jean-Luc
  15. Je ne parlais pas du robot du moteur de recherche, mais du robot de AdSense (les pubs contextuelles). Pour pouvoir afficher des pubs selon le contenu des pages, il faut que AdSense vienne voir le contenu des pages et quand quelqu'un affiche une page qui a été peu affichée jusque là, le robot vient immédiatement relire la page en question pour vérifier le contenu et ajuster les pubs qu'il place sur la page. Ceci suppose évidemment que tes pages affichent des annonces AdSense. Si c'est le cas, tu peux vérifier ma "théorie" en consultant le fichier log ou en accédant aux pages après avoir désacativé le JavaScript de ton navigateur. Jean-Luc
  16. Si tu affiches des AdSense sur la page, il se pourrait que le robot AdSense vienne lire la page juste après toi. Jean-Luc
  17. Il y a quelques jours, j'ai rédigé un article avec quelques réflexions - personnelles et plutôt basiques - sur l'évolution des pages d'un site et le référencement. Ces problèmes se posent tout le temps et les questions reviennent sans cesse dans les forums. L'article: Supprimer une page: pas si simple ! Jean-Luc
  18. Je ne pense pas que ce soit la cause de la désindexation (encore que, on ne sait jamais), mais plusieurs de tes robots.txt ne sont pas valides, notamment [i]http://www.democratie-electronique.org/robots.txt et [i]http://www.lesmeilleurs.fr/robots.txt. Jean-Luc
  19. Difficile de répondre sans voir le formulaire. Et il faudrait un peu plus de précision sur ce qui te parvient et ce qui ne te parvient pas. Jean-Luc
  20. D'accord qu'il faut prendre ça avec des nuances, mais la source de ce texte, c'est quand même le blog officiel Google AdSense. Jean-Luc
  21. Puisque les deux sites sont bien différents, il n'y a pas de problème. L'idée de créer un jeu de simulation de culture de champignons - en tant que telle - ne me semble absolument pas protégeable. Jean-Luc
  22. C'est avec plaisir. Les maths, c'est super-amusant. Jean-Luc
  23. C'est clair que le barycentre n'est pas une solution sûre. Il y a un article dans Wikipedia sur une méthode simple pour savoir si un point est à l'intérieur d'un polygone. En fait, il suffit de tracer une demi-droite quelconque à partir de ce point et de compter le nombre d'intersections avec les côtés du polygone: si le nombre d'intersections est impair, c'est que le point est à l'intérieur. L'article comprend aussi des liens vers des programmes qui mettent ça en pratique. J'ai trouvé l'article grâce à Algorithmes géométriques - Inclusion dans un polygone . Jean-Luc
  24. Peut-être ceci. Soit que le polygone est inscrit dans le rectangle parallèle aux axes et passant par (x1,y1) et (x2,y2). Tu prends un point au hasard dans le rectangle et tu vérifies s'il est ou pas à l'intérieur du polygone et à quelle distance il se trouve des côtés. S'il convient, c'est gagné; s'il ne convient pas, tu recommences avec un autre point et ainsi de suite, si nécessaire. Tu penses que c'est jouable ? Jean-Luc
  25. J'ai l'impression qu'on tourne en rond. Ces rel=nofollow et ces class="robots-nocontent", c'est en revenir au début du web quand les moteurs de recherche classaient les pages selon les indications des webmasters dans les META "description" et "keywords". Tout cela ne fait que favoriser les échanges de liens entre entreprises (=webmasters) partenaires et les ventes de liens et cela minimise le poids des liens spontanés. Si les liens doivent encore compter à l'avenir, il faudra que les moteurs de recherche trouvent quelque chose de mieux que des emplâtres sur jambes de bois. à Seb pour son billet! Jean-Luc
×
×
  • Créer...