
Jan
Hubmaster-
Compteur de contenus
2 304 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Jan
-
Bonjour et bienvenue sur le forum, Tu peux soumettre ton site à Google à l'aide du formulaire: http://www.google.fr/addurl/ Mais ce qui est important pour Google est que ton site possède des backlinks (des liens qui pointent depuis d'autres sites vers le tien). Pour en obtenir, il est conseillé d'inscrire ton site dans des annuaires, et de développer des échanges de liens avec d'autres sites, idéalement d'une thématique voisine, mais ce n'est pas une obligation. Tu peux d'ailleurs commencer ta quête de backlinks en plaçant un lien vers ton site dans ta signature sur le Hub (lien texte seulement, pas d'image. 3 liens au maximum). Quand ton site possédera suffisamment de ces fameux backlinks, Google le trouvera de lui-même et l'indexera sans qu'il soit nécessaire que tu le lui soumettes par le formulaire cité plus haut. Le développement de tes backlinks est une phase indispensable que tu passes par le formulaire de Google ou pas pour référencer ton site. les backlinks permettront non seulement à ton site d'être référencé, mais surtout de se positionner dans les moteurs de recherche sur tes mots-clés, et donc d'être visible, et de recevoir du trafic ciblé depuis les moteurs de recherche. Dernier point, il faut de la patience. Google est très lent à indexer les nouvelles pages ces derniers temps. Ca peut prendre 2 mois voire 3. Edit: jeroen m'a devancé
-
Bonjour, L'outil que tu utilises ne fournit pas le nombre de pages référencées dans Google, mais le nombre de backlinks (liens pointant vers une page). Pour obtenir le nombre de pages référencées dans google, il faut utiliser la commande site:www.domain.tld.
-
A partir de quand doit on passer sur serveur dédié
Jan a répondu à Calimero - Forum : Hébergement de Sites
Comme le dit The Jedi, la limite d'un mutualisé est sans doute très dépendante du poids des documents et du nombre de connexions SQL. Je me pose la même questions pour un site dont je développe le trafic, et j'aimerais anticiper un peu sans attendre que mon hébergeur râle Existe-t'il des tests qu'on peut faire avec le trafic actuel du site et extrapoler au trafic prévu dans le futur pour déterminer à quel moment le mutualisé atteindra ses limites? -
Google ne crawle plus mes sites depuis un moment
Jan a répondu à campagne - Forum : Techniques de Référencement
Ce problème existe sur beaucoup de sites. Google est très lent depuis Big daddy, et semble même vouloir ignorer certaines nouvelle pages. Officiellement, Matt Cutts explique que le fonctionnement des bots à changé (voir ce topic) et Googleguy toujours aussi enigmatique indique que "Bigdaddy will have different crawl priorities" (cf wmw). Officieusement il se dit de plus en plus que ce ralentissement des crawls est le signe d'un problème chez Google. Malheureusement, il n'y a pas grand chose d'autre à faire que d'attendre. -
Bonjour davidm, En effet, il y a un gros problème potentiel de duplicate content sur ce site. Entre le .com, le .org, le .net et les versions avec et sans www, ça fait 6 sites identiques Je te conseille de choisir une URL pour référencer le site et de mettre en place des redirections 301 vers celle que tu as choisie sur les autres. Ceci dit, le problème de non indexation ne vient pas forcément de là. Sais-tu si googlebot a seulement visité le site? Depuis mi mars et le deploiement de Big daddy dans Google, de nombreux sites, et même des nouvelles pages de sites anciens ne parviennent pas à se faire indexer. A ma connaissance, personne n'a vraiment compris pourquoi, et personne n'a donc la solution miracle. Continuer à développer les BL et brûler un cierge semblent être les seules choses à faire.
-
Bonjour, Tout dépend de ton hébergement. Il faut qu'il soit dimensionné en fonction de ton trafic. Pas seulement du crawl des robots, mais aussi du trafic des visiteurs, qui - je l'espère pour toi - est plus important que celui des bots Ceci dit, il faut parfois être sélectif à l'égard des robots. Il y en a des "bons" (ceux de google, msn, yahoo et quelques autres outils de recherche) et certains autres qui abusent de ta bande passante sans t'apporter un seul visiteur, voire pour aspirer tes pages. Une fois les robots nuisibles identifiés, tu peux les bannir par .htaccess: http://www.webmaster-hub.com/publication/article5.html
-
En fait la dernière fois que j'ai été confronté à ce problème était en intégrant du texte récupéré dans un fil RSS dans mes pages. J'imagine que ce cas est susceptible de rajouter des "branches" à l'arbre des possibilités que tu décris (encodage du serveur qui sert le fil RSS). Pour le reste je vais me livrer à quelques petits essais pour essayer d'y voir plus clair. Pour info l'éditeur que j'utilise est HTML-Kit. Merci.
-
Voilà qui m'intéresse. Je suis assez ignorant en la matière, mais j'ai eu des problèmes de rendu des caractères accentués avec l'UTF-8: <meta http-equiv="Content-Type" content="text/html; charset=utf-8" /> Depuis j'ai pris l'habitude (sans vraiment comprendre pourquoi ) de mettre un charset=iso-8859-1 dans mes pages en français et un charset=utf-8 dans mes pages en anglais. Je sens que je vais apprendre des choses...
-
Bonjour, Depuis Big daddy, de nombreux webmasters ont fait mention d'un net ralentissement des passages de Googlebot sur leurs sites. D'autres avaient remarqué que Mediapartners, le robot d'adsense, était utilisé pour l'indexation dans google: http://www.jensense.com/archives/2006/04/a...se_mediapa.html Un début d'explication à ces phénomènes nous est sans doute fourni par Matt Cutts, qui révèle la mise en place, avec Big daddy, d'un "crawl caching proxy": http://www.mattcutts.com/blog/crawl-caching-proxy/ Pour simplifier, dans le but d'économiser de la bande passante, le principe de ce proxy est le suivant: quand un des bots (par exemple mediapartners) crawle une page, elle devient disponible pour les autres bots sur le proxy. Ainsi Googlebot (le vrai) peut aller en chercher le contenu sur le proxy, sans avoir à crawler la page à son tour. Avec ce proxy, il devient impossible de savoir quand le contenu d'une page est réellement pris en compte par google. Du coup le ralentissement des passages de googlebot est sans doute normal et n'a rien d'alarmant.
-
Pourquoi ne pas faire une écriture conditionnelle du cookie, seulement si "id" est spécifié: if (isset($_GET['id'])) { $hu = $_GET['id']; $timestamp_expire = time() + 3*24*3600; setcookie("id", $hu, $timestamp_expire); }
-
Et encore! Beaucoup d'annuaires clones de dmoz ont énormément souffert dans Google ces jours-ci (perte de PR et déréférencements).
-
Bonjour, J'ai trouvé la réponse à question assez similaire il y a quelques jours sur le forum: http://www.webmaster-hub.com/index.php?showtopic=23095 Si toutes tes dates sont des items "pubdate", c'est assez simple: 1- Tu les convertis par strtotime 2- Tu tries le tableau par array_multisort
-
Une solution idéale m'intéresse aussi. En attendant, pour les sites qui ne sont pas basés sur un cms, il m'arrive de passer par l'interface admin d'un blog dotclear. Un copy paste du texte word dans le champ de saisi du billet (configuré au format wiki), quelques mises en formes (titres, listes, ...) toujours en format wiki, "enregister", puis éditer le billet, et "transformer en xhtml". Pas vraiment automatique, mais j'obtiens ainsi, sans trop d'effort, un code html tout à fait correct.
-
Bonjour, Difficile à dire sans connaitre l'URL du site. Peux-tu nous l'indiquer?
-
Problème d'affichage des accents avec magpie
Jan a répondu à charlesmacgourn - Forum : XML et ses dialectes
As-tu essayé en changeant l'encodage de ton site de: <meta http-equiv="Content-Type" content="text/html; charset=utf-8" /> en: <meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1" /> -
Historique date de publication d'une page html
Jan a répondu à luc-anton - Forum : Le salon de Webmaster Hub
A tout hasard, essaye les caches de yahoo et msn. -
Je pense aussi que si les .be et .ca font des 301 vers le .fr, seul le .fr restera indexé. Je ne vois malheureusement pas de solution pour rendre les 3 sites (.be, .ca et .fr) visibles dans google avec des contenus identiques.
-
Historique date de publication d'une page html
Jan a répondu à luc-anton - Forum : Le salon de Webmaster Hub
Si tu cherches à prouver qu'une page était en ligne: - à une date pas trop éloignée, tu peux consulter le cache des moteurs de recherche - à une date un peu ancienne, tu peux rechercher ce qu'a enregistré http://www.archive.org/ -
Il y a bien un google local au Royaume Uni (google.co.uk), mais à ma connaissance pas aux USA. Les USA utilisent google.com, qui est google international, pas un google US. Pour bien figurer dans google.co.uk, un hébergement en Uk est un plus. En revanche pour bien figurer dans google.com, le lieu d'hébergement ne semble avoir aucune influence. Quant à l'extension du nom de domaine, je pense qu'elle n'a aucune influence sur le positionnement, quel que soit le google local utilisé (seuls la langue du site et son lieu d'hébergement comptent). A partir de là, je te conseillerais de référencer un seul site en langue anglaise (le .co.uk ou le .com peu importe), sinon je ne vois pas comment tu peux éviter le duplicate content. Et je redirigerais l'autre extension en 301 vers celle à référencer (pour profiter de ses éventuels BLs et rediriger les visiteurs). En revanche, je prendrais soin d'héberger le site en UK plutôt qu'aux US pour la raison évoquée plus haut.
-
Oui, bien sûr La fatigue, voilà
-
<meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1"> est à mettre avant la balise <title> Toutes les balises <meta> sont à mettre entre </head> et <body... Voilà pour l'essentiel
-
$_SERVER["REQUEST_URI"] non? http://fr.php.net/fr/reserved.variables
-
Rediriger l'accés suivant l'Url
Jan a répondu à yvan - Forum : Fichier .htaccess et réécriture d'URLs
Les 2 solutions sont possibles. Pour la réécriture, tu peux voir l'incontournable tuto à http://www.webmaster-hub.com/publication/article5.html -
probleme avec les IP des bots de google
Jan a répondu à slender - Forum : Techniques de Référencement
Bonjour, Mediapartner, le robot d'adsense, partage depuis un moment déjà les mêmes IPs que Mozilla Googlebot (66.249.65.*, 66.249.66.*, 66.249.72.*) alors que googlebot/2.1 avait les IPs 66.249.64.* et 66.249.71.*. Jusqu'à récemment (big daddy) googlebot/2.1 était le seul qui servait à indexer les pages dans l'index de Google (mise en cache). Depuis big daddy, il semble que googlebot/2.1 soit en voie de disparition, et que Mozilla Googlebot soit le bot qui se charge de l'indexation. Ce nouveau bot indexeur (Mozilla) semble aussi avoir une stratégie de crawl sensiblement différente de l'ancien googlebot/2.1. Alors que googlebot/2.1 rendait des visites quotidiennes aux pages à partir du moment où elles avaient un certains nombres de backlinks, beaucoup de webmasters signalent que Mozilla Googlebot les visite à des fréquences plus espacées. Il se dit que Mozilla Googlebot déterminerait la fréquence de ses crawls en fonction de la fréquence des mises à jour d'une page. Pour le moment ces changements de stratégie de crawl ne semblent pas avoir d'impact direct sur le positionnement des pages. Mais le phénomène est très récent, et donc à suivre. A voir sur webmasterworld: http://www.webmasterworld.com/forum30/33792-1-10.htm -
Implémentation du rel="nofollow"
Jan a répondu à captain_torche - Forum : Techniques de Référencement
Dans l'esprit des moteurs qui ont inventé le nofollow, il convient de l'appliquer sur tous les liens que tu ne maitrises pas (ceux que tes visiteurs peuvent poster). Mais tu peux bien sûr décider de ne pas l'appliquer. C'est une façon plutôt sympa de remercier ceux qui contribuent à ton blog par leurs commentaires. Evidemment le problème c'est le spam, et notamment le spam massif fait par les robots. Si tu utilises un script de blog un tant soit peu connu, tu n'y échapperas malheureusement pas. Ne crois pas que le fait d'avoir un blog destiné à une catégorie bien délimitée, de gens a priori raisonnables, te protège. Les vendeurs de viagra finiront par te trouver. Le nofollow peut être une solution qui te préserve du spam, à condition qu'il soit affiché en clair sur ton site que le nofollow est là (les spameurs n'iront pas vérifier le source avant de spamer). D'ailleurs cet avertissement ne servira à rien quand ce sont les robots qui viendront te spamer. Une protection anti-robots par captcha est sans doute ce qui se fait de mieux. Dans tous les cas, nofollow ou pas, si tu ouvres ton blog aux commentaires, il faut que tu prévois de le modérer de prêt, ou même de le modérer a priori. les débordement arrivent vite.