Jan Posté 29 Mars 2006 Posté 29 Mars 2006 Matt Cutts nous gratifie d'un billet sur son blog dans lequel il répond à beaucoup de questions relatives à ce qui se passe sur Google depuis quelques semaines: Big daddy, Mozilla Googlebot, pages complémentaires, etc... http://www.mattcutts.com/blog/q-a-thread-march-27-2006/
Sebastien Posté 29 Mars 2006 Posté 29 Mars 2006 Au final pas beaucoup d'info utile, comme d'hab'... J'adore son dernier billet : This tip is simple: dont bury words in an image, especially if those words dont appear in normal, index-able text. C'est ce que les méchants SEO et les évangélistes de l'accessibilité s'evertuent à dire depuis des années, mais là c'est monsieur Cutts qui le dit alors forcément ça prend une toute autre dimension
Dan Posté 29 Mars 2006 Posté 29 Mars 2006 Une chose est certaine, le tag RK n'a jamais été le "futur PR"... on le savait déjà, mais il est bon de le lire de la plume de Matts :!: Il ne risque pas, selon Matts, de prendre dans le futur proche une valeur différente de 0 ... certains sites vont avoir du mal
Remi Posté 29 Mars 2006 Posté 29 Mars 2006 Il y a quand même des choses interessantes : C'est la première fois que je lis une position "officielle" de Google sur les sites avec un NDD par langue, et aussi : que le RK va être à zéro, que ne pas mettre 'nofollow' sur des liens affiliés ou publicitaires peut "ternir la réputation du site auprès de Google".
Remi Posté 29 Mars 2006 Posté 29 Mars 2006 (modifié) Et dans sa réponse sur les sites multilangues, il y a un truc surprenant : Il dit : Dans le cas d'un site de quelques pages, je ferais un sous-domaine. Dès qu'il y a un plus grand nombre de pages, cela paraît intéressant d'avoir des noms de domaine différents. Bon, on peut se dire qu'il balance des généralités et qu'il se place sur le plan mémorisation des noms de domaine par les visiteurs... mais est-ce que cela ne voudrait pas dire que Google fait une différence entre sous-domaines et noms de domaine différents ? Modifié 29 Mars 2006 par Remi
Spidetra Posté 29 Mars 2006 Posté 29 Mars 2006 Pour les sites multi-langue, ça fait des années que je passe pour un c... auprès de certains en hurlant ( souvent dans le désert ) : - Une langue un nom de domaine ( ou un sous-domaine ) ../.. - Une langue un nom de domaine ( ou un sous-domaine ) Merci M. Matt Cutts d'énoncer des banalités qui grâce à vous vont enfin pouvoir être promu au rang divin de : vérité absolu
dièse Posté 29 Mars 2006 Posté 29 Mars 2006 (modifié) D'un autre côté, 2 noms de domaine = 2 campagnes de référencement . Tout dépend de ce que l'on cherche à faire. Si mon but est avant tout de bien me positionner sur les moteurs francophones, c'est dommage de perdre le bénéfice de liens ne pointant pas vers mon domaine principal mais vers un sous-domaine. Modifié 29 Mars 2006 par dièse
Spidetra Posté 29 Mars 2006 Posté 29 Mars 2006 D'un autre côté, 2 noms de domaine = 2 campagnes de référencement . <{POST_SNAPBACK}> Tout à fait. Je trouve que les bénéfices à long terme méritent cet effort supplémentaire. Je parle bien d'un site qui a une vrai stratégie internationale.
Le-juge Posté 29 Mars 2006 Posté 29 Mars 2006 Pour les sites multi-langue, ça fait des années que je passe pour un c... auprès de certains en hurlant Tu n'es pas seul ... je suis avec toi!
Nathalie D. Posté 29 Mars 2006 Posté 29 Mars 2006 et le NDD hébergé dans le pays visé... vais je moi aussi passer une c----- ?
Remi Posté 29 Mars 2006 Posté 29 Mars 2006 Bon on dérive un peu du sujet initial, là... il serait intéressant de lancer un thread séparé sur le sujet (eh oui encore un...) J'aimerais bien avoir des certitudes sur le sujet comme vous semblez avoir... Moi, je reste assez mitigé. Il faudrait des exemples... (et des exemples sur des sites ordinaires). Mes expériences personnelles ne sont pas franchement concluantes.
Magicoyo Posté 29 Mars 2006 Posté 29 Mars 2006 Je note aussi : My sitemap has about 1350 urls in it. . . . . its been around for 2+ years, but I cannot seem to get all the pages indexed. Am I missing something here?A: One of the classic crawling strategies that Google has used is the amount of PageRank on your pages. So just because your site has been around for a couple years (or that you submit a sitemap), that doesnt mean that well automatically crawl every page on your site. In general, getting good quality links would probably help us know to crawl your site more deeply. Le gars demande pourquoi son sitemap qui a 2 ans n'a pas permis l'indexation de toutes ses pages (1350). Matt Cutts ramène ça à un problème de PageRank. Il confirme donc que le PR permet un crawl plus profond et détermine (au moins en partie) le nombre de pages indexées.
Régis Posté 4 Avril 2006 Posté 4 Avril 2006 Matt Cutts nous gratifie d'un billet sur son blog dans lequel il répond à beaucoup de questions relatives à ce qui se passe sur Google depuis quelques semaines: Big daddy, Mozilla Googlebot, pages complémentaires, etc... Bonjour, Pour ceux qui ont quelques difficultés avec l'anglais, une traduction est proposé à cette adresse
Urban Posté 5 Avril 2006 Posté 5 Avril 2006 C'est dommage, je l'aimais bien moi le RK, même si on ne savait pas trop à quoi ça servait
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant