
Jan
Hubmaster-
Compteur de contenus
2 304 -
Inscrit(e) le
-
Dernière visite
Tout ce qui a été posté par Jan
-
Bonjour, Si je comprends bien, tu veux que sur le site 1: - les moteurs voient une 301 vers le site 2 pour transférer le référencement du site 1 vers le site 2 - les visiteurs humains voient une redirection vers un site 3 Il y a plusieurs solutions techniques possibles (redirection javascript, IP delivery). Mais dans tous les cas, il faut être conscient qu'il s'agit de cloaking. Tu risques donc une pénalité dans les moteurs de recherche.
-
http://www.dotclear.net/trac/wiki/DotClear/Plugins : - Billets connexes 0.1b ou - Billets voisins catégoriques Je ne sais pas si c'est bien ce que tu cherches. Trouvé par google, 1er résultat: http://www.google.fr/search?hl=fr&c2coff=1...echercher&meta=
-
Google lit-il les CSS ? Un début de réponse
Jan a répondu à AntoineViau - Forum : Techniques de Référencement
Difficile à dire. C'est visiblement lié à la page "spameuse" elle même, mais aussi à l'ensemble du site. Les pénalités tombent souvent sur le site entier. Et les facteurs déclenchants sont probablement nombreux. En plus le seuil de tolérance de google est sans doute fonction de l'âge du site. Du texte caché peut passer, mais si le site présente aussi des signes tels qu'une répétition trop fréquente de mots-clés, des structures révélatrices de pages satellites, une augmentation jugée non naturelle des backlinks, etc... , il allume à coup sûr quelques voyants chez Google. -
Google lit-il les CSS ? Un début de réponse
Jan a répondu à AntoineViau - Forum : Techniques de Référencement
Il en va des CSS visant à rendre du texte invisible comme des autres techniques de spamdexing. Google ne peut pas se permettre de les pénaliser systématiquement. Il risquerait de pénaliser des sites qui les emploient "pour la bonne cause" (cf les menus déroulants). Donc Google ne pénalise que quand il y a clairement abus. Un peu de texte caché, ça passe, une page complète et c'est la pénalité. Le tout est de spamer avec modération A ce titre le test d'Antoine, aussi intéressant soit-il, n'indique pas que Google n'a pas vu que son texte était caché par CSS. Il a pu le voir, mais puisqu'il s'agit d'une seule phrase, qui plus est sur des mots-clés non concurrentiels, il a tout simplement pu décider de laisser passer Antoine, si tu ne crains pas la blacklist, il serait intéressant de refaire l'essai en truffant plusieurs pages de texte caché, à haute dose. Pas sûr que le résultat soit le même. -
Désolé d'avoir déclenché la polémique, ce n'était pas le sens de mon intervention. Le Juge, certains spamment, d'autres spam-reportent, chacun voit midi à sa porte. Mon avis personnel sur la question n'a aucun intérêt. Je ne faisais que donner un avis technique
-
Bonjour, En donnant un vrai contenu à chacune des pages, et en ne forçant pas trop sur les liens vers le ndd principal, ça peut aider. Je veillerais par exemple à - me limiter à 1 lien par page, au milieu du texte - ne pas faire pointer tous ces liens vers la home du site principal, mais vers des pages internes. - mettre aussi dans ces pages des liens vers d'autres sites que ton site principal Il faut quand même faire attention à ce que google n'en arrive pas à considérer tous ces sites comme de pures sites satellites. Et 120 c'est peut-être beaucoup.
-
D'autant que dans bien des cas, les pages externes liées auront le bonne idée de faire spontanément un lien en retour. Et pour le coup, ce sont les réfractaires aux liens sortants qui perdront vraiment quelque chose
-
Yahoo Actualités me fait l'honneur d'une citation de presidentielle-2007.net à http://fr.news.yahoo.com/presidentielle/ Le trafic généré est très en deça de ce que j'imaginais Mais j'apprécie particulièrement le commentaire: ... même si cette page de Yahoo! risque bien d'être celle qui me remplacera bientôt à cette fameuse première place
-
Si je comprends bien, ces différents NDD ne sont que des frames. Leurs contenus sont donc vides ou presque: title, métas et éventuelle balise noframe. Il n'y a donc, a priori, aucun risque de contenu dupliqué. Ces domaines peuvent te servir de sites satellites. Par exemple en positionnant chacun d'eux sur un de tes mots-clés. Ce n'est pas simple avec des frames, mais si le domaine n'est pas trop concurentiel, tu peux y arriver avec les moyens dont tu disposes: title, métas, noframe... et backlinks avec un texte de l'ancre approprié. Quant à faire 120 redirections 301, je ne m'y risquerais pas. 120 c'est un peu beaucoup, et ça pourrait valoir de gros ennuis (dans google) au site principal
-
Si, en théorie elle perdra un peu de PR, indirectement En faisant des liens vers d'autres sites, elle transmettra un peu moins de PR aux pages internes du site. Et par conséquent les pages internes repasseront un peu moins de PR à la home (qu'elles lient en général). Mais ce n'est que la théorie. La pratique c'est que de s'occuper du PR c'est s'intéresser à un leurre qui empêche de voir l'essentiel. En revanche optimiser la structure interne des liens d'un site pour mettre en valeur les pages importantes s'avère très utile.
-
Bonjour, Les théories sur la fuite du PageRank provoquée par les liens sortants sont un peu d'un autre âge. Pour tout comprendre du principe du PR, je te propose de lire cet article: http://www.webmaster-hub.com/publication/article16.html . Tu y trouveras un lien vers une calculatrice de pagerank qui te permettra de vérifier l'influence théorique des liens sortants sur le PR. Ceci dit, il ne faut pas confondre PR et positionnement. Le PR appartient aujourd'hui à la préhistoire. Son influence sur le positionnement d'un site, et donc son trafic est devenue minime. Pour ce qui est des liens sortants, il apparait même que quelques liens sortants pertinents dans une page ont tendance à améliorer son classement dans les résultats des moteurs de recherche. Au moment de faire un lien sortant, la question à se poser est sans doute: "Ce lien apporte-t'il de la pertinence à ma page?", plutôt que: "Ce lien va-t'il faire fuire son PR?"
-
Bonjour, Pour personnaliser ta page d'accueil Dotclear, tu peux voir ce tuto: http://petit.dotclear.net/pages/2004/12/02...ueil-differente
-
Bonjour, Depuis hier, pingomatic ne répond plus. Je ne sais pas si ça va durer, mais en attendant connaissez-vous un service équivalent permettant de pinguer les principaux annuaires de fils d'actu (technorati etc...) Merci.
-
Bonjour, Je viens de le constater, mais d'après les recherches que j'ai faites, ça date de quelques jours : MSN utilise l'annuaire de DMOZ pour ses résultats moteur. MSN reprend maintenant les descriptions de DMOZ dans ses pages de résultats, et je vois aussi des pages présentes dans DMOZ qui sont passées en tête sur MSN search alors qu'elles ne l'étaient pas.
-
Certains phénomènes tels que celui que tu décris apparaissent et disparaissent dans Google cycliquement. Sans doute est-ce dû au fait que google relache certains filtres au moment où l'algorithme est mis à jour, puis les remettent en place. Ou au fait que certains filtres ou changement d'algorithmes sont testés, puis retirés parce qu'ils ne donnent pas complètement satisfaction. D'où la coïncidence avec les google dance.
-
Sortir de : Sandbox ou duplicate-content ?
Jan a répondu à Anonymus - Forum : Techniques de Référencement
Il serait intéressant d'en savoir un peu plus sur l'historique du problème. D'après ce que tu dis, le site a été indexé, et il ne l'est plus. Depuis quand? As tu fait des changements ou as-tu utilisé des techniques susceptibles de déplaire à google avant de constater le problème? As-tu écrit à Google pour essayer d'avoir une explication? Quelque chose m'interpelle: http://www.labonneadresse.com/robots.txt fait une redirection 302, et pas 404 vers http://www.labonneadresse.com//p-doc-not-f...obots.txt&err=1 Je ne sais pas comment google peut réagir à ça. Mais pour plus de sécurité, je changerais ça en servant à google un vrai robots.txt -
J'ajouterais du contenu texte spécifique et pertinent par rapport au sujet dans chacune des pages. Tes pages contiennent des photos. Ca peut suffir à faire le bonheur des visiteurs, mais pas celui de Google. C'est du travail, bien sûr, mais il n'y a pas de solution facile.
-
La commande site: (lien donné par Franck) est révélatrice. Tu vois apparaitre beaucoup de pages en mode listing (pas de titre, pas de snippet, pas de cache. Pages simplement listées par leurs URLs). Outre la correction des metas proposée par Franck, je pense que tes pages manquent de contenu "texte". Du coup, Google juge qu'elles se ressemblent trop et les présente en mode listing. Ces pages n'ont aucune chance de se positionner sur leurs mots-clés (du moins pas durablement).
-
liste des méthodes pour obtenir des liens
Jan a répondu à yvan02 - Forum : Techniques de Référencement
En parlant de "top liste", je pensais plutôt à un système dans lequel du classes tes référants en fonction du trafic qu'ils t'envoient. L'effet est de les inciter à faire des liens bien visibles et mis en valeur. Mais il faut que ta top liste soit bien référencée et populaire pour inciter les sites à y participer -
liste des méthodes pour obtenir des liens
Jan a répondu à yvan02 - Forum : Techniques de Référencement
Sebastien, Je ne les recommande pas en effet. Je me contentais de les lister -
Les comptes de google sont fluctuants depuis quelques temps. Il y a beaucoup de causes possibles à ton problème. Pas mal de sites souffrent de désindexation pour cause de "duplicate content", réel où simplement jugé comme tel par Google. Il est difficile d'en dire plus sans connaître ton URL.
-
liste des méthodes pour obtenir des liens
Jan a répondu à yvan02 - Forum : Techniques de Référencement
La solution d'ams51 est de loin la meilleure. En complément: - S'inscrire dans des annuaires - Faire des échanges de liens - Ecrire des articles pour d'autres sites - Ecrire des articles à propos de son site pour la presse en ligne - Créer une top liste - Participer à une link farm - Acheter des liens Quoi qu'il en soit, la tendance en termes de backlinks n'est plus de rechercher la quantité, mais la qualité. Augmenter son pagerank, c'est une chose, obtenir des backlinks qui permettront d'améliorer son positionnement en est une autre. Beaucoup de facteurs semblent influer sur la qualité d'un backlink: - l'ancre du lien, - la thématique et le contexte de la page qui fait le BL, - l'endroit où est placé le BL dans la page (les footers sont de moins en moins utiles), - le nombre de liens sortants dans la page qui fait le BL, - la réciprocité ou non du lien, - la langue et le lieu où est hébergé la page qui fait le BL, - la classe d'IP de la page qui fait le BL. Et il ne faut pas perdre de vue que l'intérêt des backlinks n'est pas que pour le référencement. Ils permettent aussi d'obtenir du trafic direct. -
A travers quelques essais faits à l'époque sur Google Pologne (.pl), j'en étais arrivé à la conclusion que pour bien figurer dans google Pologne, à défaut d'être hébergé en Pologne, des backlinks depuis des pages hébergées en Pologne étaient très utiles. Dans ton cas, des backlinks depuis des sites hébergés en France t'aideront à te positionner dans google.fr. Mais il ne faut pas pour autant négliger les BLs de sites suisses, qui, en plus de ton hébergement en Suisse, t'aideront dans google.ch.
-
Bonjour, Tu trouveras un article très complet sur le sujet sur Openweb: http://www.openweb.eu.org/articles/present...s_alternatives/