Aller au contenu

<a href="page.htm" rel="nofollow">lien</a>


Sujets conseillés

Posté

Bonjour,

La rumeur qui circulait depuis quelques jours est confirmée. Google, Yahoo et MSN annoncent la prise en compte de l'attribut rel="nofollow" dans la balise <a>

Cet attribut aura pour effet d'indiquer aux moteurs de recherche de ne pas suivre un lien du type:

<a href="page.htm" rel="nofollow">lien</a>

L'objectif annoncé est de combattre le spam des commentaires des blogs. Mais chacun pourra l'utiliser à sa guise. Il y a désormais 2 types de liens. Ceux à usage des visiteurs, et ceux à usage des robots des moteurs de recherche.

Les annonces:

http://www.google.com/googleblog/2005/01/p...mment-spam.html

http://www.ysearchblog.com/archives/000069.html

http://blogs.msdn.com/msnsearch/archive/20...ollow_tags.aspx

Qu'en pensez-vous?

Posté

Pour ma part je trouve ca stupide, soit on établit le lien completement, soit on le fait pas si on souhaite qu'une ressource ne soit pas indexée (et on la protege par robot.txt si on l'heberge). C'est en fait du "cloaking de liens" puisque le contenu hypertexte n'est pas présenté de la même facon à l'utilisateur humain et aux moteurs.

Je detesterais qu'une plateforme de blog m'impose un tel systeme. Heureusement j'utilise dotclear ;)

Posté

Que c'est un changement de cap de la part des moteurs. Jusqu'ici, Google par exemple nous conseillait de nous poser la question : "Est-ce que j'aurais implémenté cette technique si les moteurs de recherche n'existaient pas ?".

Là, il s'agit bien de mettre en place une technique exclusivement à l'intention des moteurs.

A mon avis, c'est la prise en compte d'une réalité : les sites Internet sont fait aussi à l'intention des moteurs. Ces moteurs entérinent, il y a une chance pour que ça assainisse pas mal de discours.

Posté
Cet attribut aura pour effet d'indiquer aux moteurs de recherche de ne pas suivre un lien du type:

<a href="page.htm" rel="nofollow">lien</a>

Bonjour Jan,

Je pense que ce n'est pas tout à fait ça. Le moteur a bien le droit de suivre le lien en question, mais il ne doit pas lui attribuer de PageRank.

Les principaux moteurs de recherche avouent ainsi que leurs algorithmes sont dépassés par la prolifération des blogs.

Je suppose que cette décision vient de ce que les gestionnaires de blogs, forums,... qui ne font pas leur travail de "nettoyage" sont beaucoup plus nombreux que ceux qui le font bien.

Les grands moteurs sont incapables de distinguer un blog de qualité d'un autre.

Qui sait ? Cela veut peut-être dire qu'il y a de la place pour des nouvelles technologies de moteurs de recherche...

Jean-Luc

Posté

_AT_lafleur : si les moteurs de recherche n'existaient pas tu n'aurais pas à implémenter cette technique car tu n'aurais pas tout ce spam de lien ;) le jeu est faussé au départ.

De plus il ne s'agit pas vraiment de faire un équivalent de cloaking : les liens sont bien présentés de la même façon à l'utilisateur humain et au moteur, tous deux verront un lien avec un nofollow. Le moteur voit bien tout ce qu'il doit voir. A lui de se charger de respecter ou pas ce qu'on demande.

Ca se rapproche plus des options de robots.txt pour informer le moteur de recherche de ce qu'il est bon d'indexer ou pas. Il ne s'agit pas de changer le contenu ou le fausser.

Perso moi je vois tout ça d'un très bon oeil. Il ne s'agit pas de mettre des no-follow partout, mais uniquement quand la source est trop peu contrôlée et a un risque d'être du spam (wiki, commentaires, ...)

Ce que je vois c'est surtout que c'est une méthode "sans dommage", qui ne gênera personne dans les accès : les liens marcheront.

Posté

Wikipedia peut etre considerée comme une autorité, il est logique que le PR de ses articles soit redistribué amha.

Je ne dis pas qu'il ne faille pas de controle, mais que le control par l'utilisation de nofollow n'est pas le bon choix. Je prefere les techniques qui rendent un formulaire inaccessibles aux robots par ex.

Posté
A lui de se charger de respecter ou pas ce qu'on demande

<{POST_SNAPBACK}>

C'est parce que les moteurs de recherche éprouvent le besoin qu'on le leur demande que je ressens cette initiative comme un constat d'échec de leur part. S'ils délèguent la responsabilité aux webmasters n'est-ce pas parce qu'ils sont incapables de faire le tri eux-mêmes?

Je suis assez étonné de voir google fournir un moyen de biaiser l'algorithme qui a fait sa force, basé justement sur les backlinks.

En tant que webmaster, si je propose des liens dans mes pages, même si ces liens sont ajoutés par mes visiteurs, c'est bien pour que mes visiteurs les suivent. Si je ne veux pas de ces liens, je peux toujours modérer ou carrément interdire l'ajout de liens dans mon blog ou mon forum. Et si j'accepte ces liens pour mes visiteurs je ne vois pas pourquoi j'indiquerais aux moteurs de ne pas en tenir compte.

A terme il me semble que les moteurs de recherche risquent d'y perdre en pertinence. En extrapolant un peu, il y aurait 2 web: le "vrai" et celui des index des moteurs de recherche. Contrairement à toi je pense vraiment que ça ressemble à une officialisation du cloaking.

Enfin si la nouvelle peut sembler bonne pour les blogs qui seront peut-être moins spamés, je ne me fais pas d'illusion. L'importance accordée aux backlinks par google génèrera d'autres formes de spam. A défaut de pouvoir aller spamer le voisin, j'ouvrirai mes propres blogs qui n'auront pas d'autre intérêt que de pouvoir m'auto-backlinker tranquillement. Le bilan en terme de "pollution" du web risque de ne pas être positif.

Posté

Quelques commentaires en vrac à cette annonce :

- il s'agit bien d'un début de reconnaissance du cloaking par les 3 moteurs majeurs, et cela aura certainement des conséquences...

- cette décision entre en contradiction avec deux éléments majeurs du credo de Google : "développez votre site pour l'internaute" et "ne manipulez pas le PageRank". Il s'agit bien d'un encouragement de Google à "manipuler" encore plus le PageRank. Il sera intéressant de voir comment ils vont gérer cette contradiction...

- point positif : c'est le premier cas à ma connaissance d'une coopération aussi visible entre les trois principaux acteurs du marché, et j'avoue que ça fait plaisir à voir :up: Tout comme l'émulation née de la concurrence, la coopération entre concurrents peut être un moteur d'innovation. Au moins le marché cesse de stagner, pour enfin avancer (bien qu'on ne sache pas encore dans quelle direction).

- point négatif : une fois de plus, comme avec le spamreport de Google, les moteurs se reposent sur le travail des webmasters plutôt que sur l'amélioration de leurs algorithmes (qui est censé être leur coeur de métier) :down: J'en comprends très bien la motivation économique... mais j'espère qu'ils sont conscients que ça risque de se retourner contre eux un jour.

Posté (modifié)
Wikipedia peut etre considerée comme une autorité, il est logique que le PR de ses articles soit redistribué amha.

Je pense aussi. Mais Wikipedia est quelque chose de très surveillé. Un spam peu ambigu sera vite effacé, donc l'impact dans les moteurs de recherche est quasi nul.

Le problème se pose plus pour les blogs, forums et wiki moins en vue

- avec un faible trafic ou même abandonné (donc un spam ne sera pas vu avant longtemps)

- avec un trafic trop important par rapport aux ressources disponnibles pour faire la modération (on ne peut pas tout vérifier)

- avec une politique du "chacun fait ce qu'il veut" ou de faible modération (on ne modère pas mais on fait de façons à ce que les gens n'écrivent pas uniquement pour se positionner dans les moteurs de recherche).

Ca doit pas mal intéresser les bloggueurs de typepad et autres qui sont très touchés par le spam automatique et qui commencent à en avoir marre d'effacer des commentaires toutes les 2 minutes.

S'ils délèguent la responsabilité aux webmasters n'est-ce pas parce qu'ils sont incapables de faire le tri eux-mêmes?

Certes, je suis d'accord. C'est effectivement un "on n'y arrive pas et comme vous avez besoin de quelque chose voilà de quoi le faire vous même"

Maintenant j'ai du mal à voir sur quels critères ils pourraient trier en fait. Quelle différence technique il y a t'il entre une nouvelle qui fait beaucoup de buzz et un spam qui arrive d'un coup sur plein de blogs/wiki/forum ? difficile pour une machine de faire la différence.

Je suis assez étonné de voir google fournir un moyen de biaiser l'algorithme qui a fait sa force, basé justement sur les backlinks.

En même temps il est déjà assez simple de le biaiser cet algorithme. Là on a un effet "neutre". On n'agit pas négativement, on fait simplement un "le lien ne compte pas". C'est un moindre mal je trouve. Je ne pense pas que ça aura une très grande influence sur les liens "légitime" (qui de toutes façons se trouveront aussi dans le corps des articles, donc sans le nofollow).

Puis il faut bien voir que c'est aussi la démarche du "sinon c'est pire". Sans ce nofollow il y a deux possibilité : soit on ne fait rien et l'algo est biaisé à cause du spam, soit les bloggueurs mettent carrément un noindex (certains ont commencé à le faire) et là non seulement on biaise parce que les liens ne sont pas visibles mais en plus on perd l'indexation des commentaire (ce qui est dommage).

Pour des autres formes de pollution je suis d'accord aussi. Mais là aussi, même si je suis d'accord avec ce que tu dis, je modère fortement la conclusion négative. Les spammeurs et les SEO trouveront toujours des techniques pour monter plus ou moins artificiellement le positionnement.

Maintenant des pages qui s'autoréférencent et qui sont "déconnectées" du reste du Web, le cloacking, les satellites, ça c'est quelque chose que les moteurs peuvent techniquement détecter donc contrer. Ils ne le font pas bien mais ils peuvent le faire, c'est un moindre mal.

Puis bon, quitte à ce que les gens fassent du spam ou pourrissent le moteur de recherche, je préfère personnellement qu'ils le fassent sur des pages à eux déconnectées du reste du Web qu'en pourrissant des pages de contenu qui sont effectivement utilisées/lues/visitées. C'est là aussi un moindre mal.

Ce n'est pas une "bonne" solution, mais c'est une solution qui n'est pas mauvaise je dirai. De toutes façons si Google se rend compte que c'est plus négatif que positif je lui fait confiance pour revenir en arrière (publiquement ou non).

Modifié par Ganf
Posté
Ce n'est pas une "bonne" solution, mais c'est une solution qui n'est pas mauvaise je dirai.

Pour ma part, je dirais que je ne vois pas en quoi c'est une "solution" à quoi que ce soit.

Depuis longtemps, il était possible à un webmaster de réaliser la même chose par un lien javascript.

Apparemment cela ne suffisait pas, puisqu'une partie de la communauté des bloggers (mais aussi des référenceurs) interpelait régulièrement les moteurs de recherche afin qu'ils résolvent le problème eux-mêmes une fois pour toutes.

La réponse de Google-Yahoo-MSN est enfin arrivée... Et celle-ci est : "continuez de vous débrouiller sans nous et de bricoler"

Posté

Salut,

Est-ce que l'inverse fonctionne?

Par exemple sur une page avec la balise meta "robot" dont le content est "index, nofollow", peut-on mettre un lien du style <a href="page.htm" rel="follow">lien</a> pour que ce soit le seul lien suivit dans cette page? A+

Posté
Est-ce que l'inverse fonctionne?

Par exemple sur une page avec la balise meta "robot" dont le content est "index, nofollow", peut-on mettre un lien du style <a href="page.htm" rel="follow">lien</a> pour que ce soit le seul lien suivit dans cette page? A+

On n'en sait rien pour le moment, et les promoteurs de ce nouvel attribut ne le savent probablement pas non plus.

Maintenant j'ai du mal à voir sur quels critères ils pourraient trier en fait.

Je n'ai pas fait d'études scientifiques à Stanford bien sûr, mais a priori une solution "algorithmique" au spam de weblogs ne me semble pas complètement utopique.

Juste un petit exemple trivial.

pour tous les liens externes d'un weblog :

- Apport en popularité du BL = apport du BL x 0,001

- Apport "anchor-text" du BL = apport du BL x 0,001

pour tous les liens externes d'un guestbook :

- Apport en popularité du BL = apport du BL x 0,0001

- Apport "anchor-text" du BL = nul

Bien sûr, je suis convaincu que tous ces ingénieurs et docteurs es mathématiques pourraient nous trouver des solutions beaucoup plus sophistiquées et ingénieuses.

Posté
Je ne dis pas qu'il ne faille pas de controle, mais que le control par l'utilisation de nofollow n'est pas le bon choix. Je prefere les techniques qui rendent un formulaire inaccessibles aux robots par ex.

<{POST_SNAPBACK}>

tu fais comment ?

Posté

Stephane>

Je n'ai pas fait d'études scientifiques à Stanford bien sûr, mais a priori une solution "algorithmique" au spam de weblogs ne me semble pas complètement utopique.

A mon avis, le plus gros problème, c'est déjà de déterminé sur quel type de page on est. Savoir qu'on est sur un blog n'est pas évident.

pour tous les liens externes d'un guestbook :

Oula: même problème. Comment tu sais que tu es dans un guestbook et pas dans un annuaire?

Automatiquement, je veux dire.

Effectivement, sur un site particulier, on peut trouver des heuristiques pour contourner le problème du spam. Mais en général, le faire sans se tromper sur tous les sites possibles et imaginables... ça me paraît un peu utopique.

Sebastien>

Pour ma part je trouve ca stupide, soit on établit le lien completement, soit on le fait pas si on souhaite qu'une ressource ne soit pas indexée (et on la protege par robot.txt si on l'heberge).

Sauf si tu critiques un site. Tu n'as pas forcément envie de citer tout le contenu d'un site que tu trouves mauvais (sur n'importe quel plan). Donc tu fais un lien. Et là, par défaut tu le fais profiter de ton PageRank! Dommage. Ca pourrait être une autre utilisation de cet attribut: attention, je fais un lien, mais je ne cautionne pas le site qui est derrière!

Posté
Sauf si tu critiques un site. Tu n'as pas forcément envie de citer tout le contenu d'un site que tu trouves mauvais (sur n'importe quel plan). Donc tu fais un lien. Et là, par défaut tu le fais profiter de ton PageRank

Et bien tu cite l'url de la page sans en faire un lien actif. Ou tu utilise un service du style tinyurl qui est une redirection

Posté
A mon avis, le plus gros problème, c'est déjà de déterminé sur quel type de page on est. Savoir qu'on est sur un blog n'est pas évident.

Oula: même problème. Comment tu sais que tu es dans un guestbook et pas dans un annuaire?

Automatiquement, je veux dire.

Je pense que ça aussi c'est faisable.

Ca ne doit pas être trop compliqué de modéliser la structure d'un weblog ou d'un guestbook.

Mais même sans aller jusque là, il y a peut-être plus simple déjà.

Quelle est la proportion de blogs fonctionnant à partir d'un CMS ? 90% ? Plus ? Ca doit être à peu pres la même proportion pour les guestbooks, il est rare que les webmasters codent ce genre de chose "à la main".

Traiter déjà les blogs utilisant un CMS identifiable serait une grande avancée. Le spam de commentaire deviendrait quasiment inutile, et plus compliqué d'autre part à cause justement de la difficulté (pour eux aussi) à détecter de manière automatique les blogs "homemade" acceptant les liens en commentaires.

Posté
Traiter déjà les blogs utilisant un CMS identifiable serait une grande avancée. Le spam de commentaire deviendrait quasiment inutile, et plus compliqué d'autre part à cause justement de la difficulté (pour eux aussi) à détecter de manière automatique les blogs "homemade" acceptant les liens en commentaires.

<{POST_SNAPBACK}>

Qu'entends-tu par "traiter"? Enfin, surtout: traiter par qui?

Si c'est du CMS que tu parles, c'est simple à faire (d'ailleurs DotClear l'a intégré en un clin d'oeil).

Si c'est du moteur de recherche, ça fait beaucoup de boulot (même s'il y a moins de CMS que de blogs, ça reste un nombre considérable), tributaire d'un template, d'un changement de structure en changeant de version... je trouve que le coup du nofollow est plus propre (et en plus, à ne traiter qu'une fois).

Sur certaines plate-formes communautaires, comme Joueb.com, la plupart des commentaires viennent de gens identifiés, là, pas de problème: les gens identifiés peuvent mettre des liens normaux. Les autres se contentent d'un nofollow (enfin, c'est comme ça que je vois les choses, elles ne sont peut-être pas ainsi pour le moment).

Du coup, même les blogs "homemade" peuvent gérer ça.

Je suis d'accord que le gros inconvénient c'est qu'il s'agit d'un élément de plus à intégrer quand on écrit son HTML...

Posté
Et bien tu cite l'url de la page sans en faire un lien actif. Ou tu utilise un service du style tinyurl qui est une redirection

<{POST_SNAPBACK}>

Certes. Ca marche. Mais tu dépends du moteur de recherche aussi. S'il reconnaît toutes les URL, même s'il n'y a pas de lien... (je ne dis pas que ça existe, je dis que c'est possible).

En utilisant un service du genre tinyurl, tu deviens tributaire d'un autre site, ce qui est acceptable pour une information qui n'est pas destinée à durer, mais si tu veux un lien pérenne, il y a toujours un risque (mais c'est un autre débat).

En gros: ça réclame (je trouve) plus d'efforts (tinyurl) et ce n'est pas mieux; sinon, ça réclame plus d'efforts au lecteur du site (copier-coller, et pas simple clic).

Posté
Qu'entends-tu par "traiter"? Enfin, surtout: traiter par qui?

J'ai déjà proposé quelque chose deux posts plus haut. Mais pour clarifier, mon opinion est qu'il faut pénaliser lourdement les liens sortants émanant des blogs, de façon à soulager ceux-ci une fois pour toutes du spam de commentaires, mais aussi et surtout pour améliorer la qualité des résultats de recherche.

Par qui ? Par les moteurs bien sûr. L'enjeu est d'améliorer la pertinence de la recherche. Je ne vois qu'un seul type d'acteur dont ce soit le métier et le fonds de commerce.

Si c'est du moteur de recherche, ça fait beaucoup de boulot

Peut-être, mais c'est leur boulot après tout. Et eux sont payés pour ça ;)

Si c'est du CMS que tu parles, c'est simple à faire (d'ailleurs DotClear l'a intégré en un clin d'oeil).

Si c'est du moteur de recherche, ça fait beaucoup de boulot (même s'il y a moins de CMS que de blogs, ça reste un nombre considérable), tributaire d'un template, d'un changement de structure en changeant de version... je trouve que le coup du nofollow est plus propre (et en plus, à ne traiter qu'une fois).

Sur certaines plate-formes communautaires, comme Joueb.com, la plupart des commentaires viennent de gens identifiés, là, pas de problème: les gens identifiés peuvent mettre des liens normaux. Les autres se contentent d'un nofollow (enfin, c'est comme ça que je vois les choses, elles ne sont peut-être pas ainsi pour le moment).

C'est justement ce qui me fait craindre que le système soit dévoyé... A mon avis, on se dirige tout droit vers la monétisation des liens en dur sur les blogs, donc l'institutionalisation et l'industrialisation du spam de commentaires.

Au-delà des blogs (qui sont après tout très peu concernés par cette annonce), je vois d'autres dérives possibles. Ne voulant pas crossposter, voila un lien vers ce que j'écrivais tout à l'heure sur un autre forum.

Posté

Je pense que c'est :

- un bon gros coup marketing des moteurs.

- intéressant, car c'est la première fois (?) que les moteurs annoncent à l'avance un changement de leur algo, et qu'on va pouvoir suivre ça en live

- dommage pour les blogueurs, dont la popularité est en partie due à leur visibilité dans les moteurs, et ce car la blogosphère constitue une structure fortement connectée en partie grâce aux liens dans les commentaires

Posté (modifié)

Je ne comprend pas ta peur de la "monétisation" des liens. Faire des liens est *déjà* monayé, si ce n'est que par l'échange (je paye le lien en en mettant un moi-même). Il n'y a qu'à voir les forums du hub à propos de référencement. Combien font des échanges de lien ou demandent des liens ?

Avant c'était "si tu es gentil je te fais un lien", maintenant ça peut être à la limite "si tu es gentil je te fais un lien normal sinon si tu es méchant mais tout de même intéressant je fais un lien nofollow".

Ca ne change rien à la capacité ou à l'utilité de "revendre" les liens.

J'ai l'impression qu'au contraire ce nofollow va gêner ceux qui actuellement monayent les liens. Les forums qui attirent les visiteurs uniquement pour les liens qu'ils peuvent placer, les livres d'or qui ne servent que pour le page rank, les commentaires de blogs laissés uniquement pour mettre l'url du site perso ...

Pour prendre un exemple concret, avec la politique du nofollow pour les contenus venant de personnes tierces, on n'aurait pas eu toutes les dégradations du Web pour les concours type mangeur de cigogne (puisque les liens sans nofollow sont faits par le propriétaire ou des personnes de cofiance, personne n'aurait pu pourrir un site contre la volonté du proprio uniquement pour le PR).

Modifié par Ganf
Posté

Bof, en quoi le nofollow va t il gêner pour la 'monétisation' des liens .. Si tu payes un lien, c'est qu'il ne sera forcément pas en nofollow .. à moins d'être idiot ou pas au courant.

Quant aux échanges de liens, ils ont toujours été et le resteront.

Le côté suractif de ce type de forum 'echanges de liens' est simplement le fait d'un seul et même outil de recherche qui ne sait pas classer autrement les sites que par leur popularité, et donc basé sur le nombre de liens et leur qualité.

Au final, c'est un aveu complet d'impuissance de ces outils de recherche face à la pertinence à laquelle ils sont censés arrivés. L'arrivée du nofollow veut simplement dire : notre algo est complètement pourri pour évaluer la popularité d'un site, aidez nous à faire mieux.

Et dans ce sens, je rejoins complètement Stéphane sur le fait que ce soit leur métier de faire évoluer leur algo et pas à nous, webmaster, développeur, etc, de penser à ce qu'on va mettre en liens 'normal' ou en 'nofollow' pour aider ces ORs à monétiser encore plus leurs résultats de recherche. C'est le serpent qui se mord la queue.

Ok pour l'intérêt de cette technique vis à vis du spam des weblogs et livres d'or aujourd'hui, ceci dit, il n'en aurait pas eu besoin si ces memes weblogs n'avaient pas une structure et des us et coutumes (linking complexes et volumineux donc popularité énorme) qui leur permettent de faire tourner la tête aux algos des outils, et si ces mêmes outils de recherche ne leur accordaient pas autant d'importance.

De plus, ca ne fera que déplacer le problème du spam sur d'autres outils qui n'auront pas intégré cette 'nouvelle donne' si tant que chacun de ces outils respectent bien leur décision commune, ce qui n'est pas à parier dans les mois qui viennent avec la concurrence féroce à laquelle ils vont se livrer.

Posté
Au final, c'est un aveu complet d'impuissance de ces outils de recherche face à la pertinence à laquelle ils sont censés arrivés.

Certes, mais la question c'est de croire ou pas qu'il est possible techniquement de manière réaliste pour le moteur d'ignorer le spam. Je ne suis pas sûr que ce soit si simple. Du coup un tel aveux ne me gêne pas vraiment.

Maintenant je ne suis pas d'accord avec l'idée que le nofollow améliorera les résultats de Google. N'importe quel algo automatique pourra être abusé d'une manière ou d"'une autre, ou contourné. Si les gens qui veulent faire du positionnement n'utilisent plus le spam de commentaires ils utiliseront autre chose.

Le seul effet qu'on pourra avoir c'est qu'au lieu de pourrir nos contenus ils iront jouer ailleurs, par exemple sur des pages à eux.

Effectivement, du point de vue d'un référenceur ça ne fait que déplacer le problème car lui se place dans l'optique d'une amélioration des moteurs de recherche.

Mais pour les utilisateurs/visiteurs ça suprime (si ça marche) le problème, puisque si les spammeurs vont jouer dans leur cours de récréaction dédiée on n'aura plus de spam dans nos lectures de blogs/wiki.

Faut bien voir que pour les bloggueurs c'est ce second point de vue qui est important.

Posté

Une question terre-a-terre: l'ecriture 'rel="nofollow"' n'entraine-t-elle pas une depreciation de "rel=external" (qui visait deja a remplacer "target="_blank"')

Contrairement a ce que peuvent raconter sources, il n'est bien pas normal d'utiliser 2 fois un meme attribut, meme avec des valeurs differentes. Le validateur W3C ne tolere d'ailleurs pas la syntaxe suivante :

<a href="document.html" rel="external" rel="nofollow">external link</a>

La valeur "external" n'a donc (plus) aucune utilite pour que google souhaite que les liens externes soient maintenant en "nofollow" dans commentaires/trackbacks/refereres des blogs ? Que faire en pratique ? Que choisir ? Pourquoi ?

:huh:

Posté

Voir HTML4.01: ( http://www.w3.org/TR/html401/struct/links.html#adef-rel )

rel = link-types [CI]

This attribute describes the relationship from the current document to the anchor specified by the href attribute. The value of this attribute is a space-separated list of link types.

On écrit donc simplement :

<a href="document.html" rel="external nofollow">external link</a>

Mais bien-sûr, rien, ni personne, ni surtout les inventeurs du "nofollow"... ne peut dire actuellement si "nofollow" sera pris en compte lorsqu'il n'est pas la seule valeur d'attribut.

Il y a diverses autres incertitudes de cette ordre... Mais je suppose que c'est ce qui fait le charme des pseudo-spécifications inventées unilatéralement et de manière purement propriétaire :lol:

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...