Jeff Posté 28 Janvier 2007 Posté 28 Janvier 2007 Quand je dis que je me méfie de l'appellation densité, je fais allusion aux connotations propre au monde du référencement pour ce terme, et aussi au parallèle malheureux fait avec la notion habituelle de densité (poids volumique / poids volumique). Parce que si on parle de "poids" des termes, cela devient autre chose, dans une mesure de type tf*idf, le poids est donné par la formule tf*idf, et ce que l'on appelle densité, n'est que tf.En voila une question qu'elle est bonne Quand tu dis : je me méfie : tu penses qu'un même mot n'est pas interprété de la même façon par differentes personnes ? J'aurais tendance à dire que la densité se rapproche plus de la masse que du poids. (j'englobe l'environnement dans la densité ) Jeff,
thick Posté 28 Janvier 2007 Posté 28 Janvier 2007 (modifié) Ceci dit, en toute rigueur, rien n'interdit d'appeler densité le ratio nombre d'occurrences / nombre total de mots. Quand je parle de fréquence, c'est bien la même définition. Dans la notion habituelle de densité (ou de fréquence des termes), la longueur du document n'est pas prise en compte. Un mot présent une fois dans un texte de 100 mots, aura la même fréquence qu'un mot présent deux fois dans un texte de 200 mots. Hein ?????????? Attendez, j'hallucine franchement de lire ça venant de toi. Bien sûr qu'on peut avoir plusieurs intérprétations du terme densité puisqu'il faut prendre en compte l'environnement. Par contre, quand on parle de densité dans le domaine du référencement je ne vois qu'une définition et elle implique bien la prise en compte du corpus de la page et rien d'autre. Où y a t'il un outil ou un référenceur qui va parler de densité par rapport à quelque chose d'externe à la page ???? Si on admettait prendre d'autres éléments donc j'en cite quelques uns plus haut oui je veux bien qu'on puisse admettre densité autremement, mais on ne peut pas utiliser des termes autrement que dans le sens où tout le monde le comprend sinon comment se faire comprendre et parler de la même chose ? En effet, peut-être que fréquence est mieux approprié que densité pour parler du sujet dont on débat ici. Edit : cela dit non on ne peut pas utiliser fréquence (je viens de relire mes définitions car j'avais un doute sur "fréquence") La fréquence implique la notion de temps. Où est ce qu'on parle de temps en terme de référencement ??? Concernant densité, la notion est certainement plus floue, mais si on parle de densité en trafiquant la notion communément admise par tous (densité d'un mot clé dans une page pour le réf) je crois que l'incompréhension est totale, conséquemment le message est carrément flou, tordu et biaisé. Et encore, on n'est que sur le Hub, mais si c'était une publication sur Scientific America je crois que la communauté scientifique te sauterait à la gorge. Etre en dessous de la norme c'est ne pas être pertinent. Etre au milieu de la norme c'est être moyen. Etre dans le haut de la norme c'est être éventuellement jugé plus pertinent. Etre au dela de la norme c'est être suspect Je suis à 100% d'accord avec l'interprétation de Cariboo. Hmmm quelle est la norme ? Tu penses vraiment que les requêtes sont toutes "égales" en terme de filtres algorithmiques ? A mon avis, c'est fausser le référenceur que de lui faire croire qu'on peut travailler sur les mêmes normes de densité, peu importe de la requête. Modifié 28 Janvier 2007 par thick
Jeff Posté 28 Janvier 2007 Posté 28 Janvier 2007 En effet , je pense que le terme "densité" est utilisé et adapté d'une façon différente de sa définition littéraire dans le monde du référencement c'est un peu comme le terme :Référencement Référencement => action à référencer un site dans une base de données de moteur. Le reste c'est de l'optimisation... et bien plus encore. Jeff,
thick Posté 28 Janvier 2007 Posté 28 Janvier 2007 Référencement => action à référencer un site dans une base de données de moteur.Le reste c'est de l'optimisation. Ben oui ça c'est encore plus vrai que pour "densité" Mais bon attaquons une chose à la fois On a presque tordu le "PageRank", on remet en place "densité" et après on recale "référencement". Faut partir de la base et monter vers le sommet de la pyramide.
Cariboo Posté 28 Janvier 2007 Auteur Posté 28 Janvier 2007 Laurent, tu as raison, mais dans un autre contexte. Là je parle dans le contexte des statistiques, et, en statistique, on appelle fréquence le rapport entre l'effectif d'une valeur et l'effectif total. Plus de notion de temps. C'est bien le problème, lorsqu'on utilise un mot "hors contexte", il est souvent mal compris. A force d'en parler, j'ai fini par comprendre ce qui me gênait dans le terme densité. C'est la confusion avec la "densité de population" qui est une mesure qui a une dimension (elle se mesure en habitants au km2). Quand on leur parle de "keyword density", j'ai observé que certains voyaient une mesure du nombre de mots rapporté à la taille de la page. C'est ce télescopage que je trouve malheureux, car il conduit à des erreurs de raisonnement que l'on retrouve dans les forums de SEO.
thick Posté 28 Janvier 2007 Posté 28 Janvier 2007 Aaah merci Cariboo pour ces explications limpides. Je vais pouvoir te décrypter un peu mieux sur ce sujet
Sebastien Posté 28 Janvier 2007 Posté 28 Janvier 2007 Le terme "langage naturel" est effectivement insatisfaisant, car en fait il y a plusieurs langages naturels selon le contexte. Cela dit pour le web, suivre les directive d'accessibilité des WCAG et s'efforcer d'écrire en langue simple et claire (plain language), permet avec une emphase sur les mots-clés stratégique de produire des contenus naturellement optimisés pour les utilisateurs et les moteurs. Quand je dis "emphase" j'entend par là insérer les mots clés un tout petit peu plus que ce que l'on écrirait si les moteurs n'existaient pas, sans pour autant produire un texte pénible à lire (bref c'est toujours une question de dosage et d'expérience)
Jeff Posté 28 Janvier 2007 Posté 28 Janvier 2007 Le terme "langage naturel" est effectivement insatisfaisant, car en fait il y a plusieurs langages naturels selon le contexte. Cela dit pour le web, suivre les directive d'accessibilité des WCAG et s'efforcer d'écrire en langue simple et claire (plain language), permet avec une emphase sur les mots-clés stratégique de produire des contenus naturellement optimisés pour les utilisateurs et les moteurs. Quand je dis "emphase" j'entend par là insérer les mots clés un tout petit peu plus que ce que l'on écrirait si les moteurs n'existaient pas, sans pour autant produire un texte pénible à lire (bref c'est toujours une question de dosage et d'expérience) Sébastien, ton explication pourrait être mal interprétée et certains pourraient penser que tu incites à suroptimiser les pages sur une requête en augmentant le nombre de mots clés Si un mot doit exister alors qu'il existe, jouer sur les mots (leurs nombres) peut dans certains cas faire prendre des risques inutiles au site si cette méthode est appliquée à son ensemble. J'ai bien noté que tu mets en garde en parlant de dosage et d'expérience, faudrait-il encore bien définir les mots dosage et expérience Mais je crains que l'on remette en cause tout le language utilisé dans le big word du SEO. Jeff,
lafleur Posté 28 Janvier 2007 Posté 28 Janvier 2007 Cela dit pour le web, suivre les directive d'accessibilité des WCAG et s'efforcer d'écrire en langue simple et claire (plain language), permet avec une emphase sur les mots-clés stratégique de produire des contenus naturellement optimisés pour les utilisateurs et les moteurs. Sébastien, je veux pas dire, mais relis-toi, : ta phrase est exactement le contraire de ce qu'elle serait si tu suivais le conseil que tu donnes, faut la lire trois fois pour la piger (La mienne aussi, mais c'est pas moi qui file le conseil ) Mais c'est bien mieux ainsi "Simple et clair", ça veut dire sujet-verbe-complément avec un vocabulaire de 300 mots. Ce genre de conseil s'adresse au rédacteur débutant de chez débutant, on ne peut pas en rester là si on a un sujet sur lequel on a des objectifs précis et ambitieux. De plus, en matière commerciale, il vaut mieux ne pas être trop clair sur certains aspects du produit que l'on doit mettre en avant ! (Amis hubiens, j'ai déjà pondu des posts moins constructifs ici, mais pas souvent. Mes excuses, hein ! )
Sebastien Posté 28 Janvier 2007 Posté 28 Janvier 2007 ta phrase est exactement le contraire de ce qu'elle serait si tu suivais le conseil que tu donnes Tu as tout à fait raison, ce qui montre bien que l'écriture est un sujet complexe Donc ce que je disais, c'est que pour produire un texte bien conçu pour le référencement, on ferait bien de s'inspirer des techniques pronées par le W3C, ainsi que des techniques d'écriture en langage clair, en insistant juste un peu plus fort sur ses mots-clés (mais sans sacrifier la lisibilité). J'espère avoir été plus clair, sinon j'ai cette synthèse sur le sujet
lafleur Posté 28 Janvier 2007 Posté 28 Janvier 2007 Oui oui Sébastien, tu es très clair, je note je note Mais je ne suis pas d'accord du tout (du tout du tout) avec le fond du propos, qui est grosso-modo celui du site http://www.redaction.be/ qui fait hélas référence en la matière. Ce débat dépassant le cadre du Hub, je vais, au grand dam de mon amour-propre, te laisser le dernier mot en ne donnant aucun argument Pour revenir au débat d'origine, nous pouvons quand même constater que des référenceurs se basent bel et bien sur l'idée de densité de mots-clés et obtiennent d'excellents résultats. Parce qu'à un moment, le discours est : il y a un Graal (une densité optimale, ou fréquence idéale, ou ce que vous voulez), mais il est inatteignable à moins d'être pur (comme Galaad, forcément) c'est à dire ne pas se souiller à écrire pour le robot mais à écrire "naturellement". D'où puissante réflexion : s'il y a densité idéale, pourquoi aurait-on plus de chance de l'atteindre en laissant faire le hasard (en écrivant "naturellement") qu'en tentant de forcer le destin et en essayant de repérer, fût-ce empiriquement, ce qu'elle pourrait être ? Donc d'accord pour moi pour l'écriture sans s'occuper de densité ou autre, parce que c'est une façon de faire qui me va bien et qui fonctionne pas mal. Mais il faut tout de même reconnaître que d'excellents référenceurs, genre bien pros avec expérience sur des années et top positions sur du long terme, ont un autre discours, travaillent autrement et obtiennent d'excellents résultats ! On va pas se la jouer pensée unique sur un truc aussi flou que le réf, si ?
Jan Posté 28 Janvier 2007 Posté 28 Janvier 2007 Je ne vais pas rentrer avec vous dans un débat sémantique sur la "densité" ou la "fréquence". Ca dépasse largement mes compétences En revanche j'ai l'impression que parler de densité idéale dans l'absolu c'est faire fausse route. En matière d'optimisation, et particulièrement de frontière entre optimisation idéale et suroptimisation, il est vain de disserter en faisant abstraction d'un élément primordial: tous les sites ne sont pas égaux face aux filtres. L'age du site, ses backlinks, son pagerank, son trustrank, etc... jouent un rôle clé. Pour parler trivialement, plus un site a de poil aux pattes, de backlinks, ou de "capital confiance" (notion bien floue j'en conviens), plus son webmaster peut se permettre de "bourriner" en matière d'optimisation. A mon avis, la densité ou le nombre d'occurences de mots-clés présents dans une page n'échapppent à cette règle
thick Posté 28 Janvier 2007 Posté 28 Janvier 2007 Ouf enfin quelqu'un pour venir à mon secours. Merci Jan 100% d'accord avec ce que tu dis et j'ajoute juste ce que j'ai dit quelque part plus haut. Les filtres sur les requêtes ne sont pas tous les mêmes. Ainsi, la "densité" peut être bonne sur une requête et pas l'autre. Puis aux quelques paramètres qu'on cite, il y en a quelques centaines d'autres qu'il faudrait inclure pour avoir une mesure juste de l'environnement et du corpus.
zapman Posté 29 Janvier 2007 Posté 29 Janvier 2007 J'espère avoir été plus clair, sinon j'ai cette synthèse sur le sujet [Hors sujet] Je fais une petite parenthèse parasite à ce sujet pour dire à Sébastien à quel point j'aime ce qu'il écrit. Cette synthèse sur le "text-appeal" est une merveille. Merci d'exister, Sébastien ! [/Hors sujet]
Le-juge Posté 31 Janvier 2007 Posté 31 Janvier 2007 Je prends le sujet un peu tard dommage car ce debat sur la definition de la densite et de son utilite ou non etait passionnant. Pour resumer le fond de ma pensee je dirais un peu comme seb: Dans la mesure ou l'on respecte les Guidelines pour optimiser le site il y a de grandes chances que les internautes lisent les textes qui composent le site. Or si ces textes doivent etre optimise au niveau de leur contenu pour les moteurs, il faut aussi que les internautes qui sont en general un poil plus critiques que les moterus de recherche vis a vis du style) le trouvent interessant. Si il y a donc Sur-densite cela va porter prejudice au site. Perso je suis plus enclin a proner une certaine "correspondance" entre les mots cles presents sur le parcours du bot , ce qui a un impact sur la densite mais qui laisse beaucoup plus de libertes vis a vis des contenus.
dams41 Posté 31 Janvier 2007 Posté 31 Janvier 2007 Je pense que le calcul de la densité se fait par des statistiques des autres sites. Sur un mot clé précis, google doit faire un ratio du nombre de fois qu'apparait le mot clé par rapport à la quantité de contenu. Si un site dépasse trop fortement ce ratio, alors je pense qu'il est marqué comme trop dense, avec le risque de sandbox / blacklist ...
thick Posté 31 Janvier 2007 Posté 31 Janvier 2007 Belle leçon de reverse engineering à la petite semaine que voilà ! Désolé, mais ton concept est trop simpliste pour me satisfaire...
zapman Posté 1 Février 2007 Posté 1 Février 2007 Perso je suis plus enclin a proner une certaine "correspondance" entre les mots cles presents sur le parcours du bot , ce qui a un impact sur la densite mais qui laisse beaucoup plus de libertes vis a vis des contenus. Ho, ho... l'idée d'anticiper/gérer "le parcours du bot" éveille mon intérêt. Pourrais-tu préciser ce que tu entends par là ?
Le-juge Posté 1 Février 2007 Posté 1 Février 2007 Pourrais-tu préciser ce que tu entends par là ? C'est tres simple en fait - les bots peuvent tout a fait etre considere comme des internautes se servant de navigateur de 1ere generation (grosso modo) - ils parcourent le web en suivant les liens. Ils lisent le contenu des pages comme tout un chacun de gauche a droite et de haut en bas LE PARCOURS : 1)Page de provenance du bot --> linking si possible avec des sites 1) en relation thematique, 2) possedant un fort PR, Trust Rank 2) Incoming Link --> toujours sur le site de provenance avoir un lien text qui contienne le mot cle correspondant a la page de destination (en l'occurence Mon site) 3) URL du site (attention je parles d'URL pas de domaine) --> Si possible avoir des mots cles dans l'URL (GG est de moins sn moins sensible a ca mais MSN oui 4) <title> - le mot cles sur lequel je veux optimiser ma page est presnet dans le <title> 5) <meta name="description"> --> Idem avec le mot cle dans un phrase coherente et attractive pour les client potentiels 6) <meta name="keywords"> tant qu'on optimise un page on fait tout keywords y compris 7) on retrouve le mots cles dans differents elements du contenu de la page - pas obligatoirement avec une densite enorme - et de maniere "harmonieuse" ca peut etre dans la nav, le texte, en titre , en sous titre ... --> attention le texte est ecrit pour les internautes En plus en effet secondaire tu pourras voir que la densite de mots cle augmente d'elle meme, sans atteindre de pourcentage faramineux et tout en laissant un texte a la fois comprehensible pour les internautes et pertinent pour les moteurs. Grosso modo voila - quand le bot note qu'il a vu le mot cles sur tout ce parcours on finit par avoir des resultats pas degueu
Leonick Posté 1 Février 2007 Posté 1 Février 2007 Je plussois. En dehors de la balise keywords qui n'est plus utilisée que par yahoo. Mais sinon, c'est ça : on écrit pour les visiteurs en pensant aux moteurs et pas le contraire. Parce que, quand dans les résultats de google, on voit une description et un titre bourrés de mots clés, même si le lien est 1°, on n'ira pas. De la même manière que dans un magasin, en règle générale, on a horreur qu'un vendeur essaie de nous forcer la main.
zapman Posté 2 Février 2007 Posté 2 Février 2007 (modifié) 1)Page de provenance du bot --> linking si possible avec des sites 1) en relation thematique, 2) possedant un fort PR, Trust Rank 2) Incoming Link --> toujours sur le site de provenance avoir un lien text qui contienne le mot cle correspondant a la page de destination (en l'occurence Mon site) 3) URL du site (attention je parles d'URL pas de domaine) --> Si possible avoir des mots cles dans l'URL (GG est de moins sn moins sensible a ca mais MSN oui 4) <title> - le mot cles sur lequel je veux optimiser ma page est presnet dans le <title> 5) <meta name="description"> --> Idem avec le mot cle dans un phrase coherente et attractive pour les client potentiels 6) <meta name="keywords"> tant qu'on optimise un page on fait tout keywords y compris 7) on retrouve le mots cles dans differents elements du contenu de la page - pas obligatoirement avec une densite enorme - et de maniere "harmonieuse" ca peut etre dans la nav, le texte, en titre , en sous titre ... --> attention le texte est ecrit pour les internautes D'accord, rien de vraiment nouveau dans tout ça. C'est juste que je n'avais envisagé la problématique sous l'angle du parcours que suivent les robots. C'est intéressant de garder cette idée en tête. J'ajoute à ta liste l'idée de construire une page "tête de chapitre" qui commence déjà à placer quelques mots clés dans un résumé des contenus proposés au visiteur, et qui renvoie sur toutes les pages dont la thématique encadre le ou les mots clés qu'on souhaite promouvoir. Si ce résumé est un texte original (non repris dans les pages présentées) et que cette page comporte quelques liens externes pointant vers des pages fortement connexes avec la thématique du chapitre on obtient un très bon positionnement de cette tête de chapitre qu'on pourrait également baptiser "page portail". Toutes les pages "phares" de mon site correspondent à cette description. Modifié 2 Février 2007 par zapman
Le-juge Posté 2 Février 2007 Posté 2 Février 2007 D'accord, rien de vraiment nouveau dans tout ça. Ah ben non ya pas grand chose de nouveau. Je vais pas re-inventer la roue non plus
dams41 Posté 3 Février 2007 Posté 3 Février 2007 (modifié) Belle leçon de reverse engineering à la petite semaine que voilà ! J'émet simplement une idée, un principe de fonctionnement, pas une vérité, et encore moins du "reverse engineering". Ce que je sais c'est qu'un robot ne peux as comprendre les phrases telles qu'elles sont. Il peut simplement compter des mots clés, leur accorder une importance selon différents critères, ce qui forme l'algorithme de google. Comment savoir si on effectue beacoup de répétition dans un texte ? un nombre absolue ? Bien sûr que non, sinon nous ne pourrions utiliser la plupart des déterminants / articles etc... La répétition abusive de mots dépend donc du type de mot ciblé. Ainsi google ne considère pas les déterminants / articles etc... comme des mots clés. Pour le reste ? pour qu'un robot puisse savoir si un mot est trop utilisé, il doit se baser sur un échantillon non ? Ou tu considères qu'un programme du type int nb_max = random(1000);if(nombre_mot_clé > nb_max){ sandbox();} peut s'avérer suffisant ? Pour se baser sur un échantillion, il existe plusieurs méthodes d'apprentissages, les réseaux bayésien et les réseaux de neuronnes principalement. Mais ils se servent d'un échantillion d'observation pour déterminer la classe (un texte dans notre cas). Ainsi, une bonne méthode serait de classer un texte donné dans une classe en fonction du nombre d'occurence de mots clés trouvés par rapport à tous les autres textes disponibles (la base du réseau bayésien, utilisé notamment par thunderbird pour traiter les spams). Une fois qu'on connait la classe d'un texte (son thème), on peut observer le ratio "nombre d'occurence d'un mot clé / taille du texte" par rapport au même ratio pour les textes de la même classe, et ainsi déterminer (avec une marge d'erreur) si un texte est trop répétitif ou non. Voilà le principe de fonctionnement que je voulais évoquer, mais une fois de plus, je ne sais pas si ça fonctionne ainsi. J'expose simplement une méthode qui ne me semble pas tirée par les cheveux. Et quand bien même mes propos seraient totalement "idiots" (ce qui est peut-être le cas), nous pouvons en discuter, en débattre. N'est-ce pas là le but d'un forum ? Quoi qu'il en soit, rien ne t'autorises à te montrer injurieux vis a vis de mes pensées, d'autant que ma reflexion se base tout de même sur les cours de spécialistes de fouilles de texte que j'ai eu la chance de suivre récemment... Preuve que ça ne doit pas être si crétin que ça... Désolé, mais ton concept est trop simpliste pour me satisfaire... Tout d'abord, je dirai que je ne suis pas là pour te satisfaire. Ensuite, expliques pourquoi tu trouves le concept trop simpliste ! Car en ces termes, ta contribution ne sert à rien... Modifié 3 Février 2007 par dams41
thick Posté 3 Février 2007 Posté 3 Février 2007 Tout d'abord, je dirai que je ne suis pas là pour te satisfaire. Ensuite, expliques pourquoi tu trouves le concept trop simpliste ! Car en ces termes, ta contribution ne sert à rien... Relis les posts depuis le début du thread et tu comprendras mieux. Tu définis en 2 lignes le concept et ma réponse devrait faire 3 kms ??? Allons, ton truc est simpliste au possible et oui ça ne me convient pas du tout parce que tu n'apportes rien au débat. Depuis le début je m'échine à dire que la longueur du texte ne compte pas et tu viens en remettre une couche ? Ben désolé, mais non c'est complétement futile de venir ajouter ton "petit" commentaire tel qu'il est. A ta place, il valait mieux s'abstenir.
dams41 Posté 3 Février 2007 Posté 3 Février 2007 Relis les posts depuis le début du thread et tu comprendras mieux. Je viens de tout bien relire, c'est fait. J'ai réexpliqué mon point de vue dans le post précédent, en me basant sur une théorie un peu différente de celle de cariboo (encore que pas si eloignée que ça) des réseaux d'apprentissage. Mon truc est donc simpliste au possible reseaux neuroniques et bayésiens, sauf que ce n'est pas "mon" truc, mais un sujet de recherche fondamentale qui permettra peut-être à long terme de faire comprendre un texte à un robot. Depuis le début je m'échine à dire que la longueur du texte ne compte pas Je suis désolé d'avoir osé penser différement de toi . Si j'avais sû que ce forum ne permettait pas de s'exprimer, je me serais contenté de m'abreuver de tes profondes paroles... (ie : je suis d'accord, je ne suis pas d'accord, j'aime pas le mot "densité") tu n'apportes rien au débat Je tiens à m'en excuser auprès des membres du forum. A ta place, il valait mieux s'abstenir C'est ce que je compte faire...
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant