smile Posté 2 Décembre 2003 Posté 2 Décembre 2003 c'est pas si simple que ca, un site existe en plus de de deux exemplaire .. spamdexing Qu'est ce qu'on fait des marques blanches, le même contenu mais en sous domaine ? Est ce du spamdexing ?
Herveg Posté 2 Décembre 2003 Posté 2 Décembre 2003 c est quoi marque blanche ? meme contenu en sous dmaine ? j y vois presque qu un debut de tentative de noyade de poisson là..... dŽabord avant de sŽenerver (car je mŽenerve rapidement sur ce genre de sujet comme le savent certains qui me connaissent....!!), je voudrais préciser que je parle de pratique de Spamdexing sur des "pages" plutot que sur "des sites". Cela a pour conséquence quŽa partir du moment ou un contenu est identique dans le fond (je passe les changements de couleurs , de mise en forme, les nouvelles tournures de phrases pour dire la meme chose etc....), que ce contenu se trouve sur deux pages de deux sites différents, sur deux pages d un meme site, ou sur deux pages de deux sous-domaines differents, pour moi c est du Spamdexing. point. Un Webmaster (je dirais plutot un "reponsable de contenu" ou "editeur" n a le droit qu a une page pour dire la meme chose (mais la je suis restrictif sur cette methode, on pourrait y en ajouter d autres). J entends d ici : "ah oui, mais dans certains cas on est obligéeeeee heuuuu : flash, changement de domaine, excusalacon, etc.". Peutetre, mais si tout le net faisait du duplicate content en double ou en triple seulement (un html, un flash et un pour faire beau, ce qui est deja un de trop mais bon...), je peux vous dire qu on aurait pas besoin de se plaindre. on le verrai a peine. par contre si ce contenu se trouve sur des centaines voire des milliers de pages... là ca commence a devenir "visible", "contraignant", "pénalisant l internaute", etc. Alors, le probleme, est ce vraiment la définition du Spamdexing ? ou est ce plutot la difficulté de le répérer ( je ne le crois pas, on remplit des Spamreport a longueur de temps) ou de la volonté (technique et financiere) de le traiter (ah la, c est un peu vrai car on ne peut pas tout faire manuellement..!) ? a+ Hervé
smile Posté 2 Décembre 2003 Posté 2 Décembre 2003 c'etait pas une tentative de noyade du poisson mais c'etait pour bien comprendre ce qu'on le droit ou pas de faire, ce qu'est du Spamdexing ou pas. Les marques blanches rentrent vraiment dans ce debat là, tape "sonnerie" ou "mobile" et tu verras les premières pages sont squattées par la même boite (même contenu) mais en sous-domaine. Si on suit votre logique ca en fait parti, hors c'est une pratique courante et même encouragée. Voilà je voulais simplement éclairicir certains points
enfinfr Posté 2 Décembre 2003 Posté 2 Décembre 2003 Le spamdexing, n'est-ce pas un mot qui est décliné à toutes les sauces pour dire beaucoup et rien ??? Bien sûr, c'est un mot qui comme tous les mots ne tiens nullement compte du pourquoi, du comment et des raisons qui sont derrière. Je pense que dans le référencement tout est faisable dans la mesure où rien n'interdit de faire telle ou telle chose. Après, si certains filtres sont mis en place pour interdire certaines choses, c'est que ce n'était pas bien, entre temps, c'est autorisé. Puis, vouloir penser aux internautes, c'est une bonne chose, mais je connais aucun média qui met en avant ses lecteurs, ses spectateurs avant son portefeuille. Et pour finir, dans toute chose et y compris aussi, il y a la vision de celui qui vit de son petit site et pas toujours facilement et la vision du passionné qui vit de l'argent de Papa et Maman ou d'un boulot dans la journée. Bon, j'ai un journal à finir...
Monique Posté 2 Décembre 2003 Posté 2 Décembre 2003 Je pense que dans le référencement tout est faisable dans la mesure où rien n'interdit de faire telle ou telle chose. Après, si certains filtres sont mis en place pour interdire certaines choses, c'est que ce n'était pas bien, entre temps, c'est autorisé. Oui, ce qui n'est pas interdit par la loi est autorisé Le problème, c'est que l'humain est cupide... en vue de profits divers, il abuse de ce qui est autorisé, avec les conséquences négatives que l'on connaît. Puis, vouloir penser aux internautes, c'est une bonne chose, mais je connais aucun média qui met en avant ses lecteurs, ses spectateurs avant son portefeuille. Hélas vrai. Le problème, c'est que l'humain est un mouton de panurge... il ne fait donc pas ses choix en fonctions de critères de qualité. PS : au lieu de "l'humain", j'aurais pu utiliser l'expression favorite des hommes (et des femmes...) politiques aujourd'hui, du moins en Belgique, "les femmes et les hommes"
Stephane Posté 2 Décembre 2003 Posté 2 Décembre 2003 Je réponds en vrac à divers points abordés... Je trouve assez intéressant, à travers la définition du spamdexing, de pouvoir définir des critères de pertinence et d'imaginer des solutions pour améliorer l'efficacité de la recherche sur Internet en général. Malheureusement, la question de la définition du spamdexing ne nous aidera pas à "définir des critères de pertinence". Comme on l'a vu dans ce début de discussion, l'optimisation trompeuse n'est pas la seule forme de spamdexing et il y a de nombreux cas où le spam ne nuit pas à la pertinence des résultats. Ces formes là de spam ne gènent aucunement ni les moteurs, ni les internautes. Les seuls à se plaindre seront éventuellement les référenceurs, leurs clients, et quelques webmasters. Il faut peut-être y voir là l'une des raisons de la passivité des moteurs. Pour les sites en flash ce n'est pas aux référenceurs de trouver le moyen de les référencer mais à macromedia et aux moteurs qui s'y intéressent La solution existe déjà, et elle vient effectivement de Macromedia. C'est le Flash SDK. Ce n'est pas parfait, mais cela permet déjà aux moteurs qui le souhaitent d'indexer à peu près correctement le flash. Pour le moment, Fast est le seul. Ce qui veut dire que les autres moteurs ont choisi sciemment de rester en retard sur le plan technologique. J'inclus Google parmi ceux-là, qui utilise le Flash SDK aussi, mais uniquement pour extraire les liens ce qui ne sert à rien à mon avis. Bref, en attendant que les moteurs s'intéressent aux besoins de nos clients, qui d'autre que les référenceurs seraient susceptibles de faire quelque chose ? Pour finir, comment expliquez-vous qu'un moteur de recherche tel que Google juge utile de mettre sur son site une page entière destinée à prévenir les internautes contre le recours à certains SEO, autrement dit référenceurs professionnels ? Il y a eu plusieurs hypothèses à ce sujet si je me souviens bien... Sans me risquer à répondre, je dirais simplement que les métiers du référencement et de la publicité en-ligne sont tellement proches qu'on en vient parfois à s'envoyer mutuellement des "petites piques amicales". Chacun essaye de tirer la couverture de son côté et c'est bien normal, malgré que nous ne soyons pas directement concurrents... Et pour finir, dans toute chose et y compris aussi, il y a la vision de celui qui vit de son petit site et pas toujours facilement et la vision du passionné qui vit de l'argent de Papa et Maman ou d'un boulot dans la journée. Effectivement. La perspective où on se place a souvent tendance à changer le point de vue. Mais je ne dirai certainement pas que les sites commerciaux doivent systématiquement primer sur les sites persos ou gérés par des amateurs. La diversité du web est une très bonne chose, et j'espère qu'elle pourra durer le plus longtemps possible.
Herveg Posté 2 Décembre 2003 Posté 2 Décembre 2003 Les marques blanches rentrent vraiment dans ce debat là, tape "sonnerie" ou "mobile" et tu verras les premières pages sont squattées par la même boite (même contenu) mais en sous-domaine. Là je dois dire que je ne comprends pas votre remarque. Dans quelle mesure cette pratique pourrait-elle etre encouragée ? et par qui ? si le contenu est le meme sur toutes les resultats proposés et qu un internaute se voit offrir les meme informations quelques soit le lien pour lequel il se décide.....je ne vois pas ou est l'intéret pour lui (l'internaute). Alors quand vous dites que ca ne gène pas, j'aime autant vous dire qu une fois que j'aurais cliqué sur 4 liens pour me voir lire la meme chose.....je vais rapidement me sentir "géné" pour rester poli.....! quand je fais un appel d'offre, j aime bien recevoir des propositions de différentes entreprises......et non une par site d'implantation.....! bref, ce cas est pour moi une pratique (nommez la spamdexing ou non si cela vous arrange) qui fausse les résultats proposés aux internautes et c'est là ma seule définition du Spamdexing toute "discipline" confondue. que vous utilisiez des pages satellites, des liens cachés, du texte cachés, des sites "portes d'entrée", du cloaking, etc. vous entrez dans cette catégorie. Sinon pour le reste : "tout ce qui n est pas interdit est autorisé", c est malheureusement un sport "mondial" ou le français s'illustre depuis de longues années ! et pour finir, l'aspect financier qui, je pense, est la clé de voute du probleme (aussi bien du point de vue "moteurs ou annuaires" (gain supplémentaire sur référencement, achat de mot clés, etc.) que d'un point de vue "Webmaster" (plus mon site est vu, plus je palpe) est difficilement gérable. les sous domaines et les pages internes multipliées (duplicate content) ont ceci d'avantageux que le trafic peutetre présenté en "cumulé" aux annonceurs afin de renforcer sa crédibilité au moment d'attirer les publicitaires et de négocier le chèque. allez allez, je sens que mon coeur en prend un coup, je m'énerve , je m'énerve...... a+ Hervé
jeangilbert Posté 3 Décembre 2003 Posté 3 Décembre 2003 Joli d&bat !! Ca fait du bien de voir les discussions s'élever un peu. Merci au créateur de ce fil et à tous, j'ai eu grand plaisir à lire tout ça. Je me demande si en fait la question ne devrait pas être vue sous deux angles. 1/ du point de vue des référenceurs (particuliers et pros) qui pourraient créer des espèces de "nétiquettes" et à partir de là des labels de qualité (en gros je m'engage à ce que vous lisiez une définition exacte de mon site sur ma demande de référencement et je m'engage à ne pas utiliser tel ou tel moyen détourné pour référencé mon site et peut-être serat'il référencé plus vite). Libres aux autres de faire comme ils veulent et de prendre le risque de se faire boycootter de ci de la. 2/ du point de vue des moteurs de référencement et des annuaires, dont il va de leur crédibilité de présenter des résultats éfficaces en fonction de la demande posée par l'internaute. C'est au moteur/annuaire de définir clairement ses règles et de les faire appliquer. Elles peuvent varier d'un outil à l'autre. Il n'empêche qu'à propos des fournisseur de sonneries, il y en a un qui a proposé 180 fois son site à DMOZ, je crois pas que celà le fera mieux classer pour autant.
Christophe Posté 3 Décembre 2003 Auteur Posté 3 Décembre 2003 (modifié) Je pense aussi que la question peut être vue sous deux angles différents. Cependant je pense que ni les référenceurs ni les outils de recherche n'ont un réel intérêt à accepter le spamdexing. Pour les référenceurs, c'est évident. Pour les outils de recherche : - Ceux qui proposent des milliers de pages sans rapport avec les mots clés ciblés ne vont pas, du moins est-ce mon avis, satisfaire la recherche de l'internaute. Un internaute insatisfait est un internaute qui ne reviendra pas sur le site, il passera rapidement les pages de ce site dans les résultats des moteurs. Leur logique devant être commerciale, ou alors je ne comprend rien, ils risquent de détiorer rapidement leur image. Beaucoup de trafic, certes, des internautes fidélisés et consommateurs, m'étonnerait. - Ceux qui les répertorient dans leur index risquent de perdre leur crédibilité. Ceci dit, j'attend les nouveaux chiffres avant de trop m'aventurer sur cette voie. Je pense que certains outils de qualité devraient remonter. Modifié 3 Décembre 2003 par Christophe
Dinostrate Posté 3 Décembre 2003 Posté 3 Décembre 2003 Sur ce thème, il me semble que la reflexion ne fait que commencer : - Les internautes seraient déçus de ne pas trouver ce qu'ils cherchent ? Pas aussi sur, celui qui cherche une tarte au pommes et qui tombe sur un gâteau à la fraise, vas peut être s'intéresser quand même au gâteau à la fraise... - La question sera-t-elle résolue par une meilleure adaptation des moteurs ? Pas sur du tout, les progrès n'ont pas de limite, les indexeurs progresseront, et en même temps, les moteurs et les annuaires progresseront. - Il semble pour le moment que la qualité rédactionnelle soit de mieux en mieux prise en compte, mais celle ci peut, bien entendu, elle aussi, aggraver le problème. Qui saura dire qu'un texte judicieusement écrit constitue du spam....dexing ?Simplement, il faut y travailler davantage, car rédiger, c'est peut être moins évident que de placer une trentaine de liens ou de références quasi invisibles dans le bas d'une page. Les moteurs devront alors déjouer le piège rédactionnel, et là, ils ont du boulôt ! D'autant plus qu'ils doivent traiter un certain nombre de langues, avec leurs nuances.... d'abord, la phase du vocabulaire, ensuite, la phase grammaticale..... Quant aux annuaires, ils ont encore énormément de progrès à réaliser. Leur problème : résoudre et différencier l'aspect thématique et l'aspect géographique (avec tous les sous-ensembles que cela implique) Ma conclusion (provisoire) c'est que c'est encore le début du commencement.... Dino
Stephane Posté 3 Décembre 2003 Posté 3 Décembre 2003 1/ du point de vue des référenceurs (particuliers et pros) qui pourraient créer des espèces de "nétiquettes" et à partir de là des labels de qualité Pour info, une nouvelle charte de déontologie, à l'initiative de référenceurs, devrait être être rendue publique dans les jours qui viennent (peut-être même demain). Au menu, pas de tentative de définition du spamdexing cette fois-ci, mais des principes très concrets ayant vocation cette fois-ci à être réellement appliqués. Au delà de la régulation du seul marché du référencement, cette initiative de référenceurs aura vocation également à proposer des solutions concrètes à des problèmes affectant actuellement le marché des outils de recherche et des liens sponsorisés... Peut-être plus d'infos demain
Herveg Posté 3 Décembre 2003 Posté 3 Décembre 2003 je vois qu on est preque tous d'accord ! cepdant je vois que vous vous "arretez" à une pratique de Spamdexing qui consiste a attirer les visiteurs sur des expressions ne correpondant pas au contenu "réel" de la page proposée. mais que pensez vous de la pratique qui consiste à multiplier (en les dupliquant) les pages et de les positionner sur toute un série d expression ayant réellement un rapport avec le site ? a en croire certains, ceci serait acceptable car le visiteur trouve vraiment du contenu correspondant a sa requete. Or, j' y vois également une forme de Spadexing qui s'appelle "duplicate content" : et ici pourtant, l'internaute ne sera pas trompé sur le contenu mais seulement sur la largeur du "choix" dont il CROIT disposer suite à une recherche. Que penser des pages répétant à foison certaines expressions ? si ces expressions correspondent au contenu, alors c est ok ? c est pourquoi je n'établirais pas de barrière du type :"le Spamdexing consiste à faire apparaitre dans les résultats des pages ne correspondant pas à la requète de l'internaute". C est trop restrictif. a+ hervé
Stephane Posté 5 Décembre 2003 Posté 5 Décembre 2003 J'ai deplacé les posts concernant la création de SEMA7 ici : http://www.webmaster-hub.com/index.php?showtopic=1081
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant