Aller au contenu

Comment indexer les résultats de son moteur de recherche interne ?


Sujets conseillés

Posté

Bonjour à tous,

j'ai un moteur de recherche interne à mon site. Je voudrais savoir quelle technique employer pour que les résultats de toutes les recherches possibles soient indexés dans Google ?

J'ai penser à générer les résultats possible en cache et ajouter ces pages générées au sitemap pour qu'elles soient indexées, mais je me demande s'il y a une solution plus simple. Je n'ai rien trouvé en cherchant dans Google. Vous avez des infos / idées ?

Posté

Une liste/page avec les dernières recherche ?

Sur chacune d'entres elles, le lien vers le moteur + passage du terme ?

Genre -http://www.google.be/search?q=terme

Les pages de résultats seront indexées normalement, non ?!

(Un coup de rewriting pour que ça soit propre, ça donnerais ... -http://www.google.be/search/terme)

Posté

Tu a tout un tas de techniques :

- ajouter au sitemap

- faire une(des) page(s) qui listerait toutes les recherches et faire indexer ces pages depuis des liens internes ou externes

- mettre les liens depuis des pages externes (qui lieraient par exemple un flux XML pour les datas)

Enfin, ce ne sont pas les idées qui doivent manquer...

Par contre, attention à la possibilité de sanction. Je ne crois pas que cette technique soit sanctionnable pour le moment (quoique) mais question philosophie des moteurs de recherche et compte tenu de la direction vers laquelle ils veulent aller, attention à ne pas les spammer.

Je limiterais personnellement aux recherches les plus courantes et les plus récentes. Et je limiterais aussi le nombre de pages de résultats liées de manière à ce que ce ne soit pas trop flagrant.

Posté
Tu a tout un tas de techniques :

- ajouter au sitemap

- faire une(des) page(s) qui listerait toutes les recherches et faire indexer ces pages depuis des liens internes ou externes

- mettre les liens depuis des pages externes (qui lieraient par exemple un flux XML pour les datas)

Enfin, ce ne sont pas les idées qui doivent manquer...

Par contre, attention à la possibilité de sanction. Je ne crois pas que cette technique soit sanctionnable pour le moment (quoique) mais question philosophie des moteurs de recherche et compte tenu de la direction vers laquelle ils veulent aller, attention à ne pas les spammer.

Je limiterais personnellement aux recherches les plus courantes et les plus récentes. Et je limiterais aussi le nombre de pages de résultats liées de manière à ce que ce ne soit pas trop flagrant.

Le site dont je parle ne fait que 500 articles, mais générer toutes les recherches sur ces articles là, ça fait quand même pas mal de combinaisons possibles (j'avais pensé à un petit script qui irait faire toutes les combinaisons possibles entre les mots présents dans tous ces articles, en limitant à un, deux ou trois mots par recherche).

Après l'inscription au sitemap ou dans une page qui liste toutes les recherches effectivement, ce sont des méthodes. La question que je me posais surtout c'était de savoir si le petit script que je décrivais plus haut était la manière la plus intelligente de le faire

Merci en tout cas pour vos premières réponses

Posté

Il vaut mieux indexer correctement les 500 articles (ou plus) par leur url distincte plutôt que les résultats de recherche.

J'ai un peu de mal à comprendre le but. En général on veux que son contenu soit trouvé a partir des moteurs, donc si il est bien référencé sur son url par de problème. Les recherches, c'est plutôt dynamique et pour les utilisateurs, ça risque même de polluer les résultats des moteurs à force.

Il est plus intéressant de tomber directement sur l'article qu'on recherche, que dans le moteur de recherche interne d'un site qui présente l'article quelque part dans ses résultats. Non ?

(J'suis peut être pas tout à fait clair ...)

Posté

On est bien d'accord, et les articles sont bien indexés.

Par contre le fait d'indexer les recherches peut faire augmenter le nombre de pages indexées, et donc profiter globalement au référencement du site (surtout au vu du très faible nombre de pages indexées actuellement - 500)

Posté

Si tu as du contenu de qualité, des pages bien construites et un référencement correct, il ne faut pas nécessairement avoir beaucoup de pages pour être bien positionné.

Sinon pour ta technique, fais bien attention car ça s'assimile à du spamdexing.

Tu veux squatter les serps ? Franchement je te prédis au mieux une pénalité qui va te propulser dans les abîmes de résultats ...

:blush:

@+

Posté

lol cette discussion me rappelle un vieil article de mon site sur comment spammer un moteur de recherche ?

Comme c'est expliqué dans l'article, c'est surtout l'architecture interne de ton site qui va favoriser l'indexation. Il faut que les résultats de recherches recoivent un ou plusieurs liens internes pour avoir une chance d'indexation.

Les bons vieux conseils de 2004 restent parfois d'actualité ;)

Posté
Les bons vieux conseils de 2004 restent parfois d'actualité

Surtout que par rapport à 2004 et ces derniers temps principalement, GG a fait un joli nettoyage avec les spammeurs :P

Un webmaster averti en vaut deux :whistling:

++

Posté

Merci à vous pour ces différents liens, ils sont instructifs (ça a d'ailleurs été l'occasion pour moi de revoir certaines définititions).

Ma démarche était basée sur celle de http://www.dicodunet.com/ qui est présent sur énormément de requêtes, en indexant le résultat de leur moteur de recherches. Un exemple : http://www.dicodunet.com/actualites/e-comm...porno-chic-.htm

D'ailleurs j'ai l'impression que la plupart de leur contenu est du duplicate content d'autres sites (courtes citations, mais citations à l'identique quand même).

Alors je ne comprends pas comment ils font pour avoir du duplicate content, du spamdexing, et être pourtant hyper bien placés sur Google. Vous avez une idée ?

Posté

Bonjour Ricotrutt

Ma démarche était basée sur celle de http://www.dicodunet.com/ qui est présent sur énormément de requêtes, en indexant le résultat de leur moteur de recherches.

Oui et justement ! Je ne sais pas toi, mais moi ce site, je rêve de le voir disparaitre par moments. Quand je passe par Google, j'aime tomber sur une page traitant de mon sujet et non sur une page me renvoyant vers un article qui traitera peut-être de mon sujet... Niveau "image de marque" je trouve ça très mauvais pour dicodunet.com, même s'ils sont référencés dans les premières pages de Google. Si on regarde leurs stats, je suis persuadé qu'on verra un nombre impressionant de visiteurs apportés par google... et repartant au bout de quelques secondes.

Je pense que le mieux, pour bien référencer le contenu de son site, c'est de proposer une page "plan-du-site" disponible dans chaque footer (et en erreur 404) et d'y ajouter un système de mots-clés à la spip ou, pour prendre l'expression des bloggeurs, un "tags cloud".

Posté

Ah je ne serais pas aussi catégorique que toi, je trouve qu'il propose souvent de bons liens, et parfois je trouve que sa sélection est plus pertinente sur sa recherche que ce que propose Google.

Mais ce qui m'étonne surtout c'est son bon positionnement. Est ce que cela revient à dire que les "duplicate content" et "spamdexing" sont des gros mots inventés par Google pour que les webmasters facilitent d'eux même le travail du monstre de Redmond ?

Ps : je pense avoir quelques clefs sur la façon de bien référencer un site (plan du site, etc...) même si vos suggestions sont toujours bienvenues, mais là je me pose particulièrement la question de l'indexation des recherches c'est pour ça que je ne réponds pas sur les autres points

Posté

Dans ce cas, j'envisagerais trois possibilités (cumulables ou non) :

- La première est toujours basée sur l'idée de mots clés que tu estimerais par toi-même perspicaces. Tu peux alors proposer une page avec une liste de liens pointant vers ton moteur de recherche interne, avec ces mots clés comme arguments... C'est classique et manuel, mais c'est assez efficace je pense.

- Deuxième solution : récupérer les critères de recherches tapés dans Google et faisant arriver les visiteurs jusqu'à toi, puis encore une fois proposer des liens pointant vers ton moteur de recherche interne avec ces mots clés en arguments. Là tu ne devances plus Google, mais tu renforces tes positions...

- Troisième possibilité : celle que tu envisages déjà : mettre en cache les critères de recherches entrés par tes visiteurs (en utilisant par exemple les fonctions ob_start(), ob_get_contents() et ob_end_flush() de php). Le problème étant alors que rien ne te garantie que ces recherches soient toujours fructueuses...

Bien sûr, tu peux toujours t'amuser avec REGEX à scanner tous tes articles, mais je pense pas que ton serveur apprécierait et ça ferait doublon avec ton moteur de recherche (sans compter que Google & co le font déjà pour toi, donc je ne suis pas sûr que cela serve à qqc).

Enfin, je pense que ce ne soit pas considérable comme du spamdexing tant que cela est perçu comme pouvant servir tes visiteurs. Garder en mémoire les 10 dernières recherches, ce n'est pas du spamdexing. Proposer une page avec des liens à n'en plus finir, sans mise en page humainement appréciable et pointant vers des articles que Google a déjà indexé par les méthodes traditionnelles, là par contre, ça risque de le devenir.

Après, je pense que tu ne profiteras pas d'un meilleur référencement pour autant (dicodunet était déjà bien référencé à l'époque où on tombait sur ses articles et non sur ses annuaires obscurs), et que les visiteurs humains risquent de ne pas apprécier de tomber sur ce genre de page en arrivant de google...

J'espère que cette réponse te semblera plus proche de ta question, et si tu mets en place un tel système d'indexation des recherches, ce serait sympathique de nous tenir informé de son efficacité ou non vis-à-vis de tes statistiques dans quelques mois ;)

Posté
Ma démarche était basée sur celle de http://www.dicodunet.com/ qui est présent sur énormément de requêtes

Si tu prends ce site comme une référence :thumbsdown:

Personnellement, j'ai supprimé nombre de mes sites de l'annuaire de webrankinfo pour ne plus me retrouver dans le dico. Je crois que beaucoup de monde espère que le nettoyage de gg va continuer sur d'autres sites.

Ce que tu veux faire, ça s'appelle du spamdexing et google lutte activement contre, même si pas assez vite.

Demande-toi pourquoi bonweb a été blacklisté et pourquoi bonkm a passé maintenant toutes ses pages de résultats de recherches en noindex.

Maintenant c'est toi qui vois. Mais dans combien de jours, semaines ? vas-tu revenir sur le Hub en disant "je ne comprends pas google m'a blacklisté" :smartass:

Posté

Je crois qu'il faut laisser à chacun de faire son expérience. Ca ne sert à rien de donner des leçons morales en amont et s'il veut tenter de fourguer des trucs que Google va vomir peu de temps après ce n'est pas vraiment un énorme problème en soi.

Le 0,000000000000000000000000000000000000000001 % de pollution que ses tentatives vont représenter à l'échelle du Web seront sans doute une expérience intéressante pour progresser et finalement ce n'est pas bien grave..

Posté

ça m'étonnerait un peu que GG n'ait pas encore vu dicodunet et que cela explique pourquoi il a pas été blacklisté. Je crois (à tort ?) que les choses sont un peu plus subtiles que ça, et c'est ce que j'essaye de comprendre.

Ps : merci pour ta réponse très complète Druith.

Posté
ça m'étonnerait un peu que GG n'ait pas encore vu dicodunet et que cela explique pourquoi il a pas été blacklisté.
:wacko: parce que google aurait vu que ce site avait un réel intérêt ? :whistling:
Posté

Ou plus techniquement, parce que le nombre de pages indexées et de backlinks compte plus que le duplicate content ou le spamdexing ?

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...