Aller au contenu

Sujets conseillés

Posté

bonjour



dans GWT, j'ai ce message de Google : Le nombre d'URL détectées par Googlebot sur votre site est extrêmement élevé.


Cela est du aux facettes de navigation - Google crawlant l'ensemble des facettes.


Que faire, ces pages sont en noindex pour prévenir du duplicate mais cela ne protège pas du crawl quasi infini.


Je ne veux pas mettre des nofollow ! Hors je lis un peu partout que "l'obfuscation" des liens est devenu quasi impossible....



Est-ce que passe ces URL via un formulaire en post serait-une bonne solution ?



merci


Posté

Comment sont gérées tes facettes ?

SI ce sont des liens qui pointent tous vers une page de résultats de recherche, effectivement ça pose un souci.

Traditionnellement gérées, je dirai : passage de paramètres....

Posté

Donc, c'est normal que ça foute la merde.



Un formulaire qui se validerait en un seul clic peut effectivement corriger le problème, mais si tu peux le mixer avec des urls "en dur" pour certaines parties (Du moment que ces urls respectent le nommage des autres urls de ton site), c'est encore mieux.


Posté

oui bien sûr c'est cela qui fout la m@ç!*de,


je cherche la meilleure solution. Qu'entends tu par URL en dur ?


Et comment passer des liens hypertexte en POST ?

Posté

url "en dur" = url normale, pour les parties de tes facettes qui correspondent à des pages réelles de ton site.



Pour le reste, pas d'url dans ton formulaire, mais simplement un traitement de formulaire normal : si je demande le produit1 en taille2 et couleur3, on n'affiche que des résultats correspondants.


Posté

non les liens peuvent emmener vers des filtres de listes : donc google rentre et crawl quasi infiniment.


Posté

C'est justement pour ça que ces liens doivent être remplacés par un formulaire.

je suis débutant en html : on peux passer un lien hypertexte via un formulaire en Post ?

Posté

Bonjour,



Petite précision :



Nous avons tous les paramètre d'URL infinis bloqué et n'avons pas ce message.



A mon avis il ne s'agit pas tout a fait de crawl, mais d'indexation.



Que dit ton état de l'indexation ( nb page indexées ) vs Sitemap ( nb réel de page sur ton site ) ?



A mon avis ton problème se situe plus dans les paramètre d'URL mal exclus de Robots.txt, a vu de nez

  • 3 months later...
Posté

Hors je lis un peu partout que "l'obfuscation" des liens est devenu quasi impossible....

Tu le lis peut-être un peu partout, mais un brouillage de lien est toujours possible. Il suffit de l'appuyer sur un encodage suffisamment complexe pour que les bots soient incapables de déceler la présence d'un lien.

  • 5 semaines plus tard...
Posté

Merci pour toutes vos réponses, je pensai bien au robots.txt mais je pensais que s'en servir pouvoir modifier une arithmétique de type PageRank ?


  • 8 months later...
Posté

bonjour je reviens sur ce sujet,

 

comment bloque t-on un paramètre en particulier dans le robots.txt

par exemple "size="

 

merci de votre aide

Veuillez vous connecter pour commenter

Vous pourrez laisser un commentaire après vous êtes connecté.



Connectez-vous maintenant
×
×
  • Créer...