flo001 Posté 15 Juillet 2009 Posté 15 Juillet 2009 Bonjour, Je code un crawler, dans le but de me faire un mini google perso mais sur quelques sites je suis confronté à des problèmes liés aux cookie, par exemple certain pour la première visite vous redirigent vers une page disclaimer et comme mon robot n'accepte pas les cookies impossible de passer cette page intermédiaire... avez vous une solution pour cela ? Je vous remercie.
flo001 Posté 17 Juillet 2009 Auteur Posté 17 Juillet 2009 Bon ben je me réponds à moi même, ça peut servir à d'autre, curl peut faire ca!
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant