miloumoi Posté 7 Septembre 2005 Posté 7 Septembre 2005 Voila, je crois que tout est dans le titre. J'ai mis mon site en ligne aujourd'hui et je voudrais savoir si c'est possible de le "protéger" des aspirateurs, ... sans utiliser de php car je n'ai toujours pas compris comment ça fonctionnait. Merci
Xavier Posté 8 Septembre 2005 Posté 8 Septembre 2005 Tu veux dire protéger ton site par mot de passe pour le réserver aux seules personnes enregistrées ? Ça peut se faire par un .htaccess...
miloumoi Posté 8 Septembre 2005 Auteur Posté 8 Septembre 2005 Non, j'ai vu plein de scirpts pour se protéger des aspirateurs de sites mail tous sous php. Je voulais savoir s'il existait une autre méthode plus simple.
CarGoZ Posté 8 Septembre 2005 Posté 8 Septembre 2005 Bah tu ne peut pas empecher quelqu'un de copier ton site, seulement de le diffuser si tu mets un copyright ... Du moment qu'il a accès à ton code source et que tes images son dans son cache, je voit pas trop. (j'éspère que j'ai bien compris la question...) +++
Jeanluc Posté 8 Septembre 2005 Posté 8 Septembre 2005 Bonjour, A l'époque de l'ADSL et de l'internet partout ou presque, je ne vois plus trop l'intérêt d'un aspirateur pour réduire le coût de connexion. Les utilisateurs actuels de cette technique doivent être si rares qu'ils ne devraient pas poser de réel problème. Par contre, il n'est pas très difficile d'écrire un programme qui va lire toutes les pages de ton site, une à une, en prenant son temps (une lecture toutes les 5 secondes ou toutes les 30 secondes ou encore plus espacées). A mon avis, il n'existe aucun anti-aspirateur efficace contre ça. Il existe des méthodes efficaces pour empêcher l'accès à certaines pages du site par des robots. Je pense aux méthodes où un code (nombre ou texte) apparaît dans une image et où ce code doit être entré comme mot de passe. Evidemment, si tu mets ça sur toutes les pages, tu n'auras pas beaucoup de visiteurs et les moteurs de recherche ne les liront pas non plus. Ton "oeuvre" (code source, images, structure du site et de la base de données,...) sont protégés par les droits d'auteur (pas besoin d'écrire "copyright" sur le site pour ça). Je sais que tout le monde ne respecte pas la loi, mais la loi peut être très efficace contre un webmaster peu scrupuleux, pour autant que tu puisses prouver l'antériorité. Jean-Luc
miloumoi Posté 8 Septembre 2005 Auteur Posté 8 Septembre 2005 en fait je parlais surtout de protéger ma bande passante
Régis Posté 8 Septembre 2005 Posté 8 Septembre 2005 Bonjour miloumoi, Sur cette page http://www.toulouse-renaissance.net/c_outi...aspirateurs.htm, j'avais trouver de l'info pour bloquer les aspirateurs... Bonne lecture
Xavier Posté 8 Septembre 2005 Posté 8 Septembre 2005 Bonjour miloumoi, Sur cette page http://www.toulouse-renaissance.net/c_outi...aspirateurs.htm, j'avais trouver de l'info pour bloquer les aspirateurs... Bonne lecture <{POST_SNAPBACK}> C'est bien joli, mais l'utilisateur qui voit "Ne pas suivre ce lien", qu'est-ce qu'il fait ? Il le suit ! (en tous cas moi je le suis, ne serait-ce que par curiosité ) Je doute que les robots représente tant de bande passante. Mieux vaut optimiser son site pour en économiser
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant