DentsLongues Posté 22 Avril 2006 Posté 22 Avril 2006 (modifié) Salut, existe-t-il un moyen de visualiser tous les fichiers/dossier d'un site? J'ai fait des recherches sur google avec les termes "racine", "répertoire" et "arborescence"... mais je n'ai pas trouvé d'indication pour apprendre à explorer un site et à trouver tous les documents qui s'y trouvent (images, pages, fichiers.) Oui, je fais dans l'espionnage électronique! Tous les trucs sont les bienvenus, pour le moment je ne sais que: - remonter l'url - tester des noms de page à tâtons - utiliser google > recherche avancée Si vous connaissez ne serait-ce que les mots-clé à chercher dans google pour trouver des tutoriels, je suis preneur. Modifié 22 Avril 2006 par DentsLongues
Théo B. Posté 22 Avril 2006 Posté 22 Avril 2006 Je rappelle tout de meme qu'un contenu ne doit pas etre copié ou vu sans l'accord de son auteur... De toutes façons, le serveur ne te donne que ce qu'il veut te donner. Le code source te sera utile pour reconstituer une partie de l'arborescence du site (avec des aspirateurs comme FlashGet ça va vite). Tu n'auras que les fichiers "visibles". Ensuite, tu peux toujours essayer de trouver "à taton" des fichiers invisibles sans lien, mais bon...Tu ne trouveras pas les fichiers interdits... Et pour Google : l'interet est faible vu qu'avec flashget tu as toutes les pages backlinkées par le site lui meme.
DentsLongues Posté 22 Avril 2006 Auteur Posté 22 Avril 2006 (modifié) Merci pour cette réponse. Et en effet, tout ce que le serveur laisse voir est en principe ce qui est légitimement accessible. Drôle de coincidence, je viens juste d'installer Flashget, il y a moins de deux heures (alors que je n'avais jamais entendu parlé de ce programme auparavant). Flashget permet donc d'aspirer un site intégralement? m'en vais testouiller ça! ps: Quid des fichiers qui ne sont indiqués nulle part par un hyperlien? [edit] flashget ne trouve que le fichier index.htm Modifié 22 Avril 2006 par DentsLongues
Wolf18 Posté 22 Avril 2006 Posté 22 Avril 2006 Salut, je t'ai envoyé un MP car je ne sais pas si le logiciel en question est très légal
petit-ourson Posté 22 Avril 2006 Posté 22 Avril 2006 (modifié) ps: Quid des fichiers qui ne sont indiqués nulle part par un hyperlien? <{POST_SNAPBACK}> Si les fichiers sont indiqués nulle part ... il ne pourra pas aller les chercher vu qu'il ne saura pas aller nulle part. Edit : J'ai corrigé la grosse faute ;o) Modifié 22 Avril 2006 par petit-ourson
DentsLongues Posté 22 Avril 2006 Auteur Posté 22 Avril 2006 (modifié) Salut, je t'ai envoyé un MP car je ne sais pas si le logiciel en question est très légal <{POST_SNAPBACK}> Oui, je suis en train de vérifier "*************". Merci beaucoup!Si ls fichiers sont indiqués nul part ... il ne pourra pas aller les chercher vu qu'il ne saura pas aller nul part. <{POST_SNAPBACK}> PS: ne pas oublier de mettre l'adverbe au féminin svp! "nulle part" J'ai testé ************* sur un site dont je connais les pages secrètes... Bien que ce logiciel ne permette pas d'accéder aux fichiers non "hyper-liés", il est néanmoins génialissime car il permet de pénétrer dans un site internet et d'en zieuter le contenu d'un coup. Idéal pour repérer un truc en particulier, plutôt que d'y passer des plombes. Merci Wolf18! Modifié 22 Avril 2006 par DentsLongues
Wolf18 Posté 22 Avril 2006 Posté 22 Avril 2006 (modifié) Mais de rien ! Et puis tu n'aurais pas non plus accès aux dossier protégés par des .htaccess, mais bon c'est assez pratique comme programme Modifié 22 Avril 2006 par Wolf18
Sebastien Posté 22 Avril 2006 Posté 22 Avril 2006 Tu peux essayer eventuellement de regarder les contenus des repertoires mal protégés. S'il n'y a pas de fichier index tu verra alors les divers fichiers du repertoire. Le fichier robots.txt peut également donner des indications sur les contenus que le webmaster ne veut pas voir indexés.
DentsLongues Posté 24 Avril 2006 Auteur Posté 24 Avril 2006 (modifié) Tu peux essayer eventuellement de regarder les contenus des repertoires mal protégés. S'il n'y a pas de fichier index tu verra alors les divers fichiers du repertoire. Le fichier robots.txt peut également donner des indications sur les contenus que le webmaster ne veut pas voir indexés. <{POST_SNAPBACK}> hum, donc pour regarder le contenu de ces répertoires mal protégés, je fais comment? J'entre un nom de dossier en croisant les doigts pour qu'il ne contienne pas d'index.htm, c'est ça?www.NDD.com / répertoiremalprotégé Parfois en effet lors de mes tests d'apprenti espion, je tape un nom de dossier (donc, en général un terme fréquent sur le site SANS .htm à la fin) et je tombe sur une sorte de répertoire / liste avec par exemple, des mp3 ou des fichiers à télécharger. C'est de ça que tu parles? Où se trouve le fichier robots.txt en général? Je croyais que les robots n'étaient influencés que par un bout de code à l'intérieur de chaque page html... Modifié 24 Avril 2006 par DentsLongues
Sebastien Posté 24 Avril 2006 Posté 24 Avril 2006 Le fichier robots.txt se place à la racine du site, exemple pour Google : http://www.google.fr/robots.txt Quand au repertoire, voici un exemple sur mon site, volontairement accessible : -http://s.billard.free.fr/divers/
AlphaDesign Posté 24 Avril 2006 Posté 24 Avril 2006 (modifié) Un bon aspirateur de sites web: http://www.httrack.com/ Modifié 24 Avril 2006 par virtuelBlue
Dudu Posté 24 Avril 2006 Posté 24 Avril 2006 Bonjour Un bon aspirateur de sites web: http://www.httrack.com/ .. blacklisté par de nombreux sites parce que sa configuration par défaut "bouffe" trop de pages à la minute (et qu'il n'y a rien de tel pour faire tomber un petit serveur qui ne s'y attend pas) Je le précise pour info
DentsLongues Posté 24 Avril 2006 Auteur Posté 24 Avril 2006 .. blacklisté par de nombreux sites... Ca veut dire qu'il vaut mieux en utiliser un autre qui bouffe les pages moins rapidement / avec plus de délicatesse? Quel pourraient-être les autres choix de bons aspirateurs / farfouilleurs?
AlphaDesign Posté 25 Avril 2006 Posté 25 Avril 2006 (modifié) Peut-être Getleft, que tu trouveras en bas de cette page http://www.snapfiles.com/Freeware/downloader/fwoffline.html... mais je ne l'ai jamais essayé... Modifié 25 Avril 2006 par virtuelBlue
Romeo85 Posté 6 Mars 2009 Posté 6 Mars 2009 (modifié) Salut tout le monde! Je déterre ce topic car je me pose les mêmes questions que DentsLongues et je n'ai pas eu de réponses avec ce qui a été proposé ici donc si vous en savez plus je suis preneur. Et puis si vous savez quel logiciel Wolf18 à en envoyer à DentsLongues je prends aussi Merci d'avance Modifié 6 Mars 2009 par Romeo85
paolodelmare Posté 6 Mars 2009 Posté 6 Mars 2009 doc : google hacking, johnny long http://johnny.ihackstuff.com/ soft : Scrapbook, un extension firefox permettant d'aspirer une page ou un site depuis le navigateur et de le consulter offline (moins performant mais plus ergo que htttrack)https://addons.mozilla.org/fr/firefox/addon/427
paolodelmare Posté 8 Mars 2009 Posté 8 Mars 2009 C'est le site de l'auteur de google hacking et de nombreuses publications (en anglais) sur la sécurité. On trouve sur son site la ghdb (google hacking database), c'est à dire la liste des requêtes plus ou moins évoluées permettant des glaner des infos intéressantes et surtout d'évaluer ses propres sites; Tu as aussi acunetix vulnerability scanner qui permet de checker la sécurité de tes sites (ne vas pas l'utiliser sur des sites tierces sans autorisation expresse, ça laisse des traces) Et phpsec.org/projects/phpsecinfo/ qui permet de tester la config php du point de vue sécuritaire (bon là je m'éloigne de ta question initiale)
Sujets conseillés
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Connectez-vous maintenant