ffuf
Arquivos e diretórios via GET
Copy ffuf -u http://site.com/FUZZ -w < wordlist.tx t > :FUZZ -c -v
ffuf -u http://site.com/FUZZ -w < wordlis t > :FUZZ -fs < quantidade_caractere s >
Pesquisa de diretórios com recursividade. Aqui utilizamos somente um nível de profundidade, porém pode ser ajustado de acordo com a necessidade
Copy ffuf -u http://site.com/FUZZ -w < wordlist.tx t > :FUZZ -recursion -recursion-depth 1 -e .php -c -v
Adicionando extensões nas palavras da wordlist
Copy ffuf -u http://site.com/FUZZ -w < wordlist.tx t > :FUZZ -e .txt,.php -c -v
Via POST
Copy ffuf -w < wordlist.tx t > :FUZZ -u < http://site.com/login.ph p > -X POST -d 'FUZZ=key' -H 'Content-Type: application/x-www-form-urlencoded' -c -v
Procurando extensão de arquivos
Copy ffuf -u http://site.com/index.FUZZ -w < wordlist_extensao.tx t > :FUZZ -c -v
Utilizando múltiplas wordlists simultaneamente
Copy ffuf -u 'http://<domain.com>/FUZZ1/FUZZ2' -w < wordlist-1.tx t > :FUZZ1 -w < wordlist-2.tx t > :FUZZ2 -c -v
Utilizando múltiplas wordlists simultaneamente porém de forma recursiva. Note que obrigatoriamente, o último parâmetro precisa chama FUZZ
Copy ffuf -u 'http://<domain.com>/GUZZ/FUZZ' -w < wordlist-1.tx t > :GUZZ -w < wordlist-2.tx t > :FUZZ -recursion -recursion-depth 1 -c -v
GoBuster
Procurando por subdiretórios
Copy gobuster dir -u < http://site.com.b r > -w < path/wordlist.tx t > -e
Procurando por subdiretórios utilizando cookie
Copy gobuster dir -u < http://site.com.b r > -w < path/wordlist.tx t > -c < cookie_strin g > -e
Procurando por arquivos (com extensões personalizadas)
Copy gobuster dir -u < http://site.com.b r > -w < path/wordlist.tx t > -x php,txt -e
Definindo códigos HTTP válidos
Copy gobuster dir -u < http://site.com.b r > -w < wordlist.tx t > -s 200,401 -e
Dirb
Procurando por subdiretórios com wordlist personalizada. Sempre que omitirmos a nossa wordlist, o dirb irá usar uma wordlist default.
Copy dirb < site.com.b r > < wordlist.tx t > -r -a < user-agen t >
Note que a pesquisa e recursiva, então adicione o -r
para que a pesquisa não seja recursiva.
Copy dirb < site.com.b r > < wordlist.tx t > -r
Por padrão, o dirb retorna páginas com HTTP 403, então podemos remover essa configuração
Copy dirb < http://site.co m > < wordlist.tx t > -N 403
Procurando por arquivos (com extensões personalizadas)
Copy dirb < http://site.co m > < wordlist.tx t > -X .txt,.php -w
Atua com uma delay de 10 segundos a cada requisição
Copy dirb <http://site.com> -z 10
Também pode utilizar a opção -c
para adicionar um cookie.
Copy dirb < site.com.b r > < wordlist.tx t > -c < cookie.tx t >
DirSearch
Copy ./dirsearch.py -u '<url>' -w '<wordlists.txt>' -e < extension1,extension 2>
OpenDoor
Copy opendoor --host < ur l > -s directories -w < wordlis t > -e < extension1,extension 2>
Caso não esteja enumerando a raiz da url, utilize o parâmetro --prefix
para indicar que será trabalhado em cima de um subdiretório.
Copy opendoor --host < ur l > --prefix < config / >
Salvando o resultado em um arquivo HTML.
Copy opendoor --host < ur l > -w < wordlis t > --reports html
wfuzz
Irá retornar todas as páginas que não tem a quantidade de caracteres especificado em <qtde_string>
Copy wfuzz --hh= < qtde_string > -c -w < wordlist.tx t > -b < cookie=value 1> < http://site.com/param.php?FUZZ=tes t >
Retorna todas as páginas que tem retornar HTTP 200
Copy wfuzz -c -z file,/ < wordlist.tx t > --sc 200 http://site.com/FUZZ.php
Retorna todas as páginas que não contém a palavra/frase especificada em <negative_string>
Copy wfuzz -c -z file, < wordlist.tx t > --hs '<negative_string>' < http://site.com/param.php?param=FUZ Z >
Utilizando extensão nos arquivos
Copy wfuzz -c -w < wordlist.tx t > -z list,php-txt-html --hc 403,404 -t 20 -u < http://site.com/FUZZ.FUZ2 Z >
OBS.: O parâmetro FUZZ
será substituído pelas palavras da Wordlist
Utilize essa opção antes da URL para definir que será do tipo post
Quantidade de caracteres que a página não pode retornar -b
= Cookie. Esse pode ser definido várias, semelhante ao -H
do curl
Ativa as cores -z
= Especifica o payload
Curl
Copy curl 'https://site.com.br/[1-20].txt'
nmap
Copy nmap -p80 --script http-enum < i p >
Sites
Copy # OpenDoor
https://github.com/stanislav-web/OpenDoor
# Trabalhando com GIT
https://en.internetwache.org/dont-publicly-expose-git-or-how-we-downloaded-your-websites-sourcecode-an-analysis-of-alexas-1m-28-07-2015/
# Manual do WFUZZ
https://repo.zenk-security.com/Techniques%20d.attaques%20%20.%20%20Failles/WFUZZ%20for%20Penetration%20Testers.pdf