Buenas compañeros,
Esta es la primera entrada de una serie de posts sobre la técnica de Fingerprinting. Para empezar, ¿Qué es el Fingerprinting? Es la técnica de obtención de información del target interactuando vía web. Esta fase se categoriza dentro de la etapa de obtención de información en un proceso de auditoría web.
Uno de los primeros «rincones» que se suele consultar en toda web es el fichero robots.txt El fichero robots.txt indica a los robots las URL’s de un sitio web que no deben ser visitadas, y por lo tanto, no indexadas en sus resultados. Dicho fichero se encuentra en el raíz del servidor web:



En este caso, se está facilitando desde el exterior la descarga de contenido multimedia, recursos que no deberían poder ser accesibles.
Si se encontrara bien configurado, se debería observar un mensaje como el siguiente, en el que se está prohibiendo la indexación de los diferentes bots de los buscadores.

Análogamente, al acceso al fichero robots.txt, se puede verificar el acceso al fichero .htaccess si el servidor se trata de un servidor Apache (ver cabeceras de respuesta).
Apache ofrece configuración de directorios a través de los archivos de Acceso a Hipertexto, más conocidos como archivos .htaccess.

La finalidad de esta entrada es con fines educativos y formativos, no nos hacemos responsable de su uso para otros fines distintos, ¡no seáis malos!
Un comentario en «Auditoría Web: Fingerprinting I – Fichero robots.txt»
Los comentarios están cerrados.