He leído tutos sobre seguridad web y sobre algunos métodos como no permitir la entrada a directorios del sitio y cosas de ese tipo. Pero no me queda claro si hacerlo con htaccess o con el archivo robots.txt. Tampoco se como debería combinarlos si es que hay que hacerlo ni a que debería aplicar restricciones de acceso.
Mi pregunta es ¿que es lo fundamental para que mi sitio web sea seguro?
Ahora por ejemplo tengo en el htaccess el acceso denegado a bots maliciosos. Pero he visto archivos de robots.txt de ejemplo con cantidad de restricciones a directorios y rutas específicas.
Algún consejo maestros?