Hola,
Cita: Yo sé que los robots o buscadores, en un nombre de dominio revisan cada página Web y cada carpeta y su contenido, escudriñan todo, el contenido de la página, independientemente de que haya o no un vínculo a esa página con tus propias páginas
Mentira, los robots de los buscadores necesitan de la URL para encontrar la pagina. Otra cosa es que por x o por z pueda llegar a saber la url (como permitir que tu servidor web liste el contenido de los directorios si no encuentra un fichero index).
Concretemos algo mas, ¿de que tipo de ficheros hablamos? ¿.php, .html, .tpl? ¿Son ficheros que deben ser accesibles por http (por la barra de direcciones) despues de la autentificacion o solo mediante include()? Si solo son manipuladas por PHP, la solucion mas efectiva es capar el acceso via HTTP en el servidor web. En la configuracion del servidor web puedes configurar el tipo de ficheros o el directorio que no quieres que sea accesible via HTTP. Otra opcion es la que te han comentado, crear un directorio por encima de la raiz de tu sitio y meter alli los ficheros.
Al final se reduce a lo siguiente: que cuando tu intentes poner la URL del fichero a proteger en la barra de direcciones sin identificarte, el servidor web no devuelva datos.
saludos.
PD: El robots.txt solo funciona para los "buenos" robots. Para los malosos, les das pistas de donde tienen que mirar. Solo es un fichero de texto informativo, no obliga a cumplimiento, ni impide los accesos no deseados.