No hay inconveniente alguno en tener una página huérfana.
La solución que dicta el buen proceder, es que pongas lo siguiente en el archivo robots.txt
Código:
# Todos los robots pueden recorrer el dominio
User-agent: *
# con excepcion del siguiente documento
User-agent: *
Disallow: /solo-humanos.html
El archivo robots.txt es un archivo de texto plano que debés subir a la carpeta de tu sitio de mayor nivel o root (donde comúnmente está alojada la página index.html).
Con la sintaxis y los comentarios que puse, creo que no te será difícil comprender las directivas que estarás enviando.
De todas maneras, podés tranquilamente tenerla enlazada desde donde se te ocurra o lo necesites y efectuar el marcado de la siguiente manera:
Código:
<a href="http://www.nombre-de-tu-web.com/solo-humanos.html" rel="noindex, nofollow">Los visitantes accederán a esta página, pero NO los robots</a>
Suerte!