Cita:
Iniciado por Acerino Esto esta bien???
Estará bien en la medida que quieras denegar el acceso a lo que consideres oportuno.
No existe un robots.txt universal que satisfaga las necesidades del mundo todo.
No obstante, es posible llevar a cabo comprobaciones en tiempo real utilizando las
Herramientas para Webmasters → Rastreo → URLs bloqueadas; lo cual permite llevar a cabo pruebas para ver si algunas URLs están debidamente bloqueadas para los agentes de usuario requeridos