Buenas tengo una duda, tengo una web que por fin se ha actualiado (digo en la cache de google) y digo porfin porque le ha costado un par de semanas actualizar los cambios, el problema es que se ha actualizado a medias porque restringí el acceso a Goglebot que no quería que indexara una carpeta llamada lapices/ y lo hice como con todas las demás que no quería que salieran en las SERP , de este modo:
Disallow: /lapices/
Ahora bien yo pregunto ¿es posible que haya actualizado la cache de mi sitio en sus índices pero el robot haya hecho caso omiso a esta instrucción disallow?,
lo digo porque el resto de carpetas que no quería que las indexara si me hizo caso y no las indexo.
Espero haberme explicado bien.
Gracias de antemano y un saludo a tod@s.