Cita:
Iniciado por Dani83 Juan Ca, voy a probar tu método porque me siguen saliendo nuevos errores de rastreo (Url bloqueada por robotos.txt), a ver si consigo que Google se olvide ya del directorio /foro que he eliminado.
A ver, a ver, a ver...
Lo de que Google te ponga en las "Herramientas para Webmasters" que "Restringida por robots.txt" es normal. Te está diciendo que has puesto X páginas en "Disallow" desde el robots.txt.
Yo mismo cree hace un tiempo para un experimento una serie de páginas, 15 en total, y como explico en el otro topic, poniendo la url a partir de la carpeta, no pasó nada, y poniendo la url compelta, con el http y todo lo demás, en menos de una semana me desindexó Google la mitad de resultados. Volví a la fórmula del pasado y nada. Y ahora hace unos días lo volví a poner y sólo me quedan 5 resultados por desindexar.
Cuando ya Google haya desindexado todas las url de pruebas que cree, entonces ya eliminaré desde el robots.txt esas url que tengo puestas en "Disallow". Pero como te digo, mientras tanto es normal que te aparezcan esas "url bloqueada por robots.txt".