Buenas tardes.
Últimamente Google me tiene algo loco. Hace un tiempo entré a trabajar con un cliente que tenía indexadas un montón de páginas inservibles y documentos PDF con contenido duplicado.
Para acelerar la desindexación hice dos cosas:
- En el caso de las páginas inservibles, o bien les añadí una meta noindex o bien las borré.
- En el caso de los archivos PDF, escribí esta directiva en robots.txt: Disallow: *.pdf$.
- Y actualicé el sitemap e informé a Google de que había actualizado robots.txt.
La cuestión es que esto fue en enero, han pasado como 4 meses y muchas páginas siguen ahí en Google, con enlaces 404. ¿Qué más puedo hacer para acelerar esta desindexación? Search Console da la opción de ocultar URL temporalmente, pero yo quiero la eliminación completa...
Gracias.