Hola,
Tenia 2 o 3 secciones de mi web con un contenido que nadie lee, que nadie busca pero que todo el mundo en webs similares tiene, al haber poca información todo el mundo tiene lo mismo y no me moleste en rehacerlo, simplemente lo corte y pegue del libro como todo el mundo, ahora me da miedo que eso me haya perjudicado así que mirando por ahí he visto modificar el robot.txt como medida temporal mientras rehago esos textos poniendo esto:
User-agent: *
Disallow: /duplicado1.php
Disallow: /duplicado2.php
Disallow: /duplicadoN.php
Es suficiente con eso? o he de ponerle también que no lo indexe cosa que ya habrá hecho? o quiza borrar la url de google webmaster mientras lo modifico.
Muchas gracias por las respuestas.