¿Google puede desindexar páginas existentes (accesibles) si le pido que lo haga en el Robots.txt?
Tengo un foro en phpBB con un mod rewrite que de una página me crea dos o más a la vista de los buscadores. Ej:
titulodeltopic-vt8916.html
es la misma que:
image-vp25817.html#25817
Google tiene idexados alrededor de 200 páginas que empiezan con "image-vp". Para que no indexe más yo haría un
Código:
Disallow: /image-vp*.html
en el robots.txt.
Pero la pregunta es: ¿me va a desindexar los que ya indexó? ¿aún cuando éstos sigan existiendo y sigan siendo accesibles?
Muchisimas gracias.