Cita:
Iniciado por AlexxMF - ¿Tendría que ir eliminando cada URL una por una?
Te he dado varias soluciones, una pasa por entrar en las WMT y eliminar las URL (ahora me has especificado que no es solo una, sino que son muchas), o hacerlo mediante el archivo robots.txt.
Cita:
Iniciado por AlexxMF - ¿A que te refieres con lo de especificar en Robots el disallow? Es que hay muchas URL's de las antigüas (la gran mayoria) que no están especificadas en Robots... tendría que añadirlas y decirle a Google que no las siga?
A través del archivo robots.txt que debes subir en la raíz de tu sitio web vía FTP, puedes poner en ese archivo las localizaciones de las URL's que ya no existen para que Google y demás buscadores no las sigan y las terminen por desindexar.
Un ejemplo de lo que te comento sería el siguiente:
Cita: User-agent: *
Disallow: /elearning/
Poniendo eso, estás restringiendo a todos los bots a que sigan e indexen el contenido de la carpeta "elearning", toda ella y siguientes.
Cita:
Iniciado por AlexxMF La cuestión es que la web tiene varios directorios que tienen muchas URL's (www.fulanito.com/elearning), y esa información quiero eliminarla e indicarselo a Google para que no genere problemas, y no se como hacerlo de la manera correcta.
A parte de hacerlo desde las WMT o desde el robots.txt, también puedes hacerlo mediante una metaetiqueta "noindex, nofollow", en el caso siempre que conserves las URL's antiguas.
Una solución más radical, pasaría por eliminar todo el sitio y hacer una redirección a través del .htaccess para que todos los errores 404 vayan a la home, y así conserves algo de valor, y una vez Google te haya desindexado las URL's antiguas por completo, subir de nuevo el nuevo diseño, nuevo sitemap, etc.