Cita:
Iniciado por Dani83 Entonces veo que hay 2 opciones, bloquear esas urls mediante robots.txt o hacer una redirección.
Como yo no controlo mucho de programación he pensado en la siguiente solución:
Bloquear mediante robots.txt las urls que causan la duplicidad, dejando solo 1 de cada. ¿Sería necesario eliminarlas de Google para que las desindexe?
No tenés 2 opciones. Tenés sólo una: la opción es hacer las cosas bien
o dejar que todo se desmadre y acumule.
No es una buena práctica insistir con el archivo robots.txt cuando en forma inadvertida estás generando contenido duplicado.
Cita: Utiliza una etiqueta rel canonical y le pones la url que te interesa que google indexe
La recomendación de
merino_renato es la adecuada; y no es necesario ser programador para implementar esta solución.