Cita:
Iniciado por aries3
Una forma es vía robots.txt , agrega las siguientes líneas:
User-agent: *
Disallow: /*?
Luego tendrás que esperar a que se vayan desindexando las páginas duplicadas que en tu caso se generan dinámicamente.
aries3, sabía que por ahí iban los tiros, gracias, ¿dónde lo tengo que agregar exactamente?