Cita:
Iniciado por quilmes_05 Buenas gente, resulta que tengo un sitio web con dos URL distintas que apuntan a la misma página, quisiera saber si puedo evitar el contenido duplicado (para no ser penalizado) bloqueando una de las URL con al archivo robots.txt.
Se que se puede hacer una redireccion 301, pero en este caso necesito usar el robots.txt
¿Y cuál es el problema que una URL apunte a una página y otra distinta apunte a la misma?
Si eso es así, no veo el problema. A menos, claro está, que la situación sea otra y debas volver a postularla.