Ver Mensaje Individual
  #1 (permalink)  
Antiguo 10/01/2016, 20:50
quilmes_05
 
Fecha de Ingreso: octubre-2010
Mensajes: 219
Antigüedad: 14 años, 1 mes
Puntos: 2
Pregunta Evitar contenido duplicado

Buenas gente, resulta que tengo un sitio web con dos URL distintas que apuntan a la misma página, quisiera saber si puedo evitar el contenido duplicado (para no ser penalizado) bloqueando una de las URL con al archivo robots.txt.
Se que se puede hacer una redireccion 301, pero en este caso necesito usar el robots.txt