10/01/2016, 20:50
|
| | Fecha de Ingreso: octubre-2010
Mensajes: 219
Antigüedad: 14 años, 1 mes Puntos: 2 | |
Evitar contenido duplicado Buenas gente, resulta que tengo un sitio web con dos URL distintas que apuntan a la misma página, quisiera saber si puedo evitar el contenido duplicado (para no ser penalizado) bloqueando una de las URL con al archivo robots.txt.
Se que se puede hacer una redireccion 301, pero en este caso necesito usar el robots.txt |