Ver Mensaje Individual
  #3 (permalink)  
Antiguo 11/01/2016, 14:30
Avatar de Daniel Ulczyk
Daniel Ulczyk
Super Moderador
 
Fecha de Ingreso: febrero-2005
Ubicación: Buenos Aires
Mensajes: 9.264
Antigüedad: 19 años, 9 meses
Puntos: 2114
Respuesta: Evitar contenido duplicado

Cita:
Iniciado por quilmes_05 Ver Mensaje
Buenas gente, resulta que tengo un sitio web con dos URL distintas que apuntan a la misma página, quisiera saber si puedo evitar el contenido duplicado (para no ser penalizado) bloqueando una de las URL con al archivo robots.txt.
Se que se puede hacer una redireccion 301, pero en este caso necesito usar el robots.txt
¿Y cuál es el problema que una URL apunte a una página y otra distinta apunte a la misma?
Si eso es así, no veo el problema. A menos, claro está, que la situación sea otra y debas volver a postularla.
__________________
—Somos lo que hacemos repetidamente. La excelencia, entonces, no es un acto sino un hábito. (Aristóteles dixit)