17/08/2011, 21:50
|
| | | Fecha de Ingreso: abril-2006 Ubicación: San Rafael, Mendoza
Mensajes: 311
Antigüedad: 18 años, 9 meses Puntos: 15 | |
Respuesta: Robots.txt url duplicadas Tengo sitios que con varias URL accedes al mismo artículo (lo que generaría contenido duplicado).
La solución, la ideal a mi criterio, es utilizar la etiqueta canonical. De esta forma:
* Evitas contenido duplicado a ante los navegadores
* No bloqueas contenido al buscador (por lo que no pierdes ese "PR" y lo transfieres al artículo "original")
* Evitas redirecciones (que hacen demorar el acceso al artículo)
Si quieres me mandas un MP y te mando un sitio de ejemplo (por acá ya me retaron una vez).
Un saludo... |