16/07/2007, 18:46
|
| | Fecha de Ingreso: febrero-2003
Mensajes: 795
Antigüedad: 21 años, 11 meses Puntos: 2 | |
Re: Robots.txt y páginas duplicadas Si, si lo va a desindexar, pero no lo hace tan rápido a veces, puede tardar algunas semanas.
Aunque yo he tenido casos de clientes que aún con robots.txt aún siguen indexando páginas. |