07/11/2006, 07:43
|
| | Fecha de Ingreso: noviembre-2006
Mensajes: 5
Antigüedad: 18 años, 2 meses Puntos: 0 | |
Los de los robots.txt es un archivo que le dirá a google archivos y páginas que no debe visitar, por el motivo que sea. Puede que tengas páginas que no sean de interés para google, ni para ti, por no tener información relevante, y las excluyes de la indexación.
Un saludo. Ahh, y a mi también me indexó google mi página en 3 días, y en 2 semanas tengo más de 300 páginas indexadas tanto en google como en yahoo. Haciendo bien las cosas no sé el motivo por el que una página debe tardar 2 meses en ser indexada.
Y sí, soy nuevo y no tengo ni p. idea, pero si a los que no tenemos ni idea google nos indexa bien, no será tan difícil mejorar ese tiempo de 2 meses.
Última edición por sirux; 07/11/2006 a las 16:21 |