Ver Mensaje Individual
  #4 (permalink)  
Antiguo 22/02/2005, 03:53
D_Mu
Invitado
 
Mensajes: n/a
Puntos:
Hombre yo creo que slurp, a ver no entiendo bien lo que me dices pero esta claro que si googlebot hace al dia desde una sola ip 3569 impresiones, y slurp diariamente 153 entradas pero solo hace 504 impresiones creo yo que te esta comiendo mas el googlebot.

Exactamente no se de que va tu página si es esa de bittorrent lo que ocurre te chupa tanto porque imagino que tendras mucho contenido en el sentido que tendras la página por secciones, una página para cada tracker... quizás para llegar a una película hay que ver 4 páginas diferentes imaginate eso por 100 películas, todo eso los robots lo indexan, pues una de dos o aumentas tu ancho de banda o si no busca por ahí creo que en este mismo foro se habla del tema, de como dejar entrar a los robots, solo unos días de la semana o que no visiten ciertas páginas imagina que sólo quieres que vean la index, pues dejalos entrar en el index y en las otras no, o a las páginas donde esta cada tracker, porque claro los robots lo que te hacen es ir página a página.

Para asegurarte aún más el tiro mira en este foro hay enlaces de aplicaciones que examinan tú página como si fuera un robot o un spider y te dira lo que te consume y hasta donde llega el robot, para según que páginas a veces no interesa que lo mire todo.