Ver Mensaje Individual
  #1 (permalink)  
Antiguo 15/02/2012, 03:32
Avatar de humanista
humanista
 
Fecha de Ingreso: abril-2005
Mensajes: 878
Antigüedad: 19 años, 7 meses
Puntos: 15
Evitando los crawls de Google

Hola, en mi web tengo implementado un sistema para chequear qué usuarios registrados visitan links a web externas.

Cada vez que un usuario registrado hace clic en una web por ejemplo www.forosdelweb.com, meto un registro con el id de usuario y el link.

Cuando quien visita es un usuario NO registrado, también almaceno la información en la base de datos pero con id usuario 0 y su link.

La idea es llevar un control general de visitas y además separado por usuarios registrados y no registrados.

El problema es que los robots de google enseguida se "abalanzan" sobre mis links y me inflan las visitas anónimas, es decir me desvirtúan el análisis.

Ahora lo tengo implementado así:

web.php -> lanzador.php (aquí registro la visita en la BD y hago un header location para que redireccione a www.forosdelweb.com por ejemplo)

Mi pregunta es... podría evitar ese problema haciéndolo con AJAX?

Hacerlo de esa forma supondría que quizá google no vería un link "normal" sino un link a un evento javascript por lo cual no lo seguiría (ejecutaría)... No sé, se me ocurre. Estoy en lo cierto?