Hola, en mi web tengo implementado un sistema para
chequear qué usuarios registrados visitan links a web externas.
Cada vez que un usuario registrado hace clic en una web por ejemplo
www.forosdelweb.com, meto un registro con el id de usuario y el link.
Cuando quien visita es un usuario NO registrado, también almaceno la información en la base de datos pero con id usuario 0 y su link.
La idea es llevar un control general de visitas y además separado por usuarios registrados y no registrados.
El problema es que los robots de google enseguida se "abalanzan" sobre mis links y me inflan las visitas anónimas, es decir me desvirtúan el análisis.
Ahora lo tengo implementado así:
web.php -> lanzador.php (aquí registro la visita en la BD y hago un header location para que redireccione a
www.forosdelweb.com por ejemplo)
Mi pregunta es... podría evitar ese problema haciéndolo con AJAX?
Hacerlo de esa forma supondría que quizá google no vería un link "normal" sino un link a un evento javascript por lo cual no lo seguiría (ejecutaría)... No sé, se me ocurre. Estoy en lo cierto?