Pues me dicen que el consumo se debe a tráfico no visto, o sea de robots que sumado al visto es 4Gb.
Me dicen que ponga un archivo robots.txt para impedir este tráfico no visto, pero esto impediría que mis contenidos se indexaran en motores de búsqueda (aunque no las urls) lo cual penalizaría la difusión de mi website.
Cómo bloquear o eliminar páginas con un archivo robots.txt
Empiezo a entender porqué Hostgator cobra lo que cobra, si con un plan de 25€ anuales no se puede mantener una web de 3000 visitantes únicos al mes en un servidor español debería contratar uno de 50€.