| |||
Respuesta: Tráfico desmesurado de Googlebot Ahora mismo no te sabria decir. Lo consulto. De todas formas, sea como sea, estamos hablando de puras matemáticas en ese aspecto: Si tiene 200 url, y cada uno de ellas pesa 15 kb de media (diría que incluso menos, es todo letra), son unos 3 megas de peso, y si eso lo multiplicamos por 30 días que tiene el mes (suponiendo que Google se descarga TODO el material una vez al día, hace un total de 90 megas al mes. Eso dista mucho de consumir más de 3, 7, o 10 gigas mensuales. Por otra parte, me aseguré diciéndole lo de las imagenes y me aseveró que tiene la protección hotlink contra el indexado de imagenes por parte de los bots. |
| ||||
Respuesta: Tráfico desmesurado de Googlebot A mí también me parece una verdadera "pasada" la cantidad de Gigas descargados, pero puede ser tan sumamente tonto como indicar una variable de session en una meta, titulo o incluso hacer algo de "trampilla" y hacer que la fecha de actualización de los POST o contenidos se modifique con cada acceso... en caso contrario, no entiendo muy bien el porque ee estas exploraciones masivas. Creo que hace pocos días @cvander comentaba en un post algo similar en un proyecto de Nigeria o de por ahí abajo, a ver si lo encuentro -> http://www.forosdelweb.com/f64/dont-...llshit-969786/ aqui lo tenemos! El problema es similar por no decir que idéntico. Infinidad de peticiones por parte del mismo bot de Google... Saludines |
Etiquetas: |