Cita:
Iniciado por yubertvikel Sin embargo, eso si complica el experimento.
Mi amigo usaba un software para generar click automáticos mediante sistemas programados, pero es un proceso secuencial, nunca varia, y el problema está en que si lo programas y te vas a tomar un café, y subes o bajas en ese momento, pues perdiste el enfoque, además el buscador te varia las posiciones al poner noticias, videos e imágenes. en diferentes lugares
Hasta donde he llegado con mis conocimientos - minúsculos - de cURL, se puede plantear el siguiente escenario sin problemas:
- Desarrollar un script que envíe cabeceras dinámicas
- La navegación por los resultados es asistida - Interviene el usuario
- El seguimiento de las URL de búsqueda es 100% genuino y valido para Google
PROS: Un único usuario puede llegar a simular el tráfico de N usuarios diferentes, donde N es la relación de paciencia que tengas de estar abriendo o actualizando la página del script con el fin de re-enviar nuevas cabeceras e iniciar de nuevo la navegación.
Por lo que si se toma en serio el tema, 2 ó 3 usuarios podrían llegar a simular sin problemas el tráfico de 200 ó 300 usuarios en pocas horas dispersas a lo largo de un día, con el comportamiento real de un usuario.
CONTRAS Desconozco - sinceramente - si
@RBZ tiene razón y el volumen de consultas orgánicas recibidas es un dato relevante de cara a la mejora de posiciones dentro de la clasificación.
Por lo que puede que estemos perdiendo unas cuantas horas durante los días que dure el experimento - minimo 2 ó 3, no se que me da a mi que si las WebMasterTools tardan 48h, no es por gusto xD - pero aún así no lo veo descabellado.
Saludines
PD:: Sorry por el doble post... acabo de ver tu respuesta @yubertvikel