Hola a todos
Tengo un problema que me está desesperando y no le encuentro explicación.
Resulta que desde hace unos días (desde el día 11) el robot de Google está devolviendo errores de rastreo en las webmaster tools, y haciendo la prueba de "Explorar como googlebot" obtengo el error "Falta el archivo robots.txt". Tampoco puedo subir un xmap, ya que tampoco consigue acceder.
Viendo en Google posibles soluciones, suele ser por mala configuración o por que el firewall del servidor, rechaza las peticiones de la IP que utiliza el robot.
He probado a quitar el fichero robots.txt, el .htaccess y un montón de cosas más pero no ha servido de nada, ya que la llamada ni siquiera aparece en los logs de apache, es como si se cortase a mitad de camino.
Viendo que solo quedaba el tema del firewall, los de soporte han deshabilitado el mismo durante un momento para probar, y ni rastro de la llamada.
Lo más "gracioso" es que el mismo dominio con "www" si que funciona perfecto y google puede acceder, pero hemos trabajado durante meses en una campaña seo, y necesitamos que funcione sin "www". En el mismo servidor y con la misma IP hay varias webs que funcionan perfectamente con y sin "www".
Por probar, también hemos cambiado las dns (aunque apuntando a la misma IP).
Mañana, trasladaremos todo a otro servidor, pero es una pena no saber ni por donde van los tiros.
¿alguna idea?