Mmmmmmmm no estoy convencido del todo Daniel.
El bot, es el bot. No creo que haga muchas distinciones si el dominio es .COM o .ES. Creo que la información capturada es tratada a posteriori para organizar la clasificación de resultados. El bot captura y el algoritmo interno de Guugle organiza la clasificación. Si el bot, en el ejemplo de @akende; analiza su página no creo que lo haga con variables traspasadas desde las WebmasterTools ni mucho menos... Lo hará tal cual y punto.
Google le prestará atención a la info existente en Google Places, a la hora de clasificar y otorgar una posición en los resultados de búsqueda orgánica, no creo que lo haga a la hora de analizar y capturar contenidos de una web....
Aúnque puede que este equivocado, pero creo que esta sería la forma "lógica" para evitar sobrecargas innecesarias en los servidores destinados por que planteado de la forma que comentas la história iría así:
- Ubicación geográfica de extensión de dominio
- Consultar ambito geográfico estipulado en WebmasterTools
- Revisar la existencia de sitio en Google Places
- Asignar ubicación geografica con info capturada (pueden no coincidir las anteriores definiciones xD
- Lanzar el spider geográfico adecuado para el sitio web
- Clasificar página en indice de resultados via algoritmo?
Creo que es una locura hacerlo de esta manera... ¿no?