Cita:
Iniciado por venteconmigo
La primera cuestión, es que haciendo un site: de mi pagina, que tiene mas de un año, si miro la cache de alguna de las paginas, me devuelve un error 404 de google, a que puede deberse?
¿A qué puede deberse? A que la
URL no se encontraba al momento en que el crawler (aka Googlebot) pasó por tu sitio. ¿El motivo? Cualquiera de los siguientes, no necesariamente en el orden de mi comentario.
- bot bloqueado a nivel servidor/firewall
- una regla .htaccess con una expresión regular que no puede resolverse
- una redirección 301 mal escrita
Cita:
Iniciado por venteconmigo
Por otro lado, estoy viendo que google lleva como 20 días sin pasarse por algunas paginas, e incluso por el blog actualizado casi a diario.
Como puedo hacer para que sea mas rápido?
La cantidad de días entre visitas depende, en grado sumo, de la frecuencia de rastreo que Google tenga asignada a tu sitio. Si el sitio Web tiene muy pocas actualizaciones periódicas, tendrá asignado una frecuencia de rastreo alta. A actualizaciones constantes, una frecuencia de rastreo muy baja.
A nivel
Google Labs, en anteriores versiones de las
Herramientas para Webmasters era posible—durante 90 días—mantener incrementada la frecuencia de rastreo del bot. Ahora, eso es historia pasada.
No obstante, mediante
pubsubhubbub es posible enviar un ping a Google luego de hacer una publicación y; para quienes utilizan WordPress existe disponible el
plugin de PubSubHubbub.
@Laurita17 El archivo sitemap tiene por misión "mostrar" como es la arquitectura de URLs del sitio Web. Si bien el protocolo establece algunos campos informativos; de ninguna manera toma Google este contenido—ni al archivo mismo—como una directiva. Ni de rastreo ni de indexación.