Ver Mensaje Individual
  #1 (permalink)  
Antiguo 28/09/2011, 12:59
html5
 
Fecha de Ingreso: febrero-2011
Mensajes: 53
Antigüedad: 13 años, 10 meses
Puntos: 2
sobre páginas de apoyo con sitemaps y robots

Yo tengo un wiki que utiliza el mismo sistema que la Wikipedia (MediaWiki).

El wiki tiene aproximadamente 100 artículos, pero si alguien ha usado MediaWiki, sabrá que además de los artículos principales existen otras categorías: páginas de discusión, páginas de usuario, plantillas, páginas de MediaWiki... Son cientos de páginas cuyo contenido no es especialmente relevante para el usuario.

Mi duda es cómo evitar que Google vea con malos ojos la existencia de tantas páginas que realmente no aportan nada al usuario.
  1. ¿Incluyo todas esas páginas en el sitemap, dándoles una prioridad baja (0.1 o incluso 0.0) para que Google conozca las páginas, las indexe si quiere, pero sepa que son poco importantes? (Su indexación podría ser interesante, por ejemplo, para un buscador personalizado de la página).
  2. En caso de que la mejor opción sea no avisar de la existencia de dichas páginas: ¿Las bloqueo a través de robots.txt?