No sé que opinarán los demás pero yo no soy partidario de bloquear páginas por robots.txt. Si consideras un contenido interesante para los usuarios, lo añades, si no aporta no lo añades... mantenlo simple, cuanta más complicación más sospechoso. Es como lo del "pagerank sculpting" (añadir nofollow a enlaces internos para evitar perder jugo) a Google no le gustaba y llegó a cambiar el funcionamiento del nofollow para evitarlo.
En todo caso procura que las páginas que lleven ese contenido no sean las principales del sitio.