A mi me paso un caso parecido al que comentas con paginas duplicadas, y modifique el robots.txt y las que tenia idexadas seguien apareciendo en el buscador (al final del serps) y/o buscandolas con el comando site: y forzando la busqueda pero seguian apareciendo.
Lo que no hacia era enlazar nuevas paginas de la bloqueadas.
Yo te recomendaria que usaras la herramienta para webmaster de google
http://www.google.com/webmasters/tools/ y eliminaras las URL duplicadas, pese a lo que pone de 90 dias las elimina en 1 o 2 dias.
Aunque pasados unos dias siempre queda alguna, supongo que porque la coje de diferente servidor y tarda en actualizar.
POSTDATA: Es muy aburrido ir copiando enlace y pegando en la cajita, yo lo tube que hacer unas 1400 veces, menuda metedura de pata pero me volvi un experto.... en copia pega enlace.