Hola.
Tengo urls como estas:
http://www.midominio.com/?accion=probando&page=1 http://www.midominio.com/?accion=probandor&page=1 http://www.midominio.com/?accion=probandos&page=1
Quiero eliminar por medio del robots.txt todas las paginas de mi sitio que contengan en la url: &page=1
Para ello, el archivo robots.txt tiene este texto:
User-agent: *
Disallow: /*page=1
Pero no estoy seguro de que funcione correctamente.
Me podríais decir si está bien hecho de esta forma para bloquee estas paginas?.
Gracias. Un saludo.