Ver Mensaje Individual
  #1 (permalink)  
Antiguo 21/12/2009, 10:32
Jabin
 
Fecha de Ingreso: febrero-2008
Ubicación: /home/public_html
Mensajes: 551
Antigüedad: 17 años, 2 meses
Puntos: 10
Desabilitar paginas determinadas repetidas con robots

En el robots.txt esta lo que esta abajo

Cita:
User-agent: *
Disallow: /imagenes/
Disallow: /admin/
Disallow: /registrar.php
User-agent: Mediapartners-Google*
Disallow:
Tengo unos urls que se estan repitiendo por ejemplo:

(Enlace amigable principal)
este-es-el-enlace-principal.hml

En otro enlace se muestra todas las fotos, pero se crea un enlace digamos asi:

fotografia-48.html (este enlace es igual a) => este-es-el-enlace-principal.hml

Por lo tanto se esta repitiendo dos enlaces diferentes con el mismo contenido:

Quiero desabilitar para que los buscadores no sigan "fotografias-48.html", pueda que sea penalizado por eso, por eso quiero que nosigan esos enlaces.

se me ocurre colocar esto:


Disallow: /fotografias*.*

Es valido o hay otra manera.