Foros del Web » Administración de Sistemas » Apache »

Desabilitar paginas determinadas repetidas con robots

Estas en el tema de Desabilitar paginas determinadas repetidas con robots en el foro de Apache en Foros del Web. En el robots.txt esta lo que esta abajo Cita: User-agent: * Disallow: /imagenes/ Disallow: /admin/ Disallow: /registrar.php User-agent: Mediapartners-Google* Disallow: Tengo unos urls que se ...
  #1 (permalink)  
Antiguo 21/12/2009, 10:32
 
Fecha de Ingreso: febrero-2008
Ubicación: /home/public_html
Mensajes: 551
Antigüedad: 16 años, 10 meses
Puntos: 10
Desabilitar paginas determinadas repetidas con robots

En el robots.txt esta lo que esta abajo

Cita:
User-agent: *
Disallow: /imagenes/
Disallow: /admin/
Disallow: /registrar.php
User-agent: Mediapartners-Google*
Disallow:
Tengo unos urls que se estan repitiendo por ejemplo:

(Enlace amigable principal)
este-es-el-enlace-principal.hml

En otro enlace se muestra todas las fotos, pero se crea un enlace digamos asi:

fotografia-48.html (este enlace es igual a) => este-es-el-enlace-principal.hml

Por lo tanto se esta repitiendo dos enlaces diferentes con el mismo contenido:

Quiero desabilitar para que los buscadores no sigan "fotografias-48.html", pueda que sea penalizado por eso, por eso quiero que nosigan esos enlaces.

se me ocurre colocar esto:


Disallow: /fotografias*.*

Es valido o hay otra manera.
Atención: Estás leyendo un tema que no tiene actividad desde hace más de 6 MESES, te recomendamos abrir un Nuevo tema en lugar de responder al actual.
Respuesta




La zona horaria es GMT -6. Ahora son las 20:56.