24/03/2004, 03:56
|
| Colaborador | | Fecha de Ingreso: marzo-2004 Ubicación: En alguna otra parte
Mensajes: 4.656
Antigüedad: 20 años, 8 meses Puntos: 63 | |
Bueno, ese es ciertamente un problema muy común con los frmaes.
Una forma de evitarlo, quizás la más fácil y eficiente, es que las páginas que no sean la principal, "no existan"
¿eeeeh?
Tranquilo, no hay que borrarlas...
X-)
Basta con indicarle a los robots que esas páginas no las lean y por tanto no las indexen.
Si tienes una página principal bien hecha, podrás tener en ella todas o casi todas las referencias al contenido de tu site, por lo que no te debería afectar mayormente sacar esas otras páginas de sus listas.
El código que se usa para eso es un meta:
<meta name="robots" content="noindex">
A mucha gente esta idea no le agrada y es muy comprensible, piensan que es mejor tener todas y cada una de las páginas qeu han hecho en la lista de los buscadores, no importa que estén en el ranking 243.645 y que nadie acceda ellas. Tampoco les importa mucho el hecho de que al haber tantas páginas indexadas en los buscadores, su calidad disminuye bastante.
Pero bueno, si tú, por cualquier motivo, decides que debes mantener todas tus páginas sin la etiqueta que menciono, tendrás que usar códigos que recarguen la página principal y el frame con el contenido específico que el usuario quería ver.
Esto se puede hacer con varios lenguajes y seguramente lo mejores para ello sean perl y php.
Aunque yo no pueda pasarte tales códigos, seguro que algunas de las, muy capaces, personas que hay por aquí si podrán...
Suerte
Felicidad
__________________ ¡ hey, hou, hou, hey ! |