16/07/2004, 13:42
|
| | | Fecha de Ingreso: abril-2004 Ubicación: Buenos AIres
Mensajes: 290
Antigüedad: 20 años, 8 meses Puntos: 0 | |
Si es claro que no es aconsejable el uso de robots.txt para que google no indexe paginas que no queres que vean pero por ejemplo puede servir para que google no indexe paginas cn contenido duplicado y te penalizen por eso que opinan?
La mejor forma de denegar accsos a pagina que tienen contenido privado es con .hatacces
__________________ Diseño y desarrollo Web - Templates Wordpress - Posicionamiento SEO -
Programaciones en PHP, AJAX, MYSQL a medida -
Tranceup http://www.tranceup.net |