| |||
Seguridad PHP Hay alguna forma de no permitir que te bajen el sitio con programas como web copier o similares que te bajan todo el contenido?, necesitaría no permitir bajo ningún aspecto esto.... |
| ||||
Respuesta: Seguridad PHP ¿Exactamente a qué contenido te refieres? Tu pregunta según se entiende está enfocada a PHP pero realmente no queda clara tu pregunta. Si te refieres a los scripts de PHP que utilice tu sitio, no importa el programa que usen, no hay forma de 'bajar' el contenido de los archivos PHP a menos que tuvieran acceso directamente al FTP o similar. Los programas a los que haces referencia trabajan de una forma muy básica, bastante similar a como lo hace un navegador, pero, sin entrar en detalles, harán una petición GET a un determinado recurso, este podría ser un archivo PHP. Por la forma como funciona PHP, simplemente no hay forma de 'descargar' un archivo PHP de forma directa, el script simplemente manejará de alguna forma la petición y generará un contenido y este contenido (html, texto, javascript, etc...) es lo único que llegará al cliente, nunca llegará nada del código usado para generar tal contenido. Si no es a esto a lo que te refieres por favor acláralo.
__________________ Usuario Reigistrado de linux #399288 |
| |||
Respuesta: Seguridad PHP necesito saber como hacer para que no se vea por ejemplo un directorio si entro a www.blablabla.com/images, que no se vean los contenidos de los directorios y todo eso, como lo bloqueo a los ojos del usuario y pongo una pantalla de 'forbidden' o algo así??? |
| ||||
Respuesta: Seguridad PHP Lo que mencionas no depende de PHP, depende del servidor HTTP que estés usando. La forma más simple de evitar que listen los contenidos de un directorio es simplemente colocar un index.html en blanco en el directorio. Si el servidor fuese Apache por ejemplo, podrías, en vez de usar un index.html en blanco, utilizar un .htaccess y definir reglas de acceso (cosas como Options -Indexes) o usar mod_rewrite, no obstante el poder usar un htaccess depende de la configuración del servidor por lo que es más simple usar un index.html en blanco. Ahora, qué tanto pueda evitar que crawlers puedan acceder al contenido en realidad depende de varios factores como la calidad del crawler/spider, los enlaces que hayan en una página públicamente accesible en el mismo sitio que lleven a contenidos en el directorio que deseas proteger, la configuración del servidor HTTP para no responder o simplemente negar peticiones hechas por ciertos user agents, incluso un robots.txt podría facilitar el trabajo de saber qué hay allí si dicho archivo de texto contiene referencias a dichos contenidos. En cualquier caso, en lo que le compete a PHP, poco hay por hacer, a lo sumo tener un index.php que niegue cierto tipo de peticiones, o agentes de usuario, o similares, por ejemplo, algo que sería fácil de implementar en un index.php es: Código PHP:
__________________ Usuario Reigistrado de linux #399288 |