04/02/2010, 17:17
|
| Moderador | | Fecha de Ingreso: abril-2001 Ubicación: Ciudadano del mundo
Mensajes: 13.638
Antigüedad: 23 años, 8 meses Puntos: 1792 | |
Respuesta: Buscador personal El robots.txt es un archivo de texto donde le decis a los robots de los buscadores que deben indexar de tu sitio.
Lo que tenes que hacer es idear una base de datos para ir almacenando la internet entera. Para esto necesitas un robot que es un servidor que ira visitando todos los sitios web que encuentre para almacenarnos.
La idea de armar el proyecto es buena, pero no entiendo porque hacer algo personalizado solo para vos. Compartilo o participa en otros proyectos donde puedas aprender porque estas en pañales y no tienes mucha idea de como empezar. Así que vinculate con más personas que estén en el camino y empieza a definir tecnologías con las que vas a programar, procedimientos y forma de almacenar tanta información para luego poder hacer las consultas de búsqueda.
__________________ - Christian Van Der Henst Platzi |