Ver Mensaje Individual
  #1 (permalink)  
Antiguo 20/01/2012, 05:26
BoKeRoN18
 
Fecha de Ingreso: noviembre-2007
Mensajes: 208
Antigüedad: 17 años
Puntos: 2
Robot web con curl

hola a todos,

Estoy intentando crear un robot web con curl.

Y mi pregunta es la siguiente:

Como consigo que el robot vaya copiando todas las webs a las que va accediendo. Me explico:

Yo le paso una url en el principio, esta url lleva a una pagina con un formulario, el cual ingreso gracias a la funcion

curl_setopt($handler, CURLOPT_POSTFIELDS, $datos_acceso);

y mantengo las cookies con las funciones

curl_setopt($handler, CURLOPT_COOKIEFILE, $cookie_file);
curl_setopt($handler, CURLOPT_COOKIEJAR, $cookie_file);
curl_setopt($handler, CURLOPT_FILE, $fp);

pero aqui viene mi duda y esque una vez el robot se identifica (deberia ser redireccionado a la pagina interna) como hago para copiar esa pagina interna? es decir, tendria que crear otro recurso curl_init() con la pagina interna o habria alguna manera de que el robot la consiga directamente?

un saludo y espero que se me entienda