hola a todos,
Estoy intentando crear un robot web con curl.
Y mi pregunta es la siguiente:
Como consigo que el robot vaya copiando todas las webs a las que va accediendo. Me explico:
Yo le paso una url en el principio, esta url lleva a una pagina con un formulario, el cual ingreso gracias a la funcion
curl_setopt($handler, CURLOPT_POSTFIELDS, $datos_acceso);
y mantengo las cookies con las funciones
curl_setopt($handler, CURLOPT_COOKIEFILE, $cookie_file);
curl_setopt($handler, CURLOPT_COOKIEJAR, $cookie_file);
curl_setopt($handler, CURLOPT_FILE, $fp);
pero aqui viene mi duda y esque una vez el robot se identifica (deberia ser redireccionado a la pagina interna) como hago para copiar esa pagina interna? es decir, tendria que crear otro recurso curl_init() con la pagina interna o habria alguna manera de que el robot la consiga directamente?
un saludo y espero que se me entienda