Gracias cluster. La expresión q me comentas funciona a la perfección pero ese no es el problema. Si te fijas, la separación de url y enlace sólo se hace una vez, por lo q el consumo de recursos es mínimo. El problema creo q está en la forma de comprobar el recíproco.
Código PHP:
function recip($surl,$reciproco){
$fd = fopen ("$surl", "r");
while (!feof ($fd))
{
$buffer = fgets($fd, 4096);
if (strstr($buffer,$reciproco))
return true;
}
fclose ($fd);
}
De esta forma, para cada página enlazada leemos línea a línea hasta q encontremos el enlace. Pero para listas muy largas parece q se colapsa.
¿Alguna idea sobre como reducir el coste? ¿Podría usar exp. regulares aquí para reducir la carga?
Un saludo a todos, y gracias por la ayuda.