Ver Mensaje Individual
  #2 (permalink)  
Antiguo 14/04/2003, 11:42
Avatar de AlZuwaga
AlZuwaga
Colaborador
 
Fecha de Ingreso: febrero-2001
Ubicación: 34.517 S, 58.500 O
Mensajes: 14.550
Antigüedad: 24 años, 2 meses
Puntos: 535
3000??? Ahhh!!!! Jejeje

Bueno, te comento mi experiencia:

Hace un buen tiempo desarrollé un sistemita que, usando FSO, recorría todos los archivos HTML de una carpeta determinada. Uno a uno los leía e identificaba partes estandard en su contenido (como tamaño de letra, si estaban en negritas o itálicas, etc) y asignaba ese contenido a variables que, antes de seguir con el archivo siguiente, se insertaban en una BD. La lógica era más o menos así:

- Por cada archivo en la carpeta
- Leer su contenido
- Identificar "partes"
- Guardar en la BD
- Eliminar el archivo actual
- Repetir todo el proceso con el siguiente archivo

Cuando lo terminé de desarrollar, lo probé en mi modesta PC. El resultado fue bueno (+- 5 segundos) con, aproximadamente 25 archivos (que era la media de archivos a operar en cada ejecución del script -dos o 3 veces al día-). Cuando lo subí al servidor, con la misma cantidad de archivos, el script llegaba a time-out y sólo se encargaba de procesar 10 archivos! (me daba cuenta por los que quedaban luego de eliminar los procesados). De esto se deduce que ese servidor es una "garompa" .

En fina, nada. Sólo compartirte mi experiencia y comentarte que me parece mucho 3000 archivos!

Saludos