3000??? Ahhh!!!! Jejeje
Bueno, te comento mi experiencia:
Hace un buen tiempo desarrollé un sistemita que, usando FSO, recorría todos los archivos HTML de una carpeta determinada. Uno a uno los leía e identificaba partes estandard en su contenido (como tamaño de letra, si estaban en negritas o itálicas, etc) y asignaba ese contenido a variables que, antes de seguir con el archivo siguiente, se insertaban en una BD. La lógica era más o menos así:
- Por cada archivo en la carpeta
- Leer su contenido
- Identificar "partes"
- Guardar en la BD
- Eliminar el archivo actual
- Repetir todo el proceso con el siguiente archivo
Cuando lo terminé de desarrollar, lo probé en mi modesta PC. El resultado fue bueno (+- 5 segundos) con, aproximadamente 25 archivos (que era la media de archivos a operar en cada ejecución del script -dos o 3 veces al día-). Cuando lo subí al servidor, con la misma cantidad de archivos, el script llegaba a time-out y sólo se encargaba de procesar 10 archivos! (me daba cuenta por los que quedaban luego de eliminar los procesados). De esto se deduce que ese servidor es una "garompa"

.
En fina, nada. Sólo compartirte mi experiencia y comentarte que me parece mucho 3000 archivos!
Saludos