Cita:
Iniciado por letni
Pero el método de las inserciones múltiples requiere que meta a mano los valores que van a tomar los campos, si tengo que hacer eso con un millón de registros sí que me eternizo más que con lo otro.
La gracia está en que se generen sólos los campos de los registros para que sea un proceso automático.
No se si me explico.
Saludos.
Vuelvo a mi propuesta.
En realidad, si lo programas adecuadamente, no es necesario ni siquiera "meter a mano los valores", sino programar un método tal que tome una taba dinámicamente, cuyos campos por nombre, tipo y orden coincidan con los campos a insertar, y cuyo nombre de tabla coincida con la tabla a actualizar y dejar que ese método se encarque de construir la sentencia con todos sus detalles y ejecutarla.
Yo eso lo tengo programado en VB.Net y funciona hasta con tablas de 14.000.000 de registros (tengo un método de toma de datos remotos entre diferente PCs que hace la tarea en forma masiva), que es el límite de mis prueba.
Puedo pasartelo para que lo veas cómo es la cosa.
Cita: si tengo que hacer eso con un millón de registros sí que me eternizo más que con lo otro.
Ni tan así. El volcado de una tabla con 246.000 registros a un archivo .csv, con las conversiones incluidas, solamente lleva algunos segundos.
Uno de los procesos que tuvimos que preparar en una aplciación, vuelva toda una tabla de hasta 600.000 registros a un archivo plano y los levanta en una tabla de MySQL en unmáximo de 48 segundos, según cronometramos. Y eso con una PC P4 de 2.6 GHz y disco de 80 Gb... algo en este momento bastante básico.
El proceso completo de generación de reporte para la prestación de servicios de conductores de una empresa con 20 conductores, vehiculos y 30 días de servicio duró 4.37 minutos. Incluyendo consolidación de datos y volcado a disco.