Hola de nuevo compañer@s:
Cita: Tienes un millon de registros en total, o es una carga de un millon de registros en cada ejecución del job?
Huesos52: Son 12 tablas las que se van a transferir, donde la de mayor volumen es una tabla de datos que contiene aproximadamente 900 mil registros... aunado a las tablas catálogo daría como resultado que el volumen total de las 12 tablas sea de aproximadamente el millón de registros que les comentaba. desde un principio se había presupuestado que cada vez que se realizara el job se tendría que transferir el total de la información (que según entendí es como se haría con el MySQLdump) pero si se puede realizar de manera escalar, pues sería genial... sólo la primer carga sería pesada y el resto serían solo los nuevos registros los que se tendrían que tranferir... de hecho se está planteando que las actualizaciones no se hagan cada hora, sino cada cambio de turno (es decir cada ocho horas).
De cualquier manera voy a proceder a hacer algunas pruebas con ambos esquemas, creo que los dos tienen pros y contras y los dos son igual de buenos (o malos, según el cristal con que se mire
) a final de cuentas el jefe tiene la última palabra
Saludos nuevamente y muchas gracias por el apoyo
Josué