Buenas, estoy haciendo pruebas con una tabla por que tengo pensado crear unas tablas para gestionar las estadisticas de un portal.
En portales anteriores, con unas 200,000 paginas vistas mensuales, era facil llegar a los 3 millones de registros en un año, y no es que sea muy visitada la pagina comparandola con otras webs. Tanto en una tabla de estadisticas como de movimientos, imaginar con la facilidad que pueden ir aumentando esas tablas.... :S
La duda teorica que tengo, ya que luego tengo que hacer filtrados de esas tablas en las consultas, es llegado el punto de tener 50 o 100 millones de registros.
Se que las tablas no tienen un limite de filas, pero mi duda es:¿Cuando empieza a resentirse la velocidad en busquedas de la tabla?
Lo que tenia pensado es hacer un sistema en el que cuando hayan mas de 10millones de registros me cree una tabla nueva, asi hasta el infinito, y otra tabla donde voy guardando los nombres de las tablas nuevas que creo (estadisticas1, estadisticas2, estadisticas3...) De esa forma con una funcion recursiva en mi lenguaje de programacion podria ir recorriendo tablas hasta encontrar el limite que desee en cada ocasion.
Ahora bien, ¿Es mas efectivo esto o no hace falta complicarse tanto?
Me gustaria la solucion mejor, pensando en el caso hipotetico que tuviese 100 millones de registros diarios. Ya que en este punto del proyecto tan inicial me da lo mismo hacerlo de una forma o de otra... lo que no me gustaria es hacerlo de una y despues modificarlo por no ser estable o funcional en su rendimiento, y puestos aprendo ha hacer esto de la mejor forma! :D
Siempre he alucinado como google analitycs guarda tantos millones de millones de registros :O, con lo que en teoria se puede... ahora solo hay que aprender como
A ver si algún gurú de las bases de datos me puede orientar para ponerme con ello :) Muchas gracias!