Hola como estan.
Como lo comenté en algún otro thread, soy parte de un equipo que administra cerca de 300 bases de datos SQL Server repartidas en diferentes servidores.
En algunos casos, las tablas superan los 200 millones de registros, lo que ocasiona ciertas complicaciones al momento de ejecutar consultas (entre otras cosas).
Durante algún tiempo estuve investigando distintas posibilidades que me permitan mejorar la performance. Luego de muchas pruebas realizadas, encontré la solución a través del particionado de tablas e índices.
Hay una controversia en torno a todo este asunto, me llamo la atención que muchos sitios afirman que el particionado de tablas no es la solución al problema. Por otro lado, el mismo Microsoft y los resultados obtenidos a través de planes de ejecución dicen lo contrario. Por lo tanto estoy avanzando por este camino, pero me surgen algunas dudas.
La primer consulta que tengo, es sobre el tamaño de los ndf y su crecimiento.
Por defecto el tamaño que utiliza SQL Server es de 5MB para ambas cosas.
La otra opción que me sugiere para el crecimiento en caso que no quiera utilizar un valor en KB o MB es 10%.
Teniendo en cuenta que las tablas críticas generan alrededor de 100 millones de registros anuales, ¿esta bien el tamaño sugerido o debo modificarlo?
La otra consulta es sobre OLTP.
En este momento me encuentro generando los ndf, el esquema, la función de particionamiento, rehaciendo los índices, etc. En un futuro no muy lejano se piensa implementar OLTP sobre las tablas en cuestión.
¿Alguien sabría decirme si eso implica hacer todo el trabajo de cero?
Saludos,
Huasi