Hola.
Tengo una duda: cuando implementé GZIP en un servicio web, las pruebas de benchmark arrojaron datos que mostraban al servidor estresado cuando procesaba grandes datos de ifnormación para comprimirlos, así que esos datos los guardé comprimidos para que el servidor no le tocara hacer ese proceso, sin embargo, al cliente le toca hacer el proceso de descompresión, y bueno, necesito que el sistema tenga el mayor performance posible.
Solo necesito que me digan si existe algún algoritmo de compresión más óptimo y cuál es, o si hay algún modo de optimizar el uso de GZIP frente a grandes datos.
El nivel de compresión que uso es el más alto, ya que debo exigir al sistema mucho: baja transferencia de datos en el menor tiempo posible de proceso y respuesta. Ya solo me queda la duda de la compresión, que espero me puedan ayudar con esto.