Cita:
Iniciado por j_aroche * comprimir los archivos JS, CSS y el html antes de enviarlos al cliente, resulta que al transmitir menos datos (y cerrar más rápido las conexiones) compensas el costo de comprimirlos y sales ganando.
* configura el cache para imágenes y demás archivos estáticos, así evitas que sigan solicitándolos por un tiempo.
Buenas j_aroche.
Yo no tenía entendido esto. Se comprime para reducir el ancho de banda, no el de cpu, eso tenía entenido yo. De hecho, equiparar el gasto de comprimir con el de abrir/cerrar conexiones, no termino de verlo.
He buscado por ahí y he sacado la siguiente conclusión. El gasto de cpu destinado a comprimir con los módulos de apache, es prácticamente despreciable, se utiliza gzip, el cual es bastante rápido, no obstante, en servidores con mucha carga, este gasto despreciable, podría no ser tan despreciable.
He leido por lo alto el artículo que mencionas y he seguido el link a otro artículo, al cual haces referencia en el tema de la compresión, pero no he visto ninguna test que pueda probarlo. ¿ Los habéis sacado de otro sitio ?
PDD_20.
A la hora de ver que necesitas, no puedes basarte en los usuarios diarios, sino en los usuarios concurrentes.
¿ Cuantos usuarios concurrentes máximos ha tenido tu web ?
Cuando te va mal, ¿ donde se van esos recursos ? memoria, cpu ? Si es cpu, donde se van esos recursos ? user, system, iowait ? (si tienes las systats instaladas con sar lo puedes ver). Siendo un vps, echale un ojo tambien al "steal".
En los dos posts que mencionais, solo os basáis en el maxclient como mejora. Como ya dije en el otro, para mi eso es una mínima parte en cuanto a optimización se refiere. Si no tienes recursos para 1000 usuarios, ampliarlo a 2000 no es algo muy inteligente.