El tema basicamente es el siguiente: Tengo una idea general acerca de las herramientas que se utilizan para tener una pagina en internet (css, ajax, php, asp.net, mysql, html, posicionamiento, etc, etc, etc).
Pero mi duda es acerca de las "grandes paginas webs" y necesito que alguien me ilumine un poco en el asunto.
Con "grandes paginas webs" me refiero a esas paginas con un numero MUY GRANDE de visitas, con muchas conexiones constantes a una base de datos, los ejemplos sobran (youtube, google, hotmail, myspace, fotolog, etc...). Quiero decir, tengo entendido que las "grandes" paginas trabajan con varias maquinas, repartiendose el trafico entre ellas, pero la verdad es que no me queda claro... me refiero mas especificamente, que tecnicas, que metodos se utilizan en este tipo de casos?? por ej: la base de datos esta en un unico servidor? o todas las maquinas tienen una copia de la base de datos? como se comunican entre ellas??? es muy "dificil" configurar servidores dedicados para que trabajen asi, "en paralelo" ??? hay alguna documentacion que me puedan recomendar sobre este tema..???
bueno en fin,... espero haber sido claro al expresar mi duda, haber si alguien me echa un poco de luz...
Les mando saludos!!
-Raind