Cita:
Iniciado por Datacenter1 Es muy frecuente que los proveedores juntemos RAM y CPU en un solo paquete, esto permite bajar costos y una mejor utilización del hardware, si fuera totalmente independiente, podrían darse casos en los cuales un cliente contrate 64 GB de ram pero solo un core de cpu, esto imposibilitaría vender el resto de los cores.
Ancho de banda/Transferencia y almacenamiento en un verdadero cloud deben ser independientes, especialmente el almacenamiento, si el proveedor usa verdaderos NAS/SAN físicamente separados de los servidores, redundantes e independientes
Saca de la lista a DigitalOcen, no es un cloud, utilizan almacenamiento local no redundante, desconozco acerca de Linode y Gigas
Todos están condicionados por el número máximo de cores/cpu's del nodo, aún la tecnología para escalar un VM entre varios nodos, está en pañales, cuando eso suceda (apx 2 años) podrás escalar un VM a X cores (100, 200, 300), por ahora no hay otra alternativa que usar varios VM balanceados
Tienes alguna fuente / noticia sobre esa nueva tecnología de virtualización?
Es decir a día de hoy no existe otra solución que crear más y más VM, cierto? Dolores de cabeza que dá sincronizar todo. Y si falla..., agarrate mamasita.
Alguien puede refutar si Windows Azure Cloud hace lo mismo? No lo pude probar por el tema de la tarjeta.
Por el scroll cuando seleccionás los recursos, dá la sensación que escojes cuanto quieres y todo se ejecuta desde una única máquina virtual con la capacidad que tu escojes. NOTESE:
Da la sensación.
Según
este artículo de Wikipedia, Windows quizás ya ofrece a lo que yo me refiero, pero por favor que alguien lo refute:
Cita: Por medio de un cluster se pueden conseguir capacidades de cálculo superiores a las de un ordenador más caro que el costo conjunto de los ordenadores del cluster.
Ejemplo de clusters baratísimos son los que se están realizando en algunas universidades con computadoras personales desechados por "anticuados" que consiguen competir en capacidad de cálculo con superordenadores carísimos.
Para garantizar esta capacidad de cálculo, los problemas necesitan ser paralelizables, ya que el método con el que los clusters agilizan el procesamiento es dividir el problema en problemas más pequeños y calcularlos en los nodos, por lo tanto, si el problema no cumple con esta característica, no puede utilizarse el cluster para su cálculo.
Para que un problema sea paralelizable se debe hacer uso de bibliotecas especiales como lo es PVM (parallel virtual machine) o MPI (Message passage interface), donde la primera es usada especialmente en cluster con nodos hetereogéneos (arquitectura del procesador, sistemas operativo, entre otras), y pertenecientes a diferentes dominios de red, la segunda biblioteca usada para cluster homogéneos
Un tipo de software para realizar cluster high performace es OSCAR (Open Source Cluster Application Resources) distribuido bajo licencia GPL. Este software trabaja sobre el sistema operativo Linux. En Windows se podría utilizar "WCC 2003" (Windows Computer Cluster).