Los números son medios enredados... por que, las tecnologías y formas de funcionar no son iguales, entonces, si investigas un poco veras que antiguamente nvidia usaba 512 bit de interfaz, pero ahora "regreso" a 384 bit... ¿Por qué? obviamente se nos viene a la cabeza. La cosa, es que después de DX 10, las VGAs sufrieron un gran cambio en su estructura, solo por nombrar algunos: pasaron de los Pixel y Shader Pipelines a los Shaders unificados, el uso de CUDA, las físicas, achicamiento del proceso de manufacturación (lo que reduce costos) etc... Así pues, ATi le bajo la interfaz a sus tarjetas (256 bits vs los 512 bits de las GF 8 y 9) y le puso mas SP (Steam Processors o Shaders Unificados), y le pateo "la parte donde la espalda cambia de nombre" a nvidia durante... bueno, todavía lo hace, y con la HD5000 fue aun mas dolorosa.
Entonces, para hacer un cuento corto, las HD4000 son mas baratas de producir y rinden mas que las GTX200, salvo por la GTX295 que es de "doble núcleo".
¿Pruebas?...
http://www.tomshardware.com/charts/g...Dead,1457.html
Recuerda que Crossfire y SLi significan 2 tarjetas del mismo tipo unidas en una sola placa. La HD4850 esta como a la mitad y 4 o 5 puestos mas abajo esta la 9800 GTX+/GTS250 en la mayoría de las pruebas.
Sobre lo del HDMI depende de tu monitor.
Y la fuente, ¿nunca has usado una?... ¿entonces como prendes tu PC ¿...¿con leña?

... la fuente es donde va conectado el enchufe (es cuadrada y tiene un ventilador), y si vas aponer una tarjeta de gama alta necesitas una de buena calidad porque este tipo de hardware chupa HARTA energía.
Salu1+1