últimamente he estado publicando duda tras duda. y gracias a los que se toman su tiempo en ayudarme , enserio, muchas gracias.
bueno. tengo otra duda sobre un programa que convierte de binario a decimal .
practicamente ya tengo la idea, pero estoy algo confudido.
la idea consiste en dividir el numero uno a uno por ejemplo: 10101 aplicaría modulo de 10 para separarlo por partes y dividir la parte entera. asi hasta que se separe.
despues lo multiplicaría con sus respectivas potencias y listo.
pero mi duda entra aquí. si es el usuario teclea un binario mas grande entonces mi idea ya no entra. porque lo que yo pretendo podía ser una palabra de 8 bits pero si el usuario pone de una de 32 bits .
al grano, si yo no se de cuantas cifras será el numero, como le puedo hacer con un while para poder hacer la conversión o hasta cuando pararía. estoy algo confundido
:'