Hola a todos, perdon por hacer una pregunta tan basica es que he estado buscando en la web y no he encontrado una explicacion, Lo que pasa es que toy haciendo un programa para convertir de binario a decimal, con la parte entera no tengo problema, el problema viene con la parte decimal, y es que si por ejemplo capturo un valor 1001.1101 me lo guarda como 1001.110107 y con eso se jode mi programa u.u alguien sabe como evitar que pase esto??? estoy usando scanf para capturar y lo guardo en un float.
Desde ya gracias