Traté de hacer algunos decodificadores binarios a decimales, pero no tenía idea de cómo construirlos, así que terminé usando el "verificador de combinación" (básicamente proporcioné un verificador para cada número). Eso fue realmente ineficiente y casi imposible cuando se decodifica e. sol. Números de 32 bits (4,294,967,295 combinaciones). Así que quiero preguntar, ¿hay algún patrón lógico que construyes una y otra vez? ¿O debería hacer una unidad aritmética separada para calcular esto de manera matemática? Quiero que mi salida sea, por ejemplo, pantalla de 7 segmentos. Y una pregunta más, ¿cómo funciona esta decodificación en las computadoras normales? Gracias por ayudar