¿Cómo maneja el microprocesador el código de máquina? [cerrado]

0

Y no, no me refiero a "cómo se escribe un programa para un procesador".

Lo que quiero saber es cómo un procesador interpreta alguna instrucción arbitraria, por ejemplo, 100001 como ADD r1,r2 , etc. ¿Qué significan los bits individuales en la secuencia de bits y cómo la secuencia de bits le dice al procesador qué hacer?

¿Es similar a cómo funciona un FPGA? ¿La lógica del procesador es solo un montón de puertas?

    
pregunta Igglyboo

1 respuesta

3

El trabajo canónico para leer aquí es "Organización y diseño de computadoras" por Hennessy / Patterson. Básicamente, los primeros 4-6 bits del código de la máquina se denominan códigos de operación que le dicen a la ALU en el procesador qué operación realizar (suma, resta, multiplicación, división), y los bits restantes son los 2 operandos para realizar la adición y donde almacenar el resultado. El arthmetic real es hecho por el ALU que se compone de bu mux, decodificador, fulladder y primitivos. Si observas cómo funciona una ALU (unidad de lógica aritmética), conocerás la parte importante del procesador. Un procesador moderno también tiene memoria caché, canalización, reenvío de datos y predicción de ramificación, pero eso no es fundamental para la pregunta que hace. Para interpretar el código de máquina, el procesador utiliza el código de operación para decidir la operación y el resto de la secuencia de bits son los dos registros que son los operandos y en los que se almacena el resultado. El resto son circuitos específicos que puede encontrar en el libro. " Organización y diseño de la computadora "

    
respondido por el Niklas Rosencrantz

Lea otras preguntas en las etiquetas