Para un proyecto escolar, estoy tratando de implementar una ecuación, por ejemplo: ( EDIT )
B = ((A + 2) * |A - 10|) / (c * c)
todo es valores binarios sin signo, valores absolutos siempre. La ecuación debe evaluarse 57600 veces por segundo para una imagen de 240x240 píxeles.
No sé cómo iniciarlo. ¿Sería mejor implementarlo haciendo un procesador MIPS y cargando una lista de instrucciones del programa en ensamblaje, y así?
¿O debería hacer un acercamiento directo por código? Si es así, ¿qué metodología debo seguir, debo hacer FSM? ¿Debo usar relojes?
Intenté programarlo mediante una combinación fácil (asignar ... etc) y funciona, pero usa casi el 80% de los ALM disponibles. No creo que esta sea la mejor manera, estoy buscando que sea el menor uso posible de hardware, el tiempo no es una restricción. Estoy usando Quartus II y Verilog.