Quería entender, si MIPI CSI-2 (similar a LVDS) debería resultar en un mayor consumo de energía que la tradicional interfaz paralela digital con signle . El MIPI se usa ampliamente hoy en día, pero la interfaz paralela también se usa para sensores de imagen de baja resolución. Entonces, si se debe usar un sensor que admita tanto MIPI CSI como una interfaz paralela, la persona debe elegir uno. En términos de rendimiento, MIPI sería mejor, debido a su menor ruido y EMI. Sin embargo, ¿es normal esperar que el uso del MIPI resulte en un mayor consumo de energía?
Digamos que uno controla un sensor de imagen usando un FPGA y una SDRAM. La frecuencia de la señal paralela es de 50Mhz, y el ancho de bits es de 8 bits, mientras que la frecuencia del MIPI CSI-2 es de 200Mhz, y utiliza dos vías. También asumamos que la frecuencia de reloj del SDRAM es 133Mhz, lo que significa que el FPGA debería ser lo suficientemente rápido como para manejar el SDRAM también.
Pensando en el consumo dinámico de energía de las E / S de CMOS, la transmisión paralela parece consumir menos energía, porque 50Mhz x 8 líneas < 200Mhz x 4 lineas. Además, la sincronización del FPGA para cubrir señales de 200Mhz aumentaría aún más el consumo de energía del FPGA. ¿Tiene sentido este razonamiento?