Necesito procesar datos de imagen de 10 sensores de imagen simultáneamente (es decir, de OnSemi MT9V022 s o similar). Los 10 sensores serán disparados externamente por una señal común. La solución ideal sería realizar el procesamiento en algunas CPU de alto nivel como ARMv7 / 8 o x86, pero no sé cómo conectar todas las cámaras a la CPU. Me gustaría evitar usar USB para la conexión ya que no necesito la pila USB para nada (tal vez excepto la velocidad de transferencia).
Los sensores de imagen tienen salida en serie o en paralelo. Dado que es posible que no haya 10 tipos de entrada de datos similares en una CPU determinada, ¿es la única forma de multiplexar los datos de la imagen en menos (o solo) flujos? Si es así, ¿cómo podría hacerse tal multiplexación? ¿Hay algunos circuitos integrados que podrían usarse para eso o tengo que diseñar un FPGA personalizado? Tal como lo veo, ¿puedo necesitar desarrollar un dispositivo "multiplexor" personalizado que pueda ingresar los 10 sensores y unirlos a una salida común?
Dado que me gustaría al menos 10 x 320x240 en escala de grises de 8 bits a 10-30 FPS, ¿cuáles son las opciones de IO para la salida común (SPI, USB, etc.)? ¿Puedo usar una interfaz CSI para la salida común y escribir un controlador que haría la des-multiplexación? ¿O puedo simplemente multiplexar los sensores para transferirlos y luego des-multiplexarlos en la CPU y usar un controlador de sensor de imagen de Linux? Una CPU objetivo sería idealmente un ARM multinúcleo fuerte con soporte OpenCL, tal vez algo como nVidia Tegra K1 o X1.