Acercándose a la fusión de datos multisensor

6

El problema

Estoy tratando de estimar la postura en 3D de una persona que se observa con una sola cámara y 5 IMU desgastadas (extremidades de las extremidades y parte superior de la espalda). Los marcos de la cámara se convierten en vectores de características basados en la forma, y cada IMU proporciona representaciones de cuaternión 4D de su orientación.

He recuperado la pose 3D usando cada modalidad al aprender un mapeo desde el espacio de la característica de entrada al espacio de la pose de salida. Ahora deseo obtener mejores resultados combinando ambas modalidades de alguna manera a través de la fusión de sensores.

He intentado agregar los vectores de características de cada modalidad y también usando un promedio ponderado de sus salidas. Estos son enfoques muy simples, y solo resultaron en mejoras muy pequeñas en promedio.

Pregunta

¿Qué otros enfoques puedo intentar combinar estos dos orígenes de datos incompatibles?

¿Hay algún preprocesamiento de las funciones que se debe hacer?

Nota: Mi preferencia es continuar usando un enfoque basado en el aprendizaje si es posible. (es decir, no quiero modelar explícitamente la física / cinemática / etc)

    
pregunta Josh

2 respuestas

2

El filtro de Kalman se usa generalmente para la fusión de datos; Sin embargo, estás en un montón de trabajo! Modelar el sistema ahorrará mucho tiempo.

Usamos un filtro de Kalman en el que solía trabajar para personas que seguían imágenes de matriz de sensores IR. Aproximadamente dos años de trabajo fueron incorporados al proyecto.

    
respondido por el Leon Heller
1

Solo algunas ideas, no estoy seguro de lo útiles que son:

Si desea utilizar un enfoque de aprendizaje automático, el desafío es encontrar el criterio correcto.

Lo más fácil de trabajar es con los datos de la verdad, pero supongo que no tienes eso.

La otra forma genérica de aprendizaje automático consiste en utilizar un criterio de forma de suavidad. Una forma en la que puedo pensar es predecir todos los parámetros medidos (en un momento dado) a partir de un conjunto más pequeño (dimensión inferior) de variables. Tanto la transformación de entrada a variable de baja dimensión (matriz o función parametrizada) como los valores para el conjunto más pequeño de variables pueden aprenderse, por ejemplo, mediante un método de optimización no lineal genérico. Solo tienes que definir el criterio.

Si eso funciona, entonces al menos tienes un poco de fusión de sensores funcionando. Aún así, tendría que realizar una transformación de las muestras de dimensiones inferiores aprendidas a las variables de salida deseadas.

En lugar de, o en combinación con, usar menos variables, también puede imponer suavidades en el tiempo del conjunto de variables aprendidas. Debería ser posible incluir esto en el método de aprendizaje anterior.

Si desea que las variables aprendidas tengan un significado, puede incluir una penalización en el criterio para forzarlas a ser similares a las muestras de entrada.

Acerca de los métodos de aprendizaje: la forma más fácil de comenzar es definir un criterio y optimizarlo usando un optimizador estándar no lineal (por ejemplo, matlab o el paquete scipy de python)

    
respondido por el Mr. White

Lea otras preguntas en las etiquetas