¿Cómo miden el tiempo de vuelo de cada píxel los chips del generador de imágenes con sensor de profundidad Infineon REAL3 ™?

3

tl; dr: ¿Cómo miden los chips de imágenes con sensor de profundidad REAL3 ™ el tiempo de vuelo de la luz para cada píxel? ¿Es cuadratura, tiempo de amplitud o algo más?

The Infineon se utilizan para hacer que las cámaras de tiempo de vuelo (ToF) en el próximo Asus Zenphone sean " sensor de profundidad 3ra cámara trasera " para Tango implementacion. (adicional información de fondo )

Del dibujo y la discusión en PDF de 2 páginas Creo que utiliza luz infrarroja modulada por RF para la iluminación. La señal de modulación también se pasa directamente al chip del sensor que sirve como referencia de tiempo y / o fase.

Me gustaría leer acerca de cómo se implementa realmente la medición dentro de cada píxel. Esto es lo que he pensado hasta ahora:

  1. Supongo que estos son fotodiodos CMOS en lugar de píxeles CCD, por lo que una posibilidad sería hacer algún tipo de detección de cuadratura y simplemente informar la fase. El problema aquí sería la ambigüedad si el tiempo de ida y vuelta es mayor que un período de la modulación. Los sensores tienen una frecuencia de modulación ajustable dinámicamente, que supongo que podría usarse para el "auto-rango". Además, el método de cuadratura requeriría al menos una variación aproximadamente de la intensidad sinusoidal del LED.

  2. La detección de bordes (tiempo de conversión de amplitud) podría usarse en lugar de cuadratura. Eso haría con la modulación de onda rectangular.

  3. Para deshacerse de las ambigüedades en el tiempo del súper período, se podría usar un código digital más complejo en lugar de una onda cuadrada.

Teniendo en cuenta que han agregado una matriz de microlens a la cámara para mejorar la recolección de luz, es probable que la aplicación esté limitada a la S / N. En la situación de un teléfono, estás iluminando la escena a una distancia de hasta 4 metros con una linterna encendida de tu teléfono. Para obtener una precisión de menos de nanosegundos con una actualización rápida, la batalla es el ruido. Es posible que el método con el mejor rendimiento de S / N inherente sea la mejor opción.

En todo lo anterior, asumo que la luz infrarroja proviene de una única fuente uniforme que ilumina la escena, sin ningún patrón de cuadrícula o luz estructurada.

La frecuencia de modulación disponible más alta es actualmente de 100 MHz. Con un período de 10 nanosegundos y la velocidad de la luz de unos 30 cm / ns, eso significa que, en la frecuencia más alta, los objetos a una distancia de 150 cm estarán en el límite de ambigüedad. Pero la caída a 30 MHz funcionaría para la distancia máxima nominal de 4 metros.

Hasta ahora, todo lo que he encontrado es el PDF de dos páginas vinculado anteriormente, pero no hay hoja de datos o discusión en profundidad.

¿Puede alguien explicar: cómo miden el tiempo de vuelo de cada píxel los chips del generador de imágenes con sensor de profundidad Infineon REAL3 ™? Estoy buscando la respuesta definitiva, no la especulación ociosa. Sin embargo, la especulación educada y contemplativa es ciertamente bienvenida si no hay respuesta.

arriba:capturadepantallade PDF de 2 páginas .

    
pregunta uhoh

2 respuestas

2

Este documento, Medición 3D robusta con PMD Sensors , describe en detalle la tecnología Infineon \ PMD. Los sensores y cómo funcionan.

La Figura 3 muestra los 'píxeles de fase' individuales (los llaman píxeles inteligentes que miden la fase con dos fotogramas). .Amedidaqueseactivanydesactivanlosfotogramas,estosrecogenlaluzylaintegran.Hayunmejor diagrama de wikipedia que también muestra el diagrama del circuito y la simplicidad de los píxeles del sensor, su Solo un cubo de diodos y algunos cubos de carga.

Seríadifícilentendercómolossensorespodríandetectarconprecisión,yaqueelmuestreodelafasedirectamenteseríaundesafío.Yaquíseencuentrala'salsasecreta',loquenopuedemuestreardirectamente(lainformaciónTOF)queestimaconmétodosestadísticos.Eldocumentoexplicaendetalleestoytambiénlaecuaciónqueutilizanparalaestimación:

$$d=\frac{c*\varphi}{4\pif_{mod}}$$

donde

$$\varphi=\arctan\frac{A_1-A_3}{A_2-A_4}$$

Hayotrabuena aquí sobre una cámara diferente que funciona con la misma tecnología .

Ahora, para la especulación, no creo que estén haciendo mucho más allá del muestreo de 4 fases en sus sensores. Pueden estar comparando la información de profundidad y fase entre píxeles (más que solo un filtro de suavizado 2D) que le brindaría un poco más de resolución.

    
respondido por el laptop2d
3

Utiliza un dispositivo mezclador fotónico.

El generador de imágenes REAL3 utiliza un sensor de pmd technologies (vea la parte inferior de esa página). Las tecnologías de PMD llevan el nombre de su uso de la tecnología del dispositivo mezclador fotónico.

Como especulaste, usa luz pulsada. Específicamente, modula el haz saliente con una portadora de RF y luego mide el cambio de fase de La señal de retorno. Se captura con un sensor CMOS .

Si desea profundizar en cómo se captura la fase desde un píxel CMOS, las tecnologías PDM solo establecen que el CMOS está "acoplado" con un DSP. Pero hay artículos académicos que explican el proceso, como este (para ser justos, esto es de canesta, un competidor de PMD). Una de las primeras preguntas que me vinieron a la mente es cómo capturarían los datos de tiempo, un CMOS típico está acoplado con un registro de desplazamiento, y el sondeo de los píxeles mediante la lectura de las filas probablemente no sería lo suficientemente rápido para capturar una frecuencia de RF. Incluso a la frecuencia de RF más baja de 300 kHz, el sondeo requiere que acceda a cada píxel en el rango de GHz para obtener datos de comparación de fase significativos.

Resulta que modula las compuertas de los sensores de píxeles sincronizados con la luz, luego lee la diferencia de voltaje entre los dos nodos.

Para citar el papel vinculado a arriba "La estructura diferencial se acumula fotogenerada. Se carga en dos nodos de recogida utilizando dos Puertas moduladas. Las señales de modulación de puerta son sincronizado con la fuente de luz, y por lo tanto Dependiendo de la fase de luz entrante, un nodo Recoge más cargas que las otras. Al final de integración, la diferencia de tensión entre los dos Los nodos se leen como una medida de la fase de la Luz reflejada. Así, en efecto, este píxel. Realiza simultáneamente la función de mezcla y filtrado de paso bajo ".

Finalmente, aquí está la patente relevante .

    
respondido por el Paul S

Lea otras preguntas en las etiquetas