¿Cuál es la diferencia entre un sensor de imagen térmica y un CCD de infrarrojos?

5

Siempre tuve la impresión de que la radiación térmica es esencialmente energía infrarroja, así que ¿cuál es la diferencia entre una cámara de imagen térmica completa (por ejemplo, una FLIR) y un chip CCD de infrarrojos estándar? ¿Seguramente este último debería funcionar como el primero? Sin embargo, la diferencia de precio es astronómica.

    
pregunta Polynomial

1 respuesta

8

Los CCD están hechos de Si, que tiene un intervalo de banda de 1.12 eV. Esto significa que puede detectar una cantidad limitada de radiación térmica en aproximadamente 1 um de longitud de onda o más corta. Esto se llama Near IR o NIR. Mientras tanto, los sensores térmicos detectan la radiación emitida térmicamente ~ 10 - 14 um de longitud de onda (esta es la radiación emitida por un cuerpo caliente en ~ 300 kelvin). Los fotones asociados con una escena IR térmica son 10 veces más largos y, por lo tanto, 1/10 de la energía de un fotón NIR (1 um frente a 10 um). Para un detector de banda prohibida directa, como el MCT (mercurio telururo de cadmio), estos deben ser enfriados criogénicamente (77 Kelvin) o el detector se inundará con su propio calor. Hay sensores basados en bolómetros que son menos sensibles. Pero un FLIR es específicamente un detector MCT. El MCT como material de detección es muy costoso con bajos rendimientos.

    
respondido por el placeholder

Lea otras preguntas en las etiquetas