¿Alguien de aquí sabe por qué la precisión de una cámara disminuiría cuando redujera el tiempo de retardo después de los pulsos?

0

Estoy usando una cámara TSL1401R-LF Linescan que lee en una matriz de píxeles de 1 X 128. Aquí está la hoja de datos. Cuando utilicé un retardo de 170 microsegundos, la precisión fue bastante alta y los valores de salida de la cámara fueron notablemente más bajos cuando un objeto pasó a través de su línea de visión. Cuando intento reducirlo a una demora de 20 microsegundos, todavía veré valores más bajos si cubriera la cámara por completo o un valor más alto si iluminara la cámara, pero el cambio es leve y no hay cambio si sostengo una Objeto a distancia. Cuanto menor sea el tiempo de retardo, peor será la precisión. Esto me confunde porque la hoja de datos indica que el tiempo de retardo mínimo puede ser tan bajo como 20 nanosegundos para el pulso SI y 50 nanosegundos para los pulsos CLK. Ya que estoy claramente por encima del mínimo, ¿por qué estoy perdiendo tanta precisión? Nunca he trabajado con una cámara o un escáner antes, así que no estoy seguro de que esto sea normal o si estoy haciendo algo mal.

    
pregunta Crystal Pritzker

1 respuesta

2

Básicamente, estás reduciendo el tiempo de exposición, lo que hará que la imagen sea más oscura.

Algunas cámaras pueden aumentar el voltaje en el sensor para compensar (lo que conducirá a un mayor ruido), pero ajustar el tiempo de exposición es la mejor manera de cambiar la sensibilidad de la cámara (normalmente, determinará el píxel más brillante, y ajuste el tiempo de exposición para mantenerlo dentro de un rango razonable (por ejemplo, 90% a 95%).

    
respondido por el Simon Richter

Lea otras preguntas en las etiquetas