Estoy usando una cámara TSL1401R-LF Linescan que lee en una matriz de píxeles de 1 X 128. Aquí está la hoja de datos. Cuando utilicé un retardo de 170 microsegundos, la precisión fue bastante alta y los valores de salida de la cámara fueron notablemente más bajos cuando un objeto pasó a través de su línea de visión. Cuando intento reducirlo a una demora de 20 microsegundos, todavía veré valores más bajos si cubriera la cámara por completo o un valor más alto si iluminara la cámara, pero el cambio es leve y no hay cambio si sostengo una Objeto a distancia. Cuanto menor sea el tiempo de retardo, peor será la precisión. Esto me confunde porque la hoja de datos indica que el tiempo de retardo mínimo puede ser tan bajo como 20 nanosegundos para el pulso SI y 50 nanosegundos para los pulsos CLK. Ya que estoy claramente por encima del mínimo, ¿por qué estoy perdiendo tanta precisión? Nunca he trabajado con una cámara o un escáner antes, así que no estoy seguro de que esto sea normal o si estoy haciendo algo mal.