Si he seguido la idea hasta ahora Cómo detectar una bala en el aire usando sensores de proximidad , usted quiere detectar un objeto, aproximadamente 2 cm de diámetro, viajando a 10 m / s.
La resolución de la cámara a la que se vinculó cae a 640 (H) x 480 (V) a 120 fps. También está en formato MJPEG, por lo que es posible que deba verificar que todo se sume (es decir, que haya suficiente capacidad de procesamiento) para manejar esto en su placa de procesamiento.
Como explicó @Brian Drummond, para un ángulo de visión de 90 grados, hasta un punto a 1 m de distancia, dibujando los dos triángulos de 45 grados (con 1 m de longitud opuesta y adyacente), podemos calcular que el ancho de la vista es de 2 m.
Por lo tanto, a 640x480, un píxel es de 2000 mm / 640 píxeles; aproximadamente 3 mm / píxel, o 6,4 píxeles para 20 mm (2 cm) de diámetro. Me imagino que es fácil de detectar contra un fondo liso, todavía.
Sin embargo, contra un fondo con movimiento o luz en movimiento (por ejemplo, el destello de la iluminación interior, que es imperceptible para el ojo humano, pero puede ser muy importante para esa cámara) puede ser mucho más difícil.
Además, si el proyectil se está moviendo directamente hacia la cámara, se moverá alrededor de \ $ 10m ^ {- s} / 120f ^ {- s} = 0.08m \ $ más cerca.
Por lo tanto, su tamaño cambiará alrededor del 8% (0.08 m más cerca de la distancia inicial de 1 m), o cambiará de 6.4 píxeles a aproximadamente 6.9 píxeles.
Ese tipo de cambio puede verse afectado por el cambio en la intensidad de la luz interior. Por lo tanto, es posible que reconozca que hay algo allí, pero que se necesiten varios marcos para determinar si se acerca o desaparece.
En mi humilde opinión, sería mucho más fácil detectar un proyectil que pasa a través de la cámara. El caso más extremo sería que el plano de la cámara y el proyectil sean paralelos, y el proyectil estará en diferentes partes de la imagen en cada fotograma. De esto se podría derivar velocidad y dirección.
Intente diseñar un sistema en el que la información clave sea fácil de recuperar de los datos del sensor.
Por lo tanto, me sentiría tentado a usar más de una cámara para obtener un área de visualización razonable y alejarlas del objetivo para que el proyectil se desplace por el plano de imagen de cada cámara, en lugar de hacerlo directamente en el plano de imagen . Mi objetivo sería hacer que el procesamiento de imágenes sea tan simple como una imagen binaria 'dif' entre fotogramas sucesivos. Ese 'diff' proporcionaría mucha más información que una vista directamente en un proyectil.
Editar:
¿Estás en la universidad o la escuela? Si es así, puede valer la pena verificar si tienen una Raspberry-Pi o Raspberry-Pi 2 con una cámara (muchas escuelas y universidades del Reino Unido compraron ese tipo de equipo). Eso podría ser suficiente para hacer algunos experimentos iniciales y obtener datos reales con bastante rapidez. Además, puede que no cueste dinero, y hay muchos entusiastas de R-Pi que pueden ayudar cuando las cosas no salen según lo planeado. Entonces, es posible que pronto tengas una manera mucho más 'basada en la evidencia' para progresar.