Cómo investigar la teoría del hardware en sistemas de visión [cerrado]

1

Estoy intentando leer sobre la teoría (para hardware) de cómo funciona el hardware en un sistema de visión / cámara desde el sensor de la cámara hasta los píxeles en la pantalla.

No sé qué empezar a buscar en Google para comprender cómo se relaciona el dominio del tiempo con el dominio espacial y el hardware intermedio (como en los teléfonos celulares). ¿Qué debo buscar?

PD: disculpa por adelantado por la vaga pregunta, pero en busca de una dirección.

    
pregunta user1406716

2 respuestas

2

Esa es una pregunta muy amplia, pero para comenzar, aquí hay algunos temas.

Para las cámaras, querrás mirar

  • corrección de no uniformidad
  • eliminación de píxeles muertos
  • control de exposición automático
  • mejora de contraste
  • corrección de gamma
  • formato y transmisión de la señal

Para pantallas, querrás

  • recepción y decodificación de señales
  • ajuste de la velocidad de fotogramas
  • Ajuste de
  • geometría (tamaño del marco)
  • controladores de panel

La visión artificial es un tema muy diferente al obtener una imagen en una pantalla; Implica encontrar bordes en los datos de imagen e inferir la existencia de formas y objetos en la escena para que el software pueda tomar decisiones sobre lo que "ve". Un buen lugar para comenzar es OpenCV.org

    
respondido por el Dave Tweed
2

La retina humana proporciona detección de gradiente de convolución localizada (sombrero mexicano); La visión artificial utiliza los mismos métodos. Una vez que se detectan los gradientes locales, la retina utiliza su paralelismo (100 millones de píxeles) para examinar las "texturas" locales, medianas y grandes; Las molestias por la "textura" se vuelven muy interesantes para los humanos. La forma de la textura y la forma de la oclusión monocular permiten a los humanos obtener un modelo 3_D del mundo.

La visión artificial todavía no tiene este procesamiento de 100 millones de píxeles en paralelo.

Con respecto al proceso de sensor a píxel en pantalla, el sensor utiliza una cuadrícula de diodos, estos diodos tienen suficiente profundidad de unión para, con cierta probabilidad, absorber los fotones y recolectar un electrón o dos o miles. DarkCurrent establece el piso de detección. Periódicamente, estos diodos son expulsados de sus electrones a medida que los electrones se convierten en voltajes y esos voltajes se convierten en números cuantificados, enviados a diferentes motores de cómputo. O tu pantalla.

    
respondido por el analogsystemsrf

Lea otras preguntas en las etiquetas