Bueno, intentaré responder a tus preguntas ...
-
La mejor manera de medir el tiempo entre bordes depende en gran medida de la precisión y el tiempo transcurrido en general que necesite. Por ejemplo, si los bordes pueden estar separados por 2 a 4 horas con una precisión de 10 segundos, entonces puede usar casi cualquier microcontrolador simple. Si los bordes están separados por milisegundos, entonces funcionaría un microcontrolador más avanzado, tal vez algo como el PIC con algún tipo de módulo de captura. Si está hablando < 1 ms, entonces quizás funcione un micro seleccionado cuidadosamente, o un FPGA. < 100 ns y estás hablando de FPGA o algunos circuitos muy dedicados.
-
Muy relacionado con el # 3, a continuación. Normalmente, pero no siempre, el delta más rápido será lo que sea necesario para que supere su precisión básica. Típicamente 1 período de reloj. Nota: algunos métodos de medición tendrán un "delta mínimo" más grande que otros.
-
Por lo general (pero no siempre) su lógica se ejecutará de algún tipo de reloj. La frecuencia de ese reloj determinará la precisión delta. Con un microcontrolador típico estaría en el rango de 1 a 50 MHz. Con un FPGA podría subir hasta 2,5 GHz si hiciera algo sofisticado con los SERDES incorporados. Sin pensarlo demasiado, su precisión será de aproximadamente +/- 1 períodos de reloj. Pero esto podría cambiar dependiendo de exactamente cómo se realiza la medición.
Sin embargo, hay muchas otras cosas a considerar. Lo que escribí anteriormente supone que usted tiene una señal digital simple sin ruido ni nada más. Pero si está conectado a algún tipo de sistema de sensores (Radar, Sonar, Lidar, etc.), entonces los sensores que está utilizando podrían impactar en gran medida el mínimo de precisión, precisión y método de medición.