Esta pregunta sería fácil para cualquier persona que tenga experiencia técnica con los cronómetros.
Voy a hacer algunas medidas. y necesito un cronómetro de 1 ms de precisión.
Encontré uno que podría hacer el trabajo con las siguientes características: Precisión (tiempo): ± 30 segundos por mes (cronómetro): 99.9988% Basado en el documento cronómetro y calibraciones del temporizador 2009 (Inst. Nacionales de estándares y tecnología) enlace , utilicé Su fórmula para intentar averiguar la precisión en milisegundos.
x1 / día * x2 Donde x1 es la resolución original en segundos y x2 es el nuevo intervalo para calcular en segundos. En el detalle del cronómetro que quiero comprar: x1 / mes * 1 / (2592000 / x1) mes 30/86400 = 0,000347222222 seg.
Este es mi problema: El documento sugiere tener cuidado al usar la fórmula por menos períodos de tiempo de lo que muestran las especificaciones técnicas. así que en este caso utilicé intervalos de 30 segundos en lugar de 1 mes. (Mis mediciones se realizarán en intervalos de 30 segundos).
Ahora 0,000347 obviamente no es la resolución.
Pero, ¿cómo puedo saber que el cronómetro tiene una resolución de 1 ms o más?
Parece que estoy en stock y no puedo encontrar una manera de resolver este problema.
ACTUALIZACIÓN: me gustaría mantener el enfoque de la pregunta sobre cómo saber la precisión real del dispositivo, el uso de la fórmula proporcionada por el documento mencionado anteriormente y sus limitaciones. gracias