¿Cómo se calibra un osciloscopio digital moderno?

0

Los osciloscopios de tipo CRT antiguos no eran más que dispositivos analógicos. Estaban llenos de potenciómetros. Todos estos circuitos se desviarían con el tiempo. Cuando se calibraron, las formas de onda conocidas se alimentaron al alcance, la forma de onda mostrada se comparó con la conocida y, si las diferencias estaban dentro de un margen determinado, los potes se ajustarían para devolverlos a la especificación original. Este procedimiento depende de que el alcance tenga una deriva predecible. Si la diferencia entre la forma de onda conocida y la forma de onda mostrada fue significativamente mayor que la desviación esperada, hubo un error en el alcance y debe repararse.

Los nuevos osciloscopios digitales no tienen potenciómetros como los antiguos telescopios CRT. El proceso de verificación, supongo, es exactamente el mismo. Alimente el alcance de las formas de onda conocidas y compárelas con las formas de onda mostradas.

Sin potencímetros, ¿cómo se ajusta el alcance para la deriva en el tiempo?

¿Se recortó el alcance en software o si el alcance está fuera de tolerancia (pero aún dentro de la deriva exceptuada) necesita reparación?

    
pregunta vini_i

1 respuesta

5

El proceso de verificación, supongo, es exactamente el mismo

Es una suposición errónea, que una persona se siente y calibre un alcance como este es demasiado costoso. ¡Se puede automatizar! Apuesto a que los fabricantes tienen un banco automatizado para esto, solo conectan las señales a la entrada y controlan el alcance usando una PC. Aliméntelo a +1.000 V CC, mida el "número sin formato" que mide el ADC del alcance. Luego aliméntalo -1.000 VDC, mídelo nuevamente. Luego programe el alcance de manera que +1,000 V dé + 1,000 V en la pantalla. Después del ADC son solo números para que la calibración se pueda realizar en el software.

Lo mismo se hace en un multímetro digital moderno. Todas las ollas se han ido, la calibración se realiza en el software y se almacena en una ROM flash.

La calibración de tiempo tampoco es necesaria en los ámbitos digitales, ya que utilizan un cristal de cuarzo que siempre estará muy adelantado en cuanto a la precisión en comparación con los analógicos que utilizan un circuito generador de diente de sierra RC (para la desviación horizontal).

En un alcance analógico basado en CRT, el punto donde el haz de electrones llega a la pantalla debe calibrarse (posición X, Y). En el ámbito digital, hay una pantalla LCD, cada píxel puede ser dirigido individualmente por el procesador de la aplicación. No hay necesidad de calibrar.

    
respondido por el Bimpelrekkie

Lea otras preguntas en las etiquetas