¿Por qué los multímetros son mucho más sensibles que los osciloscopios?

0

Tengo un circuito donde tengo que medir decenas de uA de corrientes.

Cuando lo mide con un multímetro 50Eur, el multímetro muestra las corrientes con una precisión aceptable y hasta el momento no se observó una influencia significativa en la resistencia del multímetro.

Cuando trato de lograr lo mismo con un osciloscopio de 12 bits, tengo que usar derivaciones de 500 ohmios para obtener un voltaje medible. Esta resistencia tiene mucha influencia en toda la medición.

¿Cómo es que un dispositivo 6 veces más barato (el multímetro) es mucho mejor para medir valores bajos que el osciloscopio?

    

2 respuestas

4
  • si ambos son de 12 bits, el DMM tiene una lectura a escala completa mucho menor, por ejemplo, 200 mV,
  • mientras que DSO podría ser 100mV / div.
  • 10uA no es un parámetro adecuado para los DSO.
  • Si quisieras 100mV en DSO, entonces Rs sería 100mV / 10uA = 10k no 0.5k Ohm

Por lo tanto, el problema puede ser su método de prueba, no los instrumentos.

    
respondido por el Tony EE rocketscientist
0

A medida que aumenta la sensibilidad (cajas por voltio) de un osciloscopio, la banda de error descrita por el espesor mínimo constante de la traza mejor enfocada del osciloscopio aumenta, con respecto a la señal.

Los multímetros digitales generalmente tienen un nivel de ruido inferior al de los osciloscopios, no tienen una banda de indecisión tan ancha como la traza de un osciloscopio y, en consecuencia, pueden exhibir una mayor precisión para las mediciones estáticas.

    
respondido por el EM Fields

Lea otras preguntas en las etiquetas