Supongamos que tengo un multímetro de 20,000 conteos y estoy midiendo una resistencia de 220k con él.
El multímetro solo puede mostrar una resistencia por debajo de 200k como 200.00k
, supuestamente debido a los conteos. Para resistencias más altas, tiene que cambiar el rango y comienza a mostrar el resultado como 0.2200M
. Pero esto no tiene sentido para mí: el cambio de rango no requiere que la pantalla cambie de una manera tan importante como esta.
Por supuesto, al cambiar de rango, el medidor pierde un dígito de precisión, y conjurarlo sería incorrecto. Pero, ¿por qué no simplemente ocultar ese dígito no existente y mostrar 220.0 k
(ver cómo falta el último dígito) en lugar del 0.2200M
menos legible, ambos tienen la misma precisión?
¿Por qué los multímetros no hacen esta cosa aparentemente muy sana, ni siquiera las muy caras? ¿Me estoy perdiendo algo importante?