Estoy viendo un circuito (parte de un circuito más grande) que consiste en una resistencia de 10 ohmios y un LED rojo.
- Funciona con 2.05V (verificada con 2 multímetros diferentes, que van desde 2.047V a 2.05V).
- La caída de tensión del LED (de nuevo medido con 2 multímetros diferentes en el circuito en vivo) es 1.96V
- Los relojes de resistencia en exactamente 10,0 ohmios (nuevamente medido con 2 multímetros).
Ahora, de acuerdo con la ley de Ohms, la corriente que fluye a través del LED debería ser
I = V / R = (2.05V - 1.96V) / 10 = 9 mAmps
Sin embargo, al conectar mis multímetros obtengo las siguientes lecturas
- Multímetro A: 7.30mA
- Multímetro B: 6.10mA
Les tomó cerca de 30 segundos estabilizarse.
¿Por qué veo tanta diferencia?
El multímetro A es aproximadamente 4 veces más caro que el multímetro B, por lo que supongo que será más preciso. Sin embargo, ¿la diferencia entre los 7,3 mA medidos y los 9 mA calculados es demasiado grande como para ignorarlos? ¿O me estoy perdiendo algo?