Mi pregunta rodea un escenario simple.
Tengo una fuente de alimentación de 12V CC conectada a resistencias de 2.2kΩ / 10kΩ / 22kΩ en serie.
Para una asignación, he calculado teóricamente las caídas de voltaje en todas las resistencias, así como el consumo de corriente respectivo para cada resistencia. Soy consciente de que la corriente que ingresa a una resistencia debe ser la misma que la que sale.
He simulado el circuito en el Circuit Wizard (paquete de software asignado a Uni), y encontré que, después de cada resistencia, la corriente cae de forma fraccionada. Por ejemplo, la resistencia del circuito total se detalla como 350.97microA. Entonces: A través de 2.2kΩ - cae a 350.92MicroA A través de 10kΩ - cae a 350.88MicroA A través de 22kΩ - cae a 350.86MicroA
Obviamente, la diferencia entre mis valores calculados y los valores simulados es de solo un 0.02%. Sin embargo, no esperaría que la corriente cambiara.
Cuando aumente la tensión en la fuente de alimentación, a valores significativamente mayores (50 V +), las mediciones de corriente se mantienen como se esperaba.
¿Tengo razón al suponer que esto se debe a la impedancia que se ha calibrado en este amperímetro digital? Estoy sacando conclusiones y esto es lo único en lo que puedo pensar.