Soy estudiante de 12º grado por si acaso. De todos modos, entiendo cómo un galvanómetro se convierte en un amperímetro, pero su lógica no parece sumar. Esto es lo que sé hasta ahora. El galvanómetro es demasiado sensible, por lo tanto, se modifica para ser usado para medir la corriente en lugar de solo detectarla. La corriente para la desviación a escala completa a través de ella es, digamos, Ig. Su resistencia, Rg. Ahora, se agrega una resistencia en paralelo en paralelo. La corriente máxima que puede medir el amperímetro producido es, digamos I y la resistencia en derivación es Rs. Ahora Rs tiene un valor tal que Ig pasa a través del galvanómetro y la corriente restante (I-Ig) pasa a través de la resistencia de derivación. Entiendo por qué la resistencia de la derivación tiene que ser de un valor más pequeño y la resistencia del voltímetro tiene que ser de un valor realmente mayor, pero no logro comprender cómo podemos medir la corriente con éxito cuando la desviación de la aguja siempre será máximo debido al paso de la corriente de Ig (que es la corriente que causa la desviación máxima). Ig siempre está pasando por el galvanómetro, ¿cómo funciona realmente el amperímetro y nos da corriente en amperios?