Si una computadora portátil obligada a arrastrar más corriente de la que puede proporcionar la fuente de alimentación a un voltaje determinado (es decir, 20 voltios), el voltaje disminuye, generalmente de manera casi antiproporcional si estoy en lo correcto.
Para una fuente de alimentación de 100W (20V 5A), es U [V] = (20 × 5) / I [A] a partir de 5 amperios:
- 5A 20V
- 6.25A 16V (voltaje caído a 16V)
- 8A 12V
- 10A 10V (puede no ser realista si los conductores del cable no son lo suficientemente fuertes. Tal vez sea solo 10V 8A o incluso 10V 5A si 5A es el límite de ampèrage del proveedor a pesar de la caída de voltaje).
- 20A 5V (de nuevo hipotético, solo por el concepto antiproporcional)
- 40A 0V (para ese momento, la protección contra cortocircuitos debería activarse, por lo tanto, 0V y comprobar si el cortocircuito ya se ha desvanecido al enviar impulsos de energía cortos cada pocos segundos).
Si se supera el límite de 5A a 20V, el voltaje disminuirá por uno de estos motivos:
- El voltaje cae naturalmente y la fuente de alimentación de la computadora portátil sigue suministrando 100W.
- La fuente de alimentación de la computadora portátil reduce el voltaje deliberadamente en lugar de naturalmente, para evitar exceder los 100W de potencia de salida.
¿Cuál es la razón correcta?
¿Cuál es el motivo de la caída del voltaje?