Después de ver a algunos estudiantes ayer que intentaron usar un divisor de voltaje en lugar de un regulador para proporcionar un sensor con una fuente de alimentación más baja, con resultados predecibles, comencé a preguntarme sobre esta pregunta.
Al seleccionar un regulador, parece que muchos observan la caída de voltaje requerida y la disipación de potencia requerida. Dejando de lado la eficiencia por el momento, si un regulador lineal puede reducir esa potencia dentro de los límites térmicos, los reguladores lineales son una opción y, si no pueden, pasar a los reguladores de conmutación.
Si se pudiera calcular el rango de consumo de corriente y calcular un divisor de voltaje que mantendría simultáneamente la entrada a un regulador lineal lo suficientemente alto para mantener la regulación y lo suficientemente bajo para que el regulador no consuma demasiada energía A lo largo del rango de empate actual, ¿es este un enfoque viable?
Puedo pensar en una serie de razones por las que este podría no ser el mejor enfoque: la relación de rechazo de la fuente de alimentación puede no ser lo suficientemente buena en el regulador; el rango de tomas de corriente que hace que este enfoque sea factible puede ser muy pequeño, a menos que use resistencias pequeñas que probablemente excedan sus propios niveles de potencia; Es simplemente más eficiente usar un regulador de conmutación; etc.
Además, podría ser que la gente haga esto todo el tiempo, y simplemente no lo he notado, o tal vez se use un zener en lugar del divisor. Parece que cuando la caída de potencia es demasiado grande, la mayoría de las personas se dirigen a los reguladores de conmutación.
¿Me falta algo?