DC-DC reduce la fuente de 12V a 5V en comparación con la fuente de 5V directa

2

Aquí está el escenario: tengo un proyecto que necesita 3 poderes de suministro:

  • 3.3V para ejecutar el microcontrolador (máx. 100mA)
  • 5V para ejecutar un grupo de LED direccionables (máx. 8A, el uso intensivo más actual)
  • 12V para suministrar amplificadores operacionales (máx. 15mA x 6 = 90mA para todos los suministros de opamps)

La pregunta es: si quiero usar solo un bloque de adaptador de alimentación para alimentar esto, ¿es más lógico usar una fuente de alimentación de 12 V y bajar a 5 V y 3,3 V? ¿O es mejor usar una fuente de alimentación de 5 V ya que la mayor parte de la corriente se usa en este voltaje y simplemente aumenta hasta 12 V para mis necesidades de operación?

Nota: Todos los indicadores ópticos tienen nivel de señal, el 12V debe tener un espacio máximo para preprocesar mis señales analógicas.

    
pregunta Kévin Isabelle

1 respuesta

1

Suponiendo una eficiencia generosa del 90 por ciento, eso es todavía 45 vatios para 40 vatios de salida, por lo que un suministro de 12 V solo para reducirlo a 5 V no sería eficiente en comparación con aumentar el 80 por ciento de eficiencia para 1.5 W en 1.2 W  5 vatios frente a 0,3W penalización de eficiencia. Incluso si aumenta la potencia para decir 14 V y usa un LDO para una señal más limpia para sus amplificadores OP, su pérdida de potencia es 10 veces peor con un suministro de 12 V.

El costo es insignificante para suministros de 12V 5A o 5V 8 a 10A, pero un convertidor reductor de 45 vatios costará más que un convertidor elevador de 1 vatio.

En mi opinión, tiene más sentido ir con su necesidad de voltaje natural.

    
respondido por el Passerby

Lea otras preguntas en las etiquetas