Tengo una pregunta simple (creo) pero no he podido encontrar la respuesta.
Tengo 4 * 5 m de longitud de iluminación LED RGBW, que tiene una potencia nominal de 24 V, 14,4 W / m. Este es el consumo de energía máximo, suponiendo que los LED rojo, verde, azul y blanco estén encendidos.
He mirado la tabla actual / AWG, y 22AWG, asumiendo de manera bastante pesimista un cable de 20 puntos (no sé cuál es el número de núcleos del cable que podría comprar, por lo que me estoy equivocando) aquí) está clasificado para 2.1A. Hago eso ~ 50W a través de un cable; dado que el consumo más alto para cada tira de LED sería 72W, esto es alrededor de ~ 18W por canal, lo que está muy por debajo de la cifra de 50W. Lo que no sé es qué pasa con el cable común (negro)? ¿Será necesario para admitir el total de 72 W, ya que se comparte entre R, G, B y W?
Además, ¿la caída de voltaje sería un problema en un tramo de 8m de este cable?
Espero que esto tenga sentido, básicamente, si es seguro y no causa problemas, preferiría usar el cable 22AWG. Sin embargo, ¿esto estaría pidiendo problemas, y estaría mejor con 18AWG? (Quiero evitar el 18AWG si puedo, ya que es mucho menos disponible y mucho más costoso).
Gracias de antemano. Espero que sea suficiente información para ayudar!
--- EDIT --- ---
El controlador LED es: enlace
Admite 4A por canal a 24V para un suministro total de hasta 384W. Tengo la intención de ejecutar cuatro conexiones en paralelo desde el controlador a las cuatro tiras (un tramo de cable por tira de LED). Estoy usando una fuente de alimentación de 24V, 400W diseñada para iluminación LED.
La tira LED es esta: enlace
Tengo 4 * 5m carreras.
La fuente de alimentación se conecta al controlador, y luego el LED se desvía a la salida del controlador.