Disculpe si esto es una pregunta n00b demasiado, estoy luchando por comprender los términos básicos de EE para mi proyecto.
En mi aplicación, ejecuto 20 vatios en un solo cable AWG-24 a 5 voltios. Esto funciona bien si el cable es de < 10 pies de largo; más de 10 pies y mi aplicación falla; Los LEDs dejan de mostrar el color adecuado. Según los que me han precedido, esto se debe a una "caída de voltaje".
Me gustaría entender por qué algo como Power over Ethernet (PoE) puede enviar 20 vatios a cientos de pies pero mi aplicación no puede usar un solo cable AWG-24. Mi intención es rodar mi propia solución aprovechando el conocimiento incorporado en PoE.
Supongamos que un sistema PoE utiliza un cable Cat5e. Al abrir este cable Cat5e, se revela que está formado por 4 pares (¿núcleos?) De cables AWG-24. ¡El mismo AWG-24 que usa mi aplicación! Entiendo que el truco de PoE para enviar 20 vatios de tal distancia es que aumenta de 5 a 48 voltios. Se rumorea que aumentar la tensión significa que puede enviar energía a distancias más largas.
Espera aunque. He escuchado que hay algo que se llama la ley de Ohm [1] que dice que si aumentas el voltaje, debes disminuir la corriente [2] o la resistencia.
Dado que los cables AWG-24 universalmente tienen la misma resistencia, ¡la corriente debe bajar en PoE! Sin embargo, PoE todavía puede entregar 20 vatios a cientos de pies de distancia, por lo que debe estar ocurriendo algún tipo de "combinación" de trucos.
¿Qué es este engaño? ¿Hay algún tipo de caja negra que toma como entrada el cable N (48 voltios, corriente M) y emite un cable (5 voltios, corriente NM)?
Gracias, amabilidad, comunidad de expertos, por cualquier ayuda que pueda ofrecerme en mi esfuerzo.
-
¿Es la ley de Ohm lo que me molestó antes? Voltaje caído porque la resistencia aumenta a medida que aumenta la distancia?
-
Mi comprensión es que los vatios que ansío desesperadamente están compuestos de voltios y amperios, y un amplificador es una forma de medir la corriente. ¡Tantas etiquetas maravillosas!