Estoy empezando por PoE (Power over Ethernet) y me gustaría usarlo para alimentar un dispositivo remoto (Buffalo WHR-HP-G54 , manual here ) que requiere 5 voltios y 2 amperios de CC (10 vatios, supongo).
Si mi inyector PoE es capaz de enviar a través del cable Ethernet, digamos, 15 vatios de potencia, tal vez la atenuación de la señal (pérdida de potencia, o la forma correcta de nombrarlo, no sé mucho sobre electrónica) llega demasiado débil al destino y no es capaz de entregar los 10 vatios necesarios?
Por supuesto, creo que esto debe depender de la longitud y el tipo del cable Ethernet.
Esta pregunta se construye con ejemplos de datos para comprender los conceptos básicos de la pérdida de potencia para PoE.
Si es posible, me gustaría tener algún tipo de regla genérica para calcular dicha pérdida de energía (quizás dependiendo de la longitud del cable, el tipo, etc.).
Ejemplos de reglas de cálculo:
- Cada 10 metros de cable sin blindaje UTP pierde un 1% de energía del Watts max en el origen (14,85W después de 10 metros, 14,7W después de 20 metros, 14,55W después de 30 metros, etc.).
- Cada 100 metros de cable blindado FTP pierde una potencia del 5% (14,25W después de 100 metros, 13,5375W después de 200 metros, 12,860625W después de 300 metros, etc.).
Inyector PoE de ejemplo en el mundo real (para aquellos que simulan cálculos exactos):
- Revendedor: TP-Link
- Modelo: TL-POE150S
- Potencia Máx: 15.4 vatios
- Voltaje: 48 VDC