Medir el voltaje de la red con un ADC de 3.3V

0

Estoy tratando de simplificar un circuito existente que mide la tensión de la red. Tengo una fuente de alimentación de 0-3.3V ADC y 5V y 3.3V DC (los lados negativos están inevitablemente unidos). La parte que estoy tratando de simplificar es la escala de voltaje y la compensación. El diseño actual utiliza un transformador, con un lado del secundario atado a 1,65 V (generado con un divisor de voltaje y un seguidor de voltaje).

Hasta ahora, lo que he encontrado es esto:

simular este circuito : esquema creado usando CircuitLab

Esto evita los transformadores grandes, pesados y costosos utilizados en el diseño actual. Al usar resistencias de 0.1% y 15ppm / degC, creo que esto debería brindarme una precisión y un rendimiento de temperatura razonablemente buenos. El amplificador operacional en el diagrama es genérico; En realidad estoy usando LM2902N. Esto requiere un espacio para la cabeza de 1.5V en el riel positivo, de ahí el uso del suministro de 5V.

Habrá nueve de estos uno al lado del otro, ya que en realidad estoy midiendo tres suministros trifásicos. Todos ellos tienen un neutro común.

Estoy feliz de que el circuito me dé la ganancia y la compensación que quiero. Mi pregunta es si hay algo que deba hacerse para reducir la interferencia entre Las nueve mediciones y todo lo que debería agregar para mejorar el rechazo del ruido.

También, ¿podría alguien confirmarme que la impedancia de entrada de este circuito es:

$$ Z = (R1 // R2) // (C1 + R3 // R3) $$

¿

y que debería seleccionar C2 para una frecuencia de reducción adecuada en esta base?

    
pregunta Tom

0 respuestas

Lea otras preguntas en las etiquetas