Leí en todas partes en Internet que los niveles de voltaje en los componentes de color de un cable VGA deberían ir de 0 V (canal oscuro) a 0,7 V (brillo máximo para ese canal). Sin embargo, traté de medir el voltaje que sale de las dos tarjetas de video que tengo y obtuve niveles entre 1.4 y 1.6 V. Al mismo tiempo, mido la impedancia de salida esperada (75 Ohm), porque la tensión cae del factor correcto cuando poniendo una resistencia en paralelo.
¿Cuál podría ser la causa de esta discrepancia? ¿Hay algún error fácil que pueda estar cometiendo o debo esperar que una tarjeta VGA emita voltajes más altos que los 0.7 V estándar?
Estoy bastante seguro de que el osciloscopio está calibrado correctamente porque está de acuerdo con al menos los dos probadores que tengo.