Estaba tratando de entender el significado de varias especificaciones en una hoja de datos típica de ADC, y encontré este artículo. Ahora, si entiendo correctamente, me parece que la precisión del ADC en bits se puede tomar como \ $ n - \ log_2 {{e}} \ $ bits, donde \ $ n \ $ es el número de bits de salida del dispositivo (¿su resolución?) y \ $ e \ $ es el error INL ( integral no linealidad ) en términos de LSB.
Mis preguntas son:
- ¿Mi entendimiento es correcto? Si no, ¿cuál es la explicación correcta?
- Si un ADC de 16 bits tiene un INL de \ $ \ pm 4 \ $ LSB, ¿podemos decir que la precisión del ADC es de 14 bits, y tendremos que ignorar los 2 bits más bajos para los propósitos más prácticos?
- Aquí es un ADC de 16 bits con un INL típico de \ $ \ pm 0.4 \ $ LSB. ¿Esto significa que el dispositivo tiene una precisión típica de más que de 17 bits? ¿Cómo es esto posible? ¿O significa que el dispositivo generalmente tiene una precisión de más de 17 bits, pero como tiene solo 16 bits de salida, tiene que truncar los datos a una resolución más baja?