La palabra típica es "sin contenido". Las estimaciones estadísticas reales requieren al menos un rango y una confianza. Mejor aún, una función de densidad.
Por ejemplo, la cantidad X cae entre 3.7 y 4.3, con un 95% de confianza significa algo, mientras que la cantidad X es típicamente 4.0 es absurda. Qué significa eso? ¿Cuál es la probabilidad de que X se encuentre entre, digamos, 3.999 y 4.001?
Si hay algo de seriedad en tal afirmación "típica", la interpretación debería ser así. Dado que el 4.0 se presenta como dos cifras significativas, significa que hay un nivel de confianza alto (como 95%: dos desviaciones estándar, o 99.7%: tres desviaciones estándar) de que no caerá por debajo de 3.95, lo que causaría que se redondeara. hasta 3.9, ni subir a 4.05 o más, lo que hará que se redondee a 4.1.
Es decir, si, digamos, el 95% o más del tiempo que una medida de parámetro, cuando se redondea a dos cifras significativas, no muestra 3.9 o menos, ni 4.1 o más, entonces tenemos justificación para afirmar que es "típicamente 4.0" (pero no necesariamente que es "típicamente 4.00").
No conozco ninguna fuente de seguridad de que las hojas de datos apliquen este tipo de estándar a "normalmente".