Tengo problemas para comprender cómo la siguiente especificación para un fotodiodo (con amplificador incorporado) racionaliza la tasa de error de bits: -
Enuncírculoenrojohaydosfigurasimportantes.UnoesNEP(potenciaderuidoequivalente)yelotroeslasensibilidadmínimaquesepuederecibir.Laformaenquecreoquefuncionaesasí,perocorríjamesimeequivoco:-
NEPestípicamente310nWylanota3dicequeestoesparaunamedicióndeunsoloextremoy,porlotanto,asumoqueparalassalidasdiferencialesdeldispositivo,lapotenciaseduplicaa620nW.Deestollegoalaconclusióndequelasalidadetensiónderuidoessqrt(50xpotencia)=5.6mVrms.
Acontinuaciónsemuestralasensibilidadmínimaderecepciónde-25.5dBm.Lajergaláserhabladeunarelacióndeextinciónde10dB,loquesignificaquelosniveleslógicostransferidosatravésdelaluzestánseparadospor10dB,porloquenaturalmenteasumoque-25.5dBmesparalalógica0(dimmer)y-15.5dBmesparalalógica1(másbrillante).Estos,entérminosdemW,sonsimplemente0.0028mWy0.028mW.
Ahora,siobservolasensibilidaddelafoto,estomedicecómoconvertirestosavoltajes.Lacifracitadaesdeunsoloextremoy,porlotanto,laspotenciasdeluzseconviertena4.2mVy42mVrespectivamente.Seduplicanporquelasalidaesdiferencialaunasalidapicoapicode76mVp-p.
Ahora,tengoruidorms(5,6mV)yamplituddeseñalp-p(76mV)
Aquíesdondetambiénpuedoestaryendomal.Puedoconvertirelruidoenunvalorp-pasumiendoqueesgaussianoy,porejemplo,siusé6.6sigma(99.9%"cobertura"), el voltaje rms se convierte en 37mVp-p. Esto es aproximadamente el 50% de la amplitud de la señal p-p y, por lo que sé, tendrá la amplitud suficiente para producir errores de bits.
Cualquier tamaño inferior al 50% de p-p y no es suficiente para dañar el bit. Usé 6.6sigma y esto significa que la señal de ruido está por debajo de 37mVp-p durante el 99.9% del tiempo. Para esas ocasiones es mayor que 37mVp-p, el 50% de esas veces la amplitud del símbolo puede aumentar y el 50% de esas ocasiones el símbolo será destruido. Por lo tanto, concluyo que la tasa de BER es 1 en cada 2000 bits.
Sin embargo, la especificación (en la imagen) dice BER = 10 ^ -10 y esto está totalmente en desacuerdo con mi cálculo.
Mis cálculos sugieren una tasa de error de bit de 1 en cada 2000 y la especificación sugiere 1 en cada mil millones.
¿A dónde me voy mal?