¿Cómo envían los 0 / binarios los cables Ethernet / USB?

0

Me preguntaba cómo su computadora envía un cero binario como señal eléctrica. ¿Hay un cierto retraso o hace algo único?

    
pregunta 34hjjekjr

2 respuestas

3

La lógica CMOS / TTL más básica utiliza un voltaje dentro de un rango mínimo / máximo especificado para representar un "lógico bajo" 0 o un "alto lógico" 1. Esto incluye las puertas lógicas discretas como 7400/7402/7432 que se usaron en la década de 1970 (y todavía se usan a veces en placas de prueba sin soldadura), así como en chips de integración más modernos. El rango de voltaje exacto se incluye en la hoja de datos del dispositivo. Tabla de características eléctricas:

- VOH = voltage output high; specified as a minimum limit
- VOL = voltage output low; specified as a maximum limit

Se garantiza que el dispositivo que impulsa la salida controla un bajo lógico 0 como un poco de voltaje entre GND y VOLmax ; y también para impulsar una lógica alta 1 como algo de voltaje entre VOHmin y VCC (línea de alimentación). La brecha entre VOLmax y VOHmin es una banda muerta donde la salida no está definida; esto es lo que proporciona el noise immunity de la señalización digital en comparación con las señales analógicas.

- VIH = voltage input high; specified as a minimum limit
- VIL = voltage input low; specified as a maximum limit

El dispositivo que recibe la entrada, interpretará una tensión entre GND y VILmax como una lógica baja 0, e interpretará una tensión entre VIHmin y VCC como una lógica alta 1. Cualquier entrada entre VILmax y VIHmin no es válido. Y cualquier entrada por debajo de GND o por encima de VCC puede violar las calificaciones máximas absolutas (es decir, dañar o degradar permanentemente el dispositivo).

Para CMOS, los umbrales VOH / VOL y VIH / VIL suelen ser un porcentaje de la fuente de alimentación, como 30% VCC / 70% VCC. Para TTL, los umbrales son absolutos con 2,4 V del voltaje VOLmin habitual.

El tiempo es una preocupación separada. Si la lógica solo implementa alguna ecuación booleana ("lógica de pegamento"), la señal de salida simplemente sigue la entrada después de un determinado propagation delay tiempo. Si la lógica implementa un state machine o una CPU, habrá una señal de reloj que determina la sincronización del sistema.

También mencionaste los protocolos de comunicaciones Ethernet y USB; Estos son mucho más complicados. Es mucho más difícil incluso encuadrar la pregunta en términos de enviar un solo bit binario, ya que se requiere mucha más información (como la dirección IP del host, el número de trama, etc.) Estos se basan en la idea básica que describí anteriormente , pero agregue muchas más capas que sean específicas para cada estándar.

Ethernet tiene varias capas de protocolos de comunicaciones; La capa datalink es diferente incluso para diferentes tipos de Ethernet: 10Mbit y 100Mbit no son solo diferentes velocidades sino diferentes protocolos de señalización. Esto se describe en IEEE standard 802.3

Los protocolos USB se describen en el USB Standard , así como en el sitio web USB Complete de Jan Axelson.

Si nunca antes has leído un documento de especificación de estándares, recomiendo comenzar con USB, es comparativamente un poco más simple que Ethernet.

    
respondido por el MarkU
2

La respuesta simple es que depende ...

En general, las computadoras transmiten información en bits, ya sea un 1 o un 0. Para indicar un 1, la mayoría de los dispositivos / controladores de transmisión aumentan el voltaje en un pin de línea / salida a un valor establecido. Ej. 3.3v y sumerge la tensión a grnd. por ejemplo, 0v cuando desean indicar un 0. El dispositivo receptor luego monitorea el voltaje de línea / pin de entrada y cuando cruza un voltaje de umbral (por ejemplo, de bajo a alto) registra el cambio como un 1. El umbral será de voltios o por lo tanto, debajo del máximo (en este caso, digamos 2.5v), y lo mismo sucede cuando el voltaje cae hacia 0. Cuando el receptor lo detecta a continuación, diga que 1v registra un 0. Esto cubre una simple señal de sí / no de encendido / apagado.

Para obtener más información, la temporización se utiliza para que ambos extremos sepan cuánto dura un "bit". Piense en el código Morse y el punto contra el tablero.

El diseñador de circuitos (chip dev) decide los umbrales y el protocolo (tiempo)

Cuando empiezas a mirar USB o Ethernet, funciona con el mismo principio pero sigue una especificación de protocolo reconocida. Esto gobierna los voltajes exactos, etc., que se utilizarán y permite la interoperabilidad entre dispositivos de diferentes fabricantes.

También incluyen información sobre comprobación de errores y tamaños de paquetes, etc., pero eso es otra lata de gusanos :)

    
respondido por el BenG

Lea otras preguntas en las etiquetas