¿Código de detección de errores y código de caracteres ASCII?

0

Como el código de caracteres ASCII usa siete bits para codificar 128 caracteres y la mayoría de las computadoras manipulan una cantidad de octavos como un byte y los caracteres ASCII se almacenan uno por ocho bits, y un bit adicional (el bit más significativo) se toma cero para ASCII Los caracteres y otros 128 bytes con el bit más significativo 1 se utilizan para otros tipos de caracteres, por ejemplo, cursiva etc.

Pero cuando se crea paridad par, digamos, por ejemplo, para T (ASCII 1010100 )  para la detección de errores al transmitirlo, se convierte en T (paridad par 11010100 ) con 1 como bit más significativo, pero este código es para otro carácter (de los que tienen 1 como MSB).

¿No se sobrescribirá?
¿Cómo sucede esto?
¿O qué me falta en mi concepto?

    
pregunta Sohail Ahmed

1 respuesta

1

Los dispositivos de comunicaciones (puertos COM) agregan, verifican y eliminan los bits de paridad a nivel de hardware.

Si está interactuando con un dispositivo de hardware que espera caracteres de 7 bits, a menudo la interfaz será de 8 bits y el bit de paridad estará disponible en la lectura, pero se debe ignorar. El uso de interfaces a este nivel solo permitirá la transmisión de caracteres de 7 bits, y ASCII es un código de 7 bits.

Si necesita transmitir códigos de caracteres más grandes, por ejemplo, Unicode (que puede ser de hasta 32 bits), hay muchos esquemas de codificación como UTF-8 que especifican cómo los números más grandes se dividen en valores más pequeños que luego pueden ser transmitidos por el hardware.

Un esquema de ejemplo para transmitir códigos de 8 bits a través de una interfaz de 7 bits, divide los caracteres de 8 bits en múltiples caracteres de 7 bits para su transmisión a través del hardware. p.ej. los valores 1-127 se pueden transmitir tal como están, 128-255 se pueden transmitir como 0 seguidos de 0 a 127, y 0 se transmiten como tres 0's

    
respondido por el Icy

Lea otras preguntas en las etiquetas