¿Es técnicamente factible diseñar un microchip que no genere caracteres extraños? [cerrado]

-4

Solía trabajar como desarrollador web e hice la misma parte del proyecto durante varias décadas: asegurarme de que nuestros caracteres escandinavos åäöÅÄÖ ... funcionen. Era factible y funcionó, básicamente configurando todo en utf-8.

Ahora me pregunto si es factible o si ya se ha hecho para asegurarse en el hardware, tal vez diseñar un microchip, que nunca pueda ser peor que hacer que åäöÅÄÖ funcione. ¿Qué medidas tendría que tomar si fuera factible? Si no se puede hacer, ¿por qué no es posible? ¿Tendría que omitir la compatibilidad ASCII? ¿Puedo diseñar un chip de este tipo con mi entorno de desarrollo Altera Quartus II + algún FPGA que ejecute un sistema operativo primitivo?

    

1 respuesta

5

NO, no puedes 'asegurarte de esto' en hardware.

La forma en que se manejan dichos caracteres (¡cómo se manejan los personajes en absoluto!) está determinada por el software.

Por supuesto, puede haber un problema en el hardware que evita que el software muestre sus caracteres escandinavos, por ejemplo, porque solo puede mostrar los caracteres que están presentes en una ROM de caracteres. Pero cuando resuelve dichos problemas, aún depende del software hacer un uso correcto de las instalaciones de hardware.

opinión estrictamente personal:

Tal vez sea un poco simple, pero ¿no podría al menos el mundo basado en el alfabeto simplemente cambiar a ASCII? Sé que, siendo holandés, no tengo que renunciar a mucho (el ij como una sola letra parece estar casi olvidado, y en mi opinión, para siempre, y siempre encontré confusas las letras acentuadas, por lo que también me parece bien). Los alemanes parecen estar bien al reemplazar una diéresis con una e adicional, y el ringel-S con ss.

    
respondido por el Wouter van Ooijen

Lea otras preguntas en las etiquetas