¿Por qué no se puede comprimir el video analógico como el video digital (ejemplo dentro)?

8

Estoy aprendiendo los conceptos básicos de las señales de TV analógicas y digitales y encontré this ( enlace original , ahora desaparecido) artículo breve (vea también la página siguiente).

¿Por qué no se pueden comprimir las señales de video analógico de manera similar a las señales digitales cuando se usa MPEG-2 (consulte el artículo anterior donde dan un ejemplo básico de lo que entiendo por MPEG-2)? ¿por qué los píxeles "repetidos" no se pueden ignorar en forma analógica para reducir el uso del ancho de banda como en digital?

Para ver lo que quiero decir, consulte esta pregunta . Allí puedes encontrar la siguiente imagen:

¿Porquénopuedesimplemente"ignorar" (al no modularla) una línea de píxeles (suponiendo que no haya cambiado entre cuadros) y reducir la frecuencia de la señal de datos y, por lo tanto, el uso de ancho de banda?

    
pregunta Ant

4 respuestas

9

Puede comprimir video analógico por lo que usa menos ancho de banda , a costa de la calidad: lento escanear la televisión . Se utiliza para transmitir televisión en vivo desde la superficie de la luna, en monocromo borroso. En estos días podemos tener color HD desde la superficie de Marte.

Vale la pena ver cómo funcionan en detalle las diversas técnicas de compresión digital, pero todas se basan en el almacenamiento de fotogramas o bits anteriores del fotograma actual y en el cálculo basado en la diferencia con el fotograma actual. Hay dos razones por las que no puedes hacer esto con el análogo:

  • no hay acceso aleatorio , rápido, memoria analógica. La línea de retardo mencionada por Brian Drummond es prácticamente la única tecnología práctica para la memoria analógica, y le brinda la misma señal a la misma velocidad en un futuro.

  • el cálculo analógico está limitado en ancho de banda y tiene pérdidas. El producto de ancho de banda de ganancia limita la medida en que puede acelerarlo.

Tenga en cuenta que cada fotograma de decodificación HD h264 implicará cientos de millones de operaciones aritméticas individuales. Codificando aún más operaciones.

    
respondido por el pjc50
23

La señal de TV analógica fue diseñada originalmente para decodificarse con el número más pequeño de válvulas (tubos). Por lo tanto, aproximadamente la mitad del espacio de la señal (el 30% de la amplitud de la señal y casi el 30% del tiempo) se dedica únicamente a los pulsos de sincronización fácilmente detectables por los circuitos de válvulas analógicas, y la información de la imagen se queda solo con la otra mitad

Cualquier mejora sobre esta especificación original tuvo que implementarse de una manera compatible. Por lo tanto, la señal de color se modula en una portadora de alta frecuencia que no interrumpe el funcionamiento de la señal subyacente en blanco y negro (aunque un conjunto B & W realmente bueno lo mostrará como un patrón moteado fino).

Más adelante, otra información (en el Reino Unido, PRESFAX, señales de prueba - pulso y barra, una línea de barras de color, CEEFAX / Teletexto y subtitulado) fueron "compatibles" comprimidas en líneas "no utilizadas" nominalmente invisibles durante la sincronización de campo , pero en la práctica puede ver el patrón de puntos en movimiento en la parte superior de una pantalla mal alineada.

La compresión no se pudo implementar de una manera tan compatible ... ¿cómo almacenaría algunas líneas de imagen? Aquí hay una caja de tubos, tenla! Cuando apareció el color, se almacenó una sola línea de señal de color con poco ancho de banda en una línea de retardo, ya sea para los decodificadores PAL de línea de retardo o "Color secuencial con memoria" de SECAM, pero eso no habría sido lo suficientemente barato antes de la mitad Años 60. Creo que la línea de retardo era un dispositivo SAW (Surface Acoustic Wave).

En cualquier caso, las señales tan regulares como el patrón de prueba de la barra de color son demasiado raras para que valga la pena optimizarlas. Y si guardas un espacio de señal en una imagen simple, ¿qué harías con él? Una señal compleja como una imagen más típica necesita el ancho de banda completo de todos modos.

    
respondido por el Brian Drummond
10

Una señal de video analógica es básicamente una forma de onda. Está 100% basado en el tiempo, y un fotograma tarda un tiempo específico en transferirse, ya que es la duración de la onda.

La propia onda toma una cierta cantidad de ancho de banda, que es básicamente la cantidad de datos que se mantienen en esa onda. Es posible reducir la cantidad de ancho de banda requerido a través de varias técnicas de filtrado.

El video analógico solo tiene el concepto de "ahora": el único píxel que se muestra en ese momento.

A la inversa, una señal de video digital es un flujo de datos intercalados. Uno de los sub-flujos es el flujo de imágenes. Este es un flujo basado en cuadros, donde cada cuadro del video se trata como una entidad individual. Es este concepto de los cuadros que permite la compresión de video. El video digital tiene el concepto de "este marco" en lugar de "este píxel", por lo que puede comparar los píxeles vecinos en las 3 dimensiones (no solo las 2 dimensiones arriba / abajo izquierda / derecha del marco, sino también la tercera "hora" dimensión, comparando con marcos pasados e incluso futuros).

Una señal de video analógica puede convertirse fácilmente a un formato digital mediante el uso de un capturador de fotogramas. Luego puede comprimirse como cualquier otro formato digital.

Una buena analogía sería el audio. Compara un casete de audio antiguo con un MP3. Cuando está reproduciendo un casete, la cinta se está moviendo más allá del cabezal de lectura a una velocidad establecida, y el cabezal de lectura convierte el magnetismo de la cinta en ese momento específico en un movimiento del altavoz.

A la inversa, con un MP3, fragmentos de datos (nuevamente, se denominan cuadros) y los decodifica en una forma de onda de audio para reproducir a través del altavoz.

(nota: esta es una descripción muy simplificada, y como resultado es completamente errónea;))

    
respondido por el Majenko
3

Editar: hay diferentes tipos de lo que podríamos llamar compresión. Distinguiré la compresión independiente del contenido y la compresión dependiente del contenido. La compresión independiente del contenido sería, por ejemplo, reduciendo el ancho de banda de la señal, entrelazando, etc. Estas técnicas pueden aplicarse independientemente del contenido que se está transmitiendo y, en general, reducen la calidad de la señal de alguna manera. La compresión dependiente del contenido sería métodos como MPEG-2 que analizan el contenido de una señal y eliminan partes duplicadas de una imagen / sonido / etc. La mejora en el uso del ancho de banda de los métodos independientes del contenido es siempre la misma, para los métodos dependientes del contenido depende del contenido de la señal (suponiendo una calidad de salida fija). Si hay mucha duplicación (por ejemplo, una imagen fija que se codifica en MPEG-2), hay una gran cantidad de reducción en el tamaño de los datos, si no hay duplicación (por ejemplo, si se codifica un ruido aleatorio) no hay reducción en el tamaño. En la práctica, los métodos como MPEG-2 garantizan un uso de datos máximo dado al reducir la calidad de la señal si no hay suficiente duplicación para utilizar.

En el resto de esta respuesta solo considero métodos de compresión dependientes del contenido, como MPEG.

En principio, no hay razón para que una señal analógica no pueda comprimirse. La compresión no se usó originalmente en la televisión analógica porque la tecnología aún no existía, requiere un hardware de procesamiento que no existía, y si el hardware pudiera crearse con la tecnología del momento habría sido demasiado costoso.

Cambiando el formato de señal existente, por ejemplo, agregar compresión es problemático porque todos los receptores necesitan ser cambiados. Esto es básicamente lo que está pasando en el cambio de analógico a digital en muchos países. Si todos los receptores necesitan actualizarse o reemplazarse de todos modos, también puede cambiar la señal a digital, que con la tecnología actual es más eficiente en cuanto a costo y ancho de banda que las señales analógicas.

Uno podría idear una forma de agregar algún tipo de señal adicional a la señal analógica existente, pero si no desea que todos los receptores existentes se actualicen, no puede eliminar la señal analógica existente y, por lo tanto, no puede reducir el uso del ancho de banda. La razón principal por la que los países están reemplazando sus transmisiones analógicas por transmisiones digitales en lugar de solo transmitirlas digitalmente es que la cantidad limitada de ancho de banda de espectro de radio disponible.

Otro aspecto es que, por ejemplo, no transmitir una línea de exploración en una transmisión de televisión analógica si no cambia desde el cuadro anterior, tendrá que decidir qué significa exactamente "no cambió". En una señal digital, los valores de los píxeles se cuantifican, por lo que es fácil de definir cuando una fila de píxeles es igual a una fila anterior. En una señal analógica, nunca encontrará que las dos líneas de escaneo sean exactamente iguales, por lo que necesitará un umbral de lo que considera igual. Al aplicar dicho umbral, cuantificará este aspecto de la señal, por lo que estará un paso más cerca de ser digital.

    
respondido por el JanKanis

Lea otras preguntas en las etiquetas