¿Qué es el estándar MPEG2?

En la transmisión de señales multimedia, sólo codificando eficazmente señales de audio y vídeo se pueden analizar finalmente sonidos e imágenes de alta calidad. Este artículo presenta los principios de codificación y capas de compresión del estándar MPEG2 y explica cómo implementar la codificación de audio MPEG2 en el chip.

MPEG2 es el estándar de compresión AV más popular en la actualidad y puede usarse para almacenamiento de vídeo, audio e información digital. El estándar MPEG2 completo satisface aplicaciones de transmisión como STB y aplicaciones multimedia como DVD o D-VHS. MPEG2 no estandariza los codificadores MPEG2, pero proporciona un formato estandarizado para flujos de bits codificados en MPEG2. Por otro lado, también proporciona un modo estándar para los decodificadores MPEG2.

La parte de audio del estándar MPEG2 se basa aproximadamente en el estándar MPEG1, por lo que los dos son altamente compatibles. Esto permite que los equipos MPEG1 existentes decodifiquen partes de señales MPEG2 compatibles con MPEG1, y los equipos MPEG2 también pueden decodificar señales MPEG1, logrando así compatibilidad directa.

Capas de compresión

La compresión de audio MPEG2 y MPEG1 se puede dividir en tres capas. Cuanto mayor es el número de capas, aumentan el grado de compresión, la potencia de procesamiento de la CPU requerida y la calidad del sonido, mientras que el ancho de banda requerido para la transmisión disminuye; Por lo tanto, la primera capa tiene la relación de compresión más baja, requiere la menor potencia de procesamiento de la CPU y tiene la latencia más baja. Dado que tiene la tasa de compresión más baja y la peor calidad de sonido, requiere el mayor ancho de banda de transmisión. La tercera capa tiene la mejor calidad de sonido, con una tasa de compresión de hasta 1:10. El tiempo de procesamiento también es casi tres veces mayor que el de la primera capa. La tabla 1 ilustra esto bien.

La razón por la que la compresión se divide en tres capas se basa en parte en necesidades y en parte por razones históricas.

En primer lugar, depende en gran medida de en qué aplicación se utilizará la señal comprimida. Por ejemplo, cuando principalmente queremos reproducir sonido de alta calidad y solo nos preocupa el costo/potencia de procesamiento, entonces se debe seleccionar la tercera capa. Y si la consideración principal es la potencia de procesamiento y el costo, puede elegir el primer o segundo nivel. Sin embargo, la reproducción del sonido será deficiente si se selecciona cualquier otra capa que no sea la tercera capa, por lo que los usuarios deben sopesar sus consideraciones y seleccionar la capa apropiada para su aplicación particular.

En segundo lugar, el concepto de capas de compresión evolucionó gradualmente. Los estándares para el tercer nivel se establecieron más tarde que los del primer y segundo nivel. Cuando las especificaciones de Capa 3 se hicieron populares, los dispositivos que usaban especificaciones de Capa 1 y Capa 2 ya estaban muy extendidos y eran familiares para los consumidores. Por lo tanto, se debe dar a los consumidores la libertad de elegir el nivel de especificación que se adapte a su aplicación.

Compresión y codificación de audio MPEG2

El proceso de codificación y compresión de audio de la especificación de tres capas se muestra en la Figura 1. El banco de filtros utiliza una transformada rápida de Fourier (FFT) para convertir las muestras en el dominio del tiempo en la misma cantidad de muestras en el dominio de la frecuencia. La salida es una serie de subbandas con igual ancho de banda. El proceso del modo psicoacústico calcula la relación de enmascaramiento de la señal (SMR) de cada subbanda para determinar el número de bits de señal disponibles para codificar en cada subbanda. Durante el proceso de asignación de bits de señal o ruido, la salida del banco de filtros y la información SMR se utilizan para determinar el ruido de cuantificación que cada subbanda puede soportar. Cuanto mayor sea el ruido de cuantificación, menor será el número de bits de señal asignados a esta subbanda. En el módulo de formato de flujo de bits, las muestras de frecuencia de subbanda se combinan con los bits de señal asignados a esta capa y alguna otra información para formar una trama de audio, que incluye un encabezado de señal y otros segmentos de información.

Mejoras de audio MPEG2

En comparación con MPEG1, MPEG2 ha mejorado en los siguientes aspectos.

1. Frecuencia de muestreo media

En MPEG2, solo se puede utilizar la mitad de la frecuencia de muestreo en MPEG1 para mantener una excelente calidad de sonido. Esto es especialmente beneficioso para aplicaciones como canales de comentarios, canales multilingües y multimedia, que tienen un rango de frecuencia de 20 Hz a 20 kHz pero que rara vez se utilizan.

2. Expansión multicanal

MPEG2 admite 5 canales de audio y logra simultáneamente un efecto estéreo "envolvente" para obtener un sonido estéreo más realista. Los cinco canales son el canal izquierdo (L), el canal derecho (R), el canal central (C), el canal envolvente trasero izquierdo (Ls) y el canal envolvente trasero derecho (Rs). En este caso se colocan 3 tweeters en la parte delantera y 2 en la parte trasera, por lo que también se le puede llamar estéreo 3/2. Como se muestra en la Figura 2.

Implementación de codificación de audio MPEG2 en el chip

La codificación de audio MPEG2 se puede implementar en hardware solo o junto con la codificación de vídeo MPEG2. En el último caso, es necesario agregar un multiplexor o selector de salida múltiple para realizar la codificación o decodificación correspondiente; también se puede usar un códec para completar dos funciones. Por lo general, la codificación de audio MPEG2 se implementa a través de DSP, que es más económico y más flexible. El diagrama de bloques del circuito del chip decodificador de audio MPEG2 se muestra en la Figura 3.

Muchos reproductores MP3 fabricados por fabricantes de equipos electrónicos cuentan con este sistema y vienen con un decodificador de audio MPEG2 de capa 3. Algunos reproductores de MP3 pueden almacenar entre 1 y 2 horas de música, en este caso normalmente en una tarjeta de memoria o en una memoria flash. Los jugadores con discos duros pueden almacenar más información.

Si se va a implementar simultáneamente la codificación de audio y vídeo MPEG2, la multiplexación de los dos flujos de datos es una cuestión clave. La codificación de señales de audio y vídeo se puede realizar en el mismo chip o se puede utilizar otro chip. Este proceso está controlado por el estándar ITU 13818-3 y, opcionalmente, puede utilizar un flujo de programa o un flujo de transporte. En el caso de la multiplexación, las señales de audio y vídeo MPEG2 utilizan únicamente ancho de banda. Además de las señales de audio y vídeo, el flujo de datos también transporta información compuesta sobre ambas señales. En este caso, la tasa de bits total (también llamada tasa de bits del sistema) es la suma de las tasas de bits de las señales de audio y video más el encabezado y el relleno de bytes. Obviamente, la parte del vídeo ocupa la mayor parte del ancho de banda. Cuando la tasa de bits del sistema es alta, la señal de audio tiene una tasa de bits más baja que la señal de video o el flujo de datos multiplexados. En este caso, dado que el ancho de banda es muy abundante, los usuarios pueden configurar varios parámetros de la transmisión de audio para obtener la mejor calidad de sonido. Sin embargo, si la tasa de bits es menor, la situación es diferente. Si la parte de audio desperdicia un poco de ancho de banda, no habrá suficiente ancho de banda para la parte de video. La calidad del vídeo final analizado se verá gravemente comprometida. En este caso, los parámetros de audio MPEG2 deben configurarse con cuidado. Si el "Ajuste de PES de audio" está desactivado, la tasa de bits de audio también debería reducirse a 192 kbps o incluso 128 kbps. Estas configuraciones son muy efectivas para mejorar la calidad del análisis del flujo de información MPEG2.

footer>