[go: up one dir, main page]

ES2747353T3 - Dispositivo de codificación de audio, método de codificación de audio, programa de codificación de audio, dispositivo de decodificación de audio, método de decodificación de audio y programa de decodificación de audio - Google Patents

Dispositivo de codificación de audio, método de codificación de audio, programa de codificación de audio, dispositivo de decodificación de audio, método de decodificación de audio y programa de decodificación de audio Download PDF

Info

Publication number
ES2747353T3
ES2747353T3 ES13854879T ES13854879T ES2747353T3 ES 2747353 T3 ES2747353 T3 ES 2747353T3 ES 13854879 T ES13854879 T ES 13854879T ES 13854879 T ES13854879 T ES 13854879T ES 2747353 T3 ES2747353 T3 ES 2747353T3
Authority
ES
Spain
Prior art keywords
audio
secondary information
unit
decoding
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13854879T
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Application granted granted Critical
Publication of ES2747353T3 publication Critical patent/ES2747353T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/125Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

Método de decodificación de audio mediante un dispositivo de decodificación de audio para decodificar un código de audio y emitir una señal de audio, que comprende: una etapa de almacenamiento en memoria intermedia de código de audio de detectar pérdida de paquetes, con el dispositivo de decodificación de audio, basándose en un estado recibido de un paquete de audio; una etapa de decodificación de parámetro de audio de decodificar un código de audio, con el dispositivo de decodificación de audio, cuando se recibe correctamente un paquete de audio; una etapa de decodificación de información secundaria de decodificar un código de información secundaria, con el dispositivo de decodificación de audio, cuando se recibe correctamente el paquete de audio; una etapa de acumulación de información secundaria de almacenar, con el dispositivo de decodificación de audio, información secundaria obtenida decodificando el código de información secundaria en la etapa de decodificación de información secundaria en una memoria intermedia, estando la información secundaria relacionada con un retardo de altura y/o una ganancia de libro de códigos adaptativo en una señal de previsión; una etapa de procesamiento de ausencia de parámetro de audio de emitir, con el dispositivo de decodificación de audio, un parámetro de audio cuando se detecta pérdida de paquetes de audio; una etapa de acumulación de parámetro de audio de almacenar el parámetro de audio en una memoria intermedia cuando se recibe correctamente un paquete de audio; y una etapa de síntesis de audio de sintetizar, con el dispositivo de decodificación de audio, un audio decodificado a partir del parámetro de audio, en el que la etapa de procesamiento de ausencia de parámetro de audio comprende calcular, con el dispositivo de decodificación de audio cuando se detecta pérdida de paquetes de audio, un valor predicho (S5044) del parámetro de audio usando el parámetro de audio almacenado cuando se recibe correctamente el paquete de audio y la información secundaria almacenada en la etapa de acumulación de información secundaria, y si la fiabilidad del parámetro de audio es baja (S5046), adoptar el dispositivo de decodificación de audio la información secundaria almacenada en la etapa de acumulación de información secundaria como parámetro de audio.

Description

DESCRIPCIÓN
Dispositivo de codificación de audio, método de codificación de audio, programa de codificación de audio, dispositivo de decodificación de audio, método de decodificación de audio y programa de decodificación de audio
Campo técnico
La presente invención se refiere al ocultamiento de errores para la transmisión de paquetes de audio a través de una red de IP o una red de comunicación móvil y, más específicamente, se refiere a un dispositivo de codificación de audio, a un método de codificación de audio, a un programa de codificación de audio, a un dispositivo de decodificación de audio, a un método de decodificación de audio y a un programa de decodificación de audio para la generación de señal de ocultamiento de pérdida de paquetes altamente precisa para implementar ocultamiento de error.
Técnica anterior
El documento JP 2004138756 A divulga un sistema de comunicación, en el que en caso de una trama desaparecida de una señal de voz se realiza un procesamiento de compensación de la trama desaparecida basándose en el retardo de altura información para el procesamiento de compensación de trama desaparecida calculando un retardo de altura para el procesamiento de compensación de trama desaparecida en el dispositivo de codificación de voz y transmitiendo información que expresa el retardo de altura al dispositivo de decodificación de voz junto con la señal de voz codificada.
Según el documento JP 2002268696 A, en la codificación de CELP, un filtro de síntesis determinado mediante una trama actual, códigos codificados para constituir una señal de excitación de activación, y una señal de sonido que va a codificarse tras una siguiente trama se almacenan en una memoria intermedia. Se envía en conjunto información de periodicidad que incluye información de altura obtenida analizando una señal almacenada en la memoria intermedia. En la decodificación de CELP, si se pierden códigos codificados de la siguiente trama, la señal de sonido de la siguiente trama se decodifica usando los códigos codificados determinados mediante la trama actual y la información de periodicidad que incluye la información de altura de la siguiente trama.
El documento WO 2012/070370 A1 divulga una unidad de codificación para codificar una señal de audio que consiste en una pluralidad de tramas con una unidad de codificación de audio para codificar la señal de audio, y una unidad de codificación de información auxiliar para estimar y codificar información auxiliar sobre un cambio temporal de potencia de la señal de audio, que se usa en el ocultamiento de pérdida de paquetes en la decodificación de la señal de audio.
Según el documento EP 1746 580 A1, una cantidad de retardo de una señal acústica con respecto a una señal acústica está contenida en un paquete de señal acústica como información de control de cantidad de retardo. Además, las condiciones de una red de comunicación se detectan a partir de varios paquetes perdidos en una pérdida de ráfaga o fluctuaciones y el número de los paquetes que van a almacenarse y la cantidad de retardo en el extremo de recepción se determinan de ese modo.
La publicación “EDITOR G.729.1 Amd.3: “Draft new G.729.1 Amendment 3 “G.729-based embedded variable bit-rate coder: An 8-32 kbit/s scalable wideband coder bitstream interoperable with G.729: Extension of the G.729.1 lowdelay mode funtionality to 14 kbit/s, and corrections to the main body and Annex B”, ITU-T SG16 MEETING; 26-6­ 2007 - 6-7-2007; GINEBRA, n.° T05-SG16-070626-TD-WP3-0279, 4 de julio de 2007 (04-07-2007)” extiende la funcionalidad de bajo retardo del documento principal y del anexo B del documento G.729.1 a la primera tasa de transmisión de bits de banda ancha (14 kbit/s).
La publicación DEUTSCHE THOMSONBRANDT ET AL: “G.723.1 Draft Annex C (Mobile channel coding)”, 12. LBC MEETING; 9-1-1996-12-1-1996; SAN JOSA CR; (ITU LOW BITRATECODING GROUP), n.° LBC-96-030, 9 de enero de 1996 (09-01-1996) proporciona una descripción de un esquema de codificación de canal ajustable a escala que va a usarse con el documento G.723 para aplicaciones inalámbricas.
En la transmisión de señales de audio y acústicas (que se denominan de manera colectiva a continuación en el presente documento “señal de audio”) a través de una red de IP o una red de comunicación móvil, la señal de audio se codifica para dar paquetes de audio a intervalos de tiempo regulares y se transmite a través de una red de comunicación. En el extremo de recepción, los paquetes de audio se reciben a través de la red de comunicación y se decodifican para dar una señal de audio decodificada por un servidor, una MCU (unidad de control de múltiples puntos), un terminal o similares.
La señal de audio se recopila generalmente en formato digital. Específicamente, se mide y se acumula como una secuencia de números cuyo número es el mismo que una frecuencia de muestreo por segundo. Cada elemento de la secuencia se denomina “muestra”. En la codificación de audio, cada vez que se acumula un número predeterminado de muestras de una señal de audio en una memoria intermedia incorporada, se codifica la señal de audio en la memoria intermedia. El número especificado de muestras anteriormente descrito se denomina “longitud de trama”, y un conjunto del mismo número de muestras que la longitud de trama se denomina “trama”. Por ejemplo, a la frecuencia de muestreo de 32 kHz, cuando la longitud de trama es de 20 ms, la longitud de trama es de 640 muestras. Obsérvese que la longitud de la memoria intermedia puede ser de más de una trama.
Cuando se transmiten paquetes de audio a través de una red de comunicación, puede producirse un fenómeno (denominado “pérdida de paquetes”) en el que se pierden algunos de los paquetes de audio, o puede producirse un error en parte de información escrita en los paquetes de audio debido a congestión en la red de comunicación o similar. En tal caso, los paquetes de audio no pueden decodificarse correctamente en el extremo de recepción, y por tanto no puede obtenerse una señal de audio decodificada deseada. Además, la señal de audio decodificada correspondiente al paquete de audio en el que se ha producido pérdida de paquetes se detecta como ruido, lo cual degrada significativamente la calidad subjetiva para una persona que escucha el audio.
Con el fin de superar los inconvenientes descritos anteriormente, se usa tecnología de ocultamiento de pérdida de paquetes como modo de interpolar una parte de la señal de audio/acústica que se pierde mediante pérdida de paquetes. Hay dos tipos de tecnología de ocultamiento de pérdida de paquetes: “tecnología de ocultamiento de pérdida de paquetes sin usar información secundaria” en la que sólo se realiza ocultamiento de pérdida de paquetes en el extremo de recepción y “tecnología de ocultamiento de pérdida de paquetes usando información secundaria” en la que parámetros que ayudan al ocultamiento de pérdida de paquetes se obtienen en el extremo de transmisión y se transmiten al extremo de recepción, en el que se realiza ocultamiento de pérdida de paquetes usando los parámetros recibidos en el extremo de recepción.
La “tecnología de ocultamiento de pérdida de paquetes sin usar información secundaria” genera una señal de audio correspondiente a una parte en la que se ha producido pérdida de paquetes copiando una señal de audio decodificada contenida en un paquete que se ha recibido correctamente en el pasado basándose en cada altura y después multiplicándola por un coeficiente de atenuación predeterminado tal como se describe en el documento no de patente 1, por ejemplo. Dado que la “tecnología de ocultamiento de pérdida de paquetes sin usar información secundaria” se basa en la suposición de que las propiedades de la parte del audio en la que se ha producido pérdida de paquetes son similares a las del audio inmediatamente antes de que se produzca la pérdida, no puede obtenerse de manera suficiente el efecto de ocultamiento cuando la parte del audio en la que se ha producido pérdida de paquetes tiene propiedades diferentes del audio inmediatamente antes de que se produzca la pérdida o cuando hay un cambio repentino de potencia.
Por otro lado, la “tecnología de ocultamiento de pérdida de paquetes usando información secundaria” incluye una técnica que codifica parámetros requeridos para el ocultamiento de pérdida de paquetes en el extremo de transmisión y los transmite para su uso en el ocultamiento de pérdida de paquetes en el extremo de recepción tal como se describe en el documento de patente 1. En el documento de patente 1, el audio se codifica mediante dos métodos de codificación: codificación principal y codificación redundante. La codificación redundante codifica la trama inmediatamente antes de la trama que va a codificarse mediante la codificación principal a una tasa de transmisión de bits inferior a la codificación principal (véase la figura 1 (a)). Por ejemplo, el N-ésimo paquete contiene un código de audio obtenido codificando la N-ésima trama mediante codificación principal y un código de información secundaria obtenido codificando la (N-1)-ésima trama mediante codificación redundante.
El extremo de recepción espera a la llegada de dos o más paquetes sucesivos en el tiempo y después decodifica el paquete anterior en el tiempo y obtiene una señal de audio decodificada. Por ejemplo, para obtener una señal correspondiente a la N-ésima trama, el extremo de recepción espera a la llegada del (N+1)-ésimo paquete y después realiza la decodificación. En el caso en el que el N-ésimo paquete y el (N+1)-ésimo paquete se reciben correctamente, la señal de audio de la N-ésima trama se obtiene decodificando el código de audio contenido en el N-ésimo paquete (véase la figura 1(b)). Por otro lado, en el caso en el que se ha producido pérdida de paquetes (cuando el (N+1)-ésimo paquete se obtiene en la condición en la que se pierde el N-ésimo paquete), la señal de audio de la N-ésima trama puede obtenerse decodificando el código de información secundaria contenido en el (N+1)-ésimo paquete (véase la figura 1(c)).
Según el método del documento de patente 1, tras llegar un paquete que va a decodificarse, es necesario esperar para realizar la decodificación hasta que lleguen uno o más paquetes, y el retardo algorítmico aumenta en un paquete o más. Por consiguiente, en el método del documento de patente 1, aunque la calidad de audio puede mejorarse mediante ocultamiento de pérdida de paquetes, el retardo algorítmico aumenta provocando la degradación de la calidad de comunicación por voz.
Además, en el caso de aplicar la tecnología de ocultamiento de pérdida de paquetes descrita anteriormente a codificación de CELP (predicción lineal con excitación por código), surge otro problema provocado por las características del funcionamiento de CELP. Dado que CELP es un modelo de audio basado en predicción lineal y es capaz de codificar una señal de audio con alta precisión y con una alta razón de compresión, se usa en muchas normas internacionales.
En CELP, se sintetiza una señal de audio filtrando una señal de excitación e(n) usando un filtro de síntesis omnipolar. Específicamente, se sintetiza una señal de audio s(n) según la siguiente ecuación:
p
s{n ) = e(ri) - ^ a(i) s(n - 1)
i=i Ecuación 1
en la que a(i) es un coeficiente de predicción lineal (coeficiente de LP), y se usa un valor tal como P=16, por ejemplo, como grado.
La señal de excitación se acumula en una memoria intermedia denominada libro de códigos adaptativo. Cuando se sintetiza el audio para una nueva trama, se genera de nuevo una señal de excitación sumando un vector de libro de códigos adaptativo leído a partir del libro de códigos adaptativo y un vector de libro de códigos fijo que representa un cambio de señal de excitación a lo largo del tiempo basándose en información de posición denominada retardo de altura. La señal de excitación recién generada se acumula en el libro de códigos adaptativo y también se filtra usando el filtro de síntesis omnipolar, y de ese modo se sintetiza una señal decodificada.
En CELP, se calcula un coeficiente de LP para todas las tramas. En el cálculo del coeficiente de LP, se requiere una señal de previsión de aproximadamente 10 ms. Específicamente, además de una trama que va a codificarse, se acumula una señal de previsión en la memoria intermedia, y después se realizan el cálculo de coeficiente de LP y el procesamiento posterior (véase la figura 2). Cada trama se divide en aproximadamente cuatro subtramas, y se realiza procesamiento tal como el cálculo de retardo de altura, cálculo de vector de libro de códigos adaptativo, cálculo de vector de libro de códigos fijo y actualización de libro de códigos adaptativo descritos anteriormente en cada subtrama. En el procesamiento de cada subtrama, también se interpola el coeficiente de LP de modo que el coeficiente varía de una subtrama a otra subtrama. Además, para la cuantificación e interpolación, el coeficiente de LP se codifica tras convertirse en un parámetro de ISP (par espectral de imitancia) y un parámetro de ISF (frecuencia espectral de imitancia), que es/son representación/representaciones equivalente(s) del/de los coeficiente(s) de LP. En el documento no de patente 2 se describe un procedimiento para la interconversión del/de los coeficiente(s) de LP y el parámetro de ISP y el parámetro de ISF.
En la codificación de CELP, se realizan codificación y decodificación basándose en la suposición de que tanto el extremo de codificación como el extremo de decodificación tienen libros de códigos adaptativos, y esos libros de códigos adaptativos están siempre sincronizados entre sí. Aunque el libro de códigos adaptativo en el extremo de codificación y el libro de códigos adaptativo en el extremo de decodificación están sincronizados en condiciones en las que se reciben paquetes correctamente y se decodifican correctamente, una vez que se produce pérdida de paquetes, no puede lograrse la sincronización de los libros de códigos adaptativos.
Por ejemplo, si un valor que se usa como retardo de altura es diferente entre el extremo de codificación y el extremo de decodificación, se produce un retraso de tiempo entre los vectores de libro de códigos adaptativo. Dado que el libro de códigos adaptativo se actualiza con esos vectores de libro de códigos adaptativo, aunque la siguiente trama se reciba correctamente, el vector de libro de códigos adaptativo calculado en el extremo de codificación y el vector de libro de códigos adaptativo calculado en el extremo de decodificación no coinciden, y no se recupera la sincronización de los libros de códigos adaptativos. Debido a tal incoherencia de los libros de códigos adaptativos, se produce la degradación de la calidad de audio para varias tramas después de la trama en la que se ha producido la pérdida de paquetes.
En el ocultamiento de pérdida de paquetes en la codificación de CELP, en el documento de patente 2 se describe una técnica más avanzada. Según el documento de patente 2, se transmite un índice de un libro de códigos en modo de transición en lugar de un retardo de altura o una ganancia de libro de códigos adaptativo en una trama específica que se ve afectada en gran medida por la pérdida de paquetes. La técnica del documento de patente 2 centra su atención en una trama de transición (transición de un segmento de audio en silencio a un segmento de audio con sonido, o transición entre dos vocales) como trama que se ve afectada en gran medida por la pérdida de paquetes. Generando una señal de excitación usando el libro de códigos en modo de transición en esta trama de transición, es posible generar una señal de excitación que no depende del libro de códigos adaptativo pasado y por tanto recuperarse de la incoherencia de los libros de códigos adaptativos debido a la pérdida de paquetes pasada. Sin embargo, dado que el método del documento de patente 2 no usa el libro de códigos de trama de transición en una trama en la que continúa una vocal larga, por ejemplo, no es posible recuperarse de la incoherencia de los libros de códigos adaptativos en una trama de este tipo. Además, en el caso en el que se pierde el paquete que contiene el libro de códigos de trama de transición, la pérdida de paquetes afecta a las tramas después de la pérdida. Esto es lo mismo cuando se pierde el siguiente paquete después del paquete que contiene el libro de códigos de trama de transición.
Aunque resulta viable aplicar un libro de códigos a todas las tramas que no dependen de las tramas pasadas, tal como el libro de códigos de trama de transición, dado que la eficiencia de codificación se degrada significativamente, no es posible lograr una baja tasa de transmisión de bits y una alta calidad de audio en estas circunstancias.
Lista de referencias
Bibliografía de patentes
Documento de patente 1: publicación de solicitud de patente japonesa sin examinar n.° 2003-533916
Documento de patente 2: publicación de solicitud de patente japonesa sin examinar n.° 2010-507818
Bibliografía no de patentes
Documento no de patente 1: ITU-T G.711 apéndice I
Documento no de patente 2: 3GPP TS26-191
Documento no de patente 3: 3GPP TS26-190
Documento no de patente 4: ITU-T G.718
Sumario de la invención
Problema técnico
Con el uso del método del documento de patente 1, tras la llegada de un paquete que va a decodificarse, no se inicia la decodificación antes de la llegada del siguiente paquete. Por tanto, aunque se mejora la calidad de audio mediante ocultamiento de pérdida de paquetes, el retardo algorítmico aumenta, lo cual provoca la degradación de la calidad de comunicación por voz.
En el caso de pérdida de paquetes en codificación de CELP, la degradación de la calidad de audio se produce debido a la incoherencia de los libros de códigos adaptativos entre la unidad de codificación y la unidad de decodificación. Aunque el método tal como se describe en el documento de patente 2 puede permitir la recuperación a partir de la incoherencia de los libros de códigos adaptativos, el método no es suficiente para recuperarse cuando se pierde una trama diferente de la trama inmediatamente antes de la trama de transición.
La presente invención se ha logrado para resolver los problemas anteriores y por tanto un objetivo de la presente invención es proporcionar un dispositivo de codificación de audio, un método de codificación de audio, un programa de codificación de audio, un dispositivo de decodificación de audio, un método de decodificación de audio y un programa de decodificación de audio que recuperen la calidad de audio sin aumentar el retardo alogrítmico en el caso de pérdida de paquetes en la codificación de audio.
Solución al problema
La invención se define en las reivindicaciones adjuntas. Todos los casos a continuación del término “realización/realizaciones”, si hacen referencia a combinaciones de características diferentes de las definidas por las reivindicaciones independientes, se refieren a ejemplos que se presentaron originalmente pero que no representan realizaciones de la invención reivindicada en el presente documento; estos ejemplos todavía se muestran únicamente con propósitos ilustrativos. El objetivo de la invención se logra mediante el objeto de las reivindicaciones independientes. Las reivindicaciones dependientes divulgan realizaciones ventajosas.
Para lograr el objetivo anterior, un dispositivo de codificación de audio según un ejemplo es para codificar una señal de audio, que incluye una unidad de codificación de audio configurada para codificar una señal de audio, y una unidad de codificación de información secundaria configurada para calcular información secundaria a partir de una señal de previsión y codificar la información secundaria.
La información secundaria puede estar relacionada con un retardo de altura en una señal de previsión, relacionada con una ganancia de altura en una señal de previsión, o relacionada con un retardo de altura y una ganancia de altura en una señal de previsión. Además, la información secundaria puede contener información relacionada con disponibilidad de la información secundaria.
La unidad de codificación de información secundaria puede calcular información secundaria para una parte de señal de previsión y codificar la información secundaria, y también generar una señal de ocultamiento, y el dispositivo de codificación de audio puede incluir además una unidad de codificación de señal de error configurada para codificar una señal de error entre una señal de audio de entrada y una señal de ocultamiento emitida a partir de la unidad de codificación de información secundaria, y una unidad de codificación principal configurada para codificar una señal de audio de entrada.
Además, un dispositivo de decodificación de audio según un ejemplo es para decodificar un código de audio y emitir una señal de audio, que incluye una memoria intermedia de código de audio configurada para detectar pérdida de paquetes basándose en un estado recibido de un paquete de audio, una unidad de decodificación de parámetro de audio configurada para decodificar un código de audio cuando se recibe correctamente un paquete de audio, una unidad de decodificación de información secundaria configurada para decodificar un código de información secundaria cuando se recibe correctamente un paquete de audio, una unidad de acumulación de información secundaria configurada para acumular información secundaria obtenida decodificando un código de información secundaria, una unidad de procesamiento de ausencia de parámetro de audio configurada para emitir un parámetro de audio cuando se detecta pérdida de paquetes de audio, y una unidad de síntesis de audio configurada para sintetizar un audio decodificado a partir de un parámetro de audio.
La información secundaria puede estar relacionada con un retardo de altura en una señal de previsión, relacionada con una ganancia de altura en una señal de previsión, o relacionada con un retardo de altura y una ganancia de altura en una señal de previsión. Además, la información secundaria puede contener información relacionada con la disponibilidad de información secundaria.
La unidad de decodificación de información secundaria puede decodificar un código de información secundaria y emitir información secundaria, y puede emitir además una señal de ocultamiento relacionada con una parte de previsión usando la información secundaria, y el dispositivo de decodificación de audio puede incluir además una unidad de decodificación de error configurada para decodificar un código relacionado con una señal de error entre una señal de audio y una señal de ocultamiento, una unidad de decodificación principal configurada para decodificar un código relacionado con una señal de audio, y una unidad de acumulación de señal de ocultamiento configurada para acumular una señal de ocultamiento emitida a partir de la unidad de decodificación de información secundaria. Cuando se recibe correctamente un paquete de audio, una parte de una señal decodificada puede generarse sumando una señal de ocultamiento leída a partir de la unidad de acumulación de señal de ocultamiento y una señal de error decodificada emitida a partir de la unidad de decodificación de error, y la unidad de acumulación de señal de ocultamiento puede actualizarse con una señal de ocultamiento emitida a partir de la unidad de decodificación de información secundaria.
Cuando se detecta pérdida de paquetes de audio, puede usarse una señal de ocultamiento leída a partir de la unidad de acumulación de señal de ocultamiento como parte, o la totalidad, de una señal decodificada.
Cuando se detecta pérdida de paquetes de audio, puede generarse una señal decodificada usando un parámetro de audio predicho mediante la unidad de procesamiento de ausencia de parámetro de audio, y la unidad de acumulación de señal de ocultamiento puede actualizarse usando una parte de la señal decodificada.
Cuando se detecta pérdida de paquetes de audio, la unidad de procesamiento de ausencia de parámetro de audio puede usar información secundaria leída a partir de la unidad de acumulación de información secundaria como parte de un valor predicho de un parámetro de audio.
Cuando se detecta pérdida de paquetes de audio, la unidad de síntesis de audio puede corregir un vector de libro de códigos adaptativo, que es uno de los parámetros de audio, usando información secundaria leída a partir de la unidad de acumulación de información secundaria.
Un método de codificación de audio según un ejemplo es un método de codificación de audio mediante un dispositivo de codificación de audio para codificar una señal de audio, que incluye una etapa de codificación de audio de codificar una señal de audio, y una etapa de codificación de información secundaria de calcular información secundaria a partir de una señal de previsión y codificar la información secundaria.
Un método de decodificación de audio según un ejemplo es un método de decodificación de audio mediante un dispositivo de decodificación de audio para decodificar un código de audio y emitir una señal de audio, que incluye una etapa de almacenamiento en memoria intermedia de código de audio de detectar pérdida de paquetes basándose en un estado recibido de un paquete de audio, una etapa de decodificación de parámetro de audio de decodificar un código de audio cuando se recibe correctamente un paquete de audio, una etapa de decodificación de información secundaria de decodificar un código de información secundaria cuando se recibe correctamente un paquete de audio, una etapa de acumulación de información secundaria de acumular información secundaria obtenida decodificando un código de información secundaria, una etapa de procesamiento de ausencia de parámetro de audio de emitir un parámetro de audio cuando se detecta pérdida de paquetes de audio, y una etapa de síntesis de audio de sintetizar un audio decodificado a partir de un parámetro de audio.
Un programa de codificación de audio según un ejemplo hace que un ordenador funcione como una unidad de codificación de audio para codificar una señal de audio, y una unidad de codificación de información secundaria para calcular información secundaria a partir de una señal de previsión y codificar la información secundaria.
Un programa de decodificación de audio según un ejemplo hace que un ordenador funcione como una memoria intermedia de código de audio para detectar pérdida de paquetes basándose en un estado recibido de un paquete de audio, una unidad de decodificación de parámetro de audio para decodificar un código de audio cuando se recibe correctamente un paquete de audio, una unidad de decodificación de información secundaria para decodificar un código de información secundaria cuando se recibe correctamente un paquete de audio, una unidad de acumulación de información secundaria para acumular información secundaria obtenida decodificando un código de información secundaria, una unidad de procesamiento de ausencia de parámetro de audio para emitir un parámetro de audio cuando se detecta pérdida de paquetes de audio, y una unidad de síntesis de audio para sintetizar un audio decodificado a partir de un parámetro de audio.
Efectos ventajosos de la invención
Es posible recuperar calidad de audio sin aumentar el retardo algorítmico en el caso de pérdida de paquetes en la codificación de audio. Particularmente, en la codificación de CELP, es posible reducir la degradación de un libro de códigos adaptativo que se produce cuando sucede pérdida de paquetes y de ese modo mejorar la calidad de audio en el caso de pérdida de paquetes.
Breve descripción de los dibujos
La figura 1 es una vista que muestra una relación temporal entre paquetes y una señal decodificada según técnica relacionada descrita en el documento de patente 1.
La figura 2 es una vista que muestra una relación temporal entre una señal objetivo de análisis de LP y una señal de previsión en codificación de CELP.
La figura 3 es una vista que muestra una relación temporal entre paquetes y una señal decodificada según una realización de la presente invención.
La figura 4 es una vista que muestra un ejemplo de configuración funcional de un dispositivo de transmisión de señal de audio en un ejemplo 1 (primer ejemplo) de la presente invención.
La figura 5 es una vista que muestra un ejemplo de configuración funcional de un dispositivo de recepción de señal de audio en el ejemplo 1 de la presente invención.
La figura 6 es una vista que muestra un procedimiento del dispositivo de transmisión de señal de audio en el ejemplo 1 de la presente invención.
La figura 7 es una vista que muestra un procedimiento del dispositivo de recepción de señal de audio en el ejemplo 1 de la presente invención.
La figura 8 es una vista que muestra un ejemplo de configuración funcional de una unidad de codificación de información secundaria en el ejemplo 1 de la presente invención.
La figura 9 es una vista que muestra un procedimiento de la unidad de codificación de información secundaria en el ejemplo 1 de la presente invención.
La figura 10 es una vista que muestra un procedimiento de una unidad de cálculo de coeficiente de LP en el ejemplo 1 de la presente invención.
La figura 11 es una vista que muestra un procedimiento de una unidad de cálculo de señal objetivo en el ejemplo 1 de la presente invención.
La figura 12 es una vista que muestra un ejemplo de configuración funcional de una unidad de procesamiento de ausencia de parámetro de audio en el ejemplo 1 de la presente invención.
La figura 13 es una vista que muestra un procedimiento de predicción de parámetro de audio en el ejemplo 1 de la presente invención.
La figura 14 es una vista que muestra un procedimiento de una unidad de síntesis de vector de excitación en un ejemplo alternativo 1-1 del ejemplo 1 de la presente invención.
La figura 15 es una vista que muestra un ejemplo de configuración funcional de una unidad de síntesis de audio en el ejemplo 1 de la presente invención.
La figura 16 es una vista que muestra un procedimiento de la unidad de síntesis de audio en el ejemplo 1 de la presente invención.
La figura 17 es una vista que muestra un ejemplo de configuración funcional de una unidad de codificación de información secundaria (cuando se incluye una unidad de determinación de emisión de información secundaria) en un ejemplo alternativo 1-2 del ejemplo 1 de la presente invención.
La figura 18 es una vista que muestra un procedimiento de la unidad de codificación de información secundaria (cuando se incluye la unidad de determinación de emisión de información secundaria) en el ejemplo alternativo 1-2 del ejemplo 1 de la presente invención.
La figura 19 es una vista que muestra un procedimiento de predicción de parámetro de audio en el ejemplo alternativo 1-2 del ejemplo 1 de la presente invención.
La figura 20 es una vista que muestra un ejemplo de configuración funcional de un dispositivo de transmisión de señal de audio en un ejemplo 2 de la presente invención.
La figura 21 es una vista que muestra un ejemplo de configuración funcional de una unidad de codificación principal en el ejemplo 2 de la presente invención.
La figura 22 es una vista que muestra un procedimiento del dispositivo de transmisión de señal de audio en el ejemplo 2 de la presente invención.
La figura 23 es una vista que muestra un ejemplo de configuración funcional de un dispositivo de recepción de señal de audio en el ejemplo 2 de la presente invención.
La figura 24 es una vista que muestra un procedimiento del dispositivo de recepción de señal de audio en el ejemplo 2 de la presente invención.
La figura 25 es una vista que muestra un ejemplo de configuración funcional de una unidad de síntesis de audio en el ejemplo 2 de la presente invención.
La figura 26 es una vista que muestra un ejemplo de configuración funcional de una unidad de decodificación de parámetro de audio en el ejemplo 2 de la presente invención.
La figura 27 es una vista que muestra un ejemplo de configuración funcional de una unidad de codificación de información secundaria en un ejemplo 3 de la presente invención.
La figura 28 es una vista que muestra un procedimiento de la unidad de codificación de información secundaria en el ejemplo 3 de la presente invención.
La figura 29 es una vista que muestra un procedimiento de una unidad de selección de retardo de altura en el ejemplo 3 de la presente invención.
La figura 30 es una vista que muestra un procedimiento de una unidad de decodificación de información secundaria en el ejemplo 3 de la presente invención.
La figura 31 es una vista que muestra una configuración de un programa de codificación de audio y un medio de almacenamiento según una realización de la presente invención.
La figura 32 es una vista que muestra una configuración de un programa de decodificación de audio y un medio de almacenamiento según una realización de la presente invención.
La figura 33 es una vista que muestra un ejemplo de configuración funcional de una unidad de codificación de información secundaria en un ejemplo 4 de la presente invención.
La figura 34 es una vista que muestra un procedimiento de la unidad de codificación de información secundaria en el ejemplo 4 de la presente invención.
La figura 35 es una vista que muestra un procedimiento de una unidad de predicción de retardo de altura en el ejemplo 4 de la presente invención.
La figura 36 es otra vista que muestra un procedimiento de la unidad de predicción de retardo de altura en el ejemplo 4 de la presente invención.
La figura 37 es otra vista que muestra un procedimiento de la unidad de predicción de retardo de altura en el ejemplo 4 de la presente invención.
La figura 38 es una vista que muestra un procedimiento de una unidad de cálculo de libro de códigos adaptativo en el ejemplo 4 de la presente invención.
La figura 39 es una vista que muestra un ejemplo de configuración funcional de una unidad de codificación de información secundaria en un ejemplo 5 de la presente invención.
La figura 40 es una vista que muestra un procedimiento de una unidad de codificación de retardo de altura en el ejemplo 5 de la presente invención.
La figura 41 es una vista que muestra un procedimiento de una unidad de decodificación de información secundaria en el ejemplo 5 de la presente invención.
La figura 42 es una vista que muestra un procedimiento de una unidad de predicción de retardo de altura en el ejemplo 5 de la presente invención.
La figura 43 es una vista que muestra un procedimiento de una unidad de cálculo de libro de códigos adaptativo en el ejemplo 5 de la presente invención.
Descripción de realizaciones
A continuación en el presente documento se describen realizaciones de la presente invención con referencia a los dibujos adjuntos. Obsérvese que, cuando sea posible, los mismos elementos se indican mediante los mismos números de referencia y se omite la descripción redundante de los mismos.
Una realización de la presente invención se refiere a un codificador y a un decodificador que implementan “tecnología de ocultamiento de pérdida de paquetes usando información secundaria” que codifica y transmite información secundaria calculada en el lado de codificador para su uso en el ocultamiento de pérdida de paquetes en el lado de decodificador.
En las realizaciones de la presente invención, la información secundaria que se usa para el ocultamiento de pérdida de paquetes está contenida en un paquete anterior. La figura 3 muestra una relación temporal entre un código de audio y un código de información secundaria contenidos en un paquete. Tal como se ilustra en la figura 3, la información secundaria en las realizaciones de la presente invención son parámetros (retardo de altura, ganancia de libro de códigos adaptativo, etc.) que se calculan para una señal de previsión en codificación de CELP.
Dado que la información secundaria está contenida en un paquete anterior, es posible realizar decodificación sin esperar a un paquete que llega después de un paquete que va a codificarse. Además, cuando se detecta pérdida de paquetes, dado que la información secundaria para una trama que va a ocultarse se obtiene a partir del paquete anterior, es posible implementar un ocultamiento de pérdida de paquetes altamente preciso sin esperar al siguiente paquete.
Además, transmitiendo parámetros para codificación de CELP en una señal de previsión como información secundaria, es posible reducir la incoherencia de libros de códigos adaptativos incluso en el caso de pérdida de paquetes.
Las realizaciones de la presente invención pueden estar compuestas por un dispositivo de transmisión de señal de audio (dispositivo de codificación de audio) y un dispositivo de recepción de señal de audio (dispositivo de decodificación de audio). Un ejemplo de configuración funcional de un dispositivo de transmisión de señal de audio se muestra en la figura 4, y un ejemplo procedimiento del mismo se muestra en la figura 6. Además, un ejemplo de configuración funcional de un dispositivo de recepción de señal de audio se muestra en la figura 5, y un ejemplo procedimiento del mismo se muestra en la figura 7.
Tal como se muestra en la figura 4, el dispositivo de transmisión de señal de audio incluye una unidad 111 de codificación de audio y una unidad 112 de codificación de información secundaria. Tal como se muestra en la figura 5, el dispositivo de recepción de señal de audio incluye una memoria 121 intermedia de código de audio, una unidad 122 de decodificación de parámetro de audio, una unidad 123 de procesamiento de ausencia de parámetro de audio, una unidad 124 de síntesis de audio, una unidad 125 de decodificación de información secundaria y una unidad 126 de acumulación de información secundaria.
El dispositivo de transmisión de señal de audio codifica una señal de audio para cada trama y puede transmitir la señal de audio mediante el procedimiento de ejemplo mostrado en la figura 6.
La unidad 111 de codificación de audio puede calcular parámetros de audio para una trama que va a codificarse y emitir un código de audio (etapa S131 en la figura 6).
La unidad 112 de codificación de información secundaria puede calcular parámetros de audio para una señal de previsión y emitir un código de información secundaria (etapa S132 en la figura 6).
Se determina si termina la señal de audio, y pueden repetirse las etapas anteriores hasta que termine la señal de audio (etapa S133 en la figura 6).
El dispositivo de recepción de señal de audio decodifica un paquete de audio recibido y emite una señal de audio mediante el procedimiento de ejemplo mostrado en la figura 7.
La memoria 121 intermedia de código de audio espera la llegada de un paquete de audio y acumula un código de audio. Cuando el paquete de audio ha llegado correctamente, el procesamiento se conmuta a la unidad 122 de decodificación de parámetro de audio. Por otro lado, cuando el paquete de audio no ha llegado correctamente, el procesamiento se conmuta a la unidad 123 de procesamiento de ausencia de parámetro de audio (etapa S141 en la figura 7).
<Cuando se recibe correctamente el paquete de audio>
La unidad 122 de decodificación de parámetro de audio decodifica el código de audio y emite parámetros de audio (etapa S142 en la figura 7).
La unidad 125 de decodificación de información secundaria decodifica el código de información secundaria y emite información secundaria. La información secundaria emitida se envía a la unidad 126 de acumulación de información secundaria (etapa S143 en la figura 7).
La unidad 124 de síntesis de audio sintetiza una señal de audio a partir de los parámetros de audio emitidos a partir de la unidad 122 de decodificación de parámetro de audio y emite la señal de audio sintetizada (etapa S144 en la figura 7).
La unidad 123 de procesamiento de ausencia de parámetro de audio acumula los parámetros de audio emitidos a partir de la unidad 122 de decodificación de parámetro de audio en preparación para la pérdida de paquetes (etapa S145 en la figura 7).
La memoria 121 intermedia de código de audio determina si la transmisión de paquetes de audio ha terminado, y cuando la transmisión de paquetes de audio ha terminado, detiene el procesamiento. Mientras continúa la transmisión de paquetes de audio, se repiten las etapas anteriores S141 a S146 (etapa S147 en la figura 7).
<Cuando se pierde un paquete de audio>
La unidad 123 de procesamiento de ausencia de parámetro de audio lee la información secundaria a partir de la unidad 126 de acumulación de información secundaria y lleva a cabo la predicción para el/los parámetro(s) no contenido(s) en la información secundaria y de ese modo emite los parámetros de audio (etapa S146 en la figura 7). La unidad 124 de síntesis de audio sintetiza una señal de audio a partir de los parámetros de audio emitidos a partir de la unidad 123 de procesamiento de ausencia de parámetro de audio y emite la señal de audio sintetizada (etapa S144 en la figura 7).
La unidad 123 de procesamiento de ausencia de parámetro de audio acumula los parámetros de audio emitidos a partir de la unidad 123 de procesamiento de ausencia de parámetro de audio en preparación para la pérdida de paquetes (etapa S145 en la figura 7).
La memoria 121 intermedia de código de audio determina si la transmisión de paquetes de audio ha terminado, y cuando la transmisión de paquetes de audio ha terminado, detiene el procesamiento. Mientras continúa la transmisión de paquetes de audio, se repiten las etapas anteriores S141 a S146 (etapa S147 en la figura 7).
[Ejemplo 1]
En este ejemplo de un caso en el que se transmite un retardo de altura como información secundaria, el retardo de altura puede usarse para la generación de una señal de ocultamiento de pérdida de paquetes en el extremo de decodificación.
El ejemplo de configuración funcional del dispositivo de transmisión de señal de audio se muestra en la figura 4, y el ejemplo de configuración funcional del dispositivo de recepción de señal de audio se muestra en la figura 5. Un ejemplo del procedimiento del dispositivo de transmisión de señal de audio se muestra en la figura 6, y un ejemplo del procedimiento del dispositivo de recepción de señal de audio se muestra en la figura 7.
<Extremo de transmisión>
En el dispositivo de transmisión de señal de audio, se envía una señal de audio de entrada a la unidad 111 de codificación de audio.
La unidad 111 de codificación de audio codifica una trama que va a codificarse mediante codificación de CELP (etapa 131 en la figura 6). Para los detalles de codificación de CELP, se usa el método descrito en el documento no de patente 3, por ejemplo. Se omiten los detalles del procedimiento de codificación de CELP. Obsérvese que, en la codificación de CELP, se realiza decodificación local en el extremo de codificación. La decodificación local es para decodificar un código de audio también en el extremo de codificación y obtener parámetros (parámetro de ISP y parámetro de ISF correspondiente, retardo de altura, parámetro de predicción a largo plazo, libro de códigos adaptativo, ganancia de libro de códigos adaptativo, ganancia de libro de códigos fijo, vector de libro de códigos fijo, etc.) requeridos para la síntesis de audio. Los parámetros obtenidos mediante la decodificación local incluyen: al menos uno o ambos del parámetro de ISP y el parámetro de ISF, el retardo de altura, y el libro de códigos adaptativo, que se envían a la unidad 112 de codificación de información secundaria. En el caso en el que se usa la codificación de audio tal como se describe en el documento no de patente 4 en la unidad 111 de codificación de audio, también puede enviarse un índice que representa las características de una trama que va a codificarse a la unidad 112 de codificación de información secundaria. En realizaciones, puede usarse una codificación diferente de la codificación de CELP en la unidad 111 de codificación de audio. En realizaciones que usan una codificación diferente, pueden calcularse por separado al menos uno o ambos del parámetro de ISP y el parámetro de ISF, el retardo de altura, y el libro de códigos adaptativo, a partir de una señal de entrada, o una señal decodificada obtenida mediante la decodificación local, y enviada a la unidad 112 de codificación de información secundaria.
La unidad 112 de codificación de información secundaria calcula un código de información secundaria usando los parámetros calculados mediante la unidad 111 de codificación de audio y la señal de previsión (etapa 132 en la figura 6). Tal como se muestra en el ejemplo de la figura 8, la unidad 112 de codificación de información secundaria incluye una unidad 151 de cálculo de coeficiente de LP, una unidad 152 de cálculo de señal objetivo, una unidad 153 de cálculo de retardo de altura, una unidad 154 de cálculo de libro de códigos adaptativo, una unidad 155 de síntesis de vector de excitación, una memoria 156 intermedia de libro de códigos adaptativo, un filtro 157 de síntesis y una unidad 158 de codificación de retardo de altura. En la figura 9 se muestra un procedimiento de ejemplo en la unidad de codificación de información secundaria.
La unidad 151 de cálculo de coeficiente de LP calcula un coeficiente de LP usando el parámetro de ISF calculado mediante la unidad 111 de codificación de audio y el parámetro de ISF calculado en las varias tramas pasadas (etapa 161 en la figura 9). El procedimiento de la unidad 151 de cálculo de coeficiente de LP se muestra en la figura 10.
En primer lugar, se actualiza la memoria intermedia usando el parámetro de ISF obtenido a partir de la unidad 111 de codificación de audio (etapa 171 en la figura 10). A continuación, se calcula el parámetro de ISF ¿Jí en la señal de previsión. El parámetro de ISF ¿ se calcula mediante la siguiente ecuación (etapa 172 en la figura 10).
Figure imgf000011_0001
Ecuación 2
Ecuación 3
donde ro/'j es el parámetro de ISF, almacenado en la memoria intermedia, que es para la trama precedente en un número j de tramas. Además, w,C es el parámetro de ISF durante el periodo de habla que se calcula por adelantado mediante aprendizaje o similar. p es una constante, y puede ser un valor tal como 0,75, por ejemplo, aunque no se limita al mismo. Además, a también es constante, y puede ser un valor tal como 0,9, por ejemplo, aunque no se limita al mismo. o,C, a y p pueden hacerse variar mediante el índice que representa las características de la trama que va a codificarse tal como en el ocultamiento de ISF descrito en el documento no de patente 4, por ejemplo.
Además, los valores de i están dispuestos de modo que ¿ satisface 0<*Jo<(ú1<...&J1+, y los valores de pueden ajustarse de modo que el á)i adyacente no está demasiado cerca. Como procedimiento para ajustar el valor de <y puede usarse el documento no de patente 4 (ecuación 151), por ejemplo (etapa 173 en la figura 10).
Después de eso, se convierte el parámetro de ISF en un parámetro de ISP y puede realizarse interpolación para cada subtrama. Como método de cálculo del parámetro de ISP a partir del parámetro de ISF, puede usarse el método descrito en la sección 6.4.4 en el documento no de patente 4, y como método de interpolación, puede usarse el procedimiento descrito en la sección 6.8.3 en el documento no de patente 4 (etapa 174 en la figura 10).
Después, se convierte el parámetro de ISP para cada subtrama en un coeficiente de LP
El número de subtramas contenidas en la señal de previsión es M-ia. Para la conversión a partir del parámetro de ISP al coeficiente de LP, puede usarse el procedimiento descrito en la sección 6.4.5 en el documento no de patente 4 (etapa 175 en la figura 10).
La unidad 152 de cálculo de señal objetivo calcula una señal objetivo x(n) y una respuesta de impulso h(n) usando el coeficiente de LP ai- 1 (etapa 162 en la figura 9). Tal como se describe en la sección 6.8.4.1.3 en el documento no de patente 4, la señal objetivo se obtiene aplicando un filtro de ponderación perceptual a una señal residual de predicción lineal (figura 11).
En primer lugar, se calcula una señal residual r(n) de la señal de previsión ^ Y l < L ) usando el coeficiente de LP según la siguiente ecuación (etapa 181 en la figura 11).
Figure imgf000012_0001
Ecuación 4
Obsérvese que L’ indica el número de muestras de una subtrama, y L indica el número de muestras de una trama
Figure imgf000012_0002
^ ( yi 4™ / , í?')
que va a codificarse spre(n)(0<n<L). Después, se satisface
Además, la señal objetivo x(n)(0<n<L') se calcula mediante las siguientes ecuaciones (etapa 182 en la figura 11).
Figure imgf000012_0003
donde un filtro de ponderación perceptual y=0,68. El valor del filtro de ponderación perceptual puede ser un valor diferente según la política de diseño de la codificación de audio.
Después, se calcula la respuesta de impulso h(n)(0<n<L') mediante las siguientes ecuaciones (etapa 183 en la figura 11).
Figure imgf000012_0004
La unidad 153 de cálculo de retardo de altura calcula un retardo de altura para cada subtrama calculando k que maximiza la siguiente ecuación (etapa 163 en la figura 9). Obsérvese que, con el fin de reducir la cantidad de cálculos, pueden omitirse el cálculo de señal objetivo (etapa 182 en la figura 11) y el cálculo de respuesta de impulso (etapa 183 en la figura 11) descritos anteriormente, y puede usarse la señal residual como señal objetivo.
Tp-argmaxTk
Figure imgf000012_0005
Obsérvese que yk(n) se obtiene mediante convolución de la respuesta de impulso con la señal residual de predicción lineal. Int(i) indica un filtro de interpolación. Los detalles del filtro de interpolación son tal como se describen en la sección 6.8.4.1.4.1 en el documento no de patente 4. Evidentemente, puede emplearse v'(n)=u(n+NadaptTp+i) sin usar el filtro de interpolación.
Aunque el retardo de altura puede calcularse como un número entero mediante el método de cálculo descrito anteriormente, la precisión del retardo de altura puede aumentarse hasta una precisión por detrás de la coma decimal mediante interpolación del Tk anterior. Para los detalles del procedimiento para calcular el retardo de altura detrás de la coma decimal mediante interpolación, puede usarse el método de procesamiento descrito en la sección 6.8.4.1.4.1 en el documento no de patente 4.
La unidad 154 de cálculo de libro de códigos adaptativo calcula un vector de libro de códigos adaptativo v'(n) y un parámetro de predicción a largo plazo a partir del retardo de altura Tp y el libro de códigos adaptativo u(n) almacenados en la memoria 156 intermedia de libro de códigos adaptativo según la siguiente ecuación (etapa 164 en la figura 9).
v’ (n) = X Intií) u(n Nadapt-Tp i)
í=-l Ecuación 14
Para los detalles del procedimiento para calcular el parámetro a largo plazo, puede usarse el método descrito en la sección 5.7 en el documento no de patente 3.
La unidad 155 de síntesis de vector de excitación multiplica el vector de libro de códigos adaptativo v’(n) por una ganancia de libro de códigos adaptativo predeterminada P y emite una señal de vector de excitación según la siguiente ecuación (etapa 165 en la figura 9).
Figure imgf000013_0001
Ecuación 15
Aunque el valor de la ganancia de libro de códigos adaptativo p puede ser de 1,0 o similar, por ejemplo, puede usarse un valor obtenido por adelantado mediante aprendizaje, o puede hacerse variar mediante el índice que representa las características de la trama que va a codificarse.
Después, se actualiza el estado del libro de códigos adaptativo u(n) almacenado en la memoria 156 intermedia de libro de códigos adaptativo mediante la señal de vector de excitación según las siguientes ecuaciones (etapa 166 en la figura 9).
u(n)=u(n+L) (0<n<N-L) Ecuación 16 u(n+N-L)=e(n) (0<n<L) Ecuación 17 El filtro 157 de síntesis sintetiza una señal decodificada según la siguiente ecuación mediante filtrado inverso de predicción lineal usando la señal de vector de excitación como fuente de excitación (etapa 167 en la figura 9).
Figure imgf000013_0002
Ecuación 18
Las etapas 162 a 167 descritas anteriormente en la figura 9 se repiten para cada subtrama hasta el final de la señal de previsión (etapa 168 en la figura 9).
r„ü)( o <
a unidad 158 de codificación de retardo de altura codifica el retardo de altura p j < m
L . ) que se calcula en la señal de previsión (etapa 169 en la figura 9). El número de subtramas contenidas en la señal de previsión es Mla.
La codificación puede realizarse mediante un método tal como uno de los siguientes métodos, por ejemplo, aunque puede usarse cualquier método para la codificación.
1. Un método que realiza codificación binaria, cuantificación escalar, cuantificación vectorial o codificación aritmética T ™ (0 < j < M ia)
en una parte o la totalidad del retardo de altura y transmite el resultado.
2. Un método que realiza codificación binaria, cuantificación escalar, cuantificación vectorial o codificación aritmética en una parte o la totalidad de una diferencia T p (;) - T p ° _1) ( v0 < J I < M , ) a partir del retardo de altura de la j ’ (-l)
subtrama anterior y transmite el resultado, en el que p es el retardo de altura de la última subtrama en la trama que va a codificarse.
3. Un método que realiza cuantificación vectorial o codificación aritmética o bien de una parte o bien de la totalidad del retardo de altura T p U)(Q < J i < M > ,a' ) y una parte o la totalidad del retardo de altura calculado para la trama que va a codificarse y transmite el resultado.
4. Un método que selecciona uno de varios métodos de interpolación predeterminados basándose en una parte o la (0 < / < M )
totalidad del retardo de altura p ‘“ y transmite un índice indicativo del método de interpolación seleccionado. En este momento, el retardo de altura de una pluralidad de subtramas usado para la síntesis de audio en el pasado también puede usarse para la selección del método de interpolación.
Para la cuantificación escalar y la cuantificación vectorial, puede usarse un libro de códigos determinado de manera empírica o un libro de códigos calculado por adelantado mediante aprendizaje. Además, evidentemente un método que realiza codificación tras añadir un valor de desviación al retardo de altura anterior también puede incluirse en el alcance de la realización de la presente invención.
<Extremo de decodificación>
Tal como se muestra en la figura 5, un ejemplo del dispositivo de recepción de señal de audio incluye la memoria 121 intermedia de código de audio, la unidad 122 de decodificación de parámetro de audio, la unidad 123 de procesamiento de ausencia de parámetro de audio, la unidad 124 de síntesis de audio, la unidad 125 de decodificación de información secundaria y la unidad 126 de acumulación de información secundaria. El procedimiento del dispositivo de recepción de señal de audio es tal como se muestra en el ejemplo de la figura 7. La memoria 121 intermedia de código de audio determina si se recibe correctamente un paquete o no. Cuando la memoria 121 intermedia de código de audio determina que se recibe correctamente un paquete, el procesamiento se conmuta a la unidad 122 de decodificación de parámetro de audio y la unidad 125 de decodificación de información secundaria. Por otro lado, cuando la memoria 121 intermedia de código de audio determina que no se recibe correctamente un paquete, el procesamiento se conmuta a la unidad 123 de procesamiento de ausencia de parámetro de audio (etapa 141 en la figura 7).
<Cuando se recibe correctamente un paquete>
La unidad 122 de decodificación de parámetro de audio decodifica el código de audio recibido y calcula parámetros de audio requeridos para sintetizar el audio para la trama que va a codificarse (parámetro de ISP y parámetro de ISF correspondiente, retardo de altura, parámetro de predicción a largo plazo, libro de códigos adaptativo, ganancia de libro de códigos adaptativo, ganancia de libro de códigos fijo, vector de libro de códigos fijo, etc.) (etapa 142 en la figura 7).
La unidad 125 de decodificación de información secundaria decodifica el código de información secundaria, calcula un retardo de altura f f U) ( N0 < J i < M l ,a ) y lo almacena en la unidad 126 de acumulación de información secundaria. La unidad 125 de decodificación de información secundaria decodifica el código de información secundaria usando el método de decodificación correspondiente al método de codificación usado en el extremo de codificación (etapa 143 en la figura 7).
La unidad 124 de síntesis de audio sintetiza la señal de audio correspondiente a la trama que va a codificarse basándose en los parámetros emitidos a partir de la unidad 122 de decodificación de parámetro de audio (etapa 144 en la figura 7). El ejemplo de configuración funcional de la unidad 124 de síntesis de audio se muestra en la figura 15, y un procedimiento de ejemplo de la unidad 124 de síntesis de audio se muestra en la figura 16. Obsérvese que, aunque se ilustra la unidad 123 de procesamiento de ausencia de parámetro de audio para mostrar el flujo de la señal, la unidad 123 de procesamiento de ausencia de parámetro de audio no está incluida en la configuración funcional de la unidad 124 de síntesis de audio.
Una unidad 1121 de cálculo de coeficiente de LP convierte un parámetro de ISF en un parámetro de ISP y después realiza procesamiento de interpolación, y de ese modo obtiene un coeficiente de ISP para cada subtrama. Después, la unidad 1121 de cálculo de coeficiente de LP convierte el coeficiente de ISP en un coeficiente de predicción lineal (coeficiente de LP) y de ese modo obtiene un coeficiente de LP para cada subtrama (etapa 11301 en la figura 16). Para la interpolación del coeficiente de ISP y el coeficiente de ISP-LP, puede usarse el método descrito, por ejemplo, en la sección 6.4.5 en el documento no de patente 4. El procedimiento de conversión de parámetro no es la parte esencial de la realización de la presente invención y por tanto no se describe en detalle.
Una unidad 1123 de cálculo de libro de códigos adaptativo calcula un vector de libro de códigos adaptativo usando el retardo de altura, un parámetro de predicción a largo plazo y un libro 1122 de códigos adaptativo (etapa 11302 en la j 'U ) figura 16). Se calcula un vector de libro de códigos adaptativo v’(n) a partir del retardo de altura P y el libro de códigos adaptativo u(n) según la siguiente ecuación.
Figure imgf000015_0001
Ecuación 19
El vector de libro de códigos adaptativo se calcula mediante interpolación del libro de códigos adaptativo u(n) usando el filtro de FIR Int(i). La longitud del libro de códigos adaptativo es Nadapt. El filtro Int(i) que se usa para la interpolación es el mismo que el filtro de interpolación de
Figure imgf000015_0002
Ecuación 20
Este es el filtro de FIR con una longitud predeterminada 2l+1. L' es el número de muestras de la subtrama. No es necesario usar un filtro para la interpolación, mientras que en el extremo de codificador se usa un filtro para la interpolación.
La unidad 1123 de cálculo de libro de códigos adaptativo lleva a cabo el filtrado en el vector de libro de códigos adaptativo según el valor del parámetro de predicción a largo plazo (etapa 11303 en la figura 16). Cuando el parámetro de predicción a largo plazo tiene un valor que indica la activación de filtrado, se realiza el filtrado en el vector de libro de códigos adaptativo mediante la siguiente ecuación.
Figure imgf000015_0003
Ecuación 21
Por otro lado, cuando el parámetro de predicción a largo plazo tiene un valor que indica que no se necesita filtrado, no se realiza el filtrado, y se establece v(n)=v'(n).
Una unidad 1124 de síntesis de vector de excitación multiplica el vector de libro de códigos adaptativo por una ganancia de libro de códigos adaptativo gp (etapa 11304 en la figura 16). Además, la unidad 1124 de síntesis de vector de excitación multiplica un vector de libro de códigos fijo c(n) por una ganancia de libro de códigos fijo gc (etapa 11305 en la figura 16). Además, la unidad 1124 de síntesis de vector de excitación suma el vector de libro de códigos adaptativo y el vector de libro de códigos fijo entre sí y emite una señal de vector de excitación (etapa 11306 en la figura 16).
Figure imgf000015_0004
Ecuación 22
Un filtro 1125 posterior realiza procesamiento posterior tal como potenciación de altura, potenciación de ruido y potenciación de baja frecuencia, por ejemplo, en la señal de vector de excitación. Los detalles de técnicas tales como potenciación de altura, potenciación de ruido y potenciación de baja frecuencia se describen en la sección 6.1 en el documento no de patente 3. El procesamiento en el filtro posterior no está significativamente relacionado con la parte esencial de la realización de la presente invención y por tanto no se describe en detalle (etapa 11307 en la figura 16).
El libro 1122 de códigos adaptativo actualiza el estado mediante una señal de vector de excitación según las siguientes ecuaciones (etapa 11308 en la figura 16).
u(n)=u(n+L) (0<n<N-L) Ecuación 23 u(n+N-L)=e(n) (0<n<L) Ecuación 24
Un filtro 1126 de síntesis sintetiza una señal decodificada según la siguiente ecuación mediante filtrado inverso de predicción lineal usando la señal de vector de excitación como fuente de excitación (etapa 11309 en la figura 16).
Figure imgf000016_0001
Ecuación 25
Un filtro 1127 inverso de ponderación perceptual aplica un filtro inverso de ponderación perceptual a la señal decodificada según la siguiente ecuación (etapa 11310 en la figura 16).
Figure imgf000016_0002
Ecuación 26
El valor de p es normalmente 0,68 o similar, aunque no se limita a este valor.
La unidad 123 de procesamiento de ausencia de parámetro de audio almacena los parámetros de audio (parámetro de ISF, retardo de altura, ganancia de libro de códigos adaptativo, ganancia de libro de códigos fijo) usados en la unidad 124 de síntesis de audio en la memoria intermedia (etapa 145 en la figura 7).
<Cuando se detecta pérdida de paquetes>
La unidad 123 de procesamiento de ausencia de parámetro de audio lee un retardo de altura
Figure imgf000016_0003
a partir de la unidad 126 de acumulación de información secundaria y predice parámetros de audio. El ejemplo de configuración funcional de la unidad 123 de procesamiento de ausencia de parámetro de audio se muestra en el ejemplo de la figura 12, y un procedimiento de ejemplo de predicción de parámetro de audio se muestra en la figura 13.
Una unidad 191 de predicción de ISF calcula un parámetro de ISF usando el parámetro de ISF para la trama anterior y el parámetro de ISF calculado para las varias tramas pasadas (etapa 1101 en la figura 13). El procedimiento de la unidad 191 de predicción de ISF se muestra en la figura 10.
En primer lugar, se actualiza la memoria intermedia usando el parámetro de ISF de la trama inmediatamente anterior (etapa 171 en la figura 10). A continuación, se calcula el parámetro de ISF ¿ ij según la siguiente ecuación (etapa 172 en la figura 10).
Figure imgf000016_0004
Ecuación 27
Ecuación 28
donde ro/'j es el parámetro de ISF, almacenado en la memoria intermedia, que es para la trama precedente en un número j de tramas. Además, o,C, a y p son los mismos valores que los usados en el extremo de codificación.
Además, los valores de i están dispuestos de modo que ¿ ii satisface 0<^,D<áii <...dj1+, y los valores de á>i se ajustan de modo que el adyacente no está demasiado cerca. Como procedimiento de ejemplo para ajustar el valor de ¿ij, puede usarse el documento no de patente 4 (ecuación 151) (etapa 173 en la figura 10).
Una unidad 192 de predicción de retardo de altura decodifica el código de información secundaria a partir de la unidad 126 de acumulación de información secundaria y de ese modo obtiene un retardo de altura / « ( O < ¿< M la) Además, usando un retardo de altura
Figure imgf000016_0005
< ] < J) usado para la decodificación anterior, la unidad 192 de predicción de retardo de altura emite un retardo de altura T » (0 ( vM 1 < i < M) ■ E| número de subtramas contenidas en una trama es M, y el número de retardos de altura contenidos en la información secundaria es Mia. Para la predicción del retardo de altura ^ p ^ la - * < M ) i pUec|e usarse e| procedimiento descrito, por ejemplo, en la sección 7.11.1.3 en el documento no de patente 4 (etapa 1102 en la figura 13).
Una unidad 193 de predicción de ganancia de libro de códigos adaptativo emite una ganancia de libro de códigos adaptativo usando una ganancia de libro de códigos adaptativo predeterminada y una ganancia de libro de códigos adaptativo ^
F ' } (0 < j < J ) usada en la decodificación anterior. El número de subtramas contenida en una trama es M, y el número de retardos de altura contenidos en la información secundaria es Mia. Para la predicción de la ganancia de libro de códigos adaptativo Z °P (i)( K M, la <í <M) r 5 puede usarse el procedimiento descrito, por ejemplo, en la sección 7.11.2.5.3 en el documento no de patente 4 (etapa 1103 en la figura 13).
Una unidad 194 de predicción de ganancia de libro de códigos fijo emite una ganancia de libro de códigos fijo z p
o > r
c C C w 'V( 0 <
K i í <- M) J usando una ganancia de libro de códigos fijo a e (
c V j ) ) <( v Q< J j <J ) J usada en la decodificación anterior. El número de subtramas contenidas en una trama es M. Para la predicción de la ganancia de libro de códigos fijo b i? c C0 ( v 0 < Í < M ) puede usarse el procedimiento descrito en la sección 7.11.2.6 en el documento no de patente 4, por ejemplo (etapa 1104 en la figura 13).
Una unidad 195 de generación de señal de ruido emite un vector de ruido, tal como un ruido blanco, con una longitud de L (etapa 1105 en la figura 13). La longitud de una trama es L.
La unidad 124 de síntesis de audio sintetiza una señal decodificada basándose en los parámetros de audio emitidos a partir de la unidad 123 de procesamiento de ausencia de parámetro de audio (etapa 144 en la figura 7). El funcionamiento de la unidad 124 de síntesis de audio es el mismo que el funcionamiento de la unidad de síntesis de audio <Cuando se recibe correctamente un paquete de audio> y no se describe de manera redundante en detalle (etapa 144 en la figura 7).
La unidad 123 de procesamiento de ausencia de parámetro de audio almacena los parámetros de audio (parámetro de ISF, retardo de altura, ganancia de libro de códigos adaptativo, ganancia de libro de códigos fijo) usados en la unidad 124 de síntesis de audio en la memoria intermedia (etapa 145 en la figura 7).
Aunque en el ejemplo anterior se describe el caso de codificar y transmitir la información secundaria para todas las subtramas contenidas en la señal de previsión, puede emplearse la configuración que sólo transmite la información secundaria para una subtrama específica.
[Ejemplo alternativo 1-1]
Como ejemplo alternativo del ejemplo 1 comentado anteriormente, a continuación en el presente documento se describe un ejemplo que añade una ganancia de altura a la información secundaria. La diferencia entre el ejemplo alternativo 1-1 y el ejemplo 1 es únicamente el funcionamiento de la unidad 155 de síntesis de vector de excitación, y por tanto se omite la descripción de las demás partes.
<Extremo de codificación>
El procedimiento de la unidad 155 de síntesis de vector de excitación se muestra en el ejemplo de la figura 14.
g C
Se calcula una ganancia de libro de códigos adaptativo p a partir del vector de libro de códigos adaptativo v’(n) y la señal objetivo x(n) según la siguiente ecuación (etapa 1111 en la figura 14).
Figure imgf000017_0001
donde y(n) es una señal y(n)=v(n)*h(n) que se obtiene mediante convolución de la respuesta de impulso con el vector de libro de códigos adaptativo.
La ganancia de libro de códigos adaptativo calculada se codifica y se contiene en el código de información secundaria (etapa 1112 en la figura 14). Para la codificación, puede usarse cuantificación escalar usando un libro de códigos obtenido por adelantado mediante aprendizaje, aunque puede usarse cualquier otra técnica para la codificación.
Multiplicando el vector de libro de códigos adaptativo por una ganancia de libro de códigos adaptativo jgc obtenida decodificando el código calculado en la codificación de la ganancia de libro de códigos adaptativo, se calcula un vector de excitación según la siguiente ecuación (etapa 1113 en la figura 14).
Figure imgf000018_0001
Ecuación 30
<Extremo de decodificación>
La unidad 155 de síntesis de vector de excitación multiplica el vector de libro de códigos adaptativo v’(n) por una ganancia de libro de códigos adaptativo g^ obtenida decodificando el código de información secundaria y emite una señal de vector de excitación según la siguiente ecuación (etapa 165 en la figura 9).
Figure imgf000018_0002
Ecuación 31
[Ejemplo alternativo 1-2]
Como ejemplo alternativo del ejemplo 1, a continuación en el presente documento se describe un ejemplo que añade un indicador para la determinación de uso de la información secundaria a la información secundaria.
<Extremo de codificación>
El ejemplo de configuración funcional de la unidad de codificación de información secundaria se muestra en la figura 17, y el procedimiento de la unidad de codificación de información secundaria se muestra en el ejemplo de la figura 18. La diferencia con respecto al ejemplo 1 es únicamente una unidad 1128 de determinación de emisión de información secundaria (etapa 1131 en la figura 18), y por tanto se omite la descripción de las demás partes.
La unidad 1128 de determinación de emisión de información secundaria calcula SNR segmental de la señal decodificada y la señal de previsión según la siguiente ecuación, y sólo cuando la SNR segmental supera un umbral, establece el valor del indicador a activado y lo añade a la información secundaria.
v - i
Í / 2(" )
segSNR = V l H=0-------------¿ 0 ( « ) -*? (« ))2
Ecuación 32
Por otro lado, cuando la SNR segmental no supera un umbral, la unidad 1128 de determinación de emisión de información secundaria establece el valor del indicador a desactivado y lo añade a la información secundaria (etapa 1131 en la figura 18). Obsérvese que puede reducirse la cantidad de bits de la información secundaria añadiendo la información secundaria tal como un retardo de altura y una ganancia de altura al indicador y transmitiendo la información secundaria añadida únicamente cuando el valor del indicador es activado, y transmitiendo únicamente el valor del indicador cuando el valor del indicador es desactivado.
<Extremo de decodificación>
La unidad de decodificación de información secundaria decodifica el indicador contenido en el código de información secundaria. Cuando el valor del indicador es activado, la unidad de procesamiento de ausencia de parámetro de audio calcula una señal decodificada mediante el mismo procedimiento que en el ejemplo 1. Por otro lado, cuando el valor del indicador es desactivado, calcula una señal decodificada mediante la técnica de ocultamiento de pérdida de paquetes sin usar información secundaria (etapa 1151 en la figura 19).
[Ejemplo 2]
En este ejemplo, también se usa el audio decodificado de la parte de señal de previsión cuando se recibe correctamente un paquete. Para los propósitos de esta discusión, el número de subtramas contenidas en una trama es M subtramas, y la longitud de la señal de previsión es M’ subtramas.
<Extremo de codificación>
Tal como se muestra en el ejemplo de la figura 20, el dispositivo de transmisión de señal de audio incluye una unidad 211 de codificación principal, una unidad 212 de codificación de información secundaria, una unidad 213 de acumulación de señal de ocultamiento y una unidad 214 de codificación de señal de error. El procedimiento del dispositivo de transmisión de señal de audio se muestra en la figura 22.
La unidad 214 de codificación de señal de error lee una señal de ocultamiento para una subtrama a partir de la unidad 213 de acumulación de señal de ocultamiento, la resta de la señal de audio y de ese modo calcula una señal de error (etapa 221 en la figura 22).
La unidad 214 de codificación de señal de error codifica la señal de error. Como procedimiento de ejemplo específico, puede usarse AVQ descrito en la sección 6.8.4.1.5 en el documento no de patente 4. En la codificación de la señal de error, se realiza decodificación local, y se emite una señal de error decodificada (etapa 222 en la figura 22).
Añadiendo la señal de error decodificada a la señal de ocultamiento, se emite una señal decodificada para una subtrama (etapa 223 en la figura 22).
Las etapas anteriores 221 a 223 se repiten para M' subtramas hasta el final de la señal de ocultamiento.
Una configuración funcional de ejemplo de la unidad 211 de codificación principal se muestra en la figura 21. La unidad 211 de codificación principal incluye una unidad 2011 de codificación de ISF, una unidad 2012 de cálculo de señal objetivo, una unidad 2013 de cálculo de retardo de altura, una unidad 2014 de cálculo de libro de códigos adaptativo, una unidad 2015 de cálculo de libro de códigos fijo, una unidad 2016 de cálculo de ganancia, una unidad 2017 de cálculo de vector de excitación, un filtro 2018 de síntesis y una memoria 2019 intermedia de libro de códigos adaptativo.
La unidad 2011 de codificación de ISF obtiene un coeficiente de LP aplicando el método de Levinson-Durbin a la trama que va a codificarse y la señal de previsión. Después, la unidad 2011 de codificación de ISF convierte el coeficiente de LP en un parámetro de ISF y codifica el parámetro de ISF. Después, la unidad 2011 de codificación de ISF decodifica el código y obtiene un parámetro de iSf decodificado. Finalmente, la unidad 2011 de codificación de ISF interpola el parámetro de ISF decodificado y obtiene un coeficiente de LP decodificado para cada subtrama. Los procedimientos del método de Levinson-Durbin y la conversión del coeficiente de LP al parámetro de ISF son los mismos que en el ejemplo 1. Además, para la codificación del parámetro de ISF, puede usarse el procedimiento descrito, por ejemplo, en la sección 6.8.2 en el documento no de patente 4. Un índice obtenido codificando el parámetro de ISF, el parámetro de ISF decodificado y el coeficiente de LP decodificado (que se obtiene convirtiendo el parámetro de ISF decodificado en el coeficiente de LP) pueden obtenerse mediante la unidad 2011 de codificación de ISF (etapa 224 en la figura 22).
El procedimiento detallado de la unidad 2012 de cálculo de señal objetivo es el mismo que en la etapa 162 en la figura 9 en el ejemplo 1 (etapa 225 en la figura 22).
La unidad 2013 de cálculo de retardo de altura consulta la memoria intermedia de libro de códigos adaptativo y calcula un retardo de altura y un parámetro de predicción a largo plazo usando la señal objetivo. El procedimiento detallado del cálculo del retardo de altura y el parámetro de predicción a largo plazo es el mismo que en el ejemplo 1 (etapa 226 en la figura 22).
La unidad 2014 de cálculo de libro de códigos adaptativo calcula un vector de libro de códigos adaptativo usando el retardo de altura y el parámetro de predicción a largo plazo calculados mediante la unidad 2013 de cálculo de retardo de altura. El procedimiento detallado de la unidad 2014 de cálculo de libro de códigos adaptativo es el mismo que en el ejemplo 1 (etapa 227 en la figura 22).
La unidad 2015 de cálculo de libro de códigos fijo calcula un vector de libro de códigos fijo y un índice obtenido codificando el vector de libro de códigos fijo usando la señal objetivo y el vector de libro de códigos adaptativo. El procedimiento detallado es el mismo que el procedimiento de AVQ usado en la unidad 214 de codificación de señal de error (etapa 228 en la figura 22).
La unidad 2016 de cálculo de ganancia calcula una ganancia de libro de códigos adaptativo, una ganancia de libro de códigos fijo y un índice obtenido codificando estas dos ganancias usando la señal objetivo, el vector de libro de códigos adaptativo y el vector de libro de códigos fijo. Un procedimiento detallado que puede usarse se describe, por ejemplo, en la sección 6.8.4.1.6 en el documento no de patente 4 (etapa 229 en la figura 22).
La unidad 2017 de cálculo de vector de excitación calcula un vector de excitación sumando el vector de libro de códigos adaptativo y el vector de libro de códigos fijo a los que se aplica la ganancia. El procedimiento detallado es el mismo que en el ejemplo 1. Además, la unidad 2017 de cálculo de vector de excitación actualiza el estado de la memoria 2019 intermedia de libro de códigos adaptativo usando el vector de excitación. El procedimiento detallado es el mismo que en el ejemplo 1 (etapa 2210 en la figura 22).
El filtro 2018 de síntesis sintetiza una señal decodificada usando el coeficiente de LP decodificado y el vector de excitación (etapa 2211 en la figura 22).
Las etapas anteriores 224 a 2211 se repiten para M-M' subtramas hasta el final de la trama que va a codificarse.
La unidad 212 de codificación de información secundaria calcula la información secundaria para la subtrama M' de señal de previsión. Un procedimiento específico es el mismo que en el ejemplo 1 (etapa 2212 en la figura 22).
Además del procedimiento del ejemplo 1, la señal decodificada emitida por el filtro 157 de síntesis de la unidad 212 de codificación de información secundaria se acumula en la unidad 213 de acumulación de señal de ocultamiento en el ejemplo 2 (etapa 2213 en la figura 22).
<Unidad de decodificación>
Tal como se muestra en la figura 23, un ejemplo del dispositivo de recepción de señal de audio incluye una memoria 231 intermedia de código de audio, una unidad 232 de decodificación de parámetro de audio, una unidad 233 de procesamiento de ausencia de parámetro de audio, una unidad 234 de síntesis de audio, una unidad 235 de decodificación de información secundaria, una unidad 236 de acumulación de información secundaria, una unidad 237 de decodificación de señal de error y una unidad 238 de acumulación de señal de ocultamiento. Un procedimiento de ejemplo del dispositivo de recepción de señal de audio se muestra en la figura 24. Una configuración funcional de ejemplo de la unidad 234 de síntesis de audio se muestra en la figura 25.
La memoria 231 intermedia de código de audio determina si se recibe correctamente un paquete o no. Cuando la memoria 231 intermedia de código de audio determina que se recibe correctamente un paquete, el procesamiento se conmuta a la unidad 232 de decodificación de parámetro de audio, la unidad 235 de decodificación de información secundaria y la unidad 237 de decodificación de señal de error. Por otro lado, cuando la memoria 231 intermedia de código de audio determina que no se recibe correctamente un paquete, el procesamiento se conmuta a la unidad 233 de procesamiento de ausencia de parámetro de audio (etapa 241 en la figura 24).
<Cuando se recibe correctamente un paquete>
La unidad 237 de decodificación de señal de error decodifica un código de señal de error y obtiene una señal de error decodificada. Como procedimiento de ejemplo específico, puede usarse un método de decodificación correspondiente al método usado en el extremo de codificación, tal como AVQ descrito en la sección 7.1.2.1.2 en el documento no de patente 4 (etapa 242 en la figura 24).
Una unidad 2318 de síntesis de vector de excitación de previsión lee una señal de ocultamiento para una subtrama a partir de la unidad 238 de acumulación de señal de ocultamiento y añade la señal de ocultamiento a la señal de error decodificada, y de ese modo emite una señal decodificada para una subtrama (etapa 243 en la figura 24).
Las etapas anteriores 241 a 243 se repiten para M' subtramas hasta el final de la señal de ocultamiento.
La unidad 232 de decodificación de parámetro de audio incluye una unidad 2211 de decodificación de ISF, una unidad 2212 de decodificación de retardo de altura, una unidad 2213 de decodificación de ganancia y una unidad 2214 de decodificación de libro de códigos fijo. El ejemplo de configuración funcional de la unidad 232 de decodificación de parámetro de audio se muestra en la figura 26.
La unidad 2211 de decodificación de ISF decodifica el código de ISF y lo convierte en un coeficiente de LP y de ese modo obtiene un coeficiente de LP decodificado. Por ejemplo, se usa el procedimiento descrito en la sección 7.1.1 en el documento no de patente 4 (etapa 244 en la figura 24).
La unidad 2212 de decodificación de retardo de altura decodifica un código de retardo de altura y obtiene un retardo de altura y un parámetro de predicción a largo plazo (etapa 245 en la figura 24).
La unidad 2213 de decodificación de ganancia decodifica un código de ganancia y obtiene una ganancia de libro de códigos adaptativo y una ganancia de libro de códigos fijo. Un procedimiento detallado a modo de ejemplo se describe en la sección 7.1.2.1.3 en el documento no de patente 4 (etapa 246 en la figura 24).
Una unidad 2313 de cálculo de libro de códigos adaptativo calcula un vector de libro de códigos adaptativo usando el retardo de altura y el parámetro de predicción a largo plazo. El procedimiento detallado de la unidad 2313 de cálculo de libro de códigos adaptativo es tal como se describe en el ejemplo 1 (etapa 247 en la figura 24).
La unidad 2214 de decodificación de libro de códigos fijo decodifica un código de libro de códigos fijo y calcula un vector de libro de códigos fijo. El procedimiento detallado es tal como se describe en la sección 7.1.2.1.2 en el documento no de patente 4 (etapa 248 en la figura 24).
Una unidad 2314 de síntesis de vector de excitación calcula un vector de excitación sumando el vector de libro de códigos adaptativo y el vector de libro de códigos fijo a los que se aplica la ganancia. Además, una unidad de cálculo de vector de excitación actualiza la memoria intermedia de libro de códigos adaptativo usando el vector de excitación (etapa 249 en la figura 24). El procedimiento detallado es el mismo que en el ejemplo 1.
Un filtro 2316 de síntesis sintetiza una señal decodificada usando el coeficiente de LP decodificado y el vector de excitación (etapa 2410 en la figura 24). El procedimiento detallado es el mismo que en el ejemplo 1.
Las etapas anteriores 244 a 2410 se repiten para M-M’ subtramas hasta el final de la trama que va a codificarse. La configuración funcional de la unidad 235 de decodificación de información secundaria es la misma que en el ejemplo 1. La unidad 235 de decodificación de información secundaria decodifica el código de información secundaria y calcula un retardo de altura (etapa 2411 en la figura 24).
La configuración funcional de la unidad 233 de procesamiento de ausencia de parámetro de audio es la misma que en el ejemplo 1.
La unidad 191 de predicción de ISF predice un parámetro de ISF usando el parámetro de ISF para la trama anterior y convierte el parámetro de ISF predicho en un coeficiente de LP. El procedimiento es el mismo que en las etapas 172, 173 y 174 del ejemplo 1 mostrado en la figura 10 (etapa 2412 en la figura 24).
La unidad 2313 de cálculo de libro de códigos adaptativo calcula un vector de libro de códigos adaptativo usando el retardo de altura emitido a partir de la unidad 235 de decodificación de información secundaria y un libro 2312 de códigos adaptativo (etapa 2413 en la figura 24). El procedimiento es el mismo que en las etapas 11301 y 11302 en la figura 16.
La unidad 193 de predicción de ganancia de libro de códigos adaptativo emite una ganancia de libro de códigos adaptativo. Un procedimiento específico es el mismo que en la etapa 1103 en la figura 13 (etapa 2414 en la figura 24).
La unidad 194 de predicción de ganancia de libro de códigos fijo emite una ganancia de libro de códigos fijo. Un procedimiento específico es el mismo que en la etapa 1104 en la figura 13 (etapa 2415 en la figura 24).
La unidad 195 de generación de señal de ruido emite un ruido, tal como un ruido blanco, como vector de libro de códigos fijo. El procedimiento es el mismo que en la etapa 1105 en la figura 13 (etapa 2416 en la figura 24).
La unidad 2314 de síntesis de vector de excitación aplica ganancia a cada uno del vector de libro de códigos adaptativo y el vector de libro de códigos fijo y los suma entre sí y de ese modo calcula un vector de excitación. Además, la unidad 2314 de síntesis de vector de excitación actualiza la memoria intermedia de libro de códigos adaptativo usando el vector de excitación (etapa 2417 en la figura 24).
El filtro 2316 de síntesis calcula una señal decodificada usando el coeficiente de LP y el vector de excitación descritos anteriormente. Después, el filtro 2316 de síntesis actualiza la unidad 238 de acumulación de señal de ocultamiento usando la señal decodificada calculada (etapa 2418 en la figura 24).
Las etapas anteriores se repiten para M’ subtramas, y se emite la señal decodificada como señal de audio.
<Cuando se pierde un paquete>
Se lee una señal de ocultamiento para una subtrama a partir de la unidad de acumulación de señal de ocultamiento y se usa como señal decodificada (etapa 2419 en la figura 24).
Lo anterior se repite para M’ subtramas.
La unidad 191 de predicción de ISF predice un parámetro de ISF (etapa 2420 en la figura 24). Como procedimiento, puede usarse la etapa 1101 en la figura 13.
La unidad 192 de predicción de retardo de altura emite un retardo de altura predicho usando el retardo de altura usado en la decodificación pasada (etapa 2421 en la figura 24). El procedimiento usado para la predicción es el mismo que en la etapa 1102 en la figura 13.
Las operaciones de la unidad 193 de predicción de ganancia de libro de códigos adaptativo, la unidad 194 de predicción de ganancia de libro de códigos fijo, la unidad 195 de generación de señal de ruido y la unidad 234 de síntesis de audio son las mismas que en el ejemplo 1 (etapa 2422 en la figura 24).
Las etapas anteriores se repiten para M subtramas, y se emite la señal decodificad para M-M’ subtramas como señal de audio, y la unidad 238 de acumulación de señal de ocultamiento se actualiza mediante la señal decodificada para las M’ subtramas restantes.
[Ejemplo 3]
A continuación en el presente documento se describe un caso de usar sincronización de pulso glotal en el cálculo de un vector de libro de códigos adaptativo.
<Extremo de codificación>
La configuración funcional del dispositivo de transmisión de señal de audio es la misma que en el ejemplo 1. La configuración funcional y el procedimiento son diferentes únicamente en la unidad de codificación de información secundaria, y por tanto a continuación sólo se describe el funcionamiento de la unidad de codificación de información secundaria.
La unidad de codificación de información secundaria incluye una unidad 311 de cálculo de coeficiente de LP, una unidad 312 de predicción de retardo de altura, una unidad 313 de selección de retardo de altura, una unidad 314 de codificación de retardo de altura y una memoria 315 intermedia de libro de códigos adaptativo. La configuración funcional de un ejemplo de la unidad de codificación de información secundaria se muestra en la figura 27, y un procedimiento de ejemplo de la unidad de codificación de información secundaria se muestra en el ejemplo de la figura 28.
La unidad 311 de cálculo de coeficiente de LP es la misma que la unidad de cálculo de coeficiente de LP en el ejemplo 1 y por tanto no se describirá de manera redundante (etapa 321 en la figura 28).
La unidad 312 de predicción de retardo de altura calcula un valor predicho de retardo de altura usando el retardo de altura obtenido a partir de la unidad de codificación de audio (etapa 322 en la figura 28). El procesamiento específico de la predicción es el mismo que la predicción del retardo de altura en la unidad 192 de predicción de retardo de altura en el ejemplo 1 (que es la misma que en la etapa 1102 en la figura 13).
Después, la unidad 313 de selección de retardo de altura determina un retardo de altura que va a transmitirse como información secundaria (etapa 323 en la figura 28). El procedimiento detallado de la unidad 313 de selección de retardo de altura se muestra en el ejemplo de la figura 29.
En primer lugar, se genera un retardo de altura libro de códigos a partir del valor predicho de retardo de altura T y el valor del retardo de altura pasado
Figure imgf000022_0001
según las siguientes ecuaciones (etapa 331 en la figura 29).
<Cuando f p - T p {~1)> 0 >
Figure imgf000022_0002
Ecuación 33
i - 7 (_1)< 0
<Cuando p p >
Figure imgf000022_0003
Ecuación 34
f(-í)'
El valor del retardo de altura para una subtrama antes es p Además, el número de índices del libro de códigos es I. 8j es una anchura de paso predeterminada, y p es una constante predeterminada.
Después, usando el libro de códigos adaptativo y el valor predicho de retardo de altura 5re, se genera un vector de excitación inicial uü(n) según la siguiente ecuación (etapa 332 en la figura 29).
Figure imgf000023_0001
Ecuación 35
El procedimiento de calcular el vector de excitación inicial es el mismo que las ecuaciones (607) y (608) en el documento no de patente 4.
Después, se A aplica sincronización de pulso glotal al vector de excitación inicial usando todos los retardos de altura candidatos T ¿(0 < j< J ) en el retardo de altura libro de códigos para generar de ese modo un vector de libro de códigos adaptativo candidato uj(n)(0<j<I) (etapa 333 en la figura 29). Para la sincronización de pulso glotal, puede usarse el mismo procedimiento que en el caso descrito en la sección 7.11.2.5 en el documento no de patente 4 en el que no está disponible una posición de pulso. Sin embargo, obsérvese que u(n) en el documento no de p Aa .tente 4 corresponde a uo(n) en la realización de la presente invención, y la altura extrapolada corresponde a T c J en la f ( - l )
realización de la presente invención, y la última altura fiable (Tc) corresponde a p en la realización de la presente invención.
Para el vector de libro de códigos adaptativo candidato uj(n)(0<j<I), se calcula una escala de tasa (etapa 334 en la figura 29). En el caso de usar SNR segmental como escala de tasa, se sintetiza una señal mediante filtrado inverso usando el coeficiente de LP, y se calcula SNR segmental con la señal de entrada según la siguiente ecuación.
sj (n) = uJ( n ) - Y ¿a(i)-sJ(n~i)
Ecuación 35
Figure imgf000023_0002
Ecuación 36
En lugar de realizar filtrado inverso, puede calcularse SNR segmental en la región del vector de libro de códigos adaptativo usando una señal residual según la siguiente ecuación.
Figure imgf000023_0003
En este caso, se calcula una señal residual r(n) de la señal de previsión s(n)(0<n<L') usando el coeficiente de LP (etapa 181 en la figura 11).
Se selecciona un índice correspondiente a la escala de tasa más grande calculada en la etapa 334, y se calcula un retardo de altura correspondiente al índice (etapa 335 en la figura 29).
a r g m a x [segSNRj J
i Ecuación 39 <Extremo de decodificación>
La configuración funcional del dispositivo de recepción de señal de audio es la misma que en el ejemplo 1.
Diferencias con respecto al ejemplo 1 son la configuración funcional y el procedimiento de la unidad 123 de procesamiento de ausencia de parámetro de audio, la unidad 125 de decodificación de información secundaria y la unidad 126 de acumulación de información secundaria, y a continuación en el presente documento sólo se describen éstas.
<Cuando se recibe correctamente un paquete>
La unidad 125 de decodificación de información secundaria decodifica el código de información secundaria y calcula rpidx
un retardo de altura y lo almacena en la unidad 126 de acumulación de información secundaria. El procedimiento de ejemplo de la unidad 125 de decodificación de información secundaria se muestra en la figura 30. En el cálculo del retardo de altura, la unidad 312 de predicción de retardo de altura calcula en primer lugar un valor predicho de retardo de altura usando el retardo de altura obtenido a partir de la unidad de decodificación de audio (etapa 341 en la figura 30). El procesamiento específico de la predicción es el mismo que en la etapa 322 de la figura 28 en el ejemplo 3.
Después, se genera un retardo de altura libro de códigos a partir del valor predicho de retardo de altura T c, y el
valor del retardo de altura pasado f P H) ( v0< J j <J) según las siguientes ecuaciones (etapa 342 en la figura 30).
<Cuando f P P 0 >
Figure imgf000024_0001
Ecuación 40
<Cuando T P - T P {~1)< 0 ;
Figure imgf000024_0002
Ecuación 41
El procedimiento es el mismo que en la etapa 331 en la figura 29. El valor del retardo de altura para una subtrama antes es p ‘ Además, el número de índices del libro de códigos es I. 8j es una anchura de paso predeterminada, y p es una constante predeterminada.
rpidx Después, haciendo referencia al retardo de altura libro de códigos, se calcula un retardo de altura J C correspondiente al índice idx transmitido como parte de la información secundaria y se almacena en la unidad 126 de acumulación de información secundaria (etapa 343 en la figura 30).
<Cuando se detecta pérdida de paquetes>
Aunque la configuración funcional de la unidad de síntesis de audio también es la misma que en el ejemplo 1 (que es la misma que en la figura 15), a continuación en el presente documento sólo se describe la unidad 1123 de cálculo de libro de códigos adaptativo que funciona de manera diferente con respecto a la del ejemplo 1.
La unidad 123 de procesamiento de ausencia de parámetro de audio lee el retardo de altura a partir de la unidad 126 de acumulación de información secundaria y calcula un valor predicho de retardo de altura según la siguiente ecuación, y usa el valor predicho de retardo de altura calculado en lugar de la salida de la unidad 192 de predicción de retardo de altura.
Figure imgf000024_0003
Ecuación 42
donde k es una constante predeterminada.
Después, usando el libro de códigos adaptativo y el valor predicho de retardo de altura Tp, se genera un vector de excitación inicial uo(n) según la siguiente ecuación (etapa 332 en la figura 29).
Figure imgf000025_0001
T3 idx Después, se aplica sincronización de pulso glotal al vector de excitación inicial usando el retardo de altura C para así generar un vector de libro de códigos adaptativo u(n). Para la sincronización de pulso glotal, se usa el mismo procedimiento que en la etapa 333 de la figura 29.
A continuación en el presente documento, se describe un programa 70 de codificación de audio que hace que un ordenador ejecute el procesamiento descrito anteriormente mediante el dispositivo de transmisión de señal de audio. Tal como se muestra en la figura 31, el programa 70 de codificación de audio se almacena en un área 61 de almacenamiento de programa formada en un medio 60 de grabación que se inserta en un ordenador y al que se accede, o se incluye en un ordenador.
El programa 70 de codificación de audio incluye un módulo 700 de codificación de audio y un módulo 701 de codificación de información secundaria. Las funciones implementadas ejecutando el módulo 700 de codificación de audio y el módulo 701 de codificación de información secundaria son las mismas que las funciones de la unidad 111 de codificación de audio y la unidad 112 de codificación de información secundaria en el dispositivo de transmisión de señal de audio anteriormente descrito, respectivamente.
Obsérvese que una parte o la totalidad del programa 70 de codificación de audio puede transmitirse a través de un medio de transmisión tal como una línea de comunicación, recibirse y almacenarse (incluyendo instalarse) mediante otro dispositivo. Además, cada módulo del programa 70 de codificación de audio puede instalarse no en un ordenador sino en cualquiera de una pluralidad de ordenadores. En este caso, el procesamiento descrito anteriormente del programa 70 de codificación de audio se realiza mediante un sistema informático compuesto por la pluralidad de ordenadores.
A continuación en el presente documento, se describe un programa 90 de decodificación de audio que hace que un ordenador ejecute el procesamiento descrito anteriormente mediante el dispositivo de recepción de señal de audio. Tal como se muestra en la figura 32, el programa 90 de decodificación de audio se almacena en un programa se almacena en un área 81 de almacenamiento de programa formada en un medio 80 de grabación que se inserta en un ordenador y al que se accede, o se incluye en un ordenador.
El programa 90 de decodificación de audio incluye un módulo 900 de memoria intermedia de código de audio, un módulo 901 de decodificación de parámetro de audio, un módulo 902 de decodificación de información secundaria, un módulo 903 de acumulación de información secundaria, un módulo 904 de procesamiento de ausencia de parámetro de audio, y un módulo 905 de síntesis de audio. Las funciones implementadas ejecutando el módulo 900 de memoria intermedia de código de audio, el módulo 901 de decodificación de parámetro de audio, el módulo 902 de decodificación de información secundaria, el módulo 903 de acumulación de información secundaria, un módulo 904 de procesamiento de ausencia de parámetro de audio y el módulo 905 de síntesis de audio son las mismas que las funciones de la memoria 231 intermedia de código de audio, la unidad 232 de decodificación de parámetro de audio, la unidad 235 de decodificación de información secundaria, la unidad 236 de acumulación de información secundaria, la unidad 233 de procesamiento de ausencia de parámetro de audio y la unidad 234 de síntesis de audio anteriormente descritas, respectivamente.
Obsérvese que una parte o la totalidad del programa 90 de decodificación de audio puede transmitirse a través de un medio de transmisión tal como una línea de comunicación, recibirse y almacenarse (incluyendo instalarse) mediante otro dispositivo. Además, cada módulo del programa 90 de decodificación de audio puede instalarse no en un ordenador sino en cualquiera de una pluralidad de ordenadores. En este caso, el procesamiento descrito anteriormente del programa 90 de decodificación de audio se realiza mediante un sistema informático compuesto por la pluralidad de ordenadores.
[Ejemplo 4]
A continuación en el presente documento se describe un ejemplo que usa información secundaria para la predicción de retardo de altura en el extremo de decodificación.
<Extremo de codificación>
La configuración funcional del dispositivo de transmisión de señal de audio es la misma que en el ejemplo 1. La configuración funcional y el procedimiento sólo son diferentes en cuanto a la unidad 112 de codificación de información secundaria, y por tanto a continuación en el presente documento sólo se describe el funcionamiento de la unidad 112 de codificación de información secundaria.
La configuración funcional de un ejemplo de la unidad 112 de codificación de información secundaria se muestra en la figura 33, y un procedimiento de ejemplo de la unidad 112 de codificación de información secundaria se muestra en la figura 34. La unidad 112 de codificación de información secundaria incluye una unidad 511 de cálculo de coeficiente de LP, una unidad 512 de cálculo de señal residual, una unidad 513 de cálculo de retardo de altura, una unidad 514 de cálculo de libro de códigos adaptativo, una memoria 515 intermedia de libro de códigos adaptativo, y una unidad 516 de codificación de retardo de altura.
La unidad 511 de cálculo de coeficiente de LP es la misma que la unidad 151 de cálculo de coeficiente de LP en el ejemplo 1 mostrado en la figura 8 y por tanto no se describe de manera redundante.
La unidad 512 de cálculo de señal residual calcula una señal residual mediante el mismo procesamiento que en la etapa 181 en el ejemplo 1 mostrado en la figura 11.
La unidad 513 de cálculo de retardo de altura calcula un retardo de altura para cada subtrama calculando k que maximiza la siguiente ecuación (etapa 163 en la figura 34). Obsérvese que u(n) indica el libro de códigos adaptativo, y L' indica el número de muestras contenidas en una subtrama.
Figure imgf000026_0001
Ecuación 43
La unidad 514 de cálculo de libro de códigos adaptativo calcula un vector de libro de códigos adaptativo v'(n) a partir del retardo de altura Tp y el libro de códigos adaptativo u(n). La longitud del libro de códigos adaptativo es Nadapt (etapa 164 en la figura 34).
v ’ (n)=u(n+Nadapt-Tp) Ecuación 44 La memoria 515 intermedia de libro de códigos adaptativo actualiza el estado mediante el vector de libro de códigos adaptativo v'(n) (etapa 166 en la figura 34).
Figure imgf000026_0002
Ecuación 45
Ecuación 46
La unidad 516 de codificación de retardo de altura es la misma que la del ejemplo 1 y por tanto no se describe de manera redundante (etapa 169 en la figura 34).
<Extremo de decodificación>
El dispositivo de recepción de señal de audio incluye la memoria 121 intermedia de código de audio, la unidad 122 de decodificación de parámetro de audio, la unidad 123 de procesamiento de ausencia de parámetro de audio, la unidad 124 de síntesis de audio, la unidad 125 de decodificación de información secundaria, y la unidad 126 de acumulación de información secundaria, al igual que en el ejemplo 1. El procedimiento del dispositivo de recepción de señal de audio es tal como se muestra en la figura 7.
El funcionamiento de la memoria 121 intermedia de código de audio es el mismo que en el ejemplo 1.
<Cuando se recibe correctamente un paquete>
El funcionamiento de la unidad 122 de decodificación de parámetro de audio es el mismo que en el ejemplo 1.
La unidad 125 de decodificación de información secundaria decodifica el código de información secundaria, calcula un retardo de altura f t O)f K 0 < J i < M , ) 7 y lo almacena en la unidad 126 de acumulación de información secundaria. La unidad 125 de decodificación de información secundaria decodifica el código de información secundaria usando el método de decodificación correspondiente al método de codificación usado en el extremo de codificación.
La unidad 124 de síntesis de audio es la misma que la del ejemplo 1.
<Cuando se detecta pérdida de paquetes>
La unidad 191 de predicción de ISF de la unidad 123 de procesamiento de ausencia de parámetro de audio (véase la figura 12) calcula un parámetro de ISF de la misma manera que en el ejemplo 1.
Un procedimiento de ejemplo de la unidad 192 de predicción de retardo de altura se muestra en la figura 35. La unidad 192 de predicción de retardo de altura lee el código de información secundaria a partir de la unidad 126 de acumulación de información secundaria y obtiene un retardo de altura ^P $ — Í <' ^ - l a) de la misma manera que en el ejemplo 1 (etapa 4051 en la figura 35). Además, la unidad 192 de predicción de retardo de altura emite el retardo de altura T ~P ? W h < i< lá ) ' usando el retardo de altura ~P v J usado en la decodificación pasada (etapa 4052 en la figura 35). El número de subtramas contenidas en una trama es M, y el número de retardos de altura contenidos en la información secundaria es Mia. En la predicción del retardo de altura puede usarse el procedimiento tal como se describe en el documento no de patente 4 (etapa 1102 en la figura 13).
En la predicción del retardo de altura
Figure imgf000027_0001
5 la unidad 192 de predicción de retardo de altura puede predecir el retardo de altura f P (0 ( KM, ía < i < M) / usando el retardo de altura T P{~ñ (1 < / < J) usado en la
Figure imgf000027_0002
yHO _ decodificación pasada y el retardo de altura P ^ ~ Además, puede establecerse " P ~P .E l procedimiento de la unidad de predicción de retardo de altura en este caso es tal como se muestra en la figura 36.
Además, la unidad 192 de predicción de retardo de altura puede establecer
Figure imgf000027_0003
sólo cuando la fiabilidad del valor predicho de retardo de altura es baja. El procedimiento de la unidad de predicción de retardo de altura en este caso se muestra en la figura 37. Información de instrucciones con respecto a si se usa el valor predicho, o el retardo de altura p obtenido mediante la información secundaria, puede introducirse en la unidad 154 de cálculo de libro de códigos adaptativo.
La unidad 193 de predicción de ganancia de libro de códigos adaptativo y la unidad 194 de predicción de ganancia de libro de códigos fijo son las mismas que las del ejemplo 1.
La unidad 195 de generación de señal de ruido es la misma que la del ejemplo 1.
La unidad 124 de síntesis de audio sintetiza, a partir de los parámetros emitidos a partir de la unidad 123 de procesamiento de ausencia de parámetro de audio, una señal de audio correspondiente a la trama que va a codificarse.
La unidad 1121 de cálculo de coeficiente de LP de la unidad 124 de síntesis de audio (véase la figura 15) obtiene un coeficiente de LP de la misma manera que en el ejemplo 1 (etapa S11301 en la figura 16).
La unidad 1123 de cálculo de libro de códigos adaptativo calcula un vector de libro de códigos adaptativo de la misma manera que en el ejemplo 1. La unidad 1123 de cálculo de libro de códigos adaptativo puede realizar filtrado en el vector de libro de códigos adaptativo o puede no realizar filtrado. Específicamente, el vector de libro de códigos adaptativo se calcula usando la siguiente ecuación. El coeficiente de filtrado es fi.
Figure imgf000027_0004
Ecuación 47
En el caso de decodificar un valor que no indica filtrado, se establece v(n)=v'(n) (etapa A de cálculo de libro de códigos adaptativo).
La unidad 1123 de cálculo de libro de códigos adaptativo puede calcular un vector de libro de códigos adaptativo en el siguiente procedimiento (etapa B de cálculo de libro de códigos adaptativo).
Se calcula un vector de libro de códigos adaptativo inicial usando el retardo de altura y el libro 1122 de códigos adaptativo.
Figure imgf000028_0001
Ecuación 48
Puede establecerse v(n)=v'(n) según una política de diseño.
Después, se aplica sincronización de pulso glotal al vector de libro de códigos adaptativo inicial. Para la sincronización de pulso glotal, se usa el mismo procedimiento que en el caso en el que no está disponible una posición de pulso en la sección 7.11.2.5 en el documento no de patente 4. Sin embargo, obsérvese que u(n) en el documento no de patente 4 corresponde a v(n) en la realización de la presente invención, y la altura extrapolada corresponde a P en la realización de la presente invención, y la última altura fiable (Te) corresponde a T en la realización de la presente invención.
Además, en el caso en el que la unidad 192 de predicción de retardo de altura emite la información de instrucciones descrita anteriormente para el valor predicho, cuando la información de instrucciones indica que el retardo de altura transmitido como información secundaria no debe usarse como valor predicho (NO en la etapa 4082 en la figura 38), la unidad 1123 de cálculo de libro de códigos adaptativo puede usar la etapa A de cálculo de libro de códigos adaptativo descrita anteriormente, y si se indica que debe usarse el valor de altura (SÍ en la etapa 4082 en la figura 38), la unidad 1123 de cálculo de libro de códigos adaptativo puede usar la etapa B de cálculo de libro de códigos adaptativo descrita anteriormente. El procedimiento de la unidad 1123 de cálculo de libro de códigos adaptativo en este caso se muestra en el ejemplo de la figura 38.
La unidad 1124 de síntesis de vector de excitación emite un vector de excitación de la misma manera que en el ejemplo 1 (etapa 11306 en la figura 16).
El filtro 1125 posterior realiza un procesamiento posterior en la señal de síntesis de la misma manera que en el ejemplo 1.
El libro 1122 de códigos adaptativo actualiza el estado usando la señal de vector de excitación de la misma manera que en el ejemplo 1 (etapa 11308 en la figura 16).
El filtro 1126 de síntesis sintetiza una señal decodificada de la misma manera que en el ejemplo 1 (etapa 11309 en la figura 16).
El filtro 1127 inverso de ponderación perceptual aplica un filtro inverso de ponderación perceptual de la misma manera que en el ejemplo 1.
La unidad 123 de procesamiento de ausencia de parámetro de audio almacena los parámetros de audio (parámetro de ISF, retardo de altura, ganancia de libro de códigos adaptativo, ganancia de libro de códigos fijo) usados en la unidad 124 de síntesis de audio en la memoria intermedia de la misma manera que en el ejemplo 1 (etapa 145 en la figura 7).
[Ejemplo 5]
En esta realización, se describe una configuración en la que sólo se transmite un retardo de altura como información secundaria en una clase de trama específica, y de lo contrario no se transmite un retardo de altura.
<Extremo de transmisión>
En el dispositivo de transmisión de señal de audio, se envía una señal de audio de entrada a la unidad 111 de codificación de audio.
La unidad 111 de codificación de audio en este ejemplo calcula un índice que representa las características de una trama que va a codificarse y transmite el índice a la unidad 112 de codificación de información secundaria. Las demás operaciones son las mismas que en el ejemplo 1.
En la unidad 112 de codificación de información secundaria, la diferencia con respecto a los ejemplos 1 a 4 sólo es con respecto a la unidad 158 de codificación de retardo de altura, y por tanto a continuación en el presente documento se describe el funcionamiento de la unidad 158 de codificación de retardo de altura. La configuración de la unidad 112 de codificación de información secundaria en el ejemplo 5 se muestra en la figura 39.
El procedimiento de la unidad 158 de codificación de retardo de altura se muestra en el ejemplo de la figura 40. La unidad 158 de codificación de retardo de altura lee el índice que representa las características de la trama que va a codificarse (etapa 5021 en la figura 40) y, cuando el índice que representa las características de la trama que va a codificarse es igual a un valor predeterminado, la unidad 158 de codificación de retardo de altura determina el número de bits que van a asignarse a la información secundaria como B bits (B>1). Por otro lado, cuando el índice que representa las características de la trama que va a codificarse es diferente de un valor predeterminado, la unidad 158 de codificación de retardo de altura determina el número de bits que van a asignarse a la información secundaria como 1 bit (etapa 5022 en la figura 40).
Cuando el número de bits que van a asignarse a la información secundaria es de 1 bit (No en la etapa 5022 en la figura 40), se usa un valor que indica la no transmisión de la información secundaria como código de información secundaria, y se establece para el índice de información secundaria (etapa 5023 en la figura 40).
Por otro lado, cuando el número de bits que van a asignarse a la información secundaria es de B bits (Sí en la etapa 5022 en la figura 40), se establece un valor que indica transmisión de la información secundaria para el índice de información secundaria (etapa 5024 en la figura 40), y, además, se añade un código de B-1 bits obtenido codificando el retardo de altura mediante el método descrito en el ejemplo 1, para su uso como código de información secundaria (etapa 5025 en la figura 40).
<Extremo de decodificación>
El dispositivo de recepción de señal de audio incluye la memoria 121 intermedia de código de audio, la unidad 122 de decodificación de parámetro de audio, la unidad 123 de procesamiento de ausencia de parámetro de audio, la unidad 124 de síntesis de audio, la unidad 125 de decodificación de información secundaria y la unidad 126 de acumulación de información secundaria, al igual que en el ejemplo 1. El procedimiento del dispositivo de recepción de señal de audio es tal como se muestra en la figura 7.
El funcionamiento de la memoria 121 intermedia de código de audio es el mismo que en el ejemplo 1.
<Cuando se recibe correctamente un paquete>
El funcionamiento de la unidad 122 de decodificación de parámetro de audio es el mismo que en el ejemplo 1. El procedimiento de la unidad 125 de decodificación de información secundaria se muestra en el ejemplo de la figura 41. La unidad 125 de decodificación de información secundaria decodifica en primer lugar el índice de información secundaria contenido en el código de información secundaria (etapa 5031 en la figura 41). Cuando el índice de información secundaria indica la no transmisión de la información secundaria, la unidad 125 de decodificación de información secundaria no realiza ninguna operación de decodificación adicional. Además, la unidad 125 de decodificación de información secundaria almacena el valor del índice de información secundaria en la unidad 126 de acumulación de información secundaria (etapa 5032 en la figura 41).
Por otro lado, cuando el índice de información secundaria indica transmisión de la información secundaria, la unidad 125 de decodificación de información secundaria realiza adicionalmente la decodificación de B-1 bits y calcula un retardo de altura T p U)( y 0 < J i < M h , 1 ' y almacena el retardo de altura calculado en la unidad 126 de acumulación de información secundaria (etapa 5033 en la figura 41). Además, la unidad 125 de decodificación de información secundaria almacena el valor del índice de información secundaria en la unidad 126 de acumulación de información secundaria. Obsérvese que la decodificación de la información secundaria de B-1 bits es la misma operación que la unidad 125 de decodificación de información secundaria en el ejemplo 1.
La unidad 124 de síntesis de audio es la misma que la del ejemplo 1.
<Cuando se detecta pérdida de paquetes>
La unidad 191 de predicción de ISF de la unidad 123 de procesamiento de ausencia de parámetro de audio (véase la figura 12) calcula un parámetro de ISF de la misma manera que en el ejemplo 1.
El procedimiento de la unidad 192 de predicción de retardo de altura se muestra en el ejemplo de la figura 42. La unidad 192 de predicción de retardo de altura lee el índice de información secundaria a partir de la unidad 126 de acumulación de información secundaria (etapa 5041 en la figura 42) y comprueba si es el valor que indica transmisión de la información secundaria (etapa 5042 en la figura 42).
<Cuando el índice de información secundaria es un valor que indica transmisión de información secundaria> De la misma manera que en el ejemplo 1, se lee el código de información secundaria a partir de la unidad 126 de acumulación de información secundaria para obtener un retardo de altura
Figure imgf000030_0001
(etapa 5043 en la
figura 42). Además, se emite el retardo de altura T p ? ( v Mh la <i <M) ' usando el retardo de altura
T P(~J) ( v0< J í < J) ' usado en la decodificación pasada y se obtiene f P (í) ( v0 < Í < M , ) como información secundaria (etapa 5044 en la figura 42). El número de subtramas contenidas en una trama es M, y el número de retardos de altura contenidos en la información secundaria es Mia. En la predicción del retardo de altura
r puede U uOsCaIrIOsCe d el | p-»lroced I Iim I MiCeInto tal como se describe en el documento no de patente 4 (etapa
r f(¡) _
Figure imgf000030_0002
1102 en la figura 13). Además, puede establecerse p
j ( 0 __ J<<Mla)
Además, la unidad 192 de predicción de retardo de altura puede establecer P P sólo cuando la fiabilidad j ' i } )
del valor predicho de retardo de altura es baja, y de lo contrario establece el valor predicho a P (etapa 5046 en la figura 42). Además, información de instrucciones de retardo de altura que indica si se usa el valor predicho, o se usa f(¥b)
el retardo de altura P obtenido mediante la información secundaria, puede introducirse en la unidad 1123 de cálculo de libro de códigos adaptativo.
<Cuando el índice de información secundaria es un valor que indica la no transmisión de información secundaria>
Figure imgf000030_0003
l _a__ un_i_da_d__ 1_9_2__ de__ predicción de retardo de altura
í f ( 0 < i < M ) usando e| retardo de a|tura T ^ ( l < j < J )
predice el retardo de altura * P usado en la decodificación pasada (etapa 5048 en la figura 42)
f(i) = f c-i)
Además, la unidad 192 de predicción de retardo de altura puede establecer P P sólo cuando la fiabilidad del valor predicho de retardo de altura es baja (etapa 5049 en la figura 42), y la unidad 192 de predicción de retardo j ' i } )
de altura puede establecer de lo contrario el valor predicho a P ' Además, se introduce información de j ’i - 1) instrucciones de retardo de altura que indica si se usa el valor predicho, o se usa el retardo de altura p usado en la decodificación pasad, en la unidad 1123 de cálculo de libro de códigos adaptativo (etapa 5050 en la figura 42).
La unidad 193 de predicción de ganancia de libro de códigos adaptativo y la unidad 194 de predicción de ganancia de libro de códigos fijo son las mismas que las del ejemplo 1.
La unidad 195 de generación de señal de ruido es la misma que la del ejemplo 1.
La unidad 124 de síntesis de audio sintetiza, a partir de los parámetros emitidos a partir de la unidad 123 de procesamiento de ausencia de parámetro de audio, una señal de audio que corresponde a la trama que va a codificarse.
La unidad 1121 de cálculo de coeficiente de LP de la unidad 124 de síntesis de audio (véase la figura 15) obtiene un coeficiente de LP de la misma manera que en el ejemplo 1 (etapa S11301 en la figura 16).
El procedimiento de la unidad 1123 de cálculo de libro de códigos adaptativo se muestra en el ejemplo de la figura 43. La unidad 1123 de cálculo de libro de códigos adaptativo calcula un vector de libro de códigos adaptativo de la misma manera que en el ejemplo 1. En primer lugar, consultando la información de instrucciones de retardo de altura (etapa 5051 en la figura 43), cuando la fiabilidad del valor predicho es baja (SÍ en la etapa 5052 en la figura 43), el vector de libro de códigos adaptativo se calcula usando la siguiente ecuación (etapa 5055 en la figura 43). El coeficiente de filtrado es fi.
Figure imgf000030_0004
Ecuación 49
Obsérvese que puede establecerse v(n)=v'(n) según la política de diseño.
Consultando la información de instrucciones de retardo de altura, cuando la fiabilidad del valor predicho es alta (NO en la etapa 5052 en la figura 43), la unidad 1123 de cálculo de libro de códigos adaptativo calcula el vector de libro de códigos adaptativo mediante el siguiente procedimiento.
En primer lugar, se calcula el vector de libro de códigos adaptativo inicial usando el retardo de altura y el libro 1122 de códigos adaptativo (etapa 5053 en la figura 43).
Figure imgf000031_0001
Ecuación 50
Puede establecerse v(n)=v'(n) según la política de diseño.
Después, se aplica sincronización de pulso glotal al vector de libro de códigos adaptativo inicial. Para la sincronización de pulso glotal, puede usarse el mismo procedimiento que en el caso en el que no está disponible una posición de pulso en la sección 7.11.2.5 en el documento no de patente 4 (etapa 5054 en la figura 43). Sin embargo, obsérvese que u(n) en el documento no de patente 4 corresponde a v(n) en la realización de la presente invención, la altura extrapolada corresponde a p en la realización de la presente invención, y la última altura j ’ (-l)
fiable (Tc) corresponde a P en la realización de la presente invención.
La unidad 1124 de síntesis de vector de excitación emite una señal de vector de excitación de la misma manera que en el ejemplo 1 (etapa 11306 en la figura 16).
El filtro 1125 posterior realiza un procesamiento posterior en la señal de síntesis de la misma manera que en el ejemplo 1.
El libro 1122 de códigos adaptativo actualiza el estado usando la señal de vector de excitación de la misma manera que en el ejemplo 1 (etapa 11308 en la figura 16).
El filtro 1126 de síntesis sintetiza una señal decodificada de la misma manera que en el ejemplo 1 (etapa 11309 en la figura 16).
El filtro 1127 inverso de ponderación perceptual aplica un filtro inverso de ponderación perceptual de la misma manera que en el ejemplo 1.
La unidad 123 de procesamiento de ausencia de parámetro de audio almacena los parámetros de audio (parámetro de ISF, retardo de altura, ganancia de libro de códigos adaptativo, ganancia de libro de códigos fijo) usados en la unidad 124 de síntesis de audio en la memoria intermedia de la misma manera que en el ejemplo 1 (etapa 145 en la figura 7).
Lista de signos de referencia
60.80.. .medio de almacenamiento, 61, 81...área de almacenamiento de programa, 70...programa de codificación de audio, 90...programa de decodificación de audio, 111...unidad de codificación de audio, 112...unidad de codificación de información secundaria, 121, 231...memoria intermedia de código de audio, 122, 232...unidad de decodificación de parámetro de audio, 123, 233...unidad de procesamiento de ausencia de parámetro de audio, 124, 234...unidad de síntesis de audio, 125, 235...unidad de decodificación de información secundaria, 126, 236...unidad de acumulación de información secundaria, 151, 511, 1121...unidad de cálculo de coeficiente de LP, 152, 2012...unidad de cálculo de señal objetivo, 153, 513, 2013...unidad de cálculo de retardo de altura, 154, 1123, 514, 2014, 2313.. .unidad de cálculo de libro de códigos adaptativo, 155, 1124, 2314...unidad de síntesis de vector de excitación, 156, 315, 515, 2019...memoria intermedia de libro de códigos adaptativo, 157, 1126, 2018, 2316...filtro de síntesis, 158, 516...unidad de codificación de retardo de altura, 191...unidad de predicción de ISF, 192...unidad de predicción de retardo de altura, 193...unidad de predicción de ganancia de libro de códigos adaptativo, 194...unidad de predicción de ganancia de libro de códigos fijo, 195...unidad generación de señal de ruido, 211...unidad de codificación principal, 212...unidad de codificación de información secundaria, 213, 238...unidad de acumulación de señal de ocultamiento, 214...unidad de codificación de señal de error, 237...unidad de decodificación de señal de error, 311...unidad de cálculo de coeficiente de LP, 312...unidad de predicción de retardo de altura, 313...unidad de selección de retardo de altura, 314...unidad de codificación de retardo de altura, 512...unidad de cálculo de señal residual, 700...módulo de codificación de audio, 701...módulo de codificación de información secundaria, 900.. .módulo de decodificación de parámetro de audio, 901...módulo de procesamiento de ausencia de parámetro de audio, 902...módulo de síntesis de audio, 903...módulo de decodificación de información secundaria, 1128.. .unidad de determinación de emisión de información secundaria, 1122, 2312...libro de códigos adaptativo, 1125.. .filtro posterior, 1127...filtro inverso de ponderación perceptual, 2011...unidad de codificación de ISF, 2015.. .unidad de cálculo de libro de códigos fijo, 2016...unidad de cálculo de ganancia, 2017...unidad de cálculo de vector de excitación, 2211...unidad de decodificación de ISF, 2212...unidad de decodificación de retardo de altura, 2213.. .unidad de decodificación de ganancia, 2214...unidad de decodificación de libro de códigos fijo, 2318...unidad de síntesis de vector de excitación de previsión.

Claims (1)

  1. REIVINDICACIONES
    Método de decodificación de audio mediante un dispositivo de decodificación de audio para decodificar un código de audio y emitir una señal de audio, que comprende:
    una etapa de almacenamiento en memoria intermedia de código de audio de detectar pérdida de paquetes, con el dispositivo de decodificación de audio, basándose en un estado recibido de un paquete de audio; una etapa de decodificación de parámetro de audio de decodificar un código de audio, con el dispositivo de decodificación de audio, cuando se recibe correctamente un paquete de audio;
    una etapa de decodificación de información secundaria de decodificar un código de información secundaria, con el dispositivo de decodificación de audio, cuando se recibe correctamente el paquete de audio; una etapa de acumulación de información secundaria de almacenar, con el dispositivo de decodificación de audio, información secundaria obtenida decodificando el código de información secundaria en la etapa de decodificación de información secundaria en una memoria intermedia, estando la información secundaria relacionada con un retardo de altura y/o una ganancia de libro de códigos adaptativo en una señal de previsión;
    una etapa de procesamiento de ausencia de parámetro de audio de emitir, con el dispositivo de decodificación de audio, un parámetro de audio cuando se detecta pérdida de paquetes de audio;
    una etapa de acumulación de parámetro de audio de almacenar el parámetro de audio en una memoria intermedia cuando se recibe correctamente un paquete de audio; y
    una etapa de síntesis de audio de sintetizar, con el dispositivo de decodificación de audio, un audio decodificado a partir del parámetro de audio,
    en el que la etapa de procesamiento de ausencia de parámetro de audio comprende calcular, con el dispositivo de decodificación de audio cuando se detecta pérdida de paquetes de audio, un valor predicho (S5044) del parámetro de audio usando el parámetro de audio almacenado cuando se recibe correctamente el paquete de audio y la información secundaria almacenada en la etapa de acumulación de información secundaria, y si la fiabilidad del parámetro de audio es baja (S5046), adoptar el dispositivo de decodificación de audio la información secundaria almacenada en la etapa de acumulación de información secundaria como parámetro de audio.
    Método de decodificación de audio según la reivindicación 1, en el que la información secundaria contiene información relacionada con disponibilidad de información secundaria.
    Método de decodificación de audio según la reivindicación 1, en el que la etapa de adoptar la información secundaria almacenada en la etapa de acumulación de información secundaria como parámetro de audio comprende adoptar la información secundaria almacenada en la etapa de acumulación de información secundaria como parámetro de audio en lugar del valor predicho del parámetro de audio.
    Dispositivo de decodificación de audio para decodificar un código de audio y emitir una señal de audio, que comprende:
    un procesador;
    una memoria (121) intermedia de código de audio configurada para detectar pérdida de paquetes basándose en un estado recibido de un paquete de audio;
    una unidad (122) de decodificación de parámetro de audio que puede ejecutarse con el procesador para decodificar un código de audio en respuesta a recibirse correctamente el paquete de audio;
    una unidad (125) de decodificación de información secundaria que puede ejecutarse con el procesador para decodificar un código de información secundaria en respuesta a recibirse correctamente el paquete de audio;
    una unidad (126) de acumulación de información secundaria que puede ejecutarse con el procesador para almacenar información secundaria obtenida a partir del código de información secundaria que se decodifica decodificando el código de información secundaria en la etapa de decodificación de información secundaria en una memoria intermedia, estando la información secundaria relacionada con un retardo de altura y/o una ganancia de libro de códigos adaptativo en una señal de previsión;
    una unidad (123) de procesamiento de ausencia de parámetro de audio que puede ejecutarse con el procesador para emitir un parámetro de audio en respuesta a la detección de pérdida de paquetes de audio; y
    una unidad (124) de síntesis de audio que puede ejecutarse con el procesador para sintetizar un audio decodificado a partir del parámetro de audio,
    en el que la unidad (123) de procesamiento de ausencia de parámetro de audio está configurada además para almacenar el parámetro de audio en una memoria intermedia cuando se recibe correctamente un paquete de audio, y
    en el que la unidad (123) de procesamiento de ausencia de parámetro de audio puede ejecutarse además con el procesador, en respuesta a la detección de pérdida de paquetes de audio, para usar el parámetro de audio almacenado y la información secundaria almacenada para calcular un valor predicho del parámetro de audio,
    la unidad (123) de procesamiento de ausencia de parámetro de audio puede ejecutarse además con el procesador, si la fiabilidad del parámetro de audio es baja, para adoptar la información secundaria leída a partir de la unidad de acumulación de información secundaria como parámetro de audio.
ES13854879T 2012-11-15 2013-11-12 Dispositivo de codificación de audio, método de codificación de audio, programa de codificación de audio, dispositivo de decodificación de audio, método de decodificación de audio y programa de decodificación de audio Active ES2747353T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012251646 2012-11-15
PCT/JP2013/080589 WO2014077254A1 (ja) 2012-11-15 2013-11-12 音声符号化装置、音声符号化方法、音声符号化プログラム、音声復号装置、音声復号方法及び音声復号プログラム

Publications (1)

Publication Number Publication Date
ES2747353T3 true ES2747353T3 (es) 2020-03-10

Family

ID=50731166

Family Applications (2)

Application Number Title Priority Date Filing Date
ES13854879T Active ES2747353T3 (es) 2012-11-15 2013-11-12 Dispositivo de codificación de audio, método de codificación de audio, programa de codificación de audio, dispositivo de decodificación de audio, método de decodificación de audio y programa de decodificación de audio
ES19185490T Active ES3026208T3 (en) 2012-11-15 2013-11-12 Audio coding device

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES19185490T Active ES3026208T3 (en) 2012-11-15 2013-11-12 Audio coding device

Country Status (20)

Country Link
US (7) US9564143B2 (es)
EP (4) EP2922053B1 (es)
JP (8) JP6158214B2 (es)
KR (10) KR101812123B1 (es)
CN (2) CN107256709B (es)
AU (7) AU2013345949B2 (es)
BR (1) BR112015008505B1 (es)
CA (4) CA3210225A1 (es)
DK (2) DK3579228T3 (es)
ES (2) ES2747353T3 (es)
FI (1) FI3579228T3 (es)
HK (1) HK1209229A1 (es)
HU (1) HUE070987T2 (es)
IN (1) IN2015DN02595A (es)
MX (3) MX362139B (es)
PL (2) PL2922053T3 (es)
PT (2) PT2922053T (es)
RU (8) RU2612581C2 (es)
TW (2) TWI547940B (es)
WO (1) WO2014077254A1 (es)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013049256A1 (en) * 2011-09-26 2013-04-04 Sirius Xm Radio Inc. System and method for increasing transmission bandwidth efficiency ( " ebt2" )
KR101812123B1 (ko) * 2012-11-15 2017-12-26 가부시키가이샤 엔.티.티.도코모 음성 부호화 장치, 음성 부호화 방법, 음성 부호화 프로그램, 음성 복호 장치, 음성 복호 방법 및 음성 복호 프로그램
US9418671B2 (en) * 2013-08-15 2016-08-16 Huawei Technologies Co., Ltd. Adaptive high-pass post-filter
EP2922054A1 (en) * 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using an adaptive noise estimation
EP2922055A1 (en) * 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using individual replacement LPC representations for individual codebook information
EP2922056A1 (en) * 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using power compensation
CN105897666A (zh) * 2015-10-08 2016-08-24 乐视致新电子科技(天津)有限公司 实时语音通话中的实时语音接收设备及降低延迟的方法
US10650837B2 (en) * 2017-08-29 2020-05-12 Microsoft Technology Licensing, Llc Early transmission in packetized speech
US11710492B2 (en) * 2019-10-02 2023-07-25 Qualcomm Incorporated Speech encoding using a pre-encoded database
EP4120256A1 (en) * 2021-07-14 2023-01-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Processor for generating a prediction spectrum based on long-term prediction and/or harmonic post-filtering

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5327520A (en) 1992-06-04 1994-07-05 At&T Bell Laboratories Method of use of voice message coder/decoder
JP3713288B2 (ja) * 1994-04-01 2005-11-09 株式会社東芝 音声復号装置
JPH08160993A (ja) * 1994-12-08 1996-06-21 Nec Corp 音声分析合成器
JP4121578B2 (ja) * 1996-10-18 2008-07-23 ソニー株式会社 音声分析方法、音声符号化方法および装置
DE69736446T2 (de) * 1997-12-24 2007-03-29 Mitsubishi Denki K.K. Audio Dekodierverfahren und -vorrichtung
US7072832B1 (en) 1998-08-24 2006-07-04 Mindspeed Technologies, Inc. System for speech encoding having an adaptive encoding arrangement
US6584438B1 (en) * 2000-04-24 2003-06-24 Qualcomm Incorporated Frame erasure compensation method in a variable rate speech coder
US6757654B1 (en) 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
JP2002118517A (ja) * 2000-07-31 2002-04-19 Sony Corp 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法
US6862567B1 (en) 2000-08-30 2005-03-01 Mindspeed Technologies, Inc. Noise suppression in the frequency domain by adjusting gain according to voicing parameters
US6968309B1 (en) * 2000-10-31 2005-11-22 Nokia Mobile Phones Ltd. Method and system for speech frame error concealment in speech decoding
KR100674423B1 (ko) * 2001-01-19 2007-01-29 엘지전자 주식회사 송/수신 시스템 및 데이터 처리 방법
JP3628268B2 (ja) * 2001-03-13 2005-03-09 日本電信電話株式会社 音響信号符号化方法、復号化方法及び装置並びにプログラム及び記録媒体
US7308406B2 (en) * 2001-08-17 2007-12-11 Broadcom Corporation Method and system for a waveform attenuation technique for predictive speech coding based on extrapolation of speech waveform
SE521600C2 (sv) * 2001-12-04 2003-11-18 Global Ip Sound Ab Lågbittaktskodek
JP3722366B2 (ja) * 2002-02-22 2005-11-30 日本電信電話株式会社 パケット構成方法及び装置、パケット構成プログラム、並びにパケット分解方法及び装置、パケット分解プログラム
WO2003077425A1 (en) * 2002-03-08 2003-09-18 Nippon Telegraph And Telephone Corporation Digital signal encoding method, decoding method, encoding device, decoding device, digital signal encoding program, and decoding program
JP2004077688A (ja) * 2002-08-14 2004-03-11 Nec Corp 音声通信装置
US7584107B2 (en) * 2002-09-09 2009-09-01 Accenture Global Services Gmbh Defined contribution benefits tool
JP4287637B2 (ja) * 2002-10-17 2009-07-01 パナソニック株式会社 音声符号化装置、音声符号化方法及びプログラム
US7876966B2 (en) * 2003-03-11 2011-01-25 Spyder Navigations L.L.C. Switching between coding schemes
JP4365653B2 (ja) * 2003-09-17 2009-11-18 パナソニック株式会社 音声信号送信装置、音声信号伝送システム及び音声信号送信方法
SE527670C2 (sv) * 2003-12-19 2006-05-09 Ericsson Telefon Ab L M Naturtrogenhetsoptimerad kodning med variabel ramlängd
DE602005020130D1 (de) * 2004-05-10 2010-05-06 Nippon Telegraph & Telephone E, sendeverfahren, empfangsverfahren und einrichtung und programm dafür
EP1756805B1 (en) * 2004-06-02 2008-07-30 Koninklijke Philips Electronics N.V. Method and apparatus for embedding auxiliary information in a media signal
US20060088093A1 (en) * 2004-10-26 2006-04-27 Nokia Corporation Packet loss compensation
SE0402652D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
SE0402650D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Improved parametric stereo compatible coding of spatial audio
US7933767B2 (en) * 2004-12-27 2011-04-26 Nokia Corporation Systems and methods for determining pitch lag for a current frame of information
EP1849156B1 (en) 2005-01-31 2012-08-01 Skype Method for weighted overlap-add
WO2006126859A2 (en) * 2005-05-26 2006-11-30 Lg Electronics Inc. Method of encoding and decoding an audio signal
US7707034B2 (en) * 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
US20070055510A1 (en) * 2005-07-19 2007-03-08 Johannes Hilpert Concept for bridging the gap between parametric multi-channel audio coding and matrixed-surround multi-channel coding
US9058812B2 (en) * 2005-07-27 2015-06-16 Google Technology Holdings LLC Method and system for coding an information signal using pitch delay contour adjustment
US7712008B2 (en) * 2006-01-26 2010-05-04 Agere Systems Inc. Systems and methods for error reduction associated with information transfer
WO2007091926A1 (en) * 2006-02-06 2007-08-16 Telefonaktiebolaget Lm Ericsson (Publ) Method and arrangement for speech coding in wireless communication systems
US7457746B2 (en) * 2006-03-20 2008-11-25 Mindspeed Technologies, Inc. Pitch prediction for packet loss concealment
CN101000768B (zh) * 2006-06-21 2010-12-08 北京工业大学 嵌入式语音编解码的方法及编解码器
WO2008007700A1 (en) * 2006-07-12 2008-01-17 Panasonic Corporation Sound decoding device, sound encoding device, and lost frame compensation method
JPWO2008007698A1 (ja) 2006-07-12 2009-12-10 パナソニック株式会社 消失フレーム補償方法、音声符号化装置、および音声復号装置
JP4380669B2 (ja) * 2006-08-07 2009-12-09 カシオ計算機株式会社 音声符号化装置、音声復号装置、音声符号化方法、音声復号方法、及び、プログラム
US7752038B2 (en) 2006-10-13 2010-07-06 Nokia Corporation Pitch lag estimation
CN101578508B (zh) 2006-10-24 2013-07-17 沃伊斯亚吉公司 用于对语音信号中的过渡帧进行编码的方法和设备
JP5123516B2 (ja) * 2006-10-30 2013-01-23 株式会社エヌ・ティ・ティ・ドコモ 復号装置、符号化装置、復号方法及び符号化方法
KR101102401B1 (ko) * 2006-11-24 2012-01-05 엘지전자 주식회사 오브젝트 기반 오디오 신호의 부호화 및 복호화 방법과 그 장치
KR100862662B1 (ko) * 2006-11-28 2008-10-10 삼성전자주식회사 프레임 오류 은닉 방법 및 장치, 이를 이용한 오디오 신호복호화 방법 및 장치
US8010351B2 (en) * 2006-12-26 2011-08-30 Yang Gao Speech coding system to improve packet loss concealment
CN101226744B (zh) * 2007-01-19 2011-04-13 华为技术有限公司 语音解码器中实现语音解码的方法及装置
CN101256771A (zh) * 2007-03-02 2008-09-03 北京工业大学 嵌入式编码、解码方法、编码器、解码器及系统
ES2593822T3 (es) * 2007-06-08 2016-12-13 Lg Electronics Inc. Método y aparato para procesar una señal de audio
CN101207665B (zh) 2007-11-05 2010-12-08 华为技术有限公司 一种衰减因子的获取方法
CN100550712C (zh) 2007-11-05 2009-10-14 华为技术有限公司 一种信号处理方法和处理装置
KR100998396B1 (ko) * 2008-03-20 2010-12-03 광주과학기술원 프레임 손실 은닉 방법, 프레임 손실 은닉 장치 및 음성송수신 장치
EP2144231A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing
US8706479B2 (en) * 2008-11-14 2014-04-22 Broadcom Corporation Packet loss concealment for sub-band codecs
JP5309944B2 (ja) * 2008-12-11 2013-10-09 富士通株式会社 オーディオ復号装置、方法、及びプログラム
US8452606B2 (en) * 2009-09-29 2013-05-28 Skype Speech encoding using multiple bit rates
US8423355B2 (en) * 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
CN101894558A (zh) * 2010-08-04 2010-11-24 华为技术有限公司 丢帧恢复方法、设备以及语音增强方法、设备和系统
WO2012046685A1 (ja) 2010-10-05 2012-04-12 日本電信電話株式会社 符号化方法、復号方法、符号化装置、復号装置、プログラム、記録媒体
HUE064739T2 (hu) * 2010-11-22 2024-04-28 Ntt Docomo Inc Audio kódoló eszköz és eljárás
MY167776A (en) * 2011-02-14 2018-09-24 Fraunhofer Ges Forschung Noise generation in audio codecs
US9026434B2 (en) 2011-04-11 2015-05-05 Samsung Electronic Co., Ltd. Frame erasure concealment for a multi rate speech and audio codec
KR101812123B1 (ko) * 2012-11-15 2017-12-26 가부시키가이샤 엔.티.티.도코모 음성 부호화 장치, 음성 부호화 방법, 음성 부호화 프로그램, 음성 복호 장치, 음성 복호 방법 및 음성 복호 프로그램
KR102452593B1 (ko) 2015-04-15 2022-10-11 삼성전자주식회사 반도체 장치의 제조 방법

Also Published As

Publication number Publication date
RU2665301C1 (ru) 2018-08-28
CN104781876A (zh) 2015-07-15
MX2015005885A (es) 2015-09-23
CA3210225A1 (en) 2014-05-22
AU2020294317A1 (en) 2021-02-25
KR20170141827A (ko) 2017-12-26
KR101689766B1 (ko) 2016-12-26
HK1209229A1 (en) 2016-03-24
US11195538B2 (en) 2021-12-07
AU2023208191A1 (en) 2023-08-17
EP4525312A3 (en) 2025-05-14
CN104781876B (zh) 2017-07-21
FI3579228T3 (fi) 2025-05-12
PL2922053T3 (pl) 2019-11-29
TWI547940B (zh) 2016-09-01
CA2886140A1 (en) 2014-05-22
CA3044983C (en) 2022-07-12
JP2020034951A (ja) 2020-03-05
JP6158214B2 (ja) 2017-07-05
KR102171293B1 (ko) 2020-10-28
US20150262588A1 (en) 2015-09-17
KR102173422B1 (ko) 2020-11-03
US9564143B2 (en) 2017-02-07
EP2922053A1 (en) 2015-09-23
CA3127953C (en) 2023-09-26
KR20200123285A (ko) 2020-10-28
AU2022202856B2 (en) 2023-06-08
JP2021092814A (ja) 2021-06-17
EP4546653A2 (en) 2025-04-30
RU2015122777A (ru) 2017-01-10
RU2690775C1 (ru) 2019-06-05
KR20150056614A (ko) 2015-05-26
KR102307492B1 (ko) 2021-09-29
RU2612581C2 (ru) 2017-03-09
US20180122394A1 (en) 2018-05-03
CA2886140C (en) 2021-03-23
JP6793675B2 (ja) 2020-12-02
US9881627B2 (en) 2018-01-30
RU2737465C1 (ru) 2020-11-30
KR20210118988A (ko) 2021-10-01
AU2022202856A1 (en) 2022-05-19
US11749292B2 (en) 2023-09-05
AU2013345949B2 (en) 2017-05-04
US20200126577A1 (en) 2020-04-23
KR20170107590A (ko) 2017-09-25
KR102302012B1 (ko) 2021-09-13
KR20190133302A (ko) 2019-12-02
US20200126576A1 (en) 2020-04-23
US10553231B2 (en) 2020-02-04
JPWO2014077254A1 (ja) 2017-01-05
JP6846500B2 (ja) 2021-03-24
HUE070987T2 (hu) 2025-07-28
BR112015008505A2 (pt) 2020-01-07
AU2013345949A1 (en) 2015-04-16
US11176955B2 (en) 2021-11-16
JP2017138607A (ja) 2017-08-10
RU2713605C1 (ru) 2020-02-05
AU2023208191B2 (en) 2024-09-26
MX345692B (es) 2017-02-10
JP2019070866A (ja) 2019-05-09
WO2014077254A1 (ja) 2014-05-22
CA3044983A1 (en) 2014-05-22
EP4546653A3 (en) 2025-06-25
PT2922053T (pt) 2019-10-15
TWI587284B (zh) 2017-06-11
KR20180115357A (ko) 2018-10-22
AU2017208369A1 (en) 2017-08-17
RU2722510C1 (ru) 2020-06-01
PT3579228T (pt) 2025-04-29
RU2760485C1 (ru) 2021-11-25
RU2640743C1 (ru) 2018-01-11
KR20200051858A (ko) 2020-05-13
MX388837B (es) 2025-03-20
JP6626026B2 (ja) 2019-12-25
US20200126578A1 (en) 2020-04-23
JP2020038396A (ja) 2020-03-12
EP2922053A4 (en) 2016-07-06
DK2922053T3 (da) 2019-09-23
EP4525312A2 (en) 2025-03-19
JP6659882B2 (ja) 2020-03-04
US20220059108A1 (en) 2022-02-24
JP2018112749A (ja) 2018-07-19
PL3579228T3 (pl) 2025-06-02
TW201635274A (zh) 2016-10-01
KR102459376B1 (ko) 2022-10-25
EP3579228B1 (en) 2025-04-02
IN2015DN02595A (es) 2015-09-11
EP3579228A1 (en) 2019-12-11
US11211077B2 (en) 2021-12-28
DK3579228T3 (da) 2025-04-22
MX362139B (es) 2019-01-07
EP2922053B1 (en) 2019-08-28
JP6872597B2 (ja) 2021-05-19
AU2017208369B2 (en) 2019-01-03
ES3026208T3 (en) 2025-06-10
KR102259112B1 (ko) 2021-05-31
KR20160111550A (ko) 2016-09-26
KR101780667B1 (ko) 2017-09-21
US20170148459A1 (en) 2017-05-25
CA3127953A1 (en) 2014-05-22
BR112015008505B1 (pt) 2021-10-26
CN107256709B (zh) 2021-02-26
KR20200124339A (ko) 2020-11-02
JP7209032B2 (ja) 2023-01-19
MX2018016263A (es) 2021-12-16
AU2024267059A1 (en) 2024-12-19
KR102110853B1 (ko) 2020-05-14
AU2019202186B2 (en) 2020-12-03
TW201432670A (zh) 2014-08-16
KR101812123B1 (ko) 2017-12-26
AU2019202186A1 (en) 2019-04-18
JP2016197254A (ja) 2016-11-24
AU2020294317B2 (en) 2022-03-31
CN107256709A (zh) 2017-10-17

Similar Documents

Publication Publication Date Title
ES2747353T3 (es) Dispositivo de codificación de audio, método de codificación de audio, programa de codificación de audio, dispositivo de decodificación de audio, método de decodificación de audio y programa de decodificación de audio