[go: up one dir, main page]

WO2010008176A1 - 음성/음악 통합 신호의 부호화/복호화 장치 - Google Patents

음성/음악 통합 신호의 부호화/복호화 장치 Download PDF

Info

Publication number
WO2010008176A1
WO2010008176A1 PCT/KR2009/003855 KR2009003855W WO2010008176A1 WO 2010008176 A1 WO2010008176 A1 WO 2010008176A1 KR 2009003855 W KR2009003855 W KR 2009003855W WO 2010008176 A1 WO2010008176 A1 WO 2010008176A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
music
encoding
speech
input signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2009/003855
Other languages
English (en)
French (fr)
Inventor
이태진
백승권
김민제
장대영
서정일
강경옥
홍진우
박호종
박영철
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Research Institute for Industry Cooperation of Kwangwoon University
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Research Institute for Industry Cooperation of Kwangwoon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2011517359A priority Critical patent/JP2011527032A/ja
Priority to CN200980135678.8A priority patent/CN102150204B/zh
Priority to EP09798079.1A priority patent/EP2302624B1/en
Priority to US13/003,979 priority patent/US8903720B2/en
Priority to EP18215268.6A priority patent/EP3493204B1/en
Application filed by Electronics and Telecommunications Research Institute ETRI, Research Institute for Industry Cooperation of Kwangwoon University filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of WO2010008176A1 publication Critical patent/WO2010008176A1/ko
Anticipated expiration legal-status Critical
Priority to US14/534,781 priority patent/US9818411B2/en
Priority to US15/810,732 priority patent/US10403293B2/en
Priority to US16/557,238 priority patent/US10714103B2/en
Priority to US16/925,946 priority patent/US11705137B2/en
Priority to US18/212,364 priority patent/US12205599B2/en
Priority to US18/982,631 priority patent/US20250118310A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis

Definitions

  • the present invention relates to an apparatus for encoding / decoding a speech / music integrated signal.
  • the encoder / decoding module operates in a different structure for speech and music signals, and the internal module is effectively selected according to the characteristics of the input signal.
  • a method and apparatus for efficiently encoding a signal is preferably used.
  • Voice signals and music signals have different characteristics, and by utilizing the inherent characteristics of each signal, the voice codec and the music codec specialized for each signal are independently studied and each standard codec has been developed.
  • Currently widely used speech codec (AMR-WB +) has a CELP structure, and has a structure for extracting and quantizing speech parameters based on LPC according to speech model.
  • the currently widely used music codec (HE-AAC V2) has a structure that quantizes the frequency coefficient optimally in terms of psychoacoustics in consideration of the human auditory characteristics in the frequency domain.
  • the present invention provides an encoding / decoding apparatus and method for effectively selecting internal modules according to characteristics of an input signal, thereby providing excellent sound quality for both voice signals and music signals at various bit rates.
  • the present invention provides an encoding / decoding apparatus and method capable of frequency extension to a wider band by extending the frequency band before sampling rate conversion.
  • an apparatus for encoding a speech / music integrated signal may include: an input signal analyzer configured to analyze characteristics of an input signal, downmixing a mono signal when the input signal is a stereo signal, and extracting stereo sound information
  • a speech signal encoding unit encoding the input signal using a speech encoding module; a music signal encoding unit encoding the input signal using a music encoding module and the speech signal when the input signal is a signal having a music characteristic.
  • the input signal analyzer may analyze the input signal using at least one of a Zero Crossing Rate (ZCR), a correlation, and an energy of a frame unit of the input signal.
  • ZCR Zero Crossing Rate
  • the stereo sound image information may include at least one of a correlation between left and right channels and a level difference between left and right channels.
  • the frequency band extension unit may extend the input signal into a high frequency band signal prior to the conversion of the sampling rate.
  • the sampling rate converter may convert the sampling rate of the input signal to a sampling rate required by the voice signal encoder or the music signal encoder.
  • the sampling rate converter may include: a first downsampling unit for downsampling an input signal by half, and a second downsampling downsampling an output signal of the first downsampling unit by 1/2; It may include wealth.
  • the bitstream generator may store information in a bitstream that compensates for a change in a frame unit.
  • the information for compensating for the change in the frame unit may include at least one of a time / frequency conversion method and a time / frequency conversion size according to the characteristics of the input signal.
  • an apparatus for decoding a speech / music integrated signal may include: a bitstream analyzer configured to analyze an input bitstream signal; and when the bitstream signal is a bitstream of a speech characteristic signal, A voice signal decoder which decodes the bitstream signal using a music signal decoder, and when the bitstream signal is a bitstream of a music characteristic signal, a music signal decoder that decodes the bitstream signal using a music decoding module, the music characteristic A signal compensator for converting a signal and the speech characteristic signal, a sampling rate converter for converting a sampling rate of the bitstream signal, and a frequency band extension for generating a high frequency band signal using a decoded low frequency band signal Generate stereo signals using negative and stereo expansion parameters.
  • Stereo decoding may include a.
  • an encoding / decoding apparatus and method capable of frequency extension to a wider band by extending a frequency band before sampling rate conversion.
  • FIG. 1 is a diagram illustrating an apparatus for encoding a speech / music integrated signal according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an example of the sampling rate converter shown in FIG. 1.
  • FIG. 3 is a diagram illustrating start and end frequency bands of a frequency band extension unit according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an operation of each module according to a bit rate according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an apparatus for decoding a speech / music integrated signal according to one embodiment of the present invention.
  • FIG. 1 is a diagram illustrating an apparatus for encoding a speech / music integrated signal according to an embodiment of the present invention.
  • the apparatus 100 for encoding an audio / music integrated signal includes an input signal analyzer 110, a stereo encoder 120, a frequency band expander 130, a sampling rate converter 140, and a voice.
  • the signal encoder 150, the music signal encoder 160, and the bitstream generator 170 may be included.
  • the input signal analyzer 110 may analyze characteristics of the input signal. That is, the input signal analyzer 110 may analyze the characteristics of the input signal to separate whether the signal has a voice characteristic or a music characteristic. In this case, at least one of a Zero Crossing Rate (ZCR), a correlation, and an energy of a frame unit may be used for the input signal analysis.
  • ZCR Zero Crossing Rate
  • the stereo encoder 120 may downmix the input signal into a mono signal and extract stereo sound information.
  • the stereoscopic image information may include at least one of a correlation between left and right channels and a level difference between left and right channels.
  • the frequency band extension unit 130 may extend the input signal into a high frequency band signal.
  • the input signal may be extended to a high frequency band signal prior to the conversion of the sampling rate.
  • the operation of the frequency band extension unit 130 will be described in more detail below with reference to FIG. 3.
  • FIG. 3 is a diagram illustrating start and end frequency bands of a frequency band extension unit according to an embodiment of the present invention.
  • the frequency band extension unit 130 provides information for generating a high frequency band signal according to a bit rate, as illustrated in FIG. 3. Can be extracted.
  • the sampling rate of the input audio signal is 48 kHz
  • the voice characteristic signal may be fixed to the start frequency band at 6 kHz
  • the stop frequency band may use the same value as the music characteristic signal.
  • the start frequency band of the speech characteristic signal may have various values according to the setting of the encoding module used in the speech characteristic signal encoding module.
  • the stop frequency band used by the frequency band extension unit 130 may be set to various values according to the sampling rate or the set bit rate of the input signal.
  • the frequency band extension unit 130 may be operated using information such as tonality and energy values in units of blocks. Further, the information on the frequency band extension varies according to the voice characteristic signal and the music characteristic signal, and the information on the frequency band extension may be stored in the bitstream when a conversion occurs between the voice characteristic signal and the music characteristic signal.
  • the sampling rate converter 140 may convert a sampling rate of an input signal.
  • the sampling rate converter 140 corresponds to a process of preprocessing the input signal before encoding the input signal. Therefore, the sampling rate converter 140 may convert the sampling rate of the input audio signal to change the frequency band of the core band according to the input bit rate.
  • the frequency band setting in the frequency band extension may be extended to a wider band without being fixed to the sampling rate used in the core band.
  • sampling rate converter 140 will be described in more detail below with reference to FIG. 2.
  • FIG. 2 is a diagram illustrating an example of the sampling rate converter shown in FIG. 2.
  • the sampling rate converter 140 may include a first downsampling unit 210 and a second downsampling unit 220.
  • the first downsampling unit 210 may downsample the input signal by 1/2.
  • the first downsampling unit 210 may perform 1/2 downsampling when the music coding module uses an advanced audio coding (AAC) based coding module.
  • AAC advanced audio coding
  • the second downsampling unit 220 may downsample the output signal of the first downsampling unit to 1/2. For example, when the speech coding module uses an adaptive multi-rate wideband plus (AMR-WB +)-based coding module, the second downsampling unit 220 may halve the output signal of the first downsampling unit. You can sample.
  • AMR-WB + adaptive multi-rate wideband plus
  • the sampling rate converter 140 when the music signal encoder 160 uses an AAC-based encoding module, the sampling rate converter 140 generates a signal down-sampled at 1/2, and the audio signal encoder 150 uses the AMR- When using the WB + -based coding module, down sampling can be performed by 1/4. Therefore, when the sampling converter 140 is placed in front of the voice signal encoder 150 and the music signal encoder 160, and the sampling rates of the voice / music signal encoder are different, the sampling converter 140 is considered in advance. After processing at 140, the data signal may be input to a speech signal encoding module or a music signal encoding module.
  • sampling rate converter 140 may convert the sampling rate of the input signal to the sampling rate required by the voice signal encoder or the music signal encoder.
  • the voice signal encoder 150 may encode the input signal using a voice encoding module.
  • the voice characteristic signal encoding module may perform encoding on a core band in which frequency band expansion is not performed.
  • the speech signal encoder 150 may use a speech encoding module based on CELP (Code Excitation Linear Prediction).
  • the music signal encoder 160 may encode the input signal using a music encoding module.
  • the music characteristic signal encoding module may perform encoding on a core band in which frequency band expansion is not performed.
  • the music signal encoder 160 may use a time / frequency based speech encoding module.
  • the bitstream generator 170 may generate a bitstream using the output signal of the speech signal encoder and the output signal of the music signal encoder.
  • the bitstream generator 170 may store information for compensating for the change of the frame unit in the bitstream.
  • the information for compensating for the change in the frame unit may include at least one of a time / frequency conversion method and a time / frequency conversion size according to the characteristics of the input signal.
  • the decoder may perform the conversion between the voice characteristic signal frame and the music characteristic signal frame by using the information compensating for the change of the frame unit.
  • FIG. 4 is a diagram illustrating an operation of each module according to a bit rate according to an embodiment of the present invention.
  • the music characteristic signal encoding module when the input signal is mono, all stereo encoding modules may be turned off, and when the bit rates are 12 kbps and 16 kbps, the music characteristic signal encoding module may be turned off.
  • the reason for turning off the music characteristic signal coding module at bit rates of 12 kbps and 16 kbps is that at low bit rates, encoding the music characteristic signal using the CELP-based speech coding module shows better sound quality than encoding using the music coding module. Because of giving.
  • the encoding of the mono input signal at the bit rates of 12 kbps and 16 kbps may be performed by turning off the music encoding module, the stereo encoding module, and the input signal analysis module, and then using only the speech signal encoding module and the frequency band extension module.
  • the voice signal coding module and the music signal coding module can be used alternately according to the voice characteristic signal and the music characteristic signal. That is, the input signal analysis module may analyze the input signal and encode the speech characteristic signal through the speech encoding module and encode the speech characteristic signal through the music encoding module.
  • the voice encoding module and the input signal analysis module are turned off, and both the input signals can be encoded using the music encoding module and the frequency band extension module.
  • the stereo encoding module When the input signal is stereo, the stereo encoding module may be operated. When encoding at a bit rate of 12 kbps, 16 kbps, or 20 kbps, after turning off both the music coding module and the input signal analysis module, all the input signals can be encoded through the stereo coding module, the frequency band extension module, and the voice coding module. Generally, since the bits used in the stereo encoding module are 4 kbps or less, when the stereo input signal is encoded at 20 kbps, the mono signal downmixed at 16 kbps must be encoded. In this band, since the voice encoding module performs better than the music encoding module, the input signal analysis module may be turned off and encoding may be performed on all input signals using the voice encoding module.
  • the voice characteristic signal may be encoded using the speech encoding module and the music characteristic signal may be encoded according to the result of the input signal analysis module.
  • the input signal can be encoded using only the music characteristic signal coding module.
  • the integrated speech / music integrated signal encoding apparatus 100 using AMR-WB +, which is a speech encoder and HE-AAC V2 (High-Efficiency Advanced Audio Coding version 2), which is a music encoder
  • AMR-WB + which is a speech encoder
  • HE-AAC V2 High-Efficiency Advanced Audio Coding version 2
  • PS Parametric Stereo
  • SBR Spectral Band Replication
  • the core band coding is performed using AMR-WB + 's Algebraic Code Excited Linear Prediction (ACELP) / Transform Coded Excitation (TCX) module.
  • ACELP Algebraic Code Excited Linear Prediction
  • TCX Transform Coded Excitation
  • SBR Spectrum Band Replication
  • the input signal is analyzed and the core band is encoded using the ACELP / TCX module of the AMR-WB + and the AAC module of the HE-AAC V2 for the music characteristic signal.
  • Frequency band extension can be performed using the SBR of AAC V2.
  • encoding may be performed using only the AAC module of HE-AAC V2 for core band encoding.
  • For stereo input perform stereo encoding using the PS module of HE-AAC V2, and select the ACELP / TCX module of ARM-WB + and the AAC module of HE-AAC V2 according to the mode to perform encoding for the core band. Can be done.
  • FIG. 5 is a diagram illustrating an apparatus for decoding a speech / music integrated signal according to one embodiment of the present invention.
  • the apparatus 500 for decoding a speech / music integrated signal includes a bitstream analyzer 510, a speech signal decoder 520, a music signal decoder 530, a signal compensator 540, and a sampling. It may include a rate converter 550, a frequency band expander 560, and a stereo decoder 570.
  • the bitstream analyzer 510 may analyze the input bitstream signal.
  • the voice signal decoder 520 may decode the bitstream signal using a voice decoding module.
  • the music signal decoder 530 may decode the bitstream signal using a music decoding module when the bitstream signal is a bitstream of a music characteristic signal.
  • the signal compensator 540 may perform a conversion process when converting between the music characteristic signal and the voice characteristic signal. That is, when converting between the voice characteristic signal and the music characteristic signal, processing may be performed to smoothly convert between the voice characteristic signal and the music characteristic signal using conversion information according to each characteristic so that artifacts do not occur.
  • the sampling rate converter 550 may convert the sampling rate of the bitstream signal. Accordingly, the sampling rate converter 550 may generate a signal for use in the frequency band extension module or the stereo encoding module by converting the sampling rate used in the core band to the original sampling rate. In other words, the sampling rate converted from the core band is reconverted to the pre-conversion sampling rate to generate a signal for use in the frequency band extension module or the stereo encoding module.
  • the frequency band extension unit 560 may generate a high frequency band signal using the decoded low frequency band signal.
  • the stereo decoder 570 may generate a stereo signal using the stereo expansion parameter.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereophonic System (AREA)

Abstract

음성 및 음악 신호를 통합적으로 부호화 및 복호화 장치(100)가 제공된다. 상기 부호화 장치는 입력 신호의 특성을 분석하는 입력 신호 분석부 (100), 입력 신호력 신호가 스트레오 신호인 경우 상기 입력 신호를 다운믹스하고, 스테레오 음상 정보를 추출하는 스테레오 부호화부 (120), 상기 입력 신호의 주파수 대역을 확장하는 주파수 대역 확장부; 샘플링 율을 변환시키는 샘플링율 변환부 (140), 상기 입력 신호가 음악 특성 신호인 경우 음성 부호화 모듈을 사용하여 상기 입력 신호를 부호화하는 음성 신호 부호화부 (150); 상기 입력 신호가 음악 특성 신호인 경우, 음악 부호화 모듈을 사용하여 상기 입력 신호를 부호화하는 음악 신호 부호화부 및 상기 음성 신호 부호화부의 출력 신호 및 상기 음악 신호 부호화부 (160); 그리고, 비트스트림을 생성하는 비트스트림 발생부 (170)을 포함할 수 있다.

Description

음성/음악 통합 신호의 부호화/복호화 장치
음성/음악 통합 신호의 부호화/복호화 장치에 관한 것으로 특히, 음성과 음악 신호에 대해 서로 다른 구조로 동작하는 부/복호화 모듈을 가지고 입력 신호의 특성에 따라 내부 모듈을 효과적으로 선택하여, 음성/음악 모든 신호에 대해 효과적으로 부호화하는 방법 및 장치에 관한 것이다.
음성 신호와 음악 신호는 서로 다른 특성을 가지며, 각 신호의 고유 특성을 활용하여 각 신호에 특화된 음성 코덱과 음악 코덱이 독립적으로 연구되고 각각의 표준 코덱이 개발되었다. 현재 널리 사용되는 음성 코덱(AMR-WB+)은 CELP 구조를 가지며, 음성의 발성 모델에 따라 LPC 기반으로 음성 파라미터를 추출하고 양자화 하는 구조를 가진다. 반면, 현재 널리 사용되는 음악 코덱(HE-AAC V2)은 주파수 영역에서 인간의 청각 특성을 고려하여 심리음향 측면에서 최적으로 주파수 계수를 양자화 하는 구조를 가지고 있다.
따라서, 음악 신호 부호화기 및 음성 신호 부호화기를 통합함과 동시에 신호의 특성 및 비트율에 따라 적절한 부호화 방식을 선택하여 보다 효과적으로 부호화/복호화를 수행할 수 있는 코덱이 요구된다.
본 발명은 입력 신호의 특성에 따라 내부 모듈을 효과적으로 선택함으로써, 다양한 비트율에서 음성 신호 및 음악 신호 모두에 대해 우수한 음질을 제공하는 부호화/복호화 장치 및 방법을 제공한다.
본 발명은 샘플링율 변환 이전에 주파수 대역을 확장함으로써, 더 넓은 대역으로 주파수 확장 가능한 부호화/복호화 장치 및 방법을 제공한다.
본 발명의 일실시예에 따른 음성/음악 통합 신호의 부호화 장치는, 입력 신호의 특성을 분석하는 입력 신호 분석부, 상기 입력 신호가 스트레오 신호인 경우 모노 신호로 다운믹스하고, 스테레오 음상 정보를 추출하는 스테레오 부호화부, 상기 입력 신호를 고주파 대역신호로 확장하는 주파수 대역 확장부, 상기 주파수 대역 확장부의 출력 신호에 대한 샘플링율을 변환하는 샘플링율 변환부, 상기 입력 신호가 음성 특성을 가지는 신호인 경우, 음성 부호화 모듈을 사용하여 상기 입력 신호를 부호화하는 음성 신호 부호화부, 상기 입력 신호가 음악 특성을 가지는 신호인 경우, 음악 부호화 모듈을 사용하여 상기 입력 신호를 부호화하는 음악 신호 부호화부 및 상기 음성 신호 부호화부의 출력 신호 및 상기 음악 신호 부호화부의 출력 신호를 이용하여 비트스트림을 생성하는 비트스트림 생성부를 포함할 수 있다.
본 발명의 일측면에 따르면, 상기 입력 신호 분석부는, 상기 입력 신호의 ZCR(Zero Crossing Rate), 상관관계, 및 프레임 단위의 에너지 중 적어도 하나를 이용하여 상기 입력 신호를 분석할 수 있다.
본 발명의 일측면에 따르면, 상기 스테레오 음상 정보는, 좌/우 채널의 상관관계 및 좌/우 채널의 레벨 차이 중 적어도 하나를 포함할 수 있다.
본 발명의 일측면에 따르면, 상기 주파수 대역 확장부는, 상기 샘플링율의 변환에 앞서 상기 입력 신호를 고주파 대역신호로 확장할 수 있다.
본 발명의 일측면에 따르면, 상기 샘플링율 변환부는, 상기 음성 신호 부호화부 또는 음악 신호 부호화부에서 요구하는 샘플링율로 상기 입력 신호의 샘플링율을 변환할 수 있다.
본 발명의 일측면에 따르면, 상기 샘플링율 변환부는, 입력 신호를 1/2로 다운 샘플링하는 제1 다운샘플링부, 상기 제1 다운샘플링부의 출력 신호를 1/2로 다운 샘플링하는 제2 다운샘플링부를 포함할 수 있다.
본 발명의 일측면에 따르면, 상기 비트스트림 생성부는, 상기 입력 신호가 음성 특성 신호와 음악 특성 신호 사이에서 변화하는 경우, 프레임 단위의 변화를 보상하는 정보를 비트스트림에 저장할 수 있다.
본 발명의 일측면에 따르면, 상기 프레임 단위의 변화를 보상하는 정보는, 입력 신호의 특성에 따른 시간/주파수 변환 방법 및 시간/주파수 변환 크기 중 적어도 하나를 포함할 수 있다.
본 발명의 일실시예에 따른 음성/음악 통합 신호의 복호화 장치는, 입력된 비트스트림 신호를 분석하는 비트스트림 분석부, 상기 비트스트림 신호가 음성 특성 신호에 대한 비트스트림인 경우, 음성 복호화 모듈을 사용하여 상기 비트스트림 신호를 복호화하는 음성 신호 복호화부, 상기 비트스트림 신호가 음악 특성 신호에 대한 비트스트림인 경우, 음악 복호화 모듈을 사용하여 상기 비트스트림 신호를 복호화하는 음악 신호 복호화부, 상기 음악 특성 신호와 상기 음성 특성 신호 사이의 변환시 변환 처리를 수행하는 신호 보상부, 상기 비트스트림 신호의 샘플링율을 변환하는 샘플링율 변환부, 복호화된 저주파 대역 신호를 이용하여 고주파 대역 신호를 생성하는 주파수 대역 확장부 및 스트레오 확장 파라미터를 이용하여 스트레오 신호를 생성하는 스테레오 복호화부를 포함할 수 있다.
본 발명의 일실시예에 따르면, 입력 신호의 특성에 따라 내부 모듈을 효과적으로 선택함으로써, 다양한 비트율에서 음성 신호 및 음악 신호 모두에 대해 우수한 음질을 제공하는 부호화/복호화 장치 및 방법이 제공된다.
본 발명의 일실시예에 따르면, 샘플링율 변환 이전에 주파수 대역을 확장함으로써, 더 넓은 대역으로 주파수 확장 가능한 부호화/복호화 장치 및 방법이 제공된다.
도 1은 본 발명의 일실시예에 있어서, 음성/음악 통합 신호의 부호화 장치를 도시한 도면이다.
도 2는 도 1에 도시된 샘플링율 변환부의 일례를 도시한 도면이다.
도 3은 본 발명의 일실시예에 있어서, 주파수 대역 확장부의 시작 및 끝 주파수 대역을 도시한 도면이다.
도 4는 본 발명의 일실시예에 있어서, 비트율에 따른 모듈 별 동작을 도시한 도면이다.
도 5는 본 발명의 일실시예에 있어서, 음성/음악 통합 신호의 복호화 장치를 도시한 도면이다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다. 다만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일실시예에 있어서, 음성/음악 통합 신호의 부호화 장치를 도시한 도면이다.
도 1을 참고하면, 음성/음악 통합 신호의 부호화 장치(100)는 입력 신호 분석부(110), 스테레오 부호화부(120), 주파수 대역 확장부(130), 샘플링율 변환부(140), 음성 신호 부호화부(150), 음악 신호 부호화부(160), 및 비트스트림 생성부(170)를 포함할 수 있다.
입력 신호 분석부(110)는 입력 신호의 특성을 분석할 수 있다. 즉, 입력 신호 분석부(110)는 입력 신호의 특성을 분석하여 음성 특성을 갖는 신호인지, 음악 특성을 갖는 신호인지를 분리할 수 있다. 이때, 입력신호 분석을 위해 입력 신호의 ZCR(Zero Crossing Rate), 상관관계, 및 프레임 단위의 에너지 중 적어도 하나를 이용할 수 있다.
스테레오 부호화부(120)는 입력 신호를 모노 신호로 다운믹스하고, 스테레오 음상 정보를 추출할 수 있다. 이때, 스테레오 음상 정보는, 좌/우 채널의 상관관계 및 좌/우 채널의 레벨 차이 중 적어도 하나를 포함할 수 있다.
주파수 대역 확장부(130)는 입력 신호를 고주파 대역신호로 확장할 수 있다. 이때, 샘플링율의 변환에 앞서 상기 입력 신호를 고주파 대역신호로 확장할 수 있다. 여기서, 주파수 대역 확장부(130)의 동작은 도 3을 참고하여 이하에서 더욱 상세하게 설명한다.
도 3은 본 발명의 일실시예에 있어서, 주파수 대역 확장부의 시작 및 끝 주파수 대역을 도시한 도면이다.
도 3의 표(300)를 참고하면, 주파수 대역 확장부(130)는 모노 다운믹스 신호가 음악 특성 신호인 경우, 도 3에 예시된 바와 같이, 비트율에 따른 고주파 대역신호를 생성하기 위한 정보를 추출할 수 있다. 한편, 음성 특성 신호는 일예로, 입력 오디오 신호의 샘플링 율이 48kHz인 경우, start 주파수 대역을 6kHz로 고정하고, Stop 주파수 대역은 음악 특성 신호와 동일한 값을 이용하도록 할 수 있다. 여기서, 음성 특성 신호의 start 주파수 대역은 음성 특성 신호 부호화 모듈에서 사용하는 부호화 모듈의 설정에 따라 다양한 값을 가질 수 있다. 또한, 주파수 대역 확장부(130)에서 사용하는 Stop 주파수 대역은 입력 신호의 샘플링 율이나 설정한 비트율에 따라 다양한 값으로 설정될 수 있다. 주파수 대역 확장부(130)는 조성(tonality), 블록 단위의 에너지 값 등의 정보를 사용하여 동작될 수 있다. 또한, 음성 특성 신호와 음악 특성 신호에 따라 주파수 대역 확장에 관한 정보가 달라지는데, 상기 주파수 대역 확장에 관한 정보를 음성 특성 신호와 음악 특성 신호 사이에 변환이 발생할 때 비트스트림에 저장하도록 할 수 있다.
다시 도 1을 참고하면, 샘플링율 변환부(140)는 입력 신호의 샘플링율을 변환할 수 있다. 여기서, 샘플링율 변환부(140)는 입력신호를 부호화하기 전에 입력신호를 전처리하는 과정에 해당한다. 따라서, 샘플링율 변환부(140)는 입력 비트율에 따라 코어(core) 대역의 주파수대역을 변경하기 위해, 입력 오디오 신호의 샘플링 율을 변환할 수 있다. 이때, 샘플링 율 변환을 주파수 대역 확장 다음에 수행함으로써, 주파수 대역 확장에서의 주파수 대역 설정이 코어 대역에서 사용하는 샘플링 율에 고정되지 않고 더 넓은 대역으로 확장이 가능할 수 있다.
여기서, 샘플링율 변환부(140)는 도 2를 참고하여 이하에서 더욱 상세하게 설명한다.
도 2는 도 2에 도시된 샘플링율 변환부의 일례를 도시한 도면이다.
도 2를 참고하면, 샘플링율 변환부(140)는 제1 다운샘플링부(210) 및 제2 다운샘플링부(220)를 포함할 수 있다.
제1 다운샘플링부(210)는 입력 신호를 1/2로 다운 샘플링할 수 있다. 예를 들어, 제1 다운샘플링부(210)는 음악 부호화 모듈이 AAC(advanced audio coding) 기반의 부호화 모듈을 사용하는 경우, 1/2 다운샘플링을 수행할 수 있다.
제2 다운샘플링부(220)는 제1 다운샘플링부의 출력 신호를 1/2로 다운 샘플링할 수 있다. 예를 들어, 제2 다운샘플링부(220)는 음성 부호화 모듈이 AMR-WB+(Adaptive Multi-Rate Wideband Plus) 기반의 부호화 모듈을 사용하는 경우, 상기 제1 다운샘플링부의 출력 신호를 1/2 다운샘플링할 수 있다.
따라서, 음악 신호 부호화부(160)에서 AAC 기반의 부호화 모듈을 사용하는 경우, 샘플링 율 변환부(140)에서는 1/2로 다운 샘플링 한 신호를 생성하고, 음성 신호 부호화부(150)에서 AMR-WB+ 기반의 부호화 모듈을 사용하는 경우 1/4로 다운 샘플링을 수행할 수 있다. 따라서, 샘플링 변환부(140)를 음성 신호 부호화부(150) 및 음악 신호 부호화부(160) 앞에 두어, 음성/음악 신호 부호화 모듈이 처리하는 샘플링 율이 다를 때, 이를 미리 고려하여, 샘플링 변환부(140)에서 처리한 후 음성 신호 부호화 모듈 또는 음악 신호 부호화 모듈에 입력할 수 있도록 한다.
또한, 샘플링율 변환부(140)는 상기 음성 신호 부호화부 또는 음악 신호 부호화부에서 요구하는 샘플링율로 상기 입력 신호의 샘플링율을 변환할 수 있다.
다시 도 1을 참고하면, 음성 신호 부호화부(150)는 입력 신호가 음성 특성을 가지는 신호인 경우, 음성 부호화 모듈을 사용하여 상기 입력 신호를 부호화할 수 있다. 여기서, 입력 신호가 음성 특성을 가지는 신호인 경우, 주파수 대역 확장을 하지 않는 코어(core) 대역에 대해 음성 특성 신호 부호화 모듈에서 부호화를 수행할 수 있다. 한편, 음성 신호 부호화부(150)는 CELP(Code Excitation Linear Prediction) 기반의 음성 부호화 모듈을 사용할 수 있다.
음악 신호 부호화부(160)는 입력 신호가 음악 특성을 가지는 신호인 경우, 음악 부호화 모듈을 사용하여 상기 입력 신호를 부호화할 수 있다. 여기서, 입력 신호가 음악 특성을 가지는 신호인 경우, 주파수 대역 확장을 하지 않는 코어 대역에 대해 음악 특성 신호 부호화 모듈에서 부호화를 수행할 수 있다.
한편, 음악 신호 부호화부(160)는 시간/주파수 기반의 음성 부호화 모듈을 사용할 수 있다.
비트스트림 생성부(170)는 음성 신호 부호화부의 출력 신호 및 음악 신호 부호화부의 출력 신호를 이용하여 비트스트림을 생성할 수 있다. 이때, 비트스트림 생성부(170)는 상기 입력 신호가 음성 특성 신호와 음악 특성 신호 사이에서 변화하는 경우, 프레임 단위의 변화를 보상하는 정보를 비트스트림에 저장할 수 있다. 여기서, 상기 프레임 단위의 변화를 보상하는 정보는, 입력 신호의 특성에 따른 시간/주파수 변환 방법 및 시간/주파수 변환 크기 중 적어도 하나를 포함할 수 있다. 상기 프레임 단위의 변화를 보상하는 정보를 이용하여 복호화기에서 음성 특성 신호 프레임과 음악 특성 신호 프레임 사이의 변환을 수행하도록 할 수 있다.
한편, 타겟(target) 비트율에 따른 음성/음악 통합 신호의 부호화 장치(100)의 동작은 도 4를 참고하여 이하에서 상세하게 설명한다.
도 4는 본 발명의 일실시예에 있어서, 비트율에 따른 모듈 별 동작을 도시한 도면이다.
도 4의 표(400)를 참고하면, 입력 신호가 모노인 경우, 스테레오 부호화 모듈을 모두 OFF로 하고, 비트율이 12kbps, 16kbps인 경우 음악 특성 신호 부호화 모듈을 OFF로 할 수 있다. 여기서, 비트율 12kbps, 16kbps에서 음악 특성 신호 부호화 모듈을 OFF 하는 이유는 낮은 비트율에서는 CELP 기반의 음성 부호화 모듈을 이용하여 음악 특성 신호를 부호화 하는 것이 음악 부호화 모듈을 이용하여 부호화하는 것보다 우수한 음질을 보여주기 때문이다. 따라서, 비트율 12kbps, 16kbps에서 모노 입력 신호에 대한 부호화는 음악 부호화 모듈, 스테레오 부호화 모듈, 입력 신호 분석 모듈을 OFF한 다음, 음성 신호 부호화 모듈과 주파수 대역 확장 모듈만을 이용할 수 있다.
비트율 20kbps, 24kbps, 32kbps에서는 음성 특성 신호와 음악 특성 신호에 따라 음성 신호 부호화 모듈과 음악 신호 부호화 모듈을 번갈아 가면서 사용할 수 있다. 즉, 입력 신호 분석 모듈에서 입력 신호를 분석하여 음성 특성 신호인 경우, 음성 부호화 모듈을 통해 부호화 하고, 음악 특성 신호인 경우, 음악 부호화 모듈을 이용하여 부호화할 수 있다.
비트율 64kbps에서는 사용 가능한 비트가 충분하기 때문에, 시간/주파수 변환 기반의 음악 부호화 모듈의 성능이 향상된다. 따라서 64kbps에서는 음성 부호화 모듈과 입력 신호 분석 모듈을 OFF하고, 입력 신호를 모두 음악 부호화 모듈 및 주파수 대역 확장 모듈을 이용하여 부호화 할 수 있다.
입력 신호가 스테레오인 경우, 스테레오 부호화 모듈을 동작 시킬 수 있다. 비트율 12kbps, 16kbps, 20kbps로 부호화 하는 경우, 음악 부호화 모듈과 입력 신호 분석 모듈을 모두 OFF로 한 후, 모든 입력 신호를 스테레오 부호화 모듈, 주파수 대역 확장 모듈 및 음성 부호화 모듈을 통해 부호화 할 수 있다. 일반적으로 스테레오 부호화 모듈에서 사용하는 비트는 4kbps 이하이기 때문에, 20kbps로 스테레오 입력 신호를 부호화하는 경우, 16kbps로 다운믹스한 모노 신호를 부호화 해야 한다. 이 대역은 음성 부호화 모듈이 음악 부호화 모듈 보다 우수한 성능을 보이므로, 입력 신호 분석 모듈을 OFF 하고 모든 입력 신호에 대해 음성 부호화 모듈을 이용하여 부호화를 수행할 수 있다.
입력 스테레오 신호에 대해 비트율 24kbps, 32kbps로 부호화 하는 경우, 입력 신호 분석 모듈의 결과에 따라 음성 특성 신호는 음성 부호화 모듈을 이용하여 부호화 하고, 음악 특성 신호는 음악 부호화 모듈을 이용하여 부호화를 수행할 수 있다.
스테레오 신호를 비트율 64kbps로 부호화 하는 경우, 가용 비트가 많기 때문에, 음악 특성 신호 부호화 모듈만을 이용하여 입력 신호를 부호화 할 수 있다.
예를 들면, 음성 부호화기인 AMR-WB+와 음악 부호화기인 HE-AAC V2(High-Efficiency Advanced Audio Coding version 2)를 이용하여 통합 음성/음악 통합 신호의 부호화 장치(100)를 구성하는 경우, AMR-WB+의 스테레오 모듈과 주파수 대역 확장 모듈의 성능이 우수하지 않기 때문에, HE-AAC V2의 PS(Parametric Stereo) 모듈과 SBR(Spectral Band Replication) 모듈을 이용하여 스테레오 신호에 대한 처리와 주파수 대역 확장을 수행할 수 있다.
12kbps, 16kbps 모노 신호에 대해서는 CELP 기반의 AMR-WB+의 성능이 우수하기 때문에, 코어 대역의 부호화는 AMR-WB+의 ACELP(Algebraic Code Excited Linear Prediction)/TCX(Transform Coded Excitation) 모듈을 이용하고, 주파수 대역의 확장에는 HE-AAC V2의 SBR(Spectral Band Replication) 모듈을 이용할 수 있다.
20kbps, 24kbps, 32kbps에서는 입력 신호를 분석하여 음성 특성 신호인 경우, AMR-WB+의 ACELP/TCX 모듈, 음악 특성 신호인 경우, HE-AAC V2의 AAC 모듈을 이용하여 코어 대역을 부호화 하고, HE-AAC V2의 SBR을 이용하여 주파수 대역 확장을 수행할 수 있다.
64kbps에서는 코어 대역의 부호화에 HE-AAC V2의 AAC 모듈만을 이용하여 부호화를 수행할 수 있다.
스테레오 입력에 대해서는 HE-AAC V2의 PS모듈을 이용하여 스테레오 부호화를 수행하고, 모드에 따라 적절하게 ARM-WB+의 ACELP/TCX 모듈과 HE-AAC V2의 AAC 모듈을 선택하여 코어 대역에 대한 부호화를 수행할 수 있다.
상기와 같이, 입력 신호의 특성에 따라 내부 모듈을 효과적으로 선택함으로써, 다양한 비트율에서 음성 신호 및 음악 신호 모두에 대해 우수한 음질을 제공하고, 샘플링율 변환 이전에 주파수 대역을 확장함으로써, 더 넓은 대역으로 주파수 확장이 가능할 수 있다.
도 5는 본 발명의 일실시예에 있어서, 음성/음악 통합 신호의 복호화 장치를 도시한 도면이다.
도 5를 참고하면, 음성/음악 통합 신호의 복호화 장치(500)는 비트스트림 분석부(510), 음성 신호 복호화부(520), 음악 신호 복호화부(530), 신호 보상부(540), 샘플링율 변환부(550), 주파수 대역 확장부(560), 및 스테레오 복호화부(570)를 포함할 수 있다.
비트스트림 분석부(510)는 입력된 비트스트림 신호를 분석할 수 있다.
음성 신호 복호화부(520)는 비트스트림 신호가 음성 특성 신호에 대한 비트스트림인 경우, 음성 복호화 모듈을 사용하여 상기 비트스트림 신호를 복호화할 수 있다.
음악 신호 복호화부(530)는 비트스트림 신호가 음악 특성 신호에 대한 비트스트림인 경우, 음악 복호화 모듈을 사용하여 상기 비트스트림 신호를 복호화할 수 있다.
신호 보상부(540)는 음악 특성 신호와 음성 특성 신호 사이의 변환시 변환 처리를 수행할 수 있다. 즉, 음성 특성 신호와 음악 특성 신호 사이의 변환 시, artifact가 발생하지 않도록 각각의 특성에 따른 변환 정보를 이용하여 부드럽게 음성 특성 신호와 음악 특성 신호 사이를 변환하도록 처리할 수 있다.
샘플링율 변환부(550)는 비트스트림 신호의 샘플링율을 변환할 수 있다. 따라서, 샘플링율 변환부(550)는 코어 대역에서 사용한 샘플링 율을 원 샘플링 율로 변환하여 주파수 대역 확장 모듈이나 스테레오 부호화 모듈에서 사용하기 위한 신호를 생성할 수 있다. 즉, 코어 대역에서 변환하여 사용한 샘플링 율을 변환전 샘플링 율로 재변환하여 주파수 대역 확장 모듈이나 스테레오 부호화 모듈에서 사용하기 위한 신호를 생성할 수 있다.
주파수 대역 확장부(560)는 복호화된 저주파 대역 신호를 이용하여 고주파 대역 신호를 생성할 수 있다.
스테레오 복호화부(570)는 스트레오 확장 파라미터를 이용하여 스트레오 신호를 생성할 수 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.

Claims (14)

  1. 입력 신호의 특성을 분석하는 입력 신호 분석부;
    상기 입력 신호가 스트레오 신호인 경우 모노 신호로 다운믹스하고, 스테레오 음상 정보를 추출하는 스테레오 부호화부;
    상기 입력 신호의 주파수 대역을 확장하는 주파수 대역 확장부;
    상기 주파수 대역 확장부의 출력 신호에 대한 샘플링율을 변환하는 샘플링율 변환부;
    상기 입력 신호가 음성 특성을 가지는 신호인 경우, 음성 부호화 모듈을 사용하여 상기 입력 신호를 부호화하는 음성 신호 부호화부;
    상기 입력 신호가 음악 특성을 가지는 신호인 경우, 음악 부호화 모듈을 사용하여 상기 입력 신호를 부호화하는 음악 신호 부호화부; 및
    상기 음성 신호 부호화부의 출력 신호 및 상기 음악 신호 부호화부의 출력 신호를 이용하여 비트스트림을 생성하는 비트스트림 생성부
    를 포함하는 음성/음악 통합 신호의 부호화 장치.
  2. 제1항에 있어서,
    상기 입력 신호 분석부는,
    상기 입력 신호의 ZCR(Zero Crossing Rate), 상관관계, 및 프레임 단위의 에너지 중 적어도 하나를 이용하여 상기 입력 신호를 분석하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  3. 제1항에 있어서,
    상기 스테레오 음상 정보는,
    좌/우 채널의 상관관계 및 좌/우 채널의 레벨 차이 중 적어도 하나를 포함하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  4. 제1항에 있어서,
    상기 주파수 대역 확장부는,
    상기 샘플링율의 변환에 앞서 상기 입력 신호를 고주파 대역신호로 확장하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  5. 제1항에 있어서,
    상기 샘플링율 변환부는,
    상기 음성 신호 부호화부 또는 음악 신호 부호화부에서 요구하는 샘플링율로 상기 입력 신호의 샘플링율을 변환하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  6. 제1항에 있어서,
    상기 샘플링율 변환부는,
    상기 입력 신호를 1/2로 다운 샘플링하는 제1 다운샘플링부;
    상기 제1 다운샘플링부의 출력 신호를 1/2로 다운 샘플링하는 제2 다운샘플링부
    를 포함하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  7. 제6항에 있어서,
    상기 제1 다운샘플링부는,
    상기 음악 부호화 모듈이 AAC(advanced audio coding) 기반의 부호화 모듈인 경우, 1/2 다운샘플링을 수행하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  8. 제6항에 있어서,
    상기 제2 다운샘플링부는,
    상기 음성 부호화 모듈이 AMR-WB+(Adaptive Multi-Rate Wideband Plus) 기반의 부호화 모듈인 경우, 상기 제1 다운샘플링부의 출력 신호를 1/2 다운샘플링하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  9. 제1항에 있어서,
    상기 음성 신호 부호화부는,
    CELP(Code Excitation Linear Prediction) 기반의 음성 부호화 모듈을 사용하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  10. 제1항에 있어서,
    상기 음악 신호 부호화부는,
    시간/주파수 기반의 음성 부호화 모듈을 사용하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  11. 제1항에 있어서,
    상기 비트스트림 생성부는,
    상기 입력 신호가 음성 특성 신호와 음악 특성 신호 사이에서 변화하는 경우, 프레임 단위의 변화를 보상하는 정보를 비트스트림에 저장하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  12. 제11항에 있어서,
    상기 프레임 단위의 변화를 보상하는 정보는,
    입력 신호의 특성에 따른 시간/주파수 변환 방법 및 시간/주파수 변환 크기 중 적어도 하나를 포함하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  13. 입력된 비트스트림 신호를 분석하는 비트스트림 분석부;
    상기 비트스트림 신호가 음성 특성 신호에 대한 비트스트림인 경우, 음성 복호화 모듈을 사용하여 상기 비트스트림 신호를 복호화하는 음성 신호 복호화부;
    상기 비트스트림 신호가 음악 특성 신호에 대한 비트스트림인 경우, 음악 복호화 모듈을 사용하여 상기 비트스트림 신호를 복호화하는 음악 신호 복호화부;
    상기 음악 특성 신호와 상기 음성 특성 신호 사이의 변환시 변환 처리를 수행하는 신호 보상부;
    상기 비트스트림 신호의 샘플링율을 변환하는 샘플링율 변환부;
    복호화된 저주파 대역 신호를 이용하여 고주파 대역 신호를 생성하는 주파수 대역 확장부; 및
    스트레오 확장 파라미터를 이용하여 스트레오 신호를 생성하는 스테레오 복호화부
    를 포함하는 음성/음악 통합 신호의 복호화 장치.
  14. 제13항에 있어서,
    상기 샘플링율 변환부는,
    코어 대역에서 변환하여 사용한 샘플링율을 변환전 샘플링율로 재변환하는 것을 특징으로 하는 음성/음악 통합 신호의 복호화 장치.
PCT/KR2009/003855 2008-07-14 2009-07-14 음성/음악 통합 신호의 부호화/복호화 장치 Ceased WO2010008176A1 (ko)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP2011517359A JP2011527032A (ja) 2008-07-14 2009-07-14 音声/音楽統合信号の符号化/復号化装置
CN200980135678.8A CN102150204B (zh) 2008-07-14 2009-07-14 编码和解码语音与音频统合信号的设备
EP09798079.1A EP2302624B1 (en) 2008-07-14 2009-07-14 Apparatus for encoding and decoding of integrated speech and audio
US13/003,979 US8903720B2 (en) 2008-07-14 2009-07-14 Apparatus for encoding and decoding of integrated speech and audio
EP18215268.6A EP3493204B1 (en) 2008-07-14 2009-07-14 Method for encoding of integrated speech and audio
US14/534,781 US9818411B2 (en) 2008-07-14 2014-11-06 Apparatus for encoding and decoding of integrated speech and audio
US15/810,732 US10403293B2 (en) 2008-07-14 2017-11-13 Apparatus for encoding and decoding of integrated speech and audio
US16/557,238 US10714103B2 (en) 2008-07-14 2019-08-30 Apparatus for encoding and decoding of integrated speech and audio
US16/925,946 US11705137B2 (en) 2008-07-14 2020-07-10 Apparatus for encoding and decoding of integrated speech and audio
US18/212,364 US12205599B2 (en) 2008-07-14 2023-06-21 Apparatus for encoding and decoding of integrated speech and audio
US18/982,631 US20250118310A1 (en) 2008-07-14 2024-12-16 Apparatus for encoding and decoding of integrated speech and audio

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2008-0068369 2008-07-14
KR20080068369 2008-07-14
KR10-2008-0134297 2008-12-26
KR20080134297 2008-12-26
KR1020090061608A KR101381513B1 (ko) 2008-07-14 2009-07-07 음성/음악 통합 신호의 부호화/복호화 장치
KR10-2009-0061608 2009-07-07

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/003,979 A-371-Of-International US8903720B2 (en) 2008-07-14 2009-07-14 Apparatus for encoding and decoding of integrated speech and audio
US14/534,781 Continuation US9818411B2 (en) 2008-07-14 2014-11-06 Apparatus for encoding and decoding of integrated speech and audio

Publications (1)

Publication Number Publication Date
WO2010008176A1 true WO2010008176A1 (ko) 2010-01-21

Family

ID=41816651

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2009/003855 Ceased WO2010008176A1 (ko) 2008-07-14 2009-07-14 음성/음악 통합 신호의 부호화/복호화 장치

Country Status (6)

Country Link
US (7) US8903720B2 (ko)
EP (2) EP3493204B1 (ko)
JP (3) JP2011527032A (ko)
KR (2) KR101381513B1 (ko)
CN (2) CN103531203B (ko)
WO (1) WO2010008176A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109509478A (zh) * 2013-04-05 2019-03-22 杜比国际公司 音频处理装置
CN115088034A (zh) * 2020-02-20 2022-09-20 思睿逻辑国际半导体有限公司 具有数字麦克风的音频系统

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101381513B1 (ko) 2008-07-14 2014-04-07 광운대학교 산학협력단 음성/음악 통합 신호의 부호화/복호화 장치
JP5565405B2 (ja) * 2011-12-21 2014-08-06 ヤマハ株式会社 音響処理装置および音響処理方法
JP2014074782A (ja) * 2012-10-03 2014-04-24 Sony Corp 音声送信装置、音声送信方法、音声受信装置および音声受信方法
CN105493182B (zh) 2013-08-28 2020-01-21 杜比实验室特许公司 混合波形编码和参数编码语音增强
CN117037811A (zh) 2013-09-12 2023-11-10 杜比国际公司 多声道音频内容的编码
FR3017484A1 (fr) * 2014-02-07 2015-08-14 Orange Extension amelioree de bande de frequence dans un decodeur de signaux audiofrequences
CN110992965B (zh) * 2014-02-24 2024-09-03 三星电子株式会社 信号分类方法和装置以及使用其的音频编码方法和装置
CN105023577B (zh) * 2014-04-17 2019-07-05 腾讯科技(深圳)有限公司 混音处理方法、装置和系统
CN113259058B (zh) * 2014-04-21 2024-07-09 三星电子株式会社 用于在无线通信系统中发射和接收语音数据的装置和方法
KR102244612B1 (ko) 2014-04-21 2021-04-26 삼성전자주식회사 무선 통신 시스템에서 음성 데이터를 송신 및 수신하기 위한 장치 및 방법
CN107452390B (zh) 2014-04-29 2021-10-26 华为技术有限公司 音频编码方法及相关装置
KR20160081844A (ko) 2014-12-31 2016-07-08 한국전자통신연구원 다채널 오디오 신호의 인코딩 방법 및 상기 인코딩 방법을 수행하는 인코딩 장치, 그리고, 다채널 오디오 신호의 디코딩 방법 및 상기 디코딩 방법을 수행하는 디코딩 장치
WO2016108655A1 (ko) * 2014-12-31 2016-07-07 한국전자통신연구원 다채널 오디오 신호의 인코딩 방법 및 상기 인코딩 방법을 수행하는 인코딩 장치, 그리고, 다채널 오디오 신호의 디코딩 방법 및 상기 디코딩 방법을 수행하는 디코딩 장치
EP3107096A1 (en) 2015-06-16 2016-12-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Downscaled decoding
GB2549922A (en) * 2016-01-27 2017-11-08 Nokia Technologies Oy Apparatus, methods and computer computer programs for encoding and decoding audio signals
EP3288031A1 (en) 2016-08-23 2018-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding an audio signal using a compensation value
CN108269577B (zh) 2016-12-30 2019-10-22 华为技术有限公司 立体声编码方法及立体声编码器
MX2020002972A (es) 2017-09-20 2020-07-22 Voiceage Corp Metodo y dispositivo para asignar un presupuesto de bits entre subtramas en un codec celp.
CN112509591B (zh) * 2020-12-04 2024-05-14 北京百瑞互联技术股份有限公司 一种音频编解码方法及系统
WO2022123622A1 (ja) * 2020-12-07 2022-06-16 株式会社デンソーテン 音声信号処理装置及び方法
CN112599138B (zh) * 2020-12-08 2024-05-24 北京百瑞互联技术股份有限公司 一种lc3音频编码器的多pcm信号编码方法、装置及介质
KR20220117019A (ko) 2021-02-16 2022-08-23 한국전자통신연구원 학습 모델을 이용한 오디오 신호의 부호화 및 복호화 방법과 그 학습 모델의 트레이닝 방법 및 이를 수행하는 부호화기 및 복호화기
KR102837318B1 (ko) 2021-05-24 2025-07-23 한국전자통신연구원 오디오 신호의 부호화 및 복호화 방법과 그 방법을 수행하는 부호화기 및 복호화기
KR20240057038A (ko) * 2022-10-24 2024-05-02 한국전자통신연구원 오디오 신호를 인코딩 및 디코딩하는 장치 및 이의 동작 방법
CN117907166B (zh) * 2024-03-19 2024-06-21 安徽省交通规划设计研究总院股份有限公司 基于声音处理的无砂混凝土集料粒径确定方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7222070B1 (en) * 1999-09-22 2007-05-22 Texas Instruments Incorporated Hybrid speech coding and system
WO2008060114A1 (en) * 2006-11-17 2008-05-22 Samsung Electronics Co., Ltd. Method and apparatus to encode and/or decode audio and/or speech signal
WO2008072913A1 (en) * 2006-12-14 2008-06-19 Samsung Electronics Co., Ltd. Method and apparatus to determine encoding mode of audio signal and method and apparatus to encode and/or decode audio signal using the encoding mode determination method and apparatus

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5459814A (en) * 1993-03-26 1995-10-17 Hughes Aircraft Company Voice activity detector for speech signals in variable background noise
JPH0738437A (ja) * 1993-07-19 1995-02-07 Sharp Corp コーデック装置
JPH0897726A (ja) 1994-09-28 1996-04-12 Victor Co Of Japan Ltd サブバンド帯域分割/合成方法およびその装置
US6134518A (en) * 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
JP3017715B2 (ja) * 1997-10-31 2000-03-13 松下電器産業株式会社 音声再生装置
JP3211762B2 (ja) * 1997-12-12 2001-09-25 日本電気株式会社 音声及び音楽符号化方式
ATE302991T1 (de) * 1998-01-22 2005-09-15 Deutsche Telekom Ag Verfahren zur signalgesteuerten schaltung zwischen verschiedenen audiokodierungssystemen
JP3327240B2 (ja) 1999-02-10 2002-09-24 日本電気株式会社 画像・音声符号化装置
US6351733B1 (en) * 2000-03-02 2002-02-26 Hearing Enhancement Company, Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
US7266501B2 (en) * 2000-03-02 2007-09-04 Akiba Electronics Institute Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
DE60204038T2 (de) * 2001-11-02 2006-01-19 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zum codieren bzw. decodieren eines audiosignals
US6785645B2 (en) * 2001-11-29 2004-08-31 Microsoft Corporation Real-time speech and music classifier
US7337108B2 (en) * 2003-09-10 2008-02-26 Microsoft Corporation System and method for providing high-quality stretching and compression of a digital audio signal
JP2005099243A (ja) 2003-09-24 2005-04-14 Konica Minolta Medical & Graphic Inc 銀塩光熱写真ドライイメージング材料及び画像形成方法
JP4679049B2 (ja) 2003-09-30 2011-04-27 パナソニック株式会社 スケーラブル復号化装置
KR100614496B1 (ko) 2003-11-13 2006-08-22 한국전자통신연구원 가변 비트율의 광대역 음성 및 오디오 부호화 장치 및방법
CA2457988A1 (en) * 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
AU2005219956B2 (en) * 2004-03-01 2009-05-28 Dolby Laboratories Licensing Corporation Multichannel audio coding
ES2295837T3 (es) * 2004-03-12 2008-04-16 Nokia Corporation Sistesis de una señal de audio monofonica sobre la base de una señal de audio multicanal codificada.
CN1947407A (zh) 2004-04-09 2007-04-11 日本电气株式会社 音频通信方法和装置
SE0400998D0 (sv) 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
JP2006325162A (ja) 2005-05-20 2006-11-30 Matsushita Electric Ind Co Ltd バイノーラルキューを用いてマルチチャネル空間音声符号化を行うための装置
US7953605B2 (en) * 2005-10-07 2011-05-31 Deepen Sinha Method and apparatus for audio encoding and decoding using wideband psychoacoustic modeling and bandwidth extension
KR100647336B1 (ko) * 2005-11-08 2006-11-23 삼성전자주식회사 적응적 시간/주파수 기반 오디오 부호화/복호화 장치 및방법
CA2636493A1 (en) * 2006-01-18 2007-07-26 Lg Electronics Inc. Apparatus and method for encoding and decoding signal
US7953604B2 (en) * 2006-01-20 2011-05-31 Microsoft Corporation Shape and scale parameters for extended-band frequency coding
KR20070077652A (ko) * 2006-01-24 2007-07-27 삼성전자주식회사 적응적 시간/주파수 기반 부호화 모드 결정 장치 및 이를위한 부호화 모드 결정 방법
US20080004883A1 (en) * 2006-06-30 2008-01-03 Nokia Corporation Scalable audio coding
KR101393298B1 (ko) 2006-07-08 2014-05-12 삼성전자주식회사 적응적 부호화/복호화 방법 및 장치
WO2008035949A1 (en) * 2006-09-22 2008-03-27 Samsung Electronics Co., Ltd. Method, medium, and system encoding and/or decoding audio signals by using bandwidth extension and stereo coding
US9009032B2 (en) * 2006-11-09 2015-04-14 Broadcom Corporation Method and system for performing sample rate conversion
US20080114608A1 (en) * 2006-11-13 2008-05-15 Rene Bastien System and method for rating performance
KR100883656B1 (ko) * 2006-12-28 2009-02-18 삼성전자주식회사 오디오 신호의 분류 방법 및 장치와 이를 이용한 오디오신호의 부호화/복호화 방법 및 장치
GB0703795D0 (en) * 2007-02-27 2007-04-04 Sepura Ltd Speech encoding and decoding in communications systems
US9653088B2 (en) * 2007-06-13 2017-05-16 Qualcomm Incorporated Systems, methods, and apparatus for signal encoding using pitch-regularizing and non-pitch-regularizing coding
US8046214B2 (en) * 2007-06-22 2011-10-25 Microsoft Corporation Low complexity decoder for complex transform coding of multi-channel sound
US8781843B2 (en) * 2007-10-15 2014-07-15 Intellectual Discovery Co., Ltd. Method and an apparatus for processing speech, audio, and speech/audio signal using mode information
US20090164223A1 (en) * 2007-12-19 2009-06-25 Dts, Inc. Lossless multi-channel audio codec
KR101381513B1 (ko) * 2008-07-14 2014-04-07 광운대학교 산학협력단 음성/음악 통합 신호의 부호화/복호화 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7222070B1 (en) * 1999-09-22 2007-05-22 Texas Instruments Incorporated Hybrid speech coding and system
WO2008060114A1 (en) * 2006-11-17 2008-05-22 Samsung Electronics Co., Ltd. Method and apparatus to encode and/or decode audio and/or speech signal
WO2008072913A1 (en) * 2006-12-14 2008-06-19 Samsung Electronics Co., Ltd. Method and apparatus to determine encoding mode of audio signal and method and apparatus to encode and/or decode audio signal using the encoding mode determination method and apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SALAMI ET AL.: "Extended AMR-WB for high-quality audio on mobile devices", COMMUNICATIONS MAGAZINE IEEE, vol. 44, no. ISS.5, May 2006 (2006-05-01), pages 90 - 97, XP001546246 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109509478A (zh) * 2013-04-05 2019-03-22 杜比国际公司 音频处理装置
CN109509478B (zh) * 2013-04-05 2023-09-05 杜比国际公司 音频处理装置
CN115088034A (zh) * 2020-02-20 2022-09-20 思睿逻辑国际半导体有限公司 具有数字麦克风的音频系统

Also Published As

Publication number Publication date
US11705137B2 (en) 2023-07-18
CN103531203A (zh) 2014-01-22
US10403293B2 (en) 2019-09-03
KR20120089222A (ko) 2012-08-09
US20180068667A1 (en) 2018-03-08
EP3493204A1 (en) 2019-06-05
US10714103B2 (en) 2020-07-14
US12205599B2 (en) 2025-01-21
US20110119055A1 (en) 2011-05-19
EP2302624A4 (en) 2012-10-31
US20240119948A1 (en) 2024-04-11
EP2302624B1 (en) 2018-12-26
JP2014139674A (ja) 2014-07-31
KR101381513B1 (ko) 2014-04-07
US9818411B2 (en) 2017-11-14
US20150095023A1 (en) 2015-04-02
US8903720B2 (en) 2014-12-02
JP2013232007A (ja) 2013-11-14
KR20100007739A (ko) 2010-01-22
CN102150204B (zh) 2015-03-11
CN103531203B (zh) 2018-04-20
JP6067601B2 (ja) 2017-01-25
US20250118310A1 (en) 2025-04-10
KR101565634B1 (ko) 2015-11-04
CN102150204A (zh) 2011-08-10
EP3493204B1 (en) 2023-11-01
US20200349958A1 (en) 2020-11-05
EP2302624A1 (en) 2011-03-30
JP2011527032A (ja) 2011-10-20
US20190385621A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
WO2010008176A1 (ko) 음성/음악 통합 신호의 부호화/복호화 장치
KR101664434B1 (ko) 오디오 신호의 부호화 및 복호화 방법 및 그 장치
CN103219010B (zh) 对音频和/或语音信号进行编码和/或解码的方法和设备
EP2849180B1 (en) Hybrid audio signal encoder, hybrid audio signal decoder, method for encoding audio signal, and method for decoding audio signal
KR101261677B1 (ko) 음성/음악 통합 신호의 부호화/복호화 장치
WO2012177067A2 (ko) 오디오 신호 처리방법 및 장치와 이를 채용하는 단말기
KR20090043352A (ko) 상호 운용성을 지원하는 오디오/스피치 신호의부호화/복호화 방법 및 시스템
HK1127665A1 (en) Apparatus for processing media signal and method thereof
HK1127665B (en) Apparatus for processing media signal and method thereof

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980135678.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09798079

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2009798079

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2011517359

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13003979

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE