[go: up one dir, main page]

WO2010008179A1 - 음성/음악 통합 신호의 부호화/복호화 방법 및 장치 - Google Patents

음성/음악 통합 신호의 부호화/복호화 방법 및 장치 Download PDF

Info

Publication number
WO2010008179A1
WO2010008179A1 PCT/KR2009/003861 KR2009003861W WO2010008179A1 WO 2010008179 A1 WO2010008179 A1 WO 2010008179A1 KR 2009003861 W KR2009003861 W KR 2009003861W WO 2010008179 A1 WO2010008179 A1 WO 2010008179A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
input signal
encoding
music
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2009/003861
Other languages
English (en)
French (fr)
Inventor
이태진
백승권
김민제
장대영
서정일
강경옥
홍진우
박호종
박영철
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Research Institute for Industry Cooperation of Kwangwoon University
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Research Institute for Industry Cooperation of Kwangwoon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to EP09798082.5A priority Critical patent/EP2302345B1/en
Priority to US13/054,376 priority patent/US8990072B2/en
Priority to EP17173025.2A priority patent/EP3249373B1/en
Priority to EP25187160.4A priority patent/EP4648047A1/en
Priority to CN200980135842.5A priority patent/CN102150024B/zh
Application filed by Electronics and Telecommunications Research Institute ETRI, Research Institute for Industry Cooperation of Kwangwoon University filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of WO2010008179A1 publication Critical patent/WO2010008179A1/ko
Anticipated expiration legal-status Critical
Priority to US14/605,006 priority patent/US9711159B2/en
Priority to US15/618,689 priority patent/US10121482B2/en
Priority to US16/179,120 priority patent/US10777212B2/en
Priority to US17/018,295 priority patent/US11456002B2/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C2207/00Indexing scheme relating to arrangements for writing information into, or reading information out from, a digital store
    • G11C2207/16Solid state audio

Definitions

  • the present invention relates to a method and apparatus for encoding / decoding a speech / music integrated signal, and more particularly, to include an encoding / decoding module that operates in a different structure for speech and music signals, and to effectively select an internal module according to characteristics of an input signal.
  • the present invention relates to a method and an apparatus for efficiently encoding all signals of music.
  • Voice signals and music signals have different characteristics, and by utilizing the inherent characteristics of each signal, the voice codec and the music codec specialized for each signal are independently studied and each standard codec has been developed.
  • Currently widely used speech codec (AMR-WB +) has a CELP structure, and has a structure for extracting and quantizing speech parameters based on LPC according to speech model.
  • the currently widely used music codec (HE-AAC V2) has a structure that quantizes the frequency coefficient optimally in terms of psychoacoustics in consideration of the human auditory characteristics in the frequency domain.
  • the present invention provides an apparatus and method for effectively selecting internal modules according to characteristics of an input signal, thereby providing excellent sound quality for both voice signals and music signals at various bit rates.
  • the present invention provides an apparatus and method for providing excellent sound quality for various input signals by appropriately combining speech coders and music protectors at various bit rates.
  • An apparatus for encoding a speech / music integrated signal may include: an input signal analyzer configured to analyze characteristics of an input signal, and when the input signal is a music characteristic signal, convert the input signal into a frequency domain and encode A first transform encoding unit, an LPC encoder for linearly predicting coding ( LPC) -based encoding of the input signal, an output signal of the first transform encoder, and an output signal of the LPC encoder And a bitstream generator for generating a bitstream.
  • LPC linearly predicting coding
  • the apparatus may further include a stereo encoding unit for downmixing the input signal into a mono signal, extracting stereo sound information, and a frequency band extension unit for extending the input signal into a high frequency band signal.
  • the stereo encoder controls the parameter value for stereo encoding according to the characteristics of the input signal, and the frequency band extension unit, one or more Spectral Band Replication according to the characteristics of the input signal ) Standards may optionally be applied.
  • the apparatus may further include a psychoacoustic unit that controls the first transform encoder by using a human auditory characteristic.
  • the LPC encoder may include a time domain encoder for time-domain encoding the input signal when the input signal is a voice characteristic signal, and the input signal when the input signal is a music characteristic signal. It may include a second transform encoding unit for fast Fourier transform (FFT) -based encoding.
  • FFT fast Fourier transform
  • the input signal analyzer may classify the input signal into one of the music characteristic signal, the voice characteristic signal, and the small energy signal.
  • the voice characteristic signal may include a voice signal having a strong harmonic component (Steady-Harmonic State), a voice signal having a low harmonic component (Low Steady-Harmonic State), and a first noise signal (Steady-Noise State).
  • the music characteristic signal may be classified into one of a complex harmonic structure music signal (Complex-Harmonic State) and a second noise signal (Complex-Noisy State).
  • an apparatus for encoding a speech / music integrated signal including: an input signal analyzer for analyzing characteristics of an input signal, and a stereo encoding for downmixing the input signal into a mono signal and extracting stereo sound information; A frequency band extension unit for generating information for extending the input signal into a high frequency band signal, and when the input signal is a music characteristic signal, a first transform encoder for converting and encoding the high frequency band signal into a frequency domain; When the input signal is a voice characteristic signal, an LPC encoder for encoding the high frequency band signal based on LPC ( Linear Predictive Coding), the stereo image information, information for extending the high frequency band signal, and an output of the first transform encoder.
  • An apparatus for decoding a speech / music integrated signal may include a bitstream analyzer configured to analyze an input bitstream signal, and when the bitstream signal is a music bitstream signal, convert the bitstream signal into a frequency domain.
  • a transform decoding unit for converting and decoding a signal; an LPC decoding unit for decoding the bitstream signal based on Linear Predictive Coding ( LPC) when the bitstream signal is an audio bitstream, and a frequency band for synthesizing a frequency band of the bitstream signal
  • LPC Linear Predictive Coding
  • a synthesizer and a stereo decoder configured to decode the bitstream signal into a stereo signal.
  • an apparatus and method for providing an excellent sound quality for both a speech signal and a music signal at various bit rates by effectively selecting an internal module according to the characteristics of the input signal.
  • an apparatus and method which provide excellent sound quality for various input signals by appropriately combining the speech coder and the music protector at various bit rates.
  • FIG. 1 is a diagram illustrating an apparatus for encoding a speech / music integrated signal according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating an apparatus for encoding a speech / music integrated signal according to another embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of the stereo encoder shown in FIG. 2.
  • FIG. 4 is a diagram illustrating an example of the frequency band extension unit illustrated in FIG. 2.
  • FIG. 5 is a diagram illustrating an apparatus for decoding a speech / music integrated signal according to one embodiment of the present invention.
  • FIG. 1 is a diagram illustrating an apparatus for encoding a speech / music integrated signal according to an embodiment of the present invention.
  • the apparatus 100 for encoding an audio / music integrated signal includes an input signal analyzer 110, a first transform encoder 120, an LPC encoder 130, and a bitstream generator 140. It may include.
  • the input signal analyzer 110 may analyze characteristics of the input signal.
  • the input signal analyzer 110 may analyze the input signal and classify it into one of a music characteristic signal, a voice characteristic signal, and a small energy signal.
  • the voice characteristic signal may be classified into one of a strong harmonic component (Steady-Harmonic State), a low harmonic component (Low Steady-Harmonic State), and a first noise signal (Steady-Noise State). have.
  • the music characteristic signal may be classified into one of a complex harmonic structure (Complex-Harmonic State) and a second noise signal (Complex-Noisy State).
  • the state of the input signal can be classified in more detail as follows.
  • the first is the Steady-Harmonic (SH) State, where the harmonic component of the signal is clear and the signal section appears to be stable.
  • SH Steady-Harmonic
  • the voiced sound section of the voice may be representatively included, and single-ton sinusoidal signals may be classified as the present state.
  • the Low Steady Harmonic (LSH) State which is similar to the SH, may be a state in which the periodicity of the harmonic is relatively long and exhibits a strong steady characteristic in a low frequency band.
  • the voiced sound interval of the male voice may be included therein.
  • the third is a Steady-Noise (SN) state, which may correspond to white noise.
  • SN Steady-Noise
  • an unvoiced section of speech may be basically included.
  • the fourth is the Complex-Harmonic (CH) State, which corresponds to a signal section in which various tone components are mixed to form a complex harmonic structure, and the music section may be included in general music.
  • CH Complex-Harmonic
  • CN Complex-Noisy
  • a signal containing unstable noise components may be classified into this state.
  • the ambient ambient noise, or an aggressive signal in the music section may correspond to this.
  • the output result of the input signal analyzer 110 is used to select one of the first transform encoder 120 and the LPC encoder 130, and the time domain encoder 131 and the second transform when LPC-based encoding is performed. It can be used to select one of the operations of the encoder 132.
  • the first transform encoder 120 may convert the core band of the input signal into a frequency domain and encode the same.
  • the LPC encoder 130 may perform LPC ( Linear Predictive Coding) based encoding on the core band of the input signal.
  • LPC encoder 130 may include a time domain encoder 131 and a second transform encoder 132.
  • the time domain encoder 131 may time-domain code the input signal when the input signal is a voice characteristic signal.
  • the second transform encoder 132 may encode the input signal based on fast fourier transform (FFT).
  • FFT fast fourier transform
  • the bitstream generator 140 may generate a bitstream using the information of the first transform encoder 120 and the information of the LPC encoder 130.
  • the apparatus 100 for encoding a speech / music integrated signal may further include a stereo encoder (not shown) for downmixing the input signal into a mono signal and extracting stereo sound information.
  • the stereo encoder may selectively apply one or more parameters according to the characteristics of the input signal.
  • the apparatus 100 for encoding an audio / music integrated signal may further include a frequency band extension unit (not shown) for extending the input signal into a high frequency band signal.
  • the frequency band extension unit may selectively apply one or more Spectral Band Replication (SBR) standards according to the characteristics of the input signal.
  • SBR Spectral Band Replication
  • the apparatus 100 for encoding a speech / music integrated signal may further include a psychoacoustic unit (not shown) that controls the first transform encoder by using a human auditory characteristic.
  • FIG. 2 is a diagram illustrating an apparatus for encoding a speech / music integrated signal according to another embodiment of the present invention.
  • the apparatus 200 for encoding an audio / music integrated signal includes an input signal analyzer 210, a first transform encoder 220, an LPC encoder 230, a bitstream generator 240, The stereo encoder 250 and the frequency band extension unit 260 may be included.
  • the input signal analyzer 210 may analyze characteristics of the input signal.
  • the stereo encoder 250 may downmix the input signal into a mono signal and extract stereo sound information. That is, when the input signal is stereo, the stereo encoder 250 may downmix the input signal into a mono signal and extract information about the stereo sound. The operation of the stereo encoder 250 will be described in more detail below with reference to FIG. 3.
  • FIG. 3 is a diagram illustrating an example of the stereo encoder shown in FIG. 2.
  • the stereo encoder 250 may include a basic processor 351, a voice signal processor 352, and a music signal processor 353.
  • the stereo encoder 250 may change the coding module according to the characteristics of the analyzed input signal. That is, the information of the input signal analyzed by the input signal analyzer 210 may be utilized by the stereo encoder 250, and the parameter used by the stereo encoder 250 may be adjusted according to the analyzed input signal. For example, when the input signal is a complex state, since the input signal has a strong musical characteristic, the music signal processor 353 uses the basic signal used by the stereo encoder 250 to more clearly reproduce the stereo image. Parameters can be sent at high resolution and additional information for stereo sound can also be sent. . For example, in the complex state, the stereo encoder 250 may improve the characteristics of the sound image by extending the 16-level transmission of the ICC parameter using the 8-level quantizer.
  • the voice signal processor 352 may process the input signal.
  • other signals may be processed by the basic processor 351.
  • the frequency band extension unit 260 may generate information for extending the input signal into a high frequency band signal.
  • the frequency band extension unit 260 may selectively apply one or more Spectral Band Replication (SBR) standards according to the characteristics of the input signal.
  • SBR Spectral Band Replication
  • FIG. 4 is a diagram illustrating an example of the frequency band extension unit illustrated in FIG. 2.
  • the frequency band extension unit 260 may include a music signal processor 461, an SH processor 462, and an LSH processor 463. That is, the frequency band extension unit 260 may utilize the information analyzed by the input signal analyzer 210. In this case, in the complex state, the music signal processor 461 may process encoding in the same manner as the existing encoding method.
  • the music signal processing unit 461 has a lot of information in the high frequency band, so that a relatively large number of bits can be allocated and processed.
  • the high frequency band signal is mostly unvoiced noise. Therefore, in the steady state, the operation of the frequency band extension unit 260 may be applied differently from the complex state. In other words, it is necessary to apply a frequency band extension standard for expressing white noise. In particular, since the harmonic components of the male and female voices are distinct, the high frequency band information is relatively less sensitive than the female voice.
  • the SH processor 462 not only weakens the white noise coding for the male voice, but also sets the coding so as not to excessively predict the high frequency region.
  • the LSH processing unit 463 may process the encoding to match the female voice characteristics.
  • the first transform encoder 220 may convert the high frequency band signal into a frequency domain and encode the same.
  • the first transform encoder 220 may perform encoding on a core band that does not perform frequency band extension.
  • the first transform encoder 220 may use an MDCT-based encoding scheme.
  • the LPC encoder 230 may encode the high frequency band signal based on LPC ( Linear Predictive Coding).
  • LPC Linear Predictive Coding
  • the LPC encoder 230 may perform LPC-based encoding on a core band that does not perform frequency band extension.
  • the LPC encoder 230 may include a time domain encoder 231 and a second transform encoder 232.
  • the time domain encoder 231 may time-domain encode the input signal when the input signal is a voice characteristic signal. That is, the time domain encoder 231 may perform time domain encoding, such as CELP, on a signal that has passed through the LPC according to the strength / weakness of the harmonic component (eg, as a result of the steady state).
  • time domain encoding such as CELP
  • the second transform encoder 232 may encode the input signal based on fast fourier transform (FFT). That is, the second transform encoder 232 may perform encoding in the frequency domain by using a method of transforming into a frequency domain such as an FFT according to the strength and weakness of the harmonic component.
  • FFT fast fourier transform
  • the second transform encoder 232 may configure various resolutions according to characteristics of the input signal.
  • the bitstream generator 240 may generate a bitstream using the stereo image information, information for extending the high frequency band signal, information of the first transform encoder, and information of the LPC encoder.
  • the apparatus 200 for encoding a speech / music integrated signal may further include a psychoacoustic unit 270 that controls the first transform encoder by using a human auditory characteristic.
  • FIG. 5 is a diagram illustrating an apparatus for decoding a speech / music integrated signal according to one embodiment of the present invention.
  • the apparatus 500 for decoding a speech / music integrated signal includes a bitstream analyzer 510, a first transform decoder 500, an LPC decoder 530, a frequency band synthesizer 540, And a stereo decoder 550.
  • the bitstream analyzer 510 may analyze the input bitstream signal.
  • the first transform decoder 500 may convert the bitstream signal into a frequency domain and decode it.
  • the LPC decoder 530 may decode the bitstream signal based on linear predictive coding ( LPC).
  • LPC decoder 530 may include a time domain decoder 531 for decoding in the time domain and a second transform decoder 532 for decoding in the frequency domain according to the characteristics of the input bitstream. .
  • the frequency band synthesizing unit 540 may synthesize a frequency band of the bitstream signal.
  • the stereo decoder 550 may decode the bitstream signal into a stereo signal.
  • the apparatus 500 for decoding a voice / music integrated signal may reversely perform an operation of the apparatus 100 or 200 for encoding a voice / music integrated signal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereophonic System (AREA)

Abstract

음성 및 음악 신호를 통합적으로 부호화 및 복호화 하는 장치 및 방법이 제공된다. 상기 부호화 장치(100)는 입력 신호의 특성을 분석하는 입력 신호 분석부(110); 상기 입력 신호를 주파수 영역 신호로 변환하고, 상기 입력 신호가 음성 특성 신호인 경우 상기 입력 신호를 부호화하는 제1 변환 부호화부(120); 상기 입력 신호가 음성 특성 신호인 경우 상기 입력 신호를 선형예측코딩(LPC)에 기반하여 부호화하는 선형예측코딩(LPC) 부호화부; 그리고, 상기 제1 변환 부호화부(120)의 출력 신호 및 상기 LPC 부호화부(130)의 출력 신호를 사용하여 비트스트림을 생성하는 비트스트림 발생부(140)를 포함할 수 있다.

Description

음성/음악 통합 신호의 부호화/복호화 방법 및 장치
음성/음악 통합 신호의 부호화/복호화 방법 및 장치에 관한 것으로 특히, 음성과 음악 신호에 대해 서로 다른 구조로 동작하는 부/복호화 모듈을 가지고 입력 신호의 특성에 따라 내부 모듈을 효과적으로 선택하여, 음성/음악 모든 신호에 대해 효과적으로 부호화하는 방법 및 장치에 관한 것이다.
음성 신호와 음악 신호는 서로 다른 특성을 가지며, 각 신호의 고유 특성을 활용하여 각 신호에 특화된 음성 코덱과 음악 코덱이 독립적으로 연구되고 각각의 표준 코덱이 개발되었다. 현재 널리 사용되는 음성 코덱(AMR-WB+)은 CELP 구조를 가지며, 음성의 발성 모델에 따라 LPC 기반으로 음성 파라미터를 추출하고 양자화 하는 구조를 가진다. 반면, 현재 널리 사용되는 음악 코덱(HE-AAC V2)은 주파수 영역에서 인간의 청각 특성을 고려하여 심리음향 측면에서 최적으로 주파수 계수를 양자화 하는 구조를 가지고 있다.
따라서, 입력 신호의 특성에 따라 내부 모듈을 효과적으로 선택하여, 음성/음악 모든 신호에 대해 효과적으로 부호화하는 기술이 요구된다.
본 발명은 입력 신호의 특성에 따라 내부 모듈을 효과적으로 선택함으로써, 다양한 비트율에서 음성 신호 및 음악 신호 모두에 대해 우수한 음질을 제공하는 장치 및 방법을 제공한다.
본 발명은 다양한 비트율에서 음성 부호화기와 음악 보호화기를 적절하게 조합함으로써, 다양한 입력 신호에 모두 우수한 음질을 제공하는 장치 및 방법을 제공한다.
본 발명의 일실시예에 따른 음성/음악 통합 신호의 부호화 장치는, 입력 신호의 특성을 분석하는 입력 신호 분석부, 상기 입력 신호가 음악 특성 신호인 경우, 상기 입력 신호를 주파수 영역으로 변환하여 부호화하는 제1 변환 부호화부, 상기 입력 신호가 음성 특성 신호인 경우, 상기 입력 신호를 LPC(Linear Predictive Coding)기반 부호화하는 LPC 부호화부 및 상기 제1 변환 부호화부의 출력 신호 및 LPC 부호화부의 출력 신호를 이용하여 비트스트림을 생성하는 비트스트림 생성부를 포함한다.
본 발명의 일측면에 따르면, 상기 입력 신호를 모노 신호로 다운믹스하고, 스테레오 음상 정보를 추출하는 스테레오 부호화부 및 상기 입력 신호를 고주파 대역신호로 확장하는 주파수 대역 확장부를 더 포함할 수 있다.
본 발명의 일측면에 따르면, 상기 스테레오 부호화부는, 상기 입력 신호의 특성에 따라 스트레오 부호화를 위한 파라미터 값을 제어하고, 상기 주파수 대역 확장부는, 상기 입력 신호의 특성에 따라 하나 이상의 SBR(Spectral Band Replication) 규격을 선택적으로 적용할 수 있다.
본 발명의 일측면에 따르면, 인간의 청각 특성을 이용하여 상기 제1 변환 부호화부를 제어하는 심리 음향부를 더 포함할 수 있다.
본 발명의 일측면에 따르면, 상기 LPC 부호화부는, 상기 입력 신호가 음성 특성 신호인 경우, 상기 입력 신호를 시간 영역 부호화하는 시간 영역 부호화부 및 상기 입력 신호가 음악 특성 신호인 경우, 상기 입력 신호를 FFT(Fast Fourier Transform) 기반 부호화하는 제2 변환 부호화부를 포함할 수 있다.
본 발명의 일측면에 따르면, 상기 입력 신호 분석부는, 상기 입력 신호를 상기 음악 특성 신호, 상기 음성 특성 신호 및 작은 에너지 신호 중 하나로 분류할 수 있다.
본 발명의 일측면에 따르면, 상기 음성 특성 신호는, 하모닉 성분이 강한 음성 신호(Steady-Harmonic State), 하모닉 성분이 약한 음성 신호(Low Steady-Harmonic State) 및 제1 잡음 신호(Steady-Noise State) 중 하나로 분류하고, 상기 음악 특성 신호는, 복잡한 하모닉 구조의 음악 신호(Complex-Harmonic State) 및 제2 잡음 신호(Complex-Noisy State) 중 하나로 분류할 수 있다.
본 발명의 다른 일실시예에 따른 음성/음악 통합 신호의 부호화 장치는, 입력 신호의 특성을 분석하는 입력 신호 분석부, 상기 입력 신호를 모노 신호로 다운믹스하고, 스테레오 음상 정보를 추출하는 스테레오 부호화부, 상기 입력 신호를 고주파 대역신호로 확장하기 위한 정보를 생성하는 주파수 대역 확장부, 상기 입력 신호가 음악 특성 신호인 경우, 상기 고주파 대역신호를 주파수 영역으로 변환하여 부호화하는 제1 변환 부호화부, 상기 입력 신호가 음성 특성 신호인 경우, 상기 고주파 대역신호를 LPC (Linear Predictive Coding)기반 부호화하는 LPC 부호화부 및 상기 스트레오 음상 정보, 상기 고주파 대역신호로 확장하기 위한 정보, 상기 제1 변환 부호화부의 출력 신호 및 상기 LPC 부호화부의 출력 신호를 이용하여 비트스트림을 생성하는 비트스트림 생성부를 포함할 수 있다.
본 발명의 일실시예에 따른 음성/음악 통합 신호의 복호화 장치는, 입력된 비트스트림 신호를 분석하는 비트스트림 분석부, 상기 비트스트림 신호가 음악 비트스트림 신호인 경우, 상기 비트스트림 신호를 주파수 영역으로 변환하여 복호화하는 변환 복호화부, 상기 비트스트림 신호가 음성 비트스트림인 경우, 상기 비트스트림 신호를 LPC(Linear Predictive Coding)기반 복호화하는 LPC 복호화부, 상기 비트스트림 신호의 주파수 대역을 합성하는 주파수 대역 합성부 및 상기 비트스트림 신호를 스트레오 신호로 복호화하는 스트레오 복호화부를 포함할 수 있다.
본 발명의 일실시예에 따르면, 입력 신호의 특성에 따라 내부 모듈을 효과적으로 선택함으로써, 다양한 비트율에서 음성 신호 및 음악 신호 모두에 대해 우수한 음질을 제공하는 장치 및 방법이 제공된다.
본 발명의 일실시예에 따르면, 다양한 비트율에서 음성 부호화기와 음악 보호화기를 적절하게 조합함으로써, 다양한 입력 신호에 모두 우수한 음질을 제공하는 장치 및 방법이 제공된다.
도 1은 본 발명의 일실시예에 있어서, 음성/음악 통합 신호의 부호화 장치를 도시한 도면이다.
도 2는 본 발명의 다른 일실시예에 있어서, 음성/음악 통합 신호의 부호화 장치를 도시한 도면이다.
도 3은 도 2에 도시된 스트레오 부호화부의 일례를 도시한 도면이다.
도 4는 도 2에 도시된 주파수 대역 확장부의 일례를 도시한 도면이다.
도 5는 본 발명의 일실시예에 있어서, 음성/음악 통합 신호의 복호화 장치를 도시한 도면이다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다. 다만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일실시예에 있어서, 음성/음악 통합 신호의 부호화 장치를 도시한 도면이다.
도 1을 참고하면, 음성/음악 통합 신호의 부호화 장치(100)는 입력 신호 분석부(110), 제1 변환 부호화부(120), LPC 부호화부(130), 및 비트스트림 생성부(140)를 포함할 수 있다.
입력 신호 분석부(110)는 입력 신호의 특성을 분석할 수 있다. 이때, 입력 신호 분석부(110)는 상기 입력 신호를 분석하여 음악 특성 신호, 음성 특성 신호 및 작은 에너지 신호 중 하나로 분류할 수 있다.
여기서, 상기 음성 특성 신호는, 하모닉 성분이 강한 음성 신호(Steady-Harmonic State), 하모닉 성분이 약한 음성 신호(Low Steady-Harmonic State) 및 제1 잡음 신호(Steady-Noise State) 중 하나로 분류할 수 있다. 또한, 상기 음악 특성 신호는, 복잡한 하모닉 구조의 음악 신호(Complex-Harmonic State) 및 제2 잡음 신호(Complex-Noisy State) 중 하나로 분류할 수 있다.
상기 입력 신호의 상태는 다음과 더욱 상세하게 분류될 수 있다. 첫번째는, Steady-Harmonic(SH) State로서, 신호의 하모닉(Harmonic) 성분이 분명하며, 안정되게 나타나는 신호구간이 이에 해당할 수 있다. 일예로, 음성의 유성음 구간이 대표적으로 포함될 수 있으며, 싱글 톤(Single-ton)의 정현파 신호들도 본 상태로 분류될 수 있다.
두번째는, Low Steady Harmonic(LSH) State로서, 상기 SH와 유사하나, 하모닉의 주기성이 상대적으로 길고, 낮은 주파수 대역에서 강한 steady 특성을 나타내는 상태가 이에 해당할 수 있다. 특히, 남성 음성의 유성음 구간이 이에 포함될 수 있다.
세번째는, Steady-Noise(SN) State로서, 백색성 잡음이 이에 해당될 수 있으며, 그 예로 음성의 무성음 구간이 기본적으로 포함될 수 있다.
네번째는, Complex-Harmonic(CH) State로서, 여러 톤 성분들이 섞여 복잡한 하모닉 구조를 이루는 신호구간이 이에 해당하며, 일반적인 음악의 연주구간들이 이에 포함될 수 있다.
다섯번째는, Complex-Noisy(CN) State로서, 안정적이지 못한 잡음 성분들이 포함된 신호는 본 상태로 분류될 수 있다. 일예로, 일상의 주변 잡음들, 혹은 음악의 연주구간에서 attack성의 신호등이 이에 해당될 수 있다.
여섯번째는, Silence(Si) State로서, 에너지 세기가 작은 구간이 본 상태로 분류될 수 있다.
입력 신호 분석부(110)의 출력 결과는 제1 변환 부호화부(120) 및 LPC 부호화부(130) 중 하나를 선택할 때 이용하고, LPC 기반의 부호화 시 시간 영역 부호화부(131) 및 제2 변환 부호화부(132)의 동작 중 하나를 선택할 때 이용할 수 있다.
제1 변환 부호화부(120)는 입력 신호가 음악 특성 신호인 경우, 입력 신호의 코어 대역을 주파수 영역으로 변환하여 부호화할 수 있다.
LPC 부호화부(130)는 입력 신호가 음성 특성 신호인 경우, 입력 신호의 코어 대역에 대하여 LPC(Linear Predictive Coding)기반 부호화할 수 있다. 여기서, LPC 부호화부(130)는 시간 영역 부호화부(131) 및 제2 변환 부호화부(132)를 포함할 수 있다.
시간 영역 부호화부(131)는 상기 입력 신호가 음성 특성 신호인 경우, 상기 입력 신호를 시간 영역 부호화할 수 있다.
제2 변환 부호화부(132)는 상기 입력 신호가 음악 특성 신호인 경우, 상기 입력 신호를 FFT(Fast Fourier Transform) 기반 부호화할 수 있다.
비트스트림 생성부(140)는 제1 변환 부호화부(120)의 정보 및 LPC 부호화부(130)의 정보를 이용하여 비트스트림을 생성할 수 있다.
또한, 음성/음악 통합 신호의 부호화 장치(100)는 상기 입력 신호를 모노 신호로 다운믹스하고, 스테레오 음상 정보를 추출하는 스테레오 부호화부(미도시)를 더 포함할 수 있다. 상기 스테레오 부호화부는, 상기 입력 신호의 특성에 따라 하나 이상의 파라미터를 선택적으로 적용할 수 있다.
또한, 음성/음악 통합 신호의 부호화 장치(100)는 상기 입력 신호를 고주파 대역신호로 확장하는 주파수 대역 확장부(미도시)를 더 포함할 수 있다. 상기 주파수 대역 확장부는, 상기 입력 신호의 특성에 따라 하나 이상의 SBR(Spectral Band Replication) 규격을 선택적으로 적용할 수 있다.
또한, 음성/음악 통합 신호의 부호화 장치(100)는 인간의 청각 특성을 이용하여 상기 제1 변환 부호화부를 제어하는 심리 음향부(미도시)를 더 포함할 수 있다.
도 2는 본 발명의 다른 일실시예에 있어서, 음성/음악 통합 신호의 부호화 장치를 도시한 도면이다.
도 2를 참고하면, 음성/음악 통합 신호의 부호화 장치(200)는 입력 신호 분석부(210), 제1 변환 부호화부(220), LPC 부호화부(230), 비트스트림 생성부(240), 스테레오 부호화부(250), 및 주파수 대역 확장부(260)를 포함할 수 있다.
입력 신호 분석부(210)는 입력 신호의 특성을 분석할 수 있다.
스테레오 부호화부(250)는 상기 입력 신호를 모노 신호로 다운믹스하고, 스테레오 음상 정보를 추출할 수 있다. 즉, 입력 신호가 스테레오인 경우, 스테레오 부호화부(250)는 입력 신호를 모노 신호로 다운믹스하고, 스테레오 음상에 대한 정보를 추출할 수 있다. 스테레오 부호화부(250)의 동작은 도 3을 참고하여 이하에서 더욱 상세하게 설명한다.
도 3은 도 2에 도시된 스트레오 부호화부의 일례를 도시한 도면이다.
도 3을 참고하면, 스테레오 부호화부(250)는 기본 처리부(351), 음성신호 처리부(352), 음악신호 처리부(353)를 포함할 수 있다. 여기서, 스테레오 부호화부(250)는 분석된 입력 신호의 특성에 따라 부호화 모듈을 달리할 수 있다. 즉, 입력 신호 분석부(210)에서 분석된 입력 신호의 정보는 스테레오 부호화부(250)에서 활용할 수 있고, 분석된 입력 신호에 따라 스테레오 부호화부(250)에서 사용되는 파라미터를 조절할 수 있다. 예를 들어, 입력 신호가 Complex state인 경우 음악적 특성이 강한 입력신호이므로, 음악신호 처리부(353)에서는, 스트레오 이미지(stereo image)를 보다 분명하게 재현하기 위하여 스테레오 부호화부(250)에서 사용되는 기본 파라미터를 높은 분해능(high resolution)으로 전송되도록 할 수 있고, 스테레오 음상을 위한 추가적인 정보도 전송할 수 있다. . 일예로, complex state에 대해서, 스테레오 부호화부(250)에서 8-level 양자화기를 사용하는 ICC 파라미터에 대해서 16-level까지 확장하여 전송함으로써 음상의 특성을 향상 시킬 수 있다.
한편, 입력 신호가 steady state의 특성일 경우에는 음성신호 처리부(352)에서 입력 신호를 처리할 수 있다. 또한, 그 밖의 신호는 기본 처리부(351)에서 처리되도록 할 수 있다.
주파수 대역 확장부(260)는 상기 입력 신호를 고주파 대역신호로 확장하기 위한 정보를 생성할 수 있다. 주파수 대역 확장부(260)는, 상기 입력 신호의 특성에 따라 하나 이상의 SBR(Spectral Band Replication) 규격을 선택적으로 적용할 수 있다. 여기서, 주파수 대역 확장부(260)는 도 4를 참고하여 이하에서 더욱 상세하게 설명한다.
도 4는 도 2에 도시된 주파수 대역 확장부의 일례를 도시한 도면이다.
도 4를 참고하면, 주파수 대역 확장부(260)는, 음악신호 처리부(461), SH 처리부(462), LSH 처리부(463)를 포함할 수 있다. 즉, 주파수 대역 확장부(260)에서도 입력 신호 분석부(210)에서 분석한 정보의 활용이 가능하다. 이때, Complex state의 경우 음악신호 처리부(461)에서 기존의 부호화 방법과 동일하게 부호화를 처리할 수 있다.
또한, 음악신호 처리부(461)에서는, 입력 신호가 complex-noise state인 경우 고주파 대역에 많은 정보가 있는 상태이므로, 상대적으로 많은 비트를 할당하여 처리할 수 있다. 반면, 입력신호가 speech인 경우는, 고주파 대역의 신호가 무성음 잡음성인 경우가 대부분이다. 따라서, steady state의 경우 주파수 대역 확장부(260)의 동작을 complex state와는 다르게 적용할 수 있다. 즉, 백색성 잡음을 잘 표현하기 위한 주파수 대역 확장 규격의 적용이 필요하다. 특히, 남성과 여성의 음성은 하모닉 성분이 뚜렷이 구분되므로, 남성의 음성이 여성의 음성에 비하여 고주파 대역 정보가 상대적으로 덜 민감하다. 따라서 SH 처리부(462)에서는 남성 음성에 대해서는 백색성 잡음 부호화를 약하게 할 뿐만 아니라, 과도하게 고주파 영역의 부호화 예측되지 않도록 설정할 수 있다. 반면, LSH 처리부(463)에서는 여성의 음성 특성에 맞도록 부호화를 처리할 수 있다.
제1 변환 부호화부(220)는 상기 입력 신호가 음악 특성 신호인 경우, 상기 고주파 대역신호를 주파수 영역으로 변환하여 부호화할 수 있다. 여기서, 제1 변환 부호화부(220)는 입력 신호가 음악 특성(complex state)을 가지는 신호인 경우, 주파수 대역 확장을 하지 않는 코어 대역에 대해 부호화를 수행할 수 있다. 일예로, 제1 변환 부호화부(220)는 MDCT기반의 부호화 방식을 이용할 수 있다.
LPC 부호화부(230)는 상기 입력 신호가 음성 특성 신호인 경우, 상기 고주파 대역신호를 LPC(Linear Predictive Coding)기반 부호화할 수 있다. 여기서, LPC 부호화부(230)는 입력 신호가 음성 특성(steady state)을 가지는 신호인 경우, 주파수 대역 확장을 하지 않는 코어 대역에 대해 LPC 기반의 부호화를 수행할 수 있다. 한편, LPC 부호화부(230)는 시간 영역 부호화부(231) 및 제2 변환 부호화부(232)를 포함할 수 있다.
시간 영역 부호화부(231)는 상기 입력 신호가 음성 특성 신호인 경우, 상기 입력 신호를 시간 영역 부호화할 수 있다. 즉, 시간 영역 부호화부(231)는 하모닉 성분의 강/약에 따라(ex. steady state의 결과에 따라) LPC를 거친 신호에 대해 CELP와 같은 시간 영역 부호화를 수행할 수 있다.
제2 변환 부호화부(232)는 상기 입력 신호가 음악 특성 신호인 경우, 상기 입력 신호를 FFT(Fast Fourier Transform) 기반 부호화할 수 있다. 즉, 제2 변환 부호화부(232)는 하모닉 성분의 강/약에 따라 FFT와 같은 주파수 영역으로 변환하는 방법을 사용하여 주파수 영역에서 부호화를 수행할 수 있다. 여기서, 제2 변환 부호화부(232)는 입력 신호의 특성에 따라 분해능(resolution)을 다양하게 구성할 수 있다.
비트스트림 생성부(240)는 상기 스트레오 음상 정보, 상기 고주파 대역신호로 확장하기 위한 정보, 상기 제1 변환 부호화부의 정보 및 LPC 부호화부의 정보를 이용하여 비트스트림을 생성할 수 있다.
또한, 음성/음악 통합 신호의 부호화 장치(200)는 인간의 청각 특성을 이용하여 상기 제1 변환 부호화부를 제어하는 심리 음향부(270)를 더 포함할 수 있다.
도 5는 본 발명의 일실시예에 있어서, 음성/음악 통합 신호의 복호화 장치를 도시한 도면이다.
도 5를 참고하면, 음성/음악 통합 신호의 복호화 장치(500)는 비트스트림 분석부(510), 제1 변환 복호화부(500), LPC 복호화부(530), 주파수 대역 합성부(540), 및 스트레오 복호화부(550)를 포함할 수 있다.
비트스트림 분석부(510)는 입력된 비트스트림 신호를 분석할 수 있다.
제1 변환 복호화부(500)는 상기 비트스트림 신호가 음악 비트스트림 신호인 경우, 상기 비트스트림 신호를 주파수 영역으로 변환하여 복호화할 수 있다.
LPC 복호화부(530)는 상기 비트스트림 신호가 음성 비트스트림인 경우, 상기 비트스트림 신호를 LPC(Linear Predictive Coding)기반 복호화할 수 있다. 여기서, LPC 복호화부(530)는 입력된 비트스트림의 특성에 따라 시간 영역에서 복호화하기 위한 시간 영역 복호화부(531) 및 주파수 영역에서 복호화하기 위한 제2 변환 복호화부(532)를 포함할 수 있다.
주파수 대역 합성부(540)는 상기 비트스트림 신호의 주파수 대역을 합성할 수 있다.
스트레오 복호화부(550)는 상기 비트스트림 신호를 스트레오 신호로 복호화할 수 있다.
즉, 음성/음악 통합 신호의 복호화 장치(500)는 음성/음악 통합 신호의 부호화 장치(100, 200)의 동작을 역으로 수행할 수 있다.
상기와 같이, 입력 신호의 특성에 따라 내부 모듈을 효과적으로 선택함으로써, 다양한 비트율에서 음성 신호 및 음악 신호 모두에 대해 우수한 음질을 제공할 수 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.

Claims (15)

  1. 입력 신호의 특성을 분석하는 입력 신호 분석부;
    상기 입력 신호가 음악 특성 신호인 경우, 상기 입력 신호를 주파수 영역으로 변환하여 부호화하는 제1 변환 부호화부;
    상기 입력 신호가 음성 특성 신호인 경우, 상기 입력 신호를 LPC(Linear Predictive Coding)기반 부호화하는 LPC 부호화부; 및
    상기 제1 변환 부호화부의 출력 신호 및 상기 LPC 부호화부의 출력 신호를 이용하여 비트스트림을 생성하는 비트스트림 생성부
    를 포함하는 음성/음악 통합 신호의 부호화 장치.
  2. 제1항에 있어서,
    상기 입력 신호를 모노 신호로 다운믹스하고, 스테레오 음상 정보를 추출하는 스테레오 부호화부
    를 더 포함하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  3. 제2항에 있어서,
    상기 스테레오 부호화부는,
    상기 입력 신호의 특성에 따라 스트레오 부호화를 위한 파라미터 값을 제어하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  4. 제1항에 있어서,
    상기 입력 신호를 고주파 대역신호로 확장하는 주파수 대역 확장부
    를 더 포함하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  5. 제4항에 있어서,
    상기 주파수 대역 확장부는,
    상기 입력 신호의 특성에 따라 하나 이상의 SBR(Spectral Band Replication) 규격을 선택적으로 적용하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  6. 제1항에 있어서,
    인간의 청각 특성을 이용하여 상기 제1 변환 부호화부를 제어하는 심리 음향부
    를 더 포함하는 음성/음악 통합 신호의 부호화 장치.
  7. 제1항에 있어서,
    상기 LPC 부호화부는,
    상기 입력 신호가 음성 특성 신호인 경우, 상기 입력 신호를 시간 영역 부호화하는 시간 영역 부호화부; 및
    상기 입력 신호가 음악 특성 신호인 경우, 상기 입력 신호를 FFT(Fast Fourier Transform) 기반 부호화하는 제2 변환 부호화부;
    를 포함하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  8. 제1항에 있어서,
    상기 입력 신호 분석부는,
    상기 입력 신호를 상기 음악 특성 신호, 상기 음성 특성 신호 및 작은 에너지 신호 중 하나로 분류하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  9. 제8항에 있어서,
    상기 음성 특성 신호는,
    하모닉 성분이 강한 음성 신호(Steady-Harmonic State), 하모닉 성분이 약한 음성 신호(Low Steady-Harmonic State) 및 제1 잡음 신호(Steady-Noise State) 중 하나로 분류하고,
    상기 음악 특성 신호는,
    복잡한 하모닉 구조의 음악 신호(Complex-Harmonic State) 및 제2 잡음 신호(Complex-Noisy State) 중 하나로 분류하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  10. 입력 신호의 특성을 분석하는 입력 신호 분석부;
    상기 입력 신호를 모노 신호로 다운믹스하고, 스테레오 음상 정보를 추출하는 스테레오 부호화부;
    상기 입력 신호를 고주파 대역신호로 확장하기 위한 정보를 생성하는 주파수 대역 확장부;
    상기 입력 신호가 음악 특성 신호인 경우, 상기 고주파 대역신호를 주파수 영역으로 변환하여 부호화하는 제1 변환 부호화부;
    상기 입력 신호가 음성 특성 신호인 경우, 상기 고주파 대역신호를 LPC(Linear Predictive Coding)기반 부호화하는 LPC 부호화부; 및
    상기 스트레오 음상 정보, 상기 고주파 대역신호로 확장하기 위한 정보, 상기 제1 변환 부호화부의 출력 신호 및 상기 LPC 부호화부의 출력 신호를 이용하여 비트스트림을 생성하는 비트스트림 생성부
    를 포함하는 음성/음악 통합 신호의 부호화 장치.
  11. 제10항에 있어서,
    인간의 청각 특성을 이용하여 상기 제1 변환 부호화부를 제어하는 심리 음향부
    를 더 포함하는 음성/음악 통합 신호의 부호화 장치.
  12. 제10항에 있어서,
    상기 스테레오 부호화부는,
    상기 입력 신호의 특성에 따라 스트레오 부호화를 위한 파라미터 값을 제어하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  13. 제10항에 있어서,
    상기 주파수 대역 확장부는,
    상기 입력 신호의 특성에 따라 하나 이상의 SBR(Spectral Band Replication) 규격을 선택적으로 적용하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  14. 제10항에 있어서,
    상기 LPC 부호화부는,
    상기 입력 신호가 음성 특성 신호인 경우, 상기 입력 신호를 시간 영역 부호화하는 시간 영역 부호화부; 및
    상기 입력 신호가 음악 특성 신호인 경우, 상기 입력 신호를 FFT(Fast Fourier Transform) 기반 부호화하는 제2 변환 부호화부
    를 포함하는 것을 특징으로 하는 음성/음악 통합 신호의 부호화 장치.
  15. 입력된 비트스트림 신호를 분석하는 비트스트림 분석부;
    상기 비트스트림 신호가 음악 비트스트림 신호인 경우, 상기 비트스트림 신호를 주파수 영역으로 변환하여 복호화하는 변환 복호화부;
    상기 비트스트림 신호가 음성 비트스트림인 경우, 상기 비트스트림 신호를 LPC(Linear Predictive Coding)기반 복호화하는 LPC 복호화부;
    상기 비트스트림 신호의 주파수 대역을 합성하는 주파수 대역 합성부; 및
    상기 비트스트림 신호를 스트레오 신호로 복호화하는 스트레오 복호화부
    를 포함하는 음성/음악 통합 신호의 복호화 장치.
PCT/KR2009/003861 2008-07-14 2009-07-14 음성/음악 통합 신호의 부호화/복호화 방법 및 장치 Ceased WO2010008179A1 (ko)

Priority Applications (9)

Application Number Priority Date Filing Date Title
EP09798082.5A EP2302345B1 (en) 2008-07-14 2009-07-14 Apparatus for encoding and decoding of integrated speech and audio
US13/054,376 US8990072B2 (en) 2008-07-14 2009-07-14 Apparatus and method for encoding and decoding of integrated speech and audio utilizing a band expander to output the audio or speech to a frequency domain encoder or an LPC encoder
EP17173025.2A EP3249373B1 (en) 2008-07-14 2009-07-14 Method for decoding of integrated speech and audio
EP25187160.4A EP4648047A1 (en) 2008-07-14 2009-07-14 Method for decoding of integrated speech and audio
CN200980135842.5A CN102150024B (zh) 2008-07-14 2009-07-14 编码和解码统合的语音与音频信号的设备与方法
US14/605,006 US9711159B2 (en) 2008-07-14 2015-01-26 Apparatus and method for encoding and decoding of integrated speech and audio utilizing a band expander with a spectral band replication to output the audio or speech to a frequency domain encoder or an LPC encoder
US15/618,689 US10121482B2 (en) 2008-07-14 2017-06-09 Apparatus and method for encoding and decoding of integrated speech and audio utilizing a band expander with a spectral band replication (SBR) to output the SBR to either time or transform domain encoding according to the input signal characteristic
US16/179,120 US10777212B2 (en) 2008-07-14 2018-11-02 Apparatus and method for encoding and decoding of integrated speech and audio utilizing a band expander with a spectral band replication (SBR) to output the SBR to either time or transform domain encoding according to the input signal characteristic
US17/018,295 US11456002B2 (en) 2008-07-14 2020-09-11 Apparatus and method for encoding and decoding of integrated speech and audio utilizing a band expander with a spectral band replication (SBR) to output the SBR to either time or transform domain encoding according to the input signal

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2008-0068369 2008-07-14
KR20080068369 2008-07-14
KR20080071218 2008-07-22
KR10-2008-0071218 2008-07-22
KR10-2009-0062070 2009-07-08
KR1020090062070A KR101261677B1 (ko) 2008-07-14 2009-07-08 음성/음악 통합 신호의 부호화/복호화 장치

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/054,376 A-371-Of-International US8990072B2 (en) 2008-07-14 2009-07-14 Apparatus and method for encoding and decoding of integrated speech and audio utilizing a band expander to output the audio or speech to a frequency domain encoder or an LPC encoder
US14/605,006 Continuation US9711159B2 (en) 2008-07-14 2015-01-26 Apparatus and method for encoding and decoding of integrated speech and audio utilizing a band expander with a spectral band replication to output the audio or speech to a frequency domain encoder or an LPC encoder

Publications (1)

Publication Number Publication Date
WO2010008179A1 true WO2010008179A1 (ko) 2010-01-21

Family

ID=41816656

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2009/003861 Ceased WO2010008179A1 (ko) 2008-07-14 2009-07-14 음성/음악 통합 신호의 부호화/복호화 방법 및 장치

Country Status (5)

Country Link
US (5) US8990072B2 (ko)
EP (3) EP4648047A1 (ko)
KR (2) KR101261677B1 (ko)
CN (2) CN104299618B (ko)
WO (1) WO2010008179A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015126228A1 (ko) * 2014-02-24 2015-08-27 삼성전자 주식회사 신호 분류 방법 및 장치, 및 이를 이용한 오디오 부호화방법 및 장치

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101261677B1 (ko) * 2008-07-14 2013-05-06 광운대학교 산학협력단 음성/음악 통합 신호의 부호화/복호화 장치
US20120095729A1 (en) * 2010-10-14 2012-04-19 Electronics And Telecommunications Research Institute Known information compression apparatus and method for separating sound source
CN103035248B (zh) 2011-10-08 2015-01-21 华为技术有限公司 音频信号编码方法和装置
US9111531B2 (en) * 2012-01-13 2015-08-18 Qualcomm Incorporated Multiple coding mode signal classification
KR101717006B1 (ko) * 2013-04-05 2017-03-15 돌비 인터네셔널 에이비 오디오 프로세싱 시스템
CN103413553B (zh) * 2013-08-20 2016-03-09 腾讯科技(深圳)有限公司 音频编码方法、音频解码方法、编码端、解码端和系统
MX362490B (es) 2014-04-17 2019-01-18 Voiceage Corp Metodos codificador y decodificador para la codificacion y decodificacion predictiva lineal de señales de sonido en la transicion entre cuadros teniendo diferentes tasas de muestreo.
FR3020732A1 (fr) * 2014-04-30 2015-11-06 Orange Correction de perte de trame perfectionnee avec information de voisement
CN106471575B (zh) 2014-07-01 2019-12-10 韩国电子通信研究院 多信道音频信号处理方法及装置
FR3024582A1 (fr) 2014-07-29 2016-02-05 Orange Gestion de la perte de trame dans un contexte de transition fd/lpd
KR102398124B1 (ko) 2015-08-11 2022-05-17 삼성전자주식회사 음향 데이터의 적응적 처리
KR20220009563A (ko) 2020-07-16 2022-01-25 한국전자통신연구원 오디오 신호의 부호화 및 복호화 방법과 이를 수행하는 부호화기 및 복호화기
KR102837318B1 (ko) 2021-05-24 2025-07-23 한국전자통신연구원 오디오 신호의 부호화 및 복호화 방법과 그 방법을 수행하는 부호화기 및 복호화기

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007083931A1 (en) * 2006-01-18 2007-07-26 Lg Electronics Inc. Apparatus and method for encoding and decoding signal
WO2008060114A1 (en) * 2006-11-17 2008-05-22 Samsung Electronics Co., Ltd. Method and apparatus to encode and/or decode audio and/or speech signal

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE504010C2 (sv) * 1995-02-08 1996-10-14 Ericsson Telefon Ab L M Förfarande och anordning för prediktiv kodning av tal- och datasignaler
US6134518A (en) 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
JP3211762B2 (ja) * 1997-12-12 2001-09-25 日本電気株式会社 音声及び音楽符号化方式
ATE302991T1 (de) * 1998-01-22 2005-09-15 Deutsche Telekom Ag Verfahren zur signalgesteuerten schaltung zwischen verschiedenen audiokodierungssystemen
US7266501B2 (en) * 2000-03-02 2007-09-04 Akiba Electronics Institute Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
US6658383B2 (en) 2001-06-26 2003-12-02 Microsoft Corporation Method for coding speech and music signals
WO2004010415A1 (ja) * 2002-07-19 2004-01-29 Nec Corporation オーディオ復号装置と復号方法およびプログラム
JP4445328B2 (ja) 2004-05-24 2010-04-07 パナソニック株式会社 音声・楽音復号化装置および音声・楽音復号化方法
JP4871501B2 (ja) * 2004-11-04 2012-02-08 パナソニック株式会社 ベクトル変換装置及びベクトル変換方法
DE102005032724B4 (de) * 2005-07-13 2009-10-08 Siemens Ag Verfahren und Vorrichtung zur künstlichen Erweiterung der Bandbreite von Sprachsignalen
KR100647336B1 (ko) * 2005-11-08 2006-11-23 삼성전자주식회사 적응적 시간/주파수 기반 오디오 부호화/복호화 장치 및방법
KR20070077652A (ko) * 2006-01-24 2007-07-27 삼성전자주식회사 적응적 시간/주파수 기반 부호화 모드 결정 장치 및 이를위한 부호화 모드 결정 방법
KR101393298B1 (ko) 2006-07-08 2014-05-12 삼성전자주식회사 적응적 부호화/복호화 방법 및 장치
WO2008035949A1 (en) 2006-09-22 2008-03-27 Samsung Electronics Co., Ltd. Method, medium, and system encoding and/or decoding audio signals by using bandwidth extension and stereo coding
US20080114608A1 (en) * 2006-11-13 2008-05-15 Rene Bastien System and method for rating performance
CN101512909B (zh) * 2006-11-30 2012-12-19 松下电器产业株式会社 信号处理装置
KR100964402B1 (ko) * 2006-12-14 2010-06-17 삼성전자주식회사 오디오 신호의 부호화 모드 결정 방법 및 장치와 이를 이용한 오디오 신호의 부호화/복호화 방법 및 장치
KR101411901B1 (ko) * 2007-06-12 2014-06-26 삼성전자주식회사 오디오 신호의 부호화/복호화 방법 및 장치
KR101261677B1 (ko) * 2008-07-14 2013-05-06 광운대학교 산학협력단 음성/음악 통합 신호의 부호화/복호화 장치
JP6239007B2 (ja) * 2013-01-29 2017-11-29 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン オーディオエンコーダ、オーディオデコーダ、符号化されたオーディオ情報を生成する方法、復号されたオーディオ情報を生成する方法、コンピュータプログラム及び信号適応帯域幅拡張を用いる符号化表現

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007083931A1 (en) * 2006-01-18 2007-07-26 Lg Electronics Inc. Apparatus and method for encoding and decoding signal
WO2008060114A1 (en) * 2006-11-17 2008-05-22 Samsung Electronics Co., Ltd. Method and apparatus to encode and/or decode audio and/or speech signal

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SALAMI ET AL.: "Extended AMR-WB for high-quality audio on mobile devices", COMMUNICATIONS MAGAZINE, vol. 44, no. ISS.5, May 2006 (2006-05-01), pages 90 - 97, XP001546246 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015126228A1 (ko) * 2014-02-24 2015-08-27 삼성전자 주식회사 신호 분류 방법 및 장치, 및 이를 이용한 오디오 부호화방법 및 장치
US10090004B2 (en) 2014-02-24 2018-10-02 Samsung Electronics Co., Ltd. Signal classifying method and device, and audio encoding method and device using same
US10504540B2 (en) 2014-02-24 2019-12-10 Samsung Electronics Co., Ltd. Signal classifying method and device, and audio encoding method and device using same

Also Published As

Publication number Publication date
US10121482B2 (en) 2018-11-06
CN104299618A (zh) 2015-01-21
CN102150024A (zh) 2011-08-10
EP2302345A4 (en) 2012-10-24
CN102150024B (zh) 2014-10-22
CN104299618B (zh) 2019-07-12
US20190074022A1 (en) 2019-03-07
KR20120089221A (ko) 2012-08-09
US11456002B2 (en) 2022-09-27
US9711159B2 (en) 2017-07-18
KR20100007749A (ko) 2010-01-22
EP4648047A1 (en) 2025-11-12
US20170345435A1 (en) 2017-11-30
KR101565633B1 (ko) 2015-11-13
EP2302345B1 (en) 2017-06-21
EP2302345A1 (en) 2011-03-30
US20110112829A1 (en) 2011-05-12
US20200411022A1 (en) 2020-12-31
EP3249373A1 (en) 2017-11-29
US10777212B2 (en) 2020-09-15
US8990072B2 (en) 2015-03-24
EP3249373B1 (en) 2025-09-10
US20150154974A1 (en) 2015-06-04
KR101261677B1 (ko) 2013-05-06

Similar Documents

Publication Publication Date Title
WO2010008179A1 (ko) 음성/음악 통합 신호의 부호화/복호화 방법 및 장치
JP7124170B2 (ja) セカンダリチャンネルを符号化するためにプライマリチャンネルのコーディングパラメータを使用するステレオ音声信号を符号化するための方法およびシステム
WO2010008176A1 (ko) 음성/음악 통합 신호의 부호화/복호화 장치
RU2484543C2 (ru) Способ и устройство для кодирования и декодирования, основывающегося на объектах аудиосигнала
CN106663441B (zh) 改进时域编码与频域编码之间的分类
CN102687200B (zh) 使用可切换模型核心的嵌入式语音和音频代码化
WO2010093224A2 (ko) 적응적 정현파 펄스 코딩을 이용한 오디오 신호의 인코딩 및 디코딩 방법 및 장치
EP2849180A1 (en) Hybrid audio signal encoder, hybrid audio signal decoder, method for encoding audio signal, and method for decoding audio signal
TR199501637A2 (tr) Bir ses sinyalini kodlamak icin yöntem.
WO2009096715A2 (ko) 오디오 신호의 부호화, 복호화 방법 및 장치
CN105765653A (zh) 自适应高通后滤波器
Ramprashad A two stage hybrid embedded speech/audio coding structure
Ramprashad Embedded coding using a mixed speech and audio coding paradigm
Tai et al. MPEG-4 parametric audio coding and its implementation
WO2012177067A2 (ko) 오디오 신호 처리방법 및 장치와 이를 채용하는 단말기
CLASS CLASS 704, DATA PROCESSING: SPEECH SIG-NAL PROCESSING, LINGUISTICS, LAN-GUAGE TRANSLATION, AND AUDIO COMPRESSION/DECOMPRESSION
WO2010044593A2 (ko) Mdct 기반 음성/오디오 통합 부호화기의 lpc 잔차신호 부호화/복호화 장치
KR970019104A (ko) 오디오 부호화기 및 복호화기
KR20070031214A (ko) 오디오 신호의 인코딩/디코딩 방법 및 장치

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980135842.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09798082

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13054376

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2009798082

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2009798082

Country of ref document: EP