[go: up one dir, main page]

JP2001508197A - 構成信号にノイズを加算してlpc原理により符号化された音声のオーディオ再生のための方法及び装置 - Google Patents

構成信号にノイズを加算してlpc原理により符号化された音声のオーディオ再生のための方法及び装置

Info

Publication number
JP2001508197A
JP2001508197A JP52577999A JP52577999A JP2001508197A JP 2001508197 A JP2001508197 A JP 2001508197A JP 52577999 A JP52577999 A JP 52577999A JP 52577999 A JP52577999 A JP 52577999A JP 2001508197 A JP2001508197 A JP 2001508197A
Authority
JP
Japan
Prior art keywords
noise
filter
lpc
scaling
harmonic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP52577999A
Other languages
English (en)
Inventor
フェリット ヒヒ,エルカン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Electronics NV filed Critical Philips Electronics NV
Publication of JP2001508197A publication Critical patent/JP2001508197A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

(57)【要約】 音声はLPC原理に従って符号化された部分のシーケンスとして受信される。有声音の音声の場合には反復信号で、無声音の音声の場合には、白色雑音で全極フィルタを励起することにより、その部分は、オーディオ再生の連続した読み出し出力として再生される。特に、反復信号は、相互に重なり合った時間窓をもとに、周期的信号の集められた連続により全体的に表現される。その反復信号は、ピッチとフォルマントの情報を用いて元々のLPCフィルタから得られた改良したLPCフィルタを通して、フィルタのための源からノイズによって供給され、有声音と無声音に分けられる。フィルタは少なくとも4つの量の部分集合、全体的なノイズスケーリング、ピッチ依存ノイズスケーリング、振幅依存ノイズスケーリング及び、フォルマント間ノイズスケーリングにより決定される。

Description

【発明の詳細な説明】 構成信号にノイズを加算してLPC原理により符号化された音声のオーディオ再 生のための方法及び装置発明の背景 本発明は、請求項1の前文による方法に関する。LPC符号化は低コストの応 用に広く使用されている。それゆえ、性能はある程度妥協される。このような方 法は、しばしば、再生された音声に、ある種のいわゆる雑音(buzzynes s)を引き起こす。その雑音はある不自然な音となり、全周波数帯に亘って発生 し、聴取者に、不愉快を感じさせる。問題は又、スペクトログラムにも現れる。 最新の技術が、Alan V.McCree他により、”A Mixed Ex citation LPC Vocoder Model for Low B it Rate Speech Coding, IEEE Trans.Sp eech and Audio Processing, Vol.3、No4 .,1995年7月,242から250頁”に示されている。しかし、この文献 では、雑音の効果を減らすある手段がとられているが、いくぶん連続するだけで ある。発明の概要 その結果、本発明の目的は、そのような雑音を抑圧する又は聞こえないように して、音声品質を改善することである。見つけられた解決方法では、ノイズが音 声信号に注意深く加えられる。LPC音声の発生はローエンドが特徴なので、必 要な手段は、比較的少ない処理ですむべきである。さて、その1つの観点から、 本発明は、請求項1の特徴部分に挙げられていることを特徴とする。スペクトロ グラムと聴取者テストは、改善を示している。 本発明はまた、そのように符号化された音声を出力する装置に関する。独立請 求項には本発明の更なる優位性が挙げられている。図面の簡単な説明 図1は従来のモノパルスボコーダを示す図である。 図2は従来のボコーダの励起信号を示す図である。 図3は従来のボコーダにより生成された音声信号の例を示す図である。 図4A/Bは提案されたLPC型のボコーダを説明する図である。 図5は提案されたLPCフィルタ分割器を示す図である。 図6は提案されたノイズエンベロープ予測器を示す図である。 図7は音声例のスペクトルを示す図である。 図8A/Bは音声信号とそのスペクトログラムを示す図である。 図9A/BはLPC信号とそのスペクトログラムを示す図である。 図10A/Bは本発明により改良したLPC信号とそのスペクトログラムを示 す図である。発明の詳細な記載 音声発生は、様々な文書に開示されている。例えば、USシリアル番号08/ 326,791(PHN 13801),USシリアル番号07/924,72 6(PHN 13993),USシリアル番号08/696,431(PHN 15408),USシリアル番号08/778,795(PHN 15641) ,USシリアル番号08/859,593(PHN 15819)で、全ては、 本発明の出願人に譲られている。 図1は従来のモノパルスボコーダを示す。LPCの優位な点は、符号化された 音声の記憶量が小さくそして、扱いやすいことである。不利な点は、再生された 音声の品質が比較的低いことである。概念的に、音声の合成は、入力40から周 期的なパルストレインを受け、入力42から白色雑音を受ける全極フィルタ44 を通して行われる。選択は、有声音と無声音のフレームのシーケンスの発生を制 御するスイッチ41により行われる。増幅器46は、合成音声出力48の最終的 な音声の音量を制御する。フィルタ44は、時変のフィルタ 係数を持つ。典型的には、パラメータは、5から20ミリ秒ごとに更新される。 ピッチ期間に単一の励起パルスのみがあるため、合成器は、モノパルス励起と呼 ばれる。一般的に、図1はパラメトリックモデルを示す。そして、多くの応用の ために合成された大きなデータベースを使っても良い。本発明は、図1に対して 改良された装備で実行され得る。 図2はそのようなボコーダで音声を作るための励起シーケンスの例を示し、図 3はこの励起により発生された音声信号の例を示す。時間は秒で示され、瞬時の 音声信号振幅が、任意の単位で示されている。 図4Aと4Bは提案したLPF型のボコーダを示す。特に図4Aは、LPCの 全部のフィルタ係数を、有声音フィルタHvと、別の無声音フィルタHuvへ分離 するのを概念的に示す。同様に、全体のゲインも有声音ゲインGvと、別の無声 音ゲインGuvへ分離される。分離を実行するための制御ファクタはピッチである 。この図の概念的なブロックは最後の合成器のモジュールではない。分離特性は 後に議論する。図4Bは、別々の有声音(84,86)と無声音(88,90) のチャネルより作られるボコーダ合成器を示し、出力音声を合成するために、要 素92で加算される。 図5は本発明によるLPCフィルタ分離器を示す。元々のLPCフィルタから の入力は符号100である。ブロック102は、周波数領域に変換するためのL PCスペクトルエンベロープサンプリングを行う。これは、位相には無関係な調 波のサンプリングとして表される。周波数領域の基本サンプリング周波数は、1 00Hzのような固定値f0に設定されても良い。時間領域のサンプリングレー トが8kHzなら、調波の数はL=40である。f0の値はアンダーサンプリン グを防ぐために十分高くなければならない。それは実際のピッチ周波数とは独立 している。予測器の次数はp、問題の調波数はkである。サンプリングは、 に従って行われる。ここで A(z)=1+al-1+a2-2+...ap-p である。 得られる調波振幅は、ピッチ信号値により制御されるノイズエンベロープ予測 器104へ送られる。ブロック104は、ブロック106と108で、有声音と 無声音の合成のためにそれぞれ、2つの組の調波振幅mv.kとmuv.kを作る。こ れらの調波振幅は、を用いて自己相関関数に変換される。自己相関関数からLPCフィルタのパラメ ータを計算することは良く知られている。 図6は、図5のノイズエンベロープ予測器104の詳細を示す。ゲインファク タを出力側に適用する代わりに、求めるゲインファクタを含めて全極フィルタの サンプルされた形と更に、測定されたピッチが、各調波におけるノイズの総計を 予測するために使用される。ノイズの総計を予測するための主な手がかりとして 、我々はフォルマントピークの位置を使用する。もし2つのフォルマントのピー クの間のエネルギーが全体的な最大ピークより非常に小さければ、その領域の音 声はノイズ的であるとされる。また、もしピッチ周波数が低ければ、本発明に従 って更なるノイズが使用される。それゆえ図示したように、調波ノイズ計算とし て、次の4つの機能ブロック、ブロック120のピッチ依存ノイズスケーリング 、ブロック122の全体的なノイズスケーリング、ブロック124の振幅依存ノ イズスケーリングそして、ブロック126のフォルマント間ノ イズスケーリングが、この振幅を制御する。これらの4つのブロックの結合した 効果は、調波ノイズ計算としてブロック128に与えられる。それは、図5のブ ロック104の実現をし、ブロック110と112に項目106と108を送る 。 ブロック120,122,124,126の4つの効果は、相当な程度、互い に独立であろうが、しかし、最適な結果のためには、それらは結合される。勿論 、スケーリングファクタは、考慮されねばならない。4つの効果は異化の容易扱 われる。 1.全体的なノイズスケーリングは、0から2kHzのような所定の周波数間隔 内で、最小調波振幅mminと最大調波振幅mmaxを検索することを通して見つけら れ得る。ダイナミックレンジはd=mmax/mminとして定義され、全体的なノイ ズファクタは、ng=β/(20.1og10(d))である。スケールファクタ βは、β=5のように、合成のためのノイズの全体的な総計を制御するのに使用 され得る。ノイズが多くなるほど合成音声音を更に耳障りにさせる。 2.ピッチ依存ノイズスケーリングは、以下のように測定されたピッチより得ら れる。 np=1/p これは低周波数でノイズが支配的なことを意味する。 3.振幅依存ノイズスケーリング:全体的な最大パワーPgと比べて、特定の調 波mkの振幅が低くなればなるほど、多くのノイズが使用され得る。この振幅依 存ノイズスケールを計算するための好適な式は、na.k=(10.1og10g/ 20.1og10k)−1である。 ここで、最後の”1”はオフセット値を示す。全体的なパワーは次のように計 算される。最初に、直前のパワー値Pg.prevは、それを指数的に減少するために β=0.99のような緩和値が掛けられる。もし測定されたパワーがゼロならば 、緩和値はゼロに設定され る。この様に、Pg=βPg.prevである。そして、サンプルされた調波振幅から の最大パワー値は、: m=max{mk 2}である。もし、Pmが実際に、Pgより大きいなら、PgはPm と等しく設定される。 4.フォルマント間ノイズスケーリング。ここで、調波振幅スペクトラムから、 フォルマントトップの位置が見つけられる。これらの位置を用い、各調波に対し 、値が計算される。それは、様々なトップ1..k..Lに対し、調波から最も 近いフォルマントのピークDk=|ktop−k|の距離を与える。フォルマント間 ノイズスケーリング値はDkとf0の積nr.k=Dk.f0として与えられる。ここ で、f0は、調波をサンプリングするのに使用する基本周波数である。 有利なことに、そのように見つけられた4つのノイズスケールは、ある周波数 以上で調波においてノイズの総計を与えるために結合される。k<3に対しては nk=0である。しかし、それより高い値に対して、nk=ng.np.nu.k.nf .k である。2つの最も低い調波は、本実施例では、ノイズを持たないと推定され る。しかし、k=0でさえも、kを使用するの値は、高いかもしれないし、低い かもしれない。 もし、この様に見つけられたnkに対する値が1より大きい場合、1とされる 。ある状況では、全ての積よりも他の算術的な組み合わせの方が同様な有益な結 果をもたらし得る。実際、しばしば、4つよりも少ない数の結合された効果の方 が、納得できる結果を生み出し得るということがある。 最後に、各調波に対し、振幅mk,uvは無声音のエンベロープに対してmk.uv= mk.nkにより得られ、そして、有声音の調波振幅はmv.k=mk−muv,kとなる 。2つの量の合計は、同じでなければならないからである。代わりに、一度、調 波ノイズスペクトルが 見つかったなら、出力信号を生成するのに、正弦波的合成も使用し得る。LPC フィルタからサンプルされた調波振幅と共に調波発振器バンクが使用され得る。 更に、その周波数の予測ノイズによって、位相も、初期位相とランダム位相の組 み合わせに設定されても良い。時間に亘ってエネルギーを不鮮明にするために、 初期位相は、2π.(k−0.5)/kのような関数によって制御されても良い 。ここで、kは調波番号である。後者の機構の優位性は、位相操作は、魅力ある 音声形成機構である。 図7は、音声のスペクトルの例を示す。ここで、いわゆるフォルマント周波数 は、谷により互いに分離されている。等距離の縦の線はサンプリング周波数であ る。処理のために、音声は、時間的に連続した互いに重なり合う窓関数を通して 、共通に窓がかけられる。処理は、一般的に独立した窓に基づいて行われ、処理 の結果は、互いに重なる時間窓を基にして再び集められる。比較的短い時間周期 を取ることにより、コストは低く保たれる。本発明に通じる1つの認識は、ノイ ズ効果は、主に、フォルマント周波数の間の谷に関連しているということである 。そして、効果は更に高い周波数に関連している。使用される多くの設計は、有 声音スペクトルに亘って、ノイズの最適な分散をえることに、集中している。 図8Aは自然音声信号を示し、図8Bはそのスペクトログラムを示す。発声の 音声上の意味は無視される。3つの異なった音声が目に見え、真中の1つが、最 も明らかに有声音に関係している。有声音はまた、連続した縦の帯を持つ。 同様に図9A/Bは本発明による改良を適用しない、LPC信号と関連したス ペクトログラムを示す。音声が有声音である限り、縦の帯は、図10Bよりも顕 著に目に見えるが、実際、開始と最後である程度急峻である。実際、これらの帯 は、前に述べた雑音に関連している。 図10A/Bは、ノイズの相対的な強さにより支配される特定の 調波をランダム位相化することにより本発明によりオーディオが改良された後の 、オーディオ出力とその再構成されたスペクトログラムを示す。縦の暗い帯は元 々とほぼ同じ強さであり、開始と終了で急峻ではない。

Claims (1)

  1. 【特許請求の範囲】 1.LPC原理に従って符号化された音声セグメントのシーケンスを受信し、有 声音の音声の場合には反復信号を伴った全極フィルタを励起することにより、及 び、無声音の場合には白色雑音によりオーディオ再生の連結した読み出しのため に前記セグメントを再生する方法であって、 前記反復信号は、相互に重なり合う時間窓をもとに集められた連続した周期信 号により全体的に表され、 前記反復信号は、ピッチとフォルマントの情報を用いて元々のLPCフィルタ から得られた改良したLPCフィルタを通して、フィルタのための源からのノイ ズによって供給され、 有声音と無声音に分けられ、 フィルタは少なくとも4つの量の部分集合、全体的なノイズスケーリング、ピ ッチ依存ノイズスケーリング、振幅依存ノイズスケーリング及び、フォルマント 間ノイズスケーリングにより決定されることを特徴とする方法。 2.前記ノイズは、前記全ての4つの量に結合している請求項1記載の方法。 3.前記ノイズは、部分集合の前記量の積により決定される請求項1記載の方法 。 4.フォルマントのピークに存在する要素と比べて、フォルマント間の谷にある 実際のスペクトルにある要素を用い、前記連続の各要素のためにフォルマント間 ノイズスケーリングが使用される請求項1記載の方法。 5.実際のスペクトルは、時間的に指数的に緩和するしきい値と比較される請求 項1記載の方法。 6.前記ノイズは、最大位相差2πのランダム化された位相ノイズである請求項 4記載の方法。 7.各音声の調波のパワー値を標準化し、 ピッチに依存するノイズファクタを計算し、 調波のピークに依存する減衰パターンを計算し、 調波のピークに依存するノイズファクタを計算し、 調波に依存する位相シフトをランダム化し、 各調波ごとに、初期位相パターン、ランダムノイズパターン及び振幅スケーリ ングの適用を通して音声信号を再構成して、前記ノイズの効果を制御する前記有 声音の音声からのパラメータ値を逆に結合する請求項4記載の方法。 8.請求項1記載の方法を利用するように配置された装置。
JP52577999A 1997-10-31 1998-10-12 構成信号にノイズを加算してlpc原理により符号化された音声のオーディオ再生のための方法及び装置 Pending JP2001508197A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP97203393 1997-10-31
EP97203393.0 1997-10-31
PCT/IB1998/001596 WO1999022561A2 (en) 1997-10-31 1998-10-12 A method and apparatus for audio representation of speech that has been encoded according to the lpc principle, through adding noise to constituent signals therein

Publications (1)

Publication Number Publication Date
JP2001508197A true JP2001508197A (ja) 2001-06-19

Family

ID=8228891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP52577999A Pending JP2001508197A (ja) 1997-10-31 1998-10-12 構成信号にノイズを加算してlpc原理により符号化された音声のオーディオ再生のための方法及び装置

Country Status (6)

Country Link
US (1) US6173256B1 (ja)
EP (1) EP0954849B1 (ja)
JP (1) JP2001508197A (ja)
KR (1) KR20000069831A (ja)
DE (1) DE69815062T2 (ja)
WO (1) WO1999022561A2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100744375B1 (ko) * 2005-07-11 2007-07-30 삼성전자주식회사 음성 처리 장치 및 방법
US8073148B2 (en) 2005-07-11 2011-12-06 Samsung Electronics Co., Ltd. Sound processing apparatus and method
US20070094270A1 (en) * 2005-10-21 2007-04-26 Callminer, Inc. Method and apparatus for the processing of heterogeneous units of work
US20070106773A1 (en) * 2005-10-21 2007-05-10 Callminer, Inc. Method and apparatus for processing of heterogeneous units of work
US20070270987A1 (en) * 2006-05-18 2007-11-22 Sharp Kabushiki Kaisha Signal processing method, signal processing apparatus and recording medium
WO2011026247A1 (en) * 2009-09-04 2011-03-10 Svox Ag Speech enhancement techniques on the power spectrum
TW201139370A (en) 2009-12-23 2011-11-16 Lundbeck & Co As H Processes for the manufacture of a pharmaceutically active agent
KR20150032390A (ko) * 2013-09-16 2015-03-26 삼성전자주식회사 음성 명료도 향상을 위한 음성 신호 처리 장치 및 방법
US9413891B2 (en) 2014-01-08 2016-08-09 Callminer, Inc. Real-time conversational analytics facility
CN116052724B (zh) * 2023-01-28 2023-07-04 深圳大学 肺音增强方法、系统、设备和存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4520499A (en) * 1982-06-25 1985-05-28 Milton Bradley Company Combination speech synthesis and recognition apparatus
US4969192A (en) * 1987-04-06 1990-11-06 Voicecraft, Inc. Vector adaptive predictive coder for speech and audio
DE69231266T2 (de) 1991-08-09 2001-03-15 Koninklijke Philips Electronics N.V., Eindhoven Verfahren und Gerät zur Manipulation der Dauer eines physikalischen Audiosignals und eine Darstellung eines solchen physikalischen Audiosignals enthaltendes Speichermedium
DE69228211T2 (de) * 1991-08-09 1999-07-08 Koninklijke Philips Electronics N.V., Eindhoven Verfahren und Apparat zur Handhabung von Höhe und Dauer eines physikalischen Audiosignals
JP3225644B2 (ja) * 1992-10-31 2001-11-05 ソニー株式会社 ノイズシェイピング回路
WO1997010586A1 (en) * 1995-09-14 1997-03-20 Ericsson Inc. System for adaptively filtering audio signals to enhance speech intelligibility in noisy environmental conditions
TW419645B (en) * 1996-05-24 2001-01-21 Koninkl Philips Electronics Nv A method for coding Human speech and an apparatus for reproducing human speech so coded
US5864790A (en) * 1997-03-26 1999-01-26 Intel Corporation Method for enhancing 3-D localization of speech

Also Published As

Publication number Publication date
WO1999022561A2 (en) 1999-05-14
KR20000069831A (ko) 2000-11-25
DE69815062T2 (de) 2004-02-26
EP0954849A2 (en) 1999-11-10
EP0954849B1 (en) 2003-05-28
US6173256B1 (en) 2001-01-09
WO1999022561A3 (en) 1999-07-15
DE69815062D1 (de) 2003-07-03

Similar Documents

Publication Publication Date Title
JP5467098B2 (ja) オーディオ信号をパラメータ化された表現に変換するための装置および方法、パラメータ化された表現を修正するための装置および方法、オーディオ信号のパラメータ化された表現を合成するための装置および方法
JP4132109B2 (ja) 音声信号の再生方法及び装置、並びに音声復号化方法及び装置、並びに音声合成方法及び装置
US7149682B2 (en) Voice converter with extraction and modification of attribute data
JP2001508197A (ja) 構成信号にノイズを加算してlpc原理により符号化された音声のオーディオ再生のための方法及び装置
Fabig et al. Transforming singing voice expression-the sweetness effect
JPS60260100A (ja) 音声合成器
JPH0744194A (ja) 高能率符号化方法
HK1135502B (en) Apparatus and method for converting an audio signal into a parameterized representation, apparatus and method for modifying a parameterized representation, apparatus and method for synthesizing a parameterized representation of an audio signal
HK1246494B (en) Apparatus and method for synthesizing an audio signal from a parameterized representation
HK1135502A (en) Apparatus and method for converting an audio signal into a parameterized representation, apparatus and method for modifying a parameterized representation, apparatus and method for synthesizing a parameterized representation of an audio signal
HK1150897A (en) Apparatus and method for converting an audio signal into a parameterized representation, apparatus and method for modifying a parameterized representation, apparatus and method for synthensizing a parameterized representation of an audio signal
HK1150897B (en) Apparatus and method for converting an audio signal into a parameterized representation, apparatus and method for modifying a parameterized representation, apparatus and method for synthensizing a parameterized representation of an audio signal
HK1251074B (en) Apparatus and method for modifying a parameterized representation
HK1250089B (en) Apparatus and method for synthesizing a parameterized representation of an audio signal
HK1246495B (en) Apparatus and method for modifying a parameterized representation