JP2005352311A - Speech synthesis apparatus and speech synthesis program - Google Patents
Speech synthesis apparatus and speech synthesis program Download PDFInfo
- Publication number
- JP2005352311A JP2005352311A JP2004174544A JP2004174544A JP2005352311A JP 2005352311 A JP2005352311 A JP 2005352311A JP 2004174544 A JP2004174544 A JP 2004174544A JP 2004174544 A JP2004174544 A JP 2004174544A JP 2005352311 A JP2005352311 A JP 2005352311A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- emotion
- phrase
- expression
- likelihood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】 合成音声の抑揚や韻律等に誤りがあった場合、または抑揚や韻律等を調整したい場合などにおいて合成音声を簡単に訂正することができる音声合成装置および音声合成プログラムを提供すること。
【解決手段】 発話者の音声から得られた音声信号を受信する音声信号受信手段110と、音声信号受信手段110によって受信された音声信号を語句に変換する語句変換手段120と、音声信号受信手段110によって受信された音声信号に基づいて発話者の感情を推測する感情推測手段130と、感情推測手段130が推測した感情に応じて語句に対応する合成音声情報を変更する合成音声変更手段140とを備えて構成する。
【選択図】 図1
PROBLEM TO BE SOLVED: To provide a speech synthesizer and a speech synthesis program capable of easily correcting a synthesized speech when there is an error in the inflection or prosody of the synthesized speech or when it is desired to adjust the inflection or prosody.
SOLUTION: A voice signal receiving means 110 for receiving a voice signal obtained from a voice of a speaker, a phrase conversion means 120 for converting a voice signal received by the voice signal receiving means 110 into a phrase, and a voice signal receiving means. An emotion estimation unit 130 for estimating the speaker's emotion based on the audio signal received by 110, and a synthesized speech change unit 140 for changing the synthesized speech information corresponding to the phrase according to the emotion estimated by the emotion estimation unit 130. It comprises and comprises.
[Selection] Figure 1
Description
本発明は、テキストなどで表された合成音声情報に基づいて合成音声を出力する音声合成装置および音声合成プログラムに関する。 The present invention relates to a speech synthesizer and a speech synthesis program that output synthesized speech based on synthesized speech information expressed in text or the like.
従来の音声合成装置としては、オペレータがエディタを用いてMSCL(Multi-layered Speech/Sound Synthesis Control Language)で記述されているテキスト中に韻律制御コマンドを挿入することにより、韻律の修正の必要な文字列に対して発音列情報、アクセント情報等を含む韻律パラメータが生成され、生成された韻律パラメータに従って合成音声を出力するものが知られている(例えば特許文献1参照)。
しかしながら、このような従来の音声合成装置では、合成音声の抑揚や韻律等に誤りがあった場合など、エディタを用いて合成音声情報を手動で訂正する必要があるため、利用者に煩雑さを感じさせてしまうという課題が残されていた。 However, in such a conventional speech synthesizer, it is necessary to manually correct the synthesized speech information using an editor when there is an error in the insufflation or prosody of the synthesized speech. The problem of making it feel was left.
本発明はこのような課題を解決するためになされたもので、合成音声の抑揚や韻律等に誤りがあった場合、または抑揚や韻律等を調整したい場合などにおいて、合成音声を簡単に訂正することができる音声合成装置および音声合成プログラムを提供することを目的とする。 The present invention has been made to solve such a problem, and in the case where there is an error in the inflection or prosody of the synthesized speech, or when it is desired to adjust the inflection or prosody, etc., the synthesized speech is simply corrected. An object of the present invention is to provide a speech synthesizer and a speech synthesis program.
本発明の音声合成装置は、発話者の音声から得られた音声信号を受信する音声信号受信手段と、前記音声信号受信手段によって受信された音声信号を語句に変換する語句変換手段と、前記音声信号受信手段によって受信された音声信号に基づいて前記発話者の感情を推測する感情推測手段と、前記感情推測手段が推測した感情に応じて前記語句に対応する合成音声情報を変更する合成音声変更手段とを備えた構成を有している。
この構成により、発話者の音声から得られた語句に対応する合成音声情報を発話者の感情に応じて変更するため、合成音声の抑揚や韻律等に誤りがあった場合、または抑揚や韻律等を調整したい場合などにおいて合成音声を簡単に訂正することができる。
The speech synthesizer of the present invention includes a speech signal receiving unit that receives a speech signal obtained from a speech of a speaker, a phrase conversion unit that converts a speech signal received by the speech signal receiving unit, and the speech Emotion estimation means for estimating the speaker's emotion based on the speech signal received by the signal reception means, and synthetic speech change for changing the synthesized speech information corresponding to the phrase according to the emotion estimated by the emotion estimation means And means.
With this configuration, the synthesized speech information corresponding to the phrase obtained from the speech of the speaker is changed according to the emotion of the speaker, so there is an error in the inflection or prosody of the synthesized speech, or the inflection or prosody etc. The synthesized speech can be easily corrected when it is desired to adjust the sound.
また、本発明の音声合成装置は、前記語句変換手段によって変換された語句を他言語の語句に翻訳する翻訳手段を備え、前記合成音声変更手段は、前記感情推測手段が推測した感情に応じて、前記翻訳手段によって翻訳された語句に対応する合成音声情報を変更する構成を有している。
この構成により、発話者の音声から得られた語句を他言語の語句に翻訳するため、翻訳機として用いられる音声合成装置の合成音声も簡単に訂正することができる。
The speech synthesizer of the present invention further includes a translation unit that translates the phrase converted by the phrase conversion unit into a phrase of another language, and the synthesized speech change unit is configured to respond to the emotion estimated by the emotion estimation unit. The synthetic speech information corresponding to the words translated by the translation means is changed.
With this configuration, since the phrase obtained from the speech of the speaker is translated into another language, the synthesized speech of the speech synthesizer used as a translator can be easily corrected.
本発明の音声合成プログラムは、コンピュータに、発話者の音声から得られた音声信号を受信する音声信号受信ステップと、前記音声信号受信ステップで受信した音声信号を語句に変換する語句変換ステップと、前記音声信号受信ステップで受信した音声信号に基づいて前記発話者の感情を推測する感情推測ステップと、前記感情推測ステップで推測した感情に応じて前記語句に対応する合成音声情報を変更する合成音声変更ステップとを実行させる。
このプログラムにより、発話者の音声から得られた語句に対応する合成音声情報を発話者の感情に応じて変更するため、合成音声の抑揚や韻律等に誤りがあった場合、または抑揚や韻律等を調整したい場合などにおいて合成音声を簡単に訂正することができる。
The speech synthesis program of the present invention includes a computer that receives a speech signal received from a speaker's speech, a speech signal reception step, and a phrase conversion step that converts the speech signal received in the speech signal reception step into a phrase; An emotion estimation step for estimating the emotion of the speaker based on the audio signal received in the audio signal reception step, and a synthetic speech for changing the synthetic audio information corresponding to the phrase according to the emotion estimated in the emotion estimation step The change step is executed.
This program changes the synthesized speech information corresponding to the phrase obtained from the speech of the speaker according to the emotion of the speaker, so if there is an error in the inflection or prosody of the synthesized speech, or the inflection or prosody The synthesized speech can be easily corrected when it is desired to adjust the sound.
また、本発明の音声合成プログラムは、前記語句変換ステップで変換した語句を他言語の語句に翻訳する翻訳手段ステップと、前記感情推測ステップで推測した感情に応じて、前記翻訳手段ステップで翻訳した語句に対応する合成音声情報を変更するステップとを実行させる。
このプログラムにより、発話者の音声から得られた語句を他言語の語句に翻訳するため、翻訳機として用いられる音声合成装置の合成音声も簡単に訂正することができる。
The speech synthesis program according to the present invention translates the phrase converted in the phrase conversion step into a phrase in another language and the translation means step according to the emotion estimated in the emotion estimation step. Changing the synthesized speech information corresponding to the phrase.
This program translates a phrase obtained from the speech of the speaker into a phrase in another language, so that the synthesized speech of a speech synthesizer used as a translator can be easily corrected.
本発明は、合成音声の抑揚や韻律等に誤りがあった場合、または抑揚や韻律等を調整したい場合などにおいて、合成音声を簡単に訂正することができる音声合成装置および音声合成プログラムを提供するものである。 The present invention provides a speech synthesizer and a speech synthesis program that can easily correct a synthesized speech when there is an error in the inflection or prosody of the synthesized speech or when it is desired to adjust the inflection or prosody. Is.
以下、本発明を実施するための最良の形態について説明する。 Hereinafter, the best mode for carrying out the present invention will be described.
図1は、本発明の実施の形態に係る音声合成装置のブロック構成図である。図1に示すように、音声合成装置100は、音声信号受信手段110、語句変換手段120、感情推測手段130、合成音声変更手段140、音声合成手段150、および翻訳手段160を備えて構成されている。
FIG. 1 is a block configuration diagram of a speech synthesizer according to an embodiment of the present invention. As shown in FIG. 1, the
音声信号受信手段110は、マイクロフォンまたはインタフェース部106などを介して利用者の音声から得られた音声信号を受信するようになっている。語句変換手段120は、音声信号受信手段110によって受信された音声信号を語句に変換するようになっている。語句変換手段120は、公知の音声認識技術を用いて、例えば、音声信号をテキスト形式の文字列とした語句に変換するようになっている。
The audio
感情推測手段130は、音声信号受信手段110によって受信された音声信号に基づいて発話者の感情を推測するようになっている。また、感情推測手段130は、推測した感情を表す感情情報を合成音声変更手段140に出力するようになっている。感情推測手段130の詳細な説明は後述する。
The
合成音声変更手段140は、感情推測手段130が推測した感情に応じて語句に対応する合成音声情報を変更するようになっている。例えば、合成音声変更手段140は、感情推測手段130から出力された感情情報とMSCLに準拠したコマンドとが対応する対応表に基づいて合成音声情報を変更するようにしてもよい。ここで、対応表の一例を表1に示す。
The synthesized
より詳細な例としては、音声信号から「今日は晴れです」という語句が語句変換手段120によって変換されており、かつ、「悲しみ」を表す感情情報が感情推測手段130から出力されていたとき、表1に示した対応表に基づいて合成音声変更手段140は、予め格納された「今日は晴れです」いう語句を表すテキスト形式の合成音声情報に、嘆きの感情をもつ音声を出力するためのS層のコマンドである[@naki]を挿入するようになっている。すなわち、合成音声変更手段140は、以下に示すようにMSCLで記述された合成音声情報に変更するようになっている。
“@naki{今日は晴れです}”
As a more detailed example, when the phrase “Today is sunny” is converted from the audio signal by the
“@Naki {Sunny today}”
音声合成手段150は、合成音声情報に従って音声合成するようになっている。例えば、ハードディスク105には、MSCLに準拠したテキスト形式の合成音声情報が格納されており、音声合成手段150は、MSCLに準拠したテキスト形式の合成音声情報に従って音声合成することにより、合成音声をスピーカ108を介して出力するようになっている。勿論、合成音声情報が合成音声変更手段140によって変更されていれば、音声合成手段150は、変更された合成音声情報に従って音声合成するようになっている。
The
翻訳手段160は、語句変換手段120によって変換された語句を他言語の語句に翻訳するようになっている。また、合成音声変更手段140は、感情推測手段130が推測した感情に応じて、翻訳手段160によって翻訳された語句に対応する合成音声情報を変更するようになっている。
The
例えば、英語から日本語に翻訳するような場合、利用者が「How are you?」という言葉を音声合成装置100に発声することにより、音声信号受信手段110が、この言葉を表す音声信号を受信し、語句変換手段120が、受信された音声信号から「How are you?」という語句に変換するようになっている。ここで、翻訳手段160は、「How are you?」という語句から「こんにちは」という語句に翻訳するようになっている。なお、利用者が悲しみを込めて「How are you?」という言葉を発声していたとき、合成音声変更手段140は、予め格納された「こんにちは」いう語句を表すテキスト形式の合成音声情報に、表1に示した対応表に基づいて嘆きの感情をもつ音声を出力するためのコマンドを挿入するようになっている。
For example, when translating from English to Japanese, the user utters the word “How are you?” To the
次に、図2は、本発明の実施の形態に係る音声合成装置のハードウエア構成を示す概略図である。CPU(Central Processing Unit)101は、音声合成装置100に関わるプログラムを実行するようになっている。なお、音声信号受信手段110、語句変換手段120、感情推測手段130、合成音声変更手段140、音声合成手段150、および翻訳手段160は、CPU101によって実行されるプログラムのモジュールでもよい。
Next, FIG. 2 is a schematic diagram showing a hardware configuration of the speech synthesizer according to the embodiment of the present invention. A CPU (Central Processing Unit) 101 is configured to execute a program related to the
ROM(Read Only Memory)102は、CPU101が読み出すプログラム、CPU101を立ち上げるためのプログラム、その他のプログラム、および、制御用のパラメータ等を記憶するようになっている。RAM(Random Access Memory)1033は、CPU101の動作中にCPU101の動作に要するプログラムやデータ等を記憶するようになっている。EEPROM(Electrically Erasable Programmable Read-Only Memory)104は、プログラムや所定のデータを不揮発かつ書替可能に記憶するようになっている。ハードディスク105は、各種データなどを記憶するようになっている。インタフェース部106は、ネットワークに接続されている装置と所定の通信プロトコルに準拠して通信するようになっている。
A ROM (Read Only Memory) 102 stores a program read by the
その他、音声合成装置100は、液晶ディスプレイなどのディスプレイ107、マイクロフオン、キーボード、マウスなどの入力機器、およびスピーカ108などの出力機器などを備えている。なお、音声合成装置100は、パソコンを含むコンピュータを用いても実現可能である。
In addition, the
例えば、音声合成装置100には、MSCLなどで記述された語句を表すテキスト形式の合成音声情報が、ハードディスク105に予め格納されており、音声合成装置100は、格納されている合成音声情報に従って合成音声を発するようになっている。なお、合成音声情報は、テキスト形式のデータを表す電子ファイルでもよい。
For example, in the
例えば、MSCLなどで記述された「今日は晴れです」という合成音声情報を有しているため、音声合成装置100が「今日は晴れです」という言葉の合成音声を発することができるようになる。これを聴いた利用者が、この言葉の抑揚や韻律等を調整したい場合などに「今日は晴れです」と同じ言葉を音声合成装置100に発声する。
For example, since it has the synthesized speech information “Today is sunny” described in MSCL or the like, the
次に、図3は、本発明の実施の形態に係る感情推測手段のブロック構成図である。図3に示すように、感情推測手段130は、記憶手段131、音声特徴量抽出手段132、感情表出尤度算出手段133、平静状態尤度算出手段134、および感情表出判定手段135を備えて構成されている。
Next, FIG. 3 is a block diagram of emotion estimation means according to the embodiment of the present invention. As shown in FIG. 3, the
記憶手段131は、学習音声を用いて生成されたた符号帳であって、学習音声に含まれる音声特徴量の組から生成されたベクトル量子化された音声特徴量ベクトルとそれに対応する符号、音声を発した話者の感情、話者の感情表出があったときの音声特徴量ベクトルの出現確率である感情表出確率、および、話者の感情表出がなかったときの音声特徴量ベクトルの出現確率である平静状態確率を対応付けて保持する符号帳131CBを予め記憶するようになっている。例えば、図9に示すように符号帳は、「笑い」、「怒り」、「悲しみ」などの感情に対応して作成されている。なお、感情毎に対応する符号帳は、「笑い」、「怒り」、「悲しみ」の3つに限定されず、多数用意してもよい。 The storage means 131 is a codebook generated using the learning speech, and is a vector quantized speech feature vector generated from a speech feature amount set included in the learning speech and a code and speech corresponding thereto. , The emotional expression probability that is the appearance probability of the speech feature vector when the speaker's emotion is expressed, and the speech feature vector when there is no speaker's emotional expression The code book 131CB that stores the calm state probability, which is the appearance probability, is stored in advance. For example, as shown in FIG. 9, the code book is created corresponding to emotions such as “laughter”, “anger”, and “sadness”. The code book corresponding to each emotion is not limited to three such as “laughter”, “anger”, and “sadness”, and a large number of codebooks may be prepared.
音声特徴量抽出手段132は、音声信号受信手段12によって受信された入力コンテンツに含まれる音声データから音声特徴量ベクトルを抽出するようになっている。
The audio feature
感情表出尤度算出手段133は、音声特徴量抽出手段132が抽出した音声特徴量ベクトルに対応する音声特徴量ベクトルを符号帳から検出し、この符号帳から検出された音声特徴量ベクトルに対応する感情表出確率に基づいて、話者の感情表出についての尤度である感情表出状態尤度を算出するようになっている。例えば、感情表出尤度算出手段133は、それぞれの感情に対応した符号帳に基づいてそれぞれの感情表出状態尤度を算出するようになっている。
The emotion expression
平静状態尤度算出手段134は、音声特徴量抽出手段132が抽出した音声特徴量ベクトルに対応する音声特徴量ベクトルを符号帳から検出し、この符号帳から検出された音声特徴量ベクトルに対応する平静状態確率に基づいて、話者の平静状態についての尤度である平静状態尤度を算出するようになっている。例えば、平静状態尤度算出手段134は、それぞれの感情に対応した符号帳に基づいてそれぞれの平静状態尤度を算出するようになっている。
The calm state
感情表出判定手段135は、感情表出尤度算出手段133が算出した感情表出状態尤度、および、平静状態尤度算出手段134が算出した平静状態尤度に基づいて、音声特徴量抽出手段132が音声データから抽出した音声特徴量ベクトルを含む音声の各区間に、話者の感情表出があったか否かを判定するようになっている。感情表出があったとき、感情表出判定手段135は、判定した感情を表す感情情報を画像抽出手段14に出力するようになっている。
The emotional
例えば、話者が「笑い」を感情表出していたか否かを判定する場合には、感情表出尤度算出手段133が「笑い」の符号帳を用いて算出した「笑い」に対応する感情表出尤度、および平静状態尤度算出手段134が「笑い」の符号帳を用いて算出した「笑い」に対応する平静状態尤度に基づいて、感情表出判定手段135が「笑い」の感情表出があったか否かを判定するようになっている。
For example, when it is determined whether or not the speaker has expressed “laughter” as an emotion, the emotion corresponding to the “laughter” calculated by the emotion expression
図3には示していないが、音声特徴量抽出手段132はバッファメモリ手段を有しており、入力された音声コンテンツを一時的に格納し、そのバッファメモリ手段内のコンテンツに含まれる音声データを分析して音声特徴量ベクトルを抽出する。
Although not shown in FIG. 3, the audio feature
以下、本発明の実施の形態に係る音声合成装置が実行するプログラムについて、図面を参照して説明する。図4(a)は、本発明の実施の形態に係る音声合成装置が合成音声情報を変更する動作の流れを示すフローチヤートである。 Hereinafter, a program executed by the speech synthesizer according to the embodiment of the present invention will be described with reference to the drawings. FIG. 4A is a flowchart showing a flow of an operation in which the speech synthesizer according to the embodiment of the present invention changes the synthesized speech information.
まず、マイクロフォンまたはインタフェース部106などを介して音声から得られた音声信号が、音声信号受信手段110によって受信され(S101)、受信された音声信号は、語句変換手段120によって語句に変換される(S102)。
First, an audio signal obtained from audio via a microphone or the
ここで、音声合成装置100は、変換された語句を翻訳するか否かを判定するための判定情報を予め有しており、この判定情報に基づいて翻訳の可否を判定する(S103)。判定した結果、翻訳する場合には、変換された語句が、翻訳手段160によって他言語の語句に翻訳される(S104)。
Here, the
次に、受信された音声信号に基づいて利用者等の感情が感情推測手段130によって推測される(S105)。なお、ステップS105とステップS102からステップS104までとが並列に実行されるようにしてもよい。語句変換手段120によって変換された語句に対応する合成音声情報は、合成音声変更手段140によって感情推測手段130が推測した感情に応じて変更される(S106)。
Next, emotions of the user or the like are estimated by the emotion estimation means 130 based on the received audio signal (S105). Note that step S105 and steps S102 to S104 may be executed in parallel. The synthesized speech information corresponding to the phrase converted by the
図4(b)は、本発明の実施の形態に係る音声合成装置が合成音声を出力する動作の流れを示すフローチャートである。 FIG. 4B is a flowchart showing a flow of operations in which the speech synthesizer according to the embodiment of the present invention outputs synthesized speech.
例えば、利用者などからの要求により合成音声を出力するための要求信号が、音声合成装置100に入力される(S107)。要求信号に応じて合成音声は、合成音声情報に従って音声合成手段150によって出力される(S108)。
For example, a request signal for outputting synthesized speech in response to a request from a user or the like is input to the speech synthesizer 100 (S107). In response to the request signal, the synthesized speech is output by the
また、本発明の実施の形態に係る感情推測手段の動作について説明する。図5(a)は、符号帳について詳細に説明するための図である。 Further, the operation of the emotion estimation means according to the embodiment of the present invention will be described. FIG. 5A is a diagram for explaining the codebook in detail.
学習音声を用いて生成された符号帳を予め作成しておく。例えば、学習音声に含まれる所定の音声特徴量、音声を発した話者の感情、話者の感情表出があったとき(以下、感情表出状態という)の音声特徴量の出現確率である感情表出確率、および、話者の感情表出がなかったときの音声特徴量の出現確率である平静状態確率を対応付けて保持する符号帳が、記憶手段131によって予め記憶される(S110)。符号帳作成の詳細については、後述する。 A code book generated using learning speech is created in advance. For example, it is the appearance probability of the voice feature amount when there is a predetermined voice feature amount included in the learning voice, the emotion of the speaker who uttered the voice, and the emotional expression of the speaker (hereinafter referred to as emotion expression state) The codebook that stores the emotion expression probability and the calm state probability that is the appearance probability of the voice feature amount when there is no speaker emotion expression is stored in advance by the storage unit 131 (S110). . Details of the codebook creation will be described later.
次に、本発明の実施の形態に係る感情推測手段130の動作について説明する。図5は、本発明の実施の形態に係る感情推測手段130の動作を説明するためのフローチャートである。 Next, the operation | movement of the emotion estimation means 130 which concerns on embodiment of this invention is demonstrated. FIG. 5 is a flowchart for explaining the operation of emotion estimation means 130 according to the embodiment of the present invention.
まず、学習音声を用いて生成された符号帳であって、学習音声に含まれる所定の音声特徴量の組(パラメータの組)である音声特徴量ベクトル、音声を発した話者の感情、話者の感情表出があったとき(以下、感情表出状態という。)の音声特徴量ベクトルの出現確率である感情表出確率、および、話者の感情表出がなかったときの音声特徴量ベクトルの出現確率である平静状態確率を対応付けて保持する符号帳が予め作成され、図1の記憶手段131に格納されている(S310)。この符号帳作成処理は、この発明の装置を構成する上で必要なものとして予め行う。符号帳作成の詳細については、後述するが、音声特徴量ベクトルは、特許文献2に開示されているような音声のフレーム毎に検出する少なくとも基本周波数、平均パワー、動的特徴量の時間変化特性の少なくともいずれか1つ以上及び/又はそれらのフレーム間差分の少なくともいずれか1つ以上のパラメータの組を含むベクトルである。
First, a codebook generated using learning speech, which is a speech feature vector that is a set of predetermined speech features (a set of parameters) included in the learning speech, the emotion of the speaker who has spoken, Emotional expression probability, which is the appearance probability of a voice feature vector when a person's emotional expression is expressed (hereinafter referred to as emotional expression state), and a voice feature amount when there is no speaker's emotional expression A code book that associates and holds a calm state probability that is the appearance probability of a vector is created in advance and stored in the
ステップS320〜S340は感情表出検出処理である。まず、入力コンテンツの全体が記憶手段131に取り込まれ、その取り込まれた音声データから予め決められた複数種類の音声特徴量の組(音声特徴量ベクトル)を抽出する(S320)。 Steps S320 to S340 are emotion expression detection processing. First, the entire input content is taken into the storage means 131, and a plurality of predetermined sets of voice feature quantities (speech feature quantity vectors) are extracted from the fetched voice data (S320).
S320で音声データの所定区間(判定区間)から抽出した一連の音声特徴量ベクトルにそれぞれ最も近い音声特徴量ベクトルを符号帳から検出し、この符号帳からその検出された音声特徴量ベクトルの、感情表出状態での出現確率を読み出し、この一連の出願確率に基づいて、話者の感情表出についての尤度である感情表出状態尤度を算出する。この感情表出状態尤度の計算は、音声データの一連の音声特徴量ベクトルの判定区間ごと(例えば後述の音声小段落ごと、または一定区間長ごと)に行う。 In S320, a speech feature vector closest to the series of speech feature vectors extracted from the predetermined section (determination section) of the speech data is detected from the code book, and the emotion of the detected speech feature vector from the code book is detected. The appearance probability in the expression state is read, and the emotion expression state likelihood, which is the likelihood of the speaker's emotion expression, is calculated based on the series of application probabilities. The calculation of the emotional expression state likelihood is performed for each determination section of a series of voice feature vectors of the voice data (for example, for each voice sub-paragraph described later or for each fixed section length).
同様に、音声データから抽出した音声特徴畳ベクトルの、平静状態での出現確率を符号帳から読み出し、この確率に基づいて、話者の平静状態についての尤度である平静状態尤度を上記感情表出状態尤度の算出と同じ判定区間ごとに算出する(S330)。 Similarly, the appearance probability of the speech feature tatami vector extracted from the speech data in the calm state is read from the codebook, and based on this probability, the calm state likelihood, which is the likelihood of the speaker's calm state, is expressed as the emotion. It is calculated for each determination section that is the same as the calculation of the exposed state likelihood (S330).
次に、ステップS330で算出した感情表出状態尤度、および平静状態尤度に基づいて、ステップS320で音声データから抽出した所定の音声特徴量の組を含む音声データの判定区間に、話者の感情表出があったか否かを判定する(S340)。 Next, based on the emotional expression state likelihood and the calm state likelihood calculated in step S330, the speaker is included in the determination section of the audio data including the predetermined audio feature amount set extracted from the audio data in step S320. It is determined whether or not there is an emotional expression (S340).
以下に、上記の各ステップでの処理について詳細に説明する。まず、各ステップでの処理についての詳細な説明に先立ち、上記の音声特徴量の組について説明する。音声特徴量としては、音声スペクトル等の情報に比べて、雑音環境下でも安定して得られ、かつ感情表出状態か否かの判定が話者依存性の低いものを用いる。このような条件を満たす音声特徴量として、本発明の実施の形態では、基本周波数f0、パワーp、動的特徴量d(t).無声区間TS等を抽出する。 Hereinafter, the processing in each of the above steps will be described in detail. First, prior to a detailed description of the processing in each step, the above-described set of audio feature values will be described. As the speech feature amount, a speech feature amount that is obtained stably even in a noisy environment and that is less dependent on the speaker is used to determine whether or not it is in an emotional expression state compared to information such as a speech spectrum. In the embodiment of the present invention, as the audio feature amount satisfying such conditions, the fundamental frequency f 0 , power p, dynamic feature amount d (t). Extracting the unvoiced T S and the like.
これらの音声特徴量の抽出法は公知であり、その詳細については、例えば、非特許文献1、非特許文献2、非特許文献3等を参照されたい。
These voice feature extraction methods are known, and for details, see
ここで、上記の動的特徴量d(t)は、以下の式(1)によって定義され、その時間変化量は発話速度の尺度となるパラメータである。 Here, the dynamic feature amount d (t) is defined by the following equation (1), and the temporal change amount is a parameter serving as a measure of the speech rate.
ここで、tは時刻、Ck(t)は時刻tにおけるk次のLPCケプストラム係数、±F0は対象とするフレーム(以下、現フレームという)の前後のフレーム数(必ずしも整数個のフレームでなくとも一定の時間区間でもよい)をいう。なお、動的特徴量d(t)としては、特許文献3に定義されたものを用いるのでもよい。
Here, t is the time, C k (t) is the kth-order LPC cepstrum coefficient at time t, and ± F 0 is the number of frames before and after the target frame (hereinafter referred to as the current frame) (not necessarily an integer number of frames). It may be a fixed time interval). As the dynamic feature amount d (t), one defined in
LPCケプストラム係数の次数kは、1からKまでの整数のいずれかである。動的特徴量d(t)の単位時間当たりの極大点の数、または、単位時間当たりの変化率は発話速度の尺度となる。 The order k of the LPC cepstrum coefficient is any integer from 1 to K. The number of local maximum points per unit time of the dynamic feature quantity d (t) or the rate of change per unit time is a measure of the speech rate.
以下では、1フレームの長さ(以下、フレーム長という)を100msとし、このフレームの開始時刻から50msずらして次のフレームを形成するものとする。また、フレーム毎に、平均基本周波数f0’、平均パワーPを算出するものとする。平均基本周波数f0’及び平均パワーp’は、基本周波数f0が信頼できるフレームについてのみ使用して算出する。例えば、基本周波数f0の抽出の際の自己相関係数を利用してもよい。さらに、現フレームの基本周波数f0’と、現フレームからiフレーム前の基本周波数f0’および現フレームからiフレーム後の基本周波数f0’のそれぞれと差分Δf0’(−i)、Δf0’(i)と、をとる。平均パワーp’についても同様に、現フレームの平均パワーp’と、現フレームからiフレーム前の平均パワーp’および現フレームからiフレーム後の平均パワーp’のそれぞれと差分Δp’(−i)、Δp’(i)と、をとる。 In the following, it is assumed that the length of one frame (hereinafter referred to as the frame length) is 100 ms, and the next frame is formed with a shift of 50 ms from the start time of this frame. Further, the average fundamental frequency f 0 ′ and the average power P are calculated for each frame. The average fundamental frequency f 0 ′ and the average power p ′ are calculated using only the frames for which the fundamental frequency f 0 is reliable. For example, it is possible to utilize the autocorrelation coefficients of the extraction of the fundamental frequency f 0. Furthermore, 'and the fundamental frequency f 0 of the previous i-th frame from the current frame' fundamental frequency f 0 of the current frame 'respectively and a difference Delta] f 0' of the fundamental frequency f 0 after i frames from and the current frame (-i), Delta] f 0 ′ (i). Similarly for the average power p ′, the average power p ′ of the current frame, the average power p ′ before i frames from the current frame, and the average power p ′ after i frames from the current frame, and the difference Δp ′ (−i ), Δp ′ (i).
次に、これらフレーム毎の、基本周波数f0’、基本周波数の差分Δf0’(−i)、Δf0’(i)、平均パワーp’、平均パワーの差分Δp’(−i)、Δp’(i)を規格化する。以下では、基本周波数f0’、基本周波数の差分Δf0’(−i)、Δf0’(i)、平均パワーp’、平均パワーの差分Δp’(−i)、Δp’(i)のそれぞれを、単に、f0’、Δf0’(−i)、Δf0’(i)、p’、Δp’(−i)、Δp’(i)と表し、規格化されたものを、それぞれ、f0”、Δf0”(−i)、Δf0”(i)、p”、Δp”(−i)、Δp”(i)と表す。 Next, for each frame, fundamental frequency f 0 ′, fundamental frequency differences Δf 0 ′ (−i), Δf 0 ′ (i), average power p ′, average power differences Δp ′ (− i), Δp '(I) is normalized. In the following, the fundamental frequency f 0 ′, fundamental frequency differences Δf 0 ′ (−i), Δf 0 ′ (i), average power p ′, average power differences Δp ′ (− i), Δp ′ (i) Each is simply expressed as f 0 ′, Δf 0 ′ (−i), Δf 0 ′ (i), p ′, Δp ′ (−i), Δp ′ (i), and the normalized ones are respectively , F 0 ″, Δf 0 ″ (−i), Δf 0 ″ (i), p ″, Δp ″ (− i), Δp ″ (i).
この規格化は、例えば、f0’、Δf0’(−i)、Δf0’(i)のそれぞれを、例えば、処理対象の音声データ全体の平均基本周波数で割ることによって行うのでもよいし、標準化して平均0、分散1にしてもよい。また、処理対象の音声データ全件の平均基本周波数の代わりに、後述する音声小段落や音声段落毎の平均基本周波数や、数秒や数分等の時間内での平均基本周波数を用いるのでもよい。 This normalization may be performed, for example, by dividing each of f 0 ′, Δf 0 ′ (−i), and Δf 0 ′ (i) by, for example, the average fundamental frequency of the entire audio data to be processed. , It may be standardized to have an average of 0 and a variance of 1. Further, instead of the average fundamental frequency of all audio data to be processed, an average fundamental frequency for each of the audio sub-paragraphs and audio paragraphs described later, or an average fundamental frequency within a time such as several seconds or minutes may be used. .
同様に、p’についても、処理対象の音声データ全件の平均パワーで割り、規格化又は標準化する。また、処理対象の音声データ全体の平均パワーの代わりに、後述する音声小段落や音声段落毎の平均パワーや、数秒や数分等の時間内での平均パワー等を用いるのでもよい。ここで、上記iの値を、例えば、4とする。 Similarly, p ′ is also normalized or standardized by dividing by the average power of all the audio data to be processed. Further, instead of the average power of the entire audio data to be processed, an average power for each audio sub-paragraph or audio paragraph, which will be described later, or an average power within a time such as several seconds or several minutes may be used. Here, the value of i is set to 4, for example.
動的特徴量(ダイナミックメジャー)のピークの本数は、以下のように算出する。まず、現フレームの開始時刻を中心に現フレームより十分長い時間幅(2T1、ただし、T1は例えばフレーム長の10倍程度とする)の区間を設ける。次に、この区間内における動的特徴量d(t)の時間変化の極大点を算出し、極大点の個数dp(以下、単にdpという)を計数する。 The number of dynamic feature (dynamic measure) peaks is calculated as follows. First, a section having a sufficiently long time width (2T 1 , where T 1 is, for example, about 10 times the frame length) is provided around the start time of the current frame. Next, the maximum point of the time variation of the dynamic feature amount d (t) in this section is calculated, and the number of maximum points d p (hereinafter simply referred to as d p ) is counted.
また、ダイナミックメジャーのピーク本数の差分値も、以下に述べるようにして算出しておく。即ち、現フレームの開始時刻のT2前の時刻を中心とする幅2T1内区間におけるdpから、現フレームのdpを差し引いた差成分Δdp(−T2)を求める。同様に、現フレームの終了時刻のT3後の時刻を中心とする幅2T1内の区間におけるdpを、現フレームのdpから差し引いた差成分Δdp(T3)を求める。 Also, the difference value of the number of dynamic major peaks is calculated as described below. That is, the difference component Δd p (−T 2 ) obtained by subtracting d p of the current frame from d p in the section within the width 2T 1 centered on the time before T 2 of the start time of the current frame is obtained. Similarly, the d p in the interval in the width 2T 1 around the time after T 3 of the end time of the current frame, determining a difference component [Delta] d p was subtracted from d p of the current frame (T 3).
上記の、T1、T2、T3の値は、それぞれ、フレーム長より十分長いものとし、以下では、T1=T2=T3=450msとする。ただし、これらの値に限られるものではない。また、フレームの前後の無声区間の長さを、それぞれ、tSB、tSFとする。ステップS320では、上記のf0”、Δf0”(−i)、Δf0”(i)、p”、Δp”(−i)、Δp”(i)、dp、Δdp(−T2)、Δdp(T3)等(以下、それぞれをパラメータと呼ぶ)の値をフレーム毎に抽出する。 The values of T 1 , T 2 , and T 3 described above are sufficiently longer than the frame length, and in the following, T 1 = T 2 = T 3 = 450 ms. However, it is not restricted to these values. Also, let the lengths of the silent sections before and after the frame be t SB and t SF , respectively. In step S320, the above-mentioned f 0 ″, Δf 0 ″ (− i), Δf 0 ″ (i), p ″, Δp ″ (− i), Δp ″ (i), d p , Δd p (−T 2 ), Δd p (T 3 ), etc. (hereinafter referred to as parameters) for each frame.
符号帳作成の際は、上記のf0”、Δf0”(−i)、Δf0”(i)、p”、Δp”(−i)、Δp”(i)、dp、Δdp”(−T2)、Δdp”(T3)等のパラメータの中から選択されたパラメータの組、例えば(f0”、p”、dp)(音声特徴量ベクトル)に対応させて、感情表出確率および平静状態確率が算出され、選ばれたパラメータと感情表出確率および平静状態確率とを対応させて符号帳に記録している。符号帳には、上記のパラメータの組と同じ組のパラメータが音声特徴量ベクトルとして記録されている。 When creating the code book, the above f 0 ″, Δf 0 ″ (−i), Δf 0 ″ (i), p ″, Δp ″ (−i), Δp ″ (i), d p , Δd p ″ (-T 2 ), Δd p ″ (T 3 ) and other parameters selected from parameters such as (f 0 ″, p ″, d p ) (voice feature vector) The expression probability and the calm state probability are calculated, and the selected parameter is associated with the emotion expression probability and the calm state probability and recorded in the codebook. In the codebook, the same set of parameters as the above set of parameters is recorded as a speech feature vector.
ステップS320では、入力音声を対象に、上記の音声特徴量パラメータf0”、Δf0”(−i)、Δf0”(i)、p”、Δp”(−i)、Δp”(i)、dp、Δdp”(−T2)、Δdp”(T3)等のパラメータのうち、符号帳に記憶された音声特徴量ベクトルで使用されているパラメータ、例えば前述の(f0”、p”、dp)の値をフレームごとに算出し、全音声コンテンツに渡る一連の音声特徴量ベクトルを得る。これによって、音声データの各音声特徴量ベクトルに対応する符号帳の音声特徴量ベクトルを特定でき、感情表出確率および平静状態確率を決定できることになる。 In step S320, the target input speech, said speech feature quantity parameters f 0 ", Δf 0" ( -i), Δf 0 "(i), p", Δp "(- i), Δp" (i) , D p , Δd p ″ (−T 2 ), Δd p ″ (T 3 ), etc., parameters used in the speech feature vector stored in the codebook, for example, (f 0 ″ described above) , P ″, d p ) are calculated for each frame to obtain a series of audio feature vectors over the entire audio content. As a result, the speech feature vector of the codebook corresponding to each speech feature vector of speech data can be specified, and the emotional expression probability and the calm state probability can be determined.
ステップS330での処理の詳細を、図6を用いて説明する。ステップS330では、まず、ステップS331〜S333で、音声小段落および音声段落を抽出する。次に、ステップS334、S335、S336で、感情表出状態尤度及び平静状態尤度を算出する。この実施例では音声小段落を、感情表出状態か否かを判定する対象の単位とし、音声段落は、例えば、400ms程度またはそれ以上の無声区間ではさまれた、少なくとも1つ以上の音声小段落を含む区間であるものとする。図7に音声小段落と音声段落の関係を概念的に示す。 Details of the processing in step S330 will be described with reference to FIG. In step S330, first, in steps S331 to S333, a small audio paragraph and an audio paragraph are extracted. Next, in steps S334, S335, and S336, the emotion expression state likelihood and the calm state likelihood are calculated. In this embodiment, an audio sub-paragraph is used as a unit for determining whether or not it is in an emotional expression state, and the audio paragraph is, for example, at least one audio sub-audio that is sandwiched in an unvoiced section of about 400 ms or more. It shall be a section including a paragraph. FIG. 7 conceptually shows the relationship between audio sub-paragraphs and audio paragraphs.
音声段落の抽出には、まず、音声データの無声区間と有声区間を抽出する(S331)。有声区間であるか無声区間であるかの判定(以下、単に、有声/無声の判走という)は、周期性の有無の判定と等価であるとみなして、自己相関関数や変形相関関数のピーク値に基づいて行われることが多い。 To extract a voice paragraph, first, unvoiced and voiced sections of voice data are extracted (S331). The determination of whether it is a voiced section or an unvoiced section (hereinafter simply referred to as voiced / unvoiced judgment) is regarded as equivalent to the determination of the presence or absence of periodicity, and the peak of the autocorrelation function or modified correlation function Often done based on value.
具体的には、入力信号の短時間スペクトルからスペクトル包絡を除去し、得られた予測残渣の自己相関関数(以下、変形相関関数という)を算出し、変形相関関数のピーク値が所定の閾値より大きいか否かによって有声/無声の判定を行う。また、そのようなピーク値が得られる相関処理の遅延時間に基づいて、ピッチ周期1/f0の抽出を行う。
Specifically, the spectral envelope is removed from the short-time spectrum of the input signal, the autocorrelation function of the obtained prediction residue (hereinafter referred to as a modified correlation function) is calculated, and the peak value of the modified correlation function is greater than a predetermined threshold value. The voiced / unvoiced judgment is made depending on whether the value is large. Further, the
上記では、フレーム毎に各音声特徴量を音声データから抽出する場合について述べたが、音声データが、例えば、CELP(Code-Excited Linear Prediction)などにより、既にフレーム毎に符号化(すなわ、分析)されており、この符号化で得られる係数または符号を用いて音声特徴量を生成するのでもよい。CELPによって得られる符号(以下、CELP符号という)には、一般に、線形予測係数、利得係数、ピッチ周期等が含まれる。そのため、CELP符号を復号して上記の音声特徴畳を得ることができる。 In the above description, the case where each voice feature amount is extracted from the voice data for each frame has been described. However, the voice data has already been encoded for each frame by CELP (Code-Excited Linear Prediction), for example, analysis. The audio feature quantity may be generated using a coefficient or code obtained by this encoding. A code obtained by CELP (hereinafter referred to as a CELP code) generally includes a linear prediction coefficient, a gain coefficient, a pitch period, and the like. Therefore, the speech feature tatami can be obtained by decoding the CELP code.
具体的には、復号された利得係数の絶対値または二乗値をパワーとして用い、ピッチ成分の利得係数と非周期成分の利得係数との比に基づいて有声/無線の判定を行うことができる。また、復号されたピッチ周期の逆数をピッチ周波数、すなわち基本周波数として用いることができる。また、上記の式(l)で説明した動的特徴量の計算に使用するLPCケプストラム係数は、CELP符号を復号して得られたものを変換して求めることができる。 Specifically, the absolute value or square value of the decoded gain coefficient can be used as power, and voiced / wireless determination can be performed based on the ratio between the gain coefficient of the pitch component and the gain coefficient of the aperiodic component. Further, the reciprocal of the decoded pitch period can be used as the pitch frequency, that is, the fundamental frequency. Further, the LPC cepstrum coefficient used for the calculation of the dynamic feature amount described in the above equation (l) can be obtained by converting the one obtained by decoding the CELP code.
また、CELP符号にLSP(Line Spectrum Pair)係数が含まれていれば、LSP係数を一旦LPCケプストラム係数に変換し、変換して得られたLPCケブストラム係数から求めてもよい。このように、CELP符号には本発明で使用できる音声特徴量が含まれているので、CELP符号を復号し、フレーム毎に必要な音声特徴量の組を取り出すことができる。 Further, if the CELP code includes an LSP (Line Spectrum Pair) coefficient, the LSP coefficient may be once converted into an LPC cepstrum coefficient and obtained from the LPC cepstrum coefficient obtained by conversion. Thus, since the CELP code includes speech feature values that can be used in the present invention, it is possible to decode the CELP code and extract a set of necessary speech feature values for each frame.
図6に戻って、有声区間の両側の無声区間の時間tSM、tSFがそれぞれ予め決めたtS以上になるとき、その無声区間によって囲まれた有声区間を含む信号部分を音声小段落Sとして抽出する(S332)。以下では、この無声区間の時間tSの値を、例えば、tS=400msとする。 Returning to FIG. 6, when the times t SM and t SF of the unvoiced segments on both sides of the voiced segment are equal to or greater than the predetermined t S , the signal portion including the voiced segment surrounded by the unvoiced segment is represented as the audio sub-paragraph S. (S332). Hereinafter, the value of the time t S of the silent section is set to t S = 400 ms, for example.
次に、この音声小段落S内の、好ましくは後学部の有声区間内の平均パワーpと、この音声小段落Sの平均パワー値PSの定数β倍とを比較し、p<βPSであれば、その音声小段落Sを末尾音声小段落とし、直前の末尾音声小段落後の音声小段落から現在の末尾音声小段落までを音声段落と決定して抽出する(S333)。 Next, the audio sub-paragraphs in S, preferably compares the average power p voiced in a section of the rear faculties, and a constant β times the average power value P S of the audio sub-paragraph S, p <.beta.P S If there is, the audio sub-paragraph S is set as the end audio sub-paragraph, and the audio sub-paragraph after the immediately preceding end audio sub-paragraph to the current end audio sub-paragraph is determined as the audio paragraph and extracted (S333).
音声小段落の抽出は、上記の有声区間を囲む無声区間の時間がtS以上となるという条件で行う。図7に、音声小段落としてSj−1、Sj、Sj+1を示し、以下では音声小段落Sjを処理対象の音声小段落とする。音声小段落Sjは、Qj個の有声区間から構成され、音声小段落Sjの平均パワーをPjとする。 The extraction of the audio sub-paragraph is performed under the condition that the time of the unvoiced section surrounding the voiced section is t S or more. FIG. 7 shows S j−1 , S j , and S j + 1 as the audio sub-paragraphs. In the following, the audio sub-paragraph S j is set as the audio sub-paragraph to be processed. The audio sub-paragraph S j is composed of Q j voiced sections, and the average power of the audio sub-paragraph S j is P j .
また、音声小段落Sjに含まれるq番目の有声区間Vq(q=1、2、・・・、Q)の平均パワーをpqと表す。音声小段落Sjが音声段落Bの末尾の音声小段落であるか否かは、音声小段落Sjを構成する後半部分の有声区間の平均パワーに基づいで判定する。具体的には、以下の式(2)に示す条件が満たされるか否かで判定する。 Further, the average power of the q-th voiced section V q (q = 1, 2,..., Q) included in the audio sub-paragraph S j is expressed as p q . Whether or not the audio sub-paragraph S j is the audio sub-paragraph at the end of the audio sub-paragraph B is determined based on the average power of the voiced section in the latter half of the audio sub-paragraph S j . Specifically, the determination is made based on whether or not a condition shown in the following expression (2) is satisfied.
この条件を満たすとき、音声小段落Sjが音声段落Bの末尾音声小段落であると判定する。 When this condition is satisfied, it is determined that the audio sub-paragraph S j is the last audio sub-paragraph of the audio paragraph B.
ここで、αはQj/2以下の値をとる定数であり、βは例えば0.5〜1.5程度の値をとる定数である。これらの値は、音声段落の抽出を最適化するように、予め実験により決めでおく。ただし、有声区間の平均パワーpqは、その有声区間内の全フレームの平均パワーである。本発明の実施の形態では、α=3、β=0.8とした。上記のようにすることによって、隣接する末尾音声小段落間の音声小段落の集合を音声段落と判定できる。あるいは、音声小段落を固定長t(s)、シフト幅S(s)と決めてもよい。例えば、t(s)=S(s)=1msecの固定長、シフト幅としてもよい。音声段落についてもΔSの無声区間で囲まれた区間としてもよい。 Here, α is a constant that takes a value of Q j / 2 or less, and β is a constant that takes a value of about 0.5 to 1.5, for example. These values are determined in advance by experiments so as to optimize the extraction of speech paragraphs. However, the average power p q of the voiced section is the average power of all frames in the voiced section. In the embodiment of the present invention, α = 3 and β = 0.8. As described above, a set of audio sub-paragraphs between adjacent end audio sub-paragraphs can be determined as an audio paragraph. Alternatively, the small audio paragraph may be determined as a fixed length t (s) and a shift width S (s). For example, a fixed length and a shift width of t (s) = S (s) = 1 msec may be used. The voice paragraph may also be a section surrounded by a silent section of ΔS.
次に、図6に戻って感情表出状態尤度を算出する処理(S334、S335)について説明する(以下、この処理を感情表出判定処理という)。まず、ステップS310で予め作成した符号帳に記録される音声特徴量ベクトルに合わせて、ステップS320で抽出した入力音声に含まれる音声特徴量の組をベクトル量子化し、符号列C1,C2,C3,…を得る(S334)。 Next, returning to FIG. 6, processing (S334, S335) for calculating the emotion expression state likelihood will be described (hereinafter, this processing is referred to as emotion expression determination processing). First, in accordance with the speech feature quantity vector recorded in the code book created in advance in step S310, the speech feature quantity pairs included in the input speech extracted in step S320 are vector quantized, and the code strings C 1 , C 2 , C 3 ,... Are obtained (S334).
ステップS335での感情表出状態尤度の算出に先立って、図8を用いて符号帳の作成方法について説明する。まず、多数の学習用音声を被験者から採取し、感情表出があった発話と平静状態での発話とを識別できるようにラベルを付ける(S311)。例えば、音声が、笑っている、怒っている、悲しんでいる、とそれぞれ判断した区間にラベル付けを行う。 Prior to the calculation of the emotional expression state likelihood in step S335, a codebook creation method will be described with reference to FIG. First, a large number of learning voices are collected from the subject and labeled so that the utterances with emotional expression and the utterances in a calm state can be identified (S311). For example, the labeling is performed on the sections where the voice is determined to be laughing, angry, or sad.
反対に平静状態と判定する理由を、上記の笑い、怒り、悲しみのいずれにも該当せず、発話が平静であると感じられることとする。 On the contrary, the reason for determining the calm state does not correspond to any of the above laughter, anger, and sadness, and it is assumed that the utterance is felt calm.
ステップS311で上記のラベル付けを行ったら、ラベル付けされた音声データから、ステップS320での処理と同様に予め決めたパラメータの組の音声特徴量、例えば(f0”、p”、dp)の値を音声特徴量ベクトル値としてフレームごとに抽出する(S312)。ラベル付けによって得られる感情表出状態または平静状態の情報と、感情表出状態または平静状態とされたラベル区間(ラベル付けされた音声区間)について得られる音声特徴量ベクトルとを用いて、LBGアルゴリズムに従って符号帳を作成する(S313)。 When the labeling is performed in step S311, the speech feature amount of a predetermined parameter set, for example, (f 0 ″, p ″, d p ), is determined from the labeled speech data in the same manner as the processing in step S320. Is extracted for each frame as a speech feature vector value (S312). LBG algorithm using emotion expression state or calm state information obtained by labeling and speech feature vector obtained for label section (labeled speech section) in emotion expression state or calm state A codebook is created according to (S313).
LBGアルゴリズムは公知であり、その詳細は、例えば、非特許文献4を参照されたい。 The LBG algorithm is known and the details thereof are described in, for example, Non-Patent Document 4.
符号帳に記録されるエントリの数(以下、符号長サイズという)は、2m個(mは、1以上の整数)確保できると共に可変であり、エントリのインデックスとしてコードCが用いられ、インデックスにはコードCに対応したmビットの量子化ベクトル(C=00…0〜11…1)が用いられる。 The number of entries recorded in the codebook (hereinafter referred to as code length size) is 2 m (m is an integer equal to or greater than 1) and is variable, and the code C is used as an entry index. Is an m-bit quantization vector (C = 00... 0 to 11... 1) corresponding to the code C.
符号長には、この量子化ベクトル(コードC)に対応させて、フレーム長より十分長い所望の区間、例えば学習音声のラベル区間に得られる全音声特徴量ベクトルを使って上記LBGアルゴリズムにより決められた代表ベクトルを音声特徴量代表ベクトルとして記録しておく。その際、各音声特徴量を、例えば、その平均値と標準偏差で規格化してもよい。以下の説明では、符号帳の音声特徴量代表ベクトルも単に音声特徴量ベクトルと呼ぶ。 The code length is determined by the LBG algorithm using a total speech feature vector obtained in a desired section sufficiently longer than the frame length, for example, a label section of the learning speech, corresponding to the quantization vector (code C). The representative vector is recorded as a voice feature amount representative vector. In that case, you may normalize each audio | voice feature-value with the average value and standard deviation, for example. In the following description, the speech feature amount representative vector of the codebook is also simply referred to as a speech feature amount vector.
入力音声データから抽出した音声特徴量のパラメータのうち、感情表出判定処理に使用するパラメータの組は、上記の符号帳作成に用いたパラメータの組と同じものである。感情表出状態または平静状態の音声小段落を特定するために、音声小段落中のコードC(エントリのインデックス)に対応させて、各感情表出状態での出現確率と平静状態での出現確率をそれぞれ算出する。その際、感情を「笑い」、「怒り」、「悲しみ」などに分類しておき、それぞれの感情について上記の感情表出状態と平静状態の各出現確率を算出し、1つの符号帳に記録する。従って、符号帳には、上記のコードCと、音声特徴量ベクトルと、感情表出状態での出現確率と平静状態の出現確率とが対応して記録されている。これらは感情の種類毎に分類して別々の符号帳に記録してもよい。 Of the speech feature value parameters extracted from the input speech data, the set of parameters used for the emotion expression determination process is the same as the set of parameters used for the above codebook creation. In order to specify a voice sub-paragraph in the emotional expression state or the calm state, the appearance probability in each emotional expression state and the appearance probability in the calm state are associated with the code C (entry index) in the voice sub-paragraph. Are calculated respectively. At that time, the emotions are classified into “laughter”, “anger”, “sadness”, etc., and the appearance probabilities of the emotion expression state and the calm state are calculated for each emotion and recorded in one codebook. To do. Therefore, in the codebook, the code C, the voice feature vector, the appearance probability in the emotional expression state, and the appearance probability in the calm state are recorded correspondingly. These may be classified for each type of emotion and recorded in separate codebooks.
以下に、ステップS335で行う話者の感情表出についての尤度である感情表出尤度の算出、および、ステップS336で行う平静状態についての尤度である平静状態尤度の算出方法の一例について説明する。まず、学習音声中のラベル区間に含まれるフレームの数をnとし、それぞれのフレームから得られる音声特徴量の組に対応するコードが時系列でC1,C2,…,Cnとなっているものとする。 Below, an example of the calculation method of the emotion expression likelihood which is the likelihood about the speaker's emotion expression performed at step S335 and the method of calculating the calm state likelihood which is the likelihood about the calm state performed at step S336 will be described. Will be described. First, n is the number of frames included in the label section in the learning speech, and the codes corresponding to the speech feature amount sets obtained from the respective frames are C 1 , C 2 ,..., C n in time series. It shall be.
上記で説明したように、ラベル区間は、符号帳を作成する処理のステップS311で、ラベルが付けられた1つの音声区間である。このとき、ステップS335、S336で算出される、ラベル区間Aの感情表出尤度PAemoおよび平静状態尤度PAnrmは、それぞれ、以下の式(3)および式(4)に示すように表される。 As described above, the label section is one voice section labeled in step S311 of the process for creating the codebook. At this time, the emotional expression likelihood P Aemo and the calm state likelihood P Anrm in the label section A calculated in steps S335 and S336 are expressed as shown in the following expressions (3) and (4), respectively. Is done.
ここで、Pemo(Ci|C1…Ci−1)は、コード列C1,…,Ci−1の次にコードCiが感情表出状態となる条件付確率、Pnrm(Ci|C1…Ci−1)は、同様にコード列C1,…,Ci−1の次にコードCiが平静状態となる条件付確率である。また、Pemo(Ci)は、符号帳を作成する処理において、音声が感情表出状態とラベル付けされた部分に存在した音声特徴量ベクトルに対応するコードCiの総個数を数え、その総個数を、感情表出状態とラベル付けされた音声データの全コード数(=フレーム数)で割算した値である。一方、Pnrm(Ci)は、コードCiが平静状態とラベル付けされた部分に存在した個数を,平静状態とラベル付けされた音声データの全コード数で割算した値である。 Here, P emo (C i | C 1 ... C i−1 ) is a conditional probability that the code C i is in an emotional expression state next to the code string C 1 ,..., C i−1 , P nrm ( C i | C 1 ... C i -1) , as well as the code string C 1, ..., is the conditional probability that next to the code C i of C i-1 is the calm state. In addition, P emo (C i ) counts the total number of codes C i corresponding to the speech feature vector existing in the part in which the speech is labeled as the emotional expression state in the process of creating the codebook. It is a value obtained by dividing the total number by the total number of codes (= number of frames) of the voice data labeled as the emotional expression state. On the other hand, P nrm (C i ) is a value obtained by dividing the number of codes C i existing in the portion labeled as calm and divided by the total number of codes of the voice data labeled as calm.
以下では、各条件付確率をN−gram(N<i)モデルで近似し、感情表出状態尤度および平静状態尤度の計算を簡単にする。N−gramモデルは、ある時点でのある事象の出現がその直前のN−1個の事象の出現に依存すると近似するモデルである。ここで、N=3のときはtrigram、N=2のときはbigram、N=1のときはunigramとよばれる。このモデルでは、例えば、i番目のフレームにコードCiが出現する確率P(Ci)は、P(Ci)=P(Ci|Ci−N+1…Ci−1)とされる。 In the following, each conditional probability is approximated by an N-gram (N <i) model to simplify the calculation of the emotional expression state likelihood and the calm state likelihood. The N-gram model is a model that approximates that the appearance of a certain event at a certain time depends on the appearance of N−1 events immediately before that. Here, when N = 3, it is called trigram, when N = 2, it is called bigram, and when N = 1, it is called unigram. In this model, for example, the probability P (C i ) that the code C i appears in the i-th frame is P (C i ) = P (C i | C i−N + 1 ... C i−1 ).
上記の式(3)および式(4)中の各条件付出現確率Pemo(Ci|Ci…Ci−1)、Pnrm(Ci|Ci…Ci−1)にN−gramモデルを適用すると、各条件付出現確率は以下の式(5)および式(6)に示すように近似される。 Each conditional appearance probability P emo (C i | C i ... C i-1 ), P nrm (C i | C i ... C i-1 ) in the above formulas (3) and (4) When the gram model is applied, each conditional appearance probability is approximated as shown in the following equations (5) and (6).
Pemo(Ci|Ci…Ci−1)=Pemo(Ci|Ci-N+1…Ci−1) (5)
Pnrm(Ci|Ci…Ci−1)=Pnrm(Ci|Ci-N+1…Ci−1) (6)
P emo (C i | C i ... C i−1 ) = P emo (C i | C i−N + 1 ... C i−1 ) (5)
P nrm (C i | C i ... C i−1 ) = P nrm (C i | C i−N + 1 ... C i−1 ) (6)
上記の式(5)のPemo(Ci|Ci−N+1…Ci−1)および式(6)のPnrm(Ci|Ci−N+1…Ci−1)は、通常、符号帳から全て得られるようになっているが、一部のものについては、学習音声から得られないものもある。その場合は、他の条件付出現確率や単独出現確率から補間によって求めたものでもよい。例えば、低次(即ち、コード列が短い)の条件付出現確率と単独出現確率等とから高次(即ち、コード列が長い)の条件付出現確率を補間して求めることができる。 P emo (C i | C i−N + 1 ... C i−1 ) in the above equation (5) and P nrm (C i | C i−N + 1 ... C i−1 ) in the equation (6) are usually signed. All can be obtained from the book, but there are some that cannot be obtained from the learning speech. In that case, it may be obtained by interpolation from other conditional appearance probabilities or single appearance probabilities. For example, it is possible to interpolate a high-order (that is, code string is long) conditional appearance probability from a low-order (that is, code string is short) conditional appearance probability and a single appearance probability.
以下に、この補間の方法について説明する。以下では、上記のtrigram(N=3)、bigram(N=2)、および、unigram(N=1)を例にとり説明する。各出現確率は、trigram(N=3)では、Pemo(Ci|Ci−2Ci−1)、Pnrm(Ci|Ci−2Ci−1)、bigram(N=2)では、Pemo(Ci|Ci−1)、Pnrm(Ci|Ci−1)、そして、unigram(N=1)では、Pemo(Ci)、Pnrm(Ci)と表される。 The interpolation method will be described below. In the following, the above-described trigram (N = 3), bigram (N = 2), and unigram (N = 1) will be described as examples. Each occurrence probability is trigram (N = 3), P emo (C i | C i-2 C i-1 ), Pnrm (C i | C i-2 C i-1 ), bigram (N = 2) Is represented as P emo (C i | C i-1 ), Pnrm (C i | C i-1 ), and unigram (N = 1) as P emo (C i ) and Pnrm (C i ). The
この補間の方法では、Pemo(Ci|Ci−2Ci−1)およびPnrm(Ci|Ci−2Ci−1)を、上記の感情表出状態での3つの出現確率、または、平静状態での3つの出現確率を用い、以下の式(7)および式(8)に基づいて算出する。 In this interpolation method, P emo (C i | C i−2 C i−1 ) and P nrm (C i | C i−2 C i−1 ) are expressed as three occurrences in the emotional expression state described above. Using the probability or the three appearance probabilities in a calm state, the calculation is performed based on the following equations (7) and (8).
ここで、上記のλemo1、λemo2、λemo3は、trigramの感情表出状態とラベル付けされた学習データのフレーム数をnとし、時系列でコードC1,C2,…,Cnが得られたとき、以下のように表される。
Here, the above-described λ emo1, λ emo2, λ emo3 is the number of frames of the learning data expressed emotion state and labeling trigram is n, when the
ただし、λemo1、λemo2、λemo3を求めるときの音声データは、符号帳を作成するときの音声データ以外のものとする。符号帳を作成するときの音声データと同じ音声データを用いると、λemo1=1、λemo2=λemo3=0の自明な解となってしまうからである。同様に、λnrm1、λnrm2、λnrm3も求められる。 However, the audio data for obtaining λ emo1 , λ emo2 , and λ emo3 is assumed to be other than the audio data for creating the codebook. This is because if the same voice data as that used when creating the codebook is used, a trivial solution of [lambda] emo1 = 1 and [lambda] emo2 = [lambda] emo3 = 0 is obtained. Similarly, λ nrm1 , λ nrm2 , and λ nrm3 are also obtained.
次に、trigramを用い、ラベル区間Aのフレーム数がFAであり、得られたコードがC1,C2,…,CFAのとき、このラベル区間Aの感情表出状態尤度PAemoおよび平静状態尤度PAnrmは、それぞれ、以下の式(9)および式(10)に示すように表される。 Next, using trigram, when the number of frames in the label section A is F A and the obtained codes are C 1 , C 2 ,..., C FA , the emotional expression state likelihood P Aemo of this label section A The calm state likelihood P Anrm is expressed as shown in the following equations (9) and (10), respectively.
PAemo=Pemo(C3|C1C2)…Pemo(CFA|CFA−2CFA−1) (9)
PAnrm=Pnrm(C3|C1C2)…Pnrm(CFA|CFA−2CFA−1) (10)
P Aemo = P emo (C 3 | C 1 C 2 )... P emo (C FA | C FA-2 C FA-1 ) (9)
P Anrm = P nrm (C 3 | C 1 C 2 )... P nrm (C FA | C FA-2 C FA-1 ) (10)
本発明の実施の形態では、上記のように補間と、感情表出状態尤度PAemoおよび平静状態尤度PAnrmの算出とができるように、上記の例では、trigram(N=3)、bigram(N=2)、および、unigram(N=1)を各コードについて算出しておき、符号帳に格納しておくものとする。つまり、符号帳には、各コードに対応して、音声特徴量ベクトルと、その感情表出状態での出現確率と、平静状態での出現確率との組が格納される。 In the embodiment of the present invention, in the above example, trigram (N = 3), so that interpolation and calculation of emotion expression state likelihood P Aemo and calm state likelihood P Anrm can be performed as described above. bigram (N = 2) and unigram (N = 1) are calculated for each code and stored in the codebook. That is, the codebook stores a set of the speech feature vector, the appearance probability in the emotional expression state, and the appearance probability in the calm state corresponding to each code.
その感情表出状態での出現確率としては、各コードが過去のフレームで出現したコードと無関係に感情表出状態で出現する確率(単独出現確率)、直前の連続した所定数のフレームの取り得るコードの列の次にそのコードが感情表出状態で出現する条件付確率、またはそれら両方を使用する。同様に、平静状態での出現確率、そのコードが過去のフレームで出現したコードと無関係に平静状態で出現する単独出現確率、直前の連続した所定数のフレームの取り得るコードの列の次にそのコードが平静状態で出現する条件付出現確率、またはそれら両方を使用する。 Appearance probabilities in the emotional expression state include the probability that each code appears in the emotional expression state independently of the code that appeared in the past frame (single appearance probability), and can take the predetermined number of consecutive frames immediately before. Next to the sequence of codes, use the conditional probability that the code appears in the emotional expression state, or both. Similarly, the appearance probability in a calm state, the single appearance probability that the code appears in a calm state regardless of the code that appeared in the past frame, the sequence of codes that can be taken by the immediately preceding predetermined number of frames, Use the conditional appearance probability that the code appears in a calm state, or both.
図9に、符号帳に記録される内容の一例を示す。以下の各符号帳の作成において、学習音声から使用する平静状態のフレーム総数と、対応する感情(例えば笑い)の表出状態のフレーム総数は等しく選ばれている。この例では学習音声中の笑いのラベル区間と平静のラベル区間を分析して作成した符号帳CB−1と、怒りのラベル区間と平静のラベル区間を分析して作成した符号帳CB−2と、悲しみのラベル区間と平静のラベル区間を分析して作成した符号帳CB−3とを示している。図9に示すように、符号帳には各コードC1,C2,…毎に、その音声特徴量ベクトルと、その単独出現確率が、感情表出状態および平静状態について格納され、条件付出現確率が感情表出状態および平静状態についてそれぞれ組として格納されている。ここで、コードC1,C2,C3,…は、符号帳の各音声特徴量ベクトルに対応したコード(インデックス)を表し、それぞれmビットの値“00…00”、“00…01”、“00…10”、…である。 FIG. 9 shows an example of contents recorded in the code book. In the creation of each of the following codebooks, the total number of frames in the calm state used from the learning speech and the total number of frames in the expression state of the corresponding emotion (for example, laughter) are selected equally. In this example, a code book CB-1 created by analyzing the laughing label section and the calm label section in the learning speech, and a code book CB-2 created by analyzing the anger label section and the calm label section. 2 shows a codebook CB-3 created by analyzing the sad label section and the calm label section. As shown in FIG. 9, in the codebook, for each code C 1 , C 2 ,..., The speech feature vector and its single appearance probability are stored for the emotional expression state and the calm state, and the conditional appearance Probabilities are stored in pairs for the emotional expression state and the calm state. Here, the codes C 1 , C 2 , C 3 ,... Represent codes (indexes) corresponding to the speech feature vectors of the codebook, and m-bit values “00... 00” and “00... 01”, respectively. , “00... 10”,.
符号帳におけるh番目のコードをChで表し、例えばC1は第1番目のコードを表すものとする。以下では、この発明に好適な音声特徴量の組の例として、パラメータf0”、p”、dpを使用し、符号帳サイズ(音声特徴量ベクトルの数)が26の場合の感情表出状態および平静状態での、条件付出現確率をtrigramで近似した例について説明する。 It represents a h-th code in the code book in C h, for example C 1 denote the 1st code. In the following, an emotion table when parameters f 0 ″, p ″, d p are used as an example of a set of speech feature values suitable for the present invention and the codebook size (number of speech feature value vectors) is 26. An example in which the conditional appearance probability in the outgoing state and the calm state is approximated by trigram will be described.
図10は、音声データの処理を説明するための模式図である。時刻tから始まる音声小段落のうち、第1フレームから第4フレームまでを符号i〜i+3を付して示している。フレーム長およびフレームシフトを、上記のように、それぞれ、100ms、50msとした。ここでは、フレーム番号i(時刻t〜t+100)のフレームについてコードC1が、フレーム番号i+1(時刻t+50〜t+150)のフレームについてコードC2が、フレーム番号i+2(時刻t+100〜t+200)のフレームについてコードC3が、そして、フレーム番号i+1(時刻t+50〜t+150)のフレームについてコードC4が得られているものとする。すなわち、フレーム順にコードがC1、C2、C3、C4であるとする。 FIG. 10 is a schematic diagram for explaining audio data processing. Of the audio sub-paragraphs starting from time t, the first to fourth frames are denoted by reference signs i to i + 3. The frame length and frame shift were set to 100 ms and 50 ms, respectively, as described above. Here, code code C 1 for the frame of the frame number i (time t~t + 100) is, for a frame of the frame number i + 1 (time t + 50~t + 150) code C 2 is the frame of the frame number i + 2 (time t + 100~t + 200) C 3 is then assumed that the code C 4 is obtained for the frame of the frame number i + 1 (time t + 50~t + 150). That is, it is assumed that the codes are C 1 , C 2 , C 3 , and C 4 in the frame order.
この場合、フレーム番号i+2以上のフレームでは、trigramが計算できる。いま、音声小段落Sの感情表出状態尤度をPSemo、平静状態尤度をPSnrmとすると、第4フレームまでの各尤度はそれぞれ、以下の式(11)および式(12)によって与えられる。 In this case, the trigram can be calculated in the frame having the frame number i + 2 or more. Assuming that the emotion expression state likelihood of the speech sub-paragraph S is P Semo and the calm state likelihood is P Snrm , the respective likelihoods up to the fourth frame are expressed by the following equations (11) and (12), respectively. Given.
PSemo=Pemo(C3|C1C2)Pemo(C4|C2C3) (11)
PSnrm=Pnrm(C3|C1C2)Pnrm(C4|C2C3) (12)
P Semo = P emo (C 3 | C 1 C 2 ) P emo (C 4 | C 2 C 3 ) (11)
P Snrm = P nrm (C 3 | C 1 C 2 ) P nrm (C 4 | C 2 C 3 ) (12)
この例では、符号帳からコードC3、C4の感情表出状態および平静状態の各単独出現確率を求め、コードC2の次にコードC3が感情表出状態および平静状態で出現する条件付確率を求め、さらに、コードC3が連続するコードC1C2の次に感情表出状態および平静状態で出現し、コードC4が連続するコードC2C3の次に感情表出状態および平静状態で出現する条件付確率を求めると以下のようになる。 In this example, the individual appearance probabilities of the emotion expression state and the calm state of the codes C 3 and C 4 are obtained from the code book, and the condition that the code C 3 appears in the emotion expression state and the calm state next to the code C 2 seeking with probability, further next emotional expression status code C 2 C 3 which appeared in emotional expression state and undisturbed state to the next code C 1 C 2 code C 3 is continuous, the code C 4 are continuous And the conditional probability of appearing in a calm state is as follows.
Pemo(C3|C1C2)=λemo1Pemo(C3|C1C2)+λemo2Pemo(C3|C2)+λemo3Pemo(C3) (13)
Pemo(C4|C2C3)=λemo1Pemo(C4|C2C3)+λemo2Pemo(C4|C3)+λemo3Pemo(C4) (14)
Pnrm(C3|C1C2)=λnrm1Pnrm(C3|C1C2)+λnrm2Pnrm(C3|C2)+λnrm3Pemo(C3) (15)
Pnrm(C4|C2C3)=λnrm1Pnrm(C4|C2C3)+λnrm2Pnrm(C4|C3)+λnrm3Pnrm(C4) (16)
P emo (C 3 | C 1 C 2 ) = λ emo1 P emo (C 3 | C 1 C 2 ) + λ emo2 P emo (C 3 | C 2 ) + λ emo3 P emo (C 3 ) (13)
P emo (C 4 | C 2 C 3 ) = λ emo1 P emo (C 4 | C 2 C 3 ) + λ emo2 P emo (C 4 | C 3 ) + λ emo3 P emo (C 4 ) (14)
P nrm (C 3 | C 1 C 2 ) = λ nrm1 P nrm (C 3 | C 1 C 2 ) + λ nrm2 P nrm (C 3 | C 2 ) + λ nrm3 P emo (C 3 ) (15)
P nrm (C 4 | C 2 C 3 ) = λ nrm1 P nrm (C 4 | C 2 C 3 ) + λ nrm2 P nrm (C 4 | C 3 ) + λ nrm3 P nrm (C 4 ) (16)
上記の式(13)〜(16)を用いることによって、式(11)と(12)とで示される第3フレームまでの感情表出状態尤度PSemoと平静状態尤度をPSnrmが求まる。ここで、条件付出願確率Pemo(C3|C1C2)およびPnrm(C3|C1C2)は、フレーム番号i+2以降で計算できる。 By using the above equations (13) to (16), the emotion expression state likelihood P Semo and the calm state likelihood up to the third frame represented by equations (11) and (12) are obtained as P Snrm. . Here, the conditional application probabilities P emo (C 3 | C 1 C 2 ) and P nrm (C 3 | C 1 C 2 ) can be calculated from frame number i + 2.
以上の説明は、第4フレームi+3までの計算についてであったが、フレーム数FSの音声小段落Sについても同様に適用できる。例えば、フレーム数FSの音声小段落Sのそれぞれのフレームから得られたコードがC1、C2、…、CFAのとき、この音声小段落Sが感情表出状態になる尤度PAemoと平静状態になる尤度PAnrmを以下の式(17)および式(18)に示すように計算する。 The above explanation is about the calculation up to the fourth frame i + 3, but the same applies to the audio sub-paragraph S having the number of frames F S. For example, when the code obtained from each frame of the audio sub-paragraph S with the number of frames F S is C 1 , C 2 ,..., C FA , the likelihood P Aemo that the audio sub-paragraph S is in the emotional expression state Likelihood P Anrm is calculated as shown in the following equations (17) and (18).
上記のように算出した尤度が、PAemo>PAnrm、であれば、その音声小段落Sの発話状態は、感情表出状態であると判定する。逆に、PAemo≦PAnrmであれば、実質的に平静状態と判定されることになる。同様に、PAemo/PAnrm>1、であることを感情表出状態と判定するための条件とするのでもよい。また、正の重み係数Wに対しWLPAemo/PAnrm、を満足することを条件とすることにより、あるいは
RE=(logPAemo−logPAnrm)/L>W (19)
を満足することを条件とすることにより、小段落のフレーム数Lに応じて重み付けの影響を増減するようにしてもよい。ここでLは例えばL=FA−2としてもよい。
If the likelihood calculated as described above is P Aemo > P Anrm , it is determined that the utterance state of the audio sub-paragraph S is an emotional expression state. On the other hand , if P Aemo ≦ P Anrm , the state is substantially determined to be calm. Similarly, P Aemo / P Anrm > 1 may be set as a condition for determining an emotional expression state. Also, on condition that W L P Aemo / P Anrm is satisfied with respect to the positive weighting factor W, or R E = (log P Aemo −log P Anrm ) / L> W (19)
If the condition is satisfied, the influence of weighting may be increased or decreased according to the number of frames L of the small paragraph. Here, L may be, for example, L = FA−2.
「笑い」、「怒り」、「悲しみ」の各感情表出状態判定方法においても、用いる音声特徴量については前述の方法の場合と同様であり、音声特徴量の組としては例えばパラメータ基本周波数、パワー、動的特徴量の時間変化特性の少なくとも1つ以上及び/又はこれらのフレーム間差分の少なくとも1つ以上を含むことが好ましい。出現確率も単独出現確率又はこれと条件付出現確率の組合せでもよく、更にこの組合せを用いる場合は、条件付出現確率の計算に対し線形補間法を用いることが好ましい。またこの感情表出状態判定方法においても、音声小段落又はこれよりも長い適当な区間ごとに、あるいは全体の音声信号の各音声特徴量の平均値で各音声特徴量を規格化し、あるいは標準化してフレームごとの音声特徴量の組を形成し、ベクトル量子化以降の処理を行うことが好ましい。 In each emotion expression state determination method of “laughter”, “anger”, and “sadness”, the voice feature amount used is the same as in the above-described method. It is preferable to include at least one or more of the time-varying characteristics of power and dynamic features and / or at least one or more of these inter-frame differences. The appearance probability may be a single appearance probability or a combination of this and a conditional appearance probability, and when this combination is used, it is preferable to use a linear interpolation method for calculating the conditional appearance probability. Also in this emotion expression state determination method, each voice feature is standardized or standardized for each sub-speech or longer appropriate section, or by the average value of each voice feature of the entire voice signal. Thus, it is preferable to form a set of audio feature values for each frame and perform processing after vector quantization.
感情表出状態判定方法としては、例えば、音声小段落に対する「笑い」、「怒り」、「悲しみ」についての尤度PAlau、PAang、PAsadを式(17)と同様に次式 As the emotion expression state determination method, for example, the likelihoods P Aau , P Aang , and P Asad for “laughter”, “anger”, and “sadness” with respect to the audio sub-paragraph are expressed by the following equations as in equation (17):
により計算し、これにより例えば「笑い」であるか、「平静」であるかを判定する場合には、前述と同様に笑いの表出尤度PAlauと生成状態尤度PAnrmから条件
(a1)PAlau>PAnrm、
(b1)WLPAlau>PAnrm、
(c1)RL=(logPAlau−logPAnrm)/L>W、
のいずれか予め決めた条件を使って、その条件を満足していれば笑いの表出状態であると判定する。「怒り」であるか「平静」であるかの判定は式(21)を使って尤度PAangを計算し、
In this case, for example, when it is determined whether it is “laughter” or “calm”, the condition (a1) is calculated from the laughing expression likelihood P Alau and the generation state likelihood P Anrm as described above. ) P Alau > P Anrm ,
( B1 ) W L P Aau > P Anrm ,
( C1 ) R L = (logP Aau −logP Anrm ) / L> W,
Any one of the above conditions is used, and if the condition is satisfied, it is determined that the state of laughter is expressed. To determine whether it is “anger” or “calm”, the likelihood P Aang is calculated using equation (21),
(a2)PAang>PAnrm、
(b2)WLPAang>PAnrm、
(c2)RA=(logPAang−logPAnrm)/L>W、
のいずれか予め決めた条件を使って、その条件を満足していれば怒りの表出状態と判定する。同様に、「悲しみ」であるか「平静」であるかの判定は式(22)を使って尤度PAsadを計算し、
(A2) P Aang > P Anrm ,
(B2) W L P Aang > P Anrm ,
(C2) R A = (log P Aang −log P Anrm ) / L> W,
Any one of the above conditions is used, and if the condition is satisfied, it is determined that the state of anger is expressed. Similarly, to determine whether it is “sadness” or “calm”, the likelihood P Asad is calculated using equation (22),
(a3)PAsad>PAnrm、
(b3)WLPAsad>PAnrm、
(c3)RS=(logPAsad−logPAnrm)/L>W、
のいずれか予め決めた条件を使って、その条件を満足するか判定すればよい。判定条件はこれ以外にもいろいろなものが容易に考えられる。
( A3 ) P Asad > P Anrm ,
( B3 ) W L P Asad > P Anrm ,
(C3) R S = (logP Asad −logP Anrm ) / L> W,
Any one of the predetermined conditions may be used to determine whether the condition is satisfied. Various other judgment conditions can be easily considered.
感情表出が「笑い」であるか、「怒り」であるか、「悲しみ」であるかを判定する場合は、例えば上記条件式(c1)、(c2)、(c3)による笑い尤度比RL、怒り尤度比RA、悲しみ尤度比RSを計算し、これらの尤度比を比較することにより決めることができる。 When determining whether the expression of emotion is “laughter”, “anger”, or “sadness”, for example, the ratio of likelihood of laughter according to the above conditional expressions (c1), (c2), and (c3) R L , anger likelihood ratio R A , and sadness likelihood ratio R S can be calculated and determined by comparing these likelihood ratios.
この発明の原理によれば、前述のように、音声特徴量として基本周波数、パワー、動的特徴量の時間変化特性の少なくともいずれか1つ以上及び/又はこれらのフレーム間差分の少なくともいずれか1つ以上を使用すればよいが、これらの音声特徴量のうち、動的特徴量の時間変化特性を含むことが好ましい。更に、音声特徴量として少なくとも基本周波数、パワー、動的特徴量の時間変化特性又はそれらのフレーム間差分を使用することにより感情検出の精度を高めることができる。音声特徴量として少なくとも特に基本周波数、パワー、動的特徴量の時間変化特性は実用的な特徴量として好ましい。 According to the principle of the present invention, as described above, at least one of the fundamental frequency, the power, and the time change characteristic of the dynamic feature quantity and / or at least one of the inter-frame differences is used as the voice feature quantity. It is sufficient to use at least two, but it is preferable to include a time change characteristic of the dynamic feature amount among these voice feature amounts. Furthermore, the accuracy of emotion detection can be improved by using at least the fundamental frequency, the power, the time change characteristic of the dynamic feature quantity, or the difference between frames as the voice feature quantity. At least the fundamental frequency, power, and time change characteristics of the dynamic feature amount are particularly preferable as practical feature amounts.
以上、この発明による感情表出検出方法で使用される符号帳の作成と、その符号帳を使った感情表出の検出について詳細に説明した。以下には、この発明を使って所望の感情表出、ここでは笑い、怒り、悲しみの所望の音声区間を抽出する実施形態を示す。 The creation of the code book used in the emotion expression detection method according to the present invention and the detection of the emotion expression using the code book have been described above in detail. In the following, an embodiment is described in which the present invention is used to extract a desired voice expression of desired emotion expression, here, laughter, anger, and sadness.
第1実施形態
この実施形態は3つの感情、「笑い」、「怒り」、「悲しみ」を区別せず、何れの感情表出も「感情」として検出する場合である。
First Embodiment In this embodiment, three emotions, “laughter”, “anger”, and “sadness” are not distinguished, and any emotional expression is detected as “emotion”.
学習音声中の「笑い」の表出区間、「怒り」の表出区間、「悲しみ」の表出区間を区別せず、全ての「感情」のラベリングをし、その他の区間を全て「平静」のラベリングをして図11に示すように1つの符号帳を作成しておく。 Labels all “feelings” without distinguishing between “Laughter”, “Anger”, and “Sad” in the learning speech, and all other intervals are “Silence” As shown in FIG. 11, one codebook is created.
図12は第1実施形態による感情表出区間の検出処理手順を示す。
ステップS1:入力コンテンツの音声データから所定の判定区間Sを取り込む。判定区間は前述の音声小段落であってもよいし、あるいは予め決めた少なくとも1フレームを含む一定長の音声区間であってもよい。
FIG. 12 shows an emotion expression section detection processing procedure according to the first embodiment.
Step S1: A predetermined determination section S is fetched from the audio data of the input content. The determination section may be the above-described audio sub-paragraph, or may be a fixed-length audio section including at least one predetermined frame.
ステップS2:取り込んだ判定区間を分析してフレーム毎の音声特徴量ベクトルを求め、図11の符号帳を参照して例えば式(17)、(18)又は式(19)、(20)により平静状態尤度PAnrmと感情表出状態尤度PAemoを計算する。
ステップS3:残りの判定区間があるか判定し、あればステップS1に戻り、次の判定区間について同様の処理を行う。
Step S2: Analyzing the fetched determination section to obtain a speech feature vector for each frame, and referring to the code book of FIG. 11, for example, calmly by the equations (17), (18) or (19), (20) The state likelihood P Anrm and the emotion expression state likelihood P Aemo are calculated.
Step S3: It is determined whether there is a remaining determination section. If there is, the process returns to Step S1, and the same process is performed for the next determination section.
ステップS4:全ての判定区間について感情表出状態尤度PAemoと平静状態尤度PAnrmが例えば図13に概念的に示すように求まると、WLPAemo>PAnrmを満たす区間S’を検出し、その各検出区間S’の位置(例えば検出区間の開始及び終了フレーム番号、又はコンテンツの最初から検出区間の開始時刻及び終了時刻)を記憶手段に記憶する。Wは予め決めた正の定数であり、Lは各区間S毎のフレーム数である。尚、図13には、WLPAemo,PAnrmを連続曲線で示しているが、実際には判定区間Sごとの不連続な曲線である。 Step S4: When the emotion expression state likelihood P Aemo and the calm state likelihood P Anrm are obtained as conceptually shown in FIG. 13 for all the determination sections, the section S ′ satisfying W L P Aemo > P Anrm is determined. The position of each detection section S ′ (for example, the start and end frame numbers of the detection section, or the start time and end time of the detection section from the beginning of the content) is stored in the storage means. W is a positive constant determined in advance, and L is the number of frames for each section S. Although W L P Aemo and P Anrm are shown as continuous curves in FIG. 13, they are actually discontinuous curves for each determination section S.
ステップS5:ステップS4で検出した区間S’の位置に対応する区間をコンテンツから感情表出区間として抽出する。 Step S5: A section corresponding to the position of the section S ′ detected in step S4 is extracted from the content as an emotion expression section.
第2実施形態
この実施形態は、上記第1実施形態において検出した感情表出区間S’を、図12のステップS5において更に感情表出が「笑い」、「怒り」、「悲しみ」のどれであるかを判定する。この第2実施形態は第1実施形態で使用する図11の感情表出検出用の符号帳に加えて次の符号帳を予め作成しておく。
Second Embodiment In this embodiment, the emotion expression section S ′ detected in the first embodiment is further selected from “laughter”, “anger”, and “sadness” in step S5 of FIG. Determine if there is. In the second embodiment, the following code book is created in advance in addition to the emotion expression detection code book of FIG. 11 used in the first embodiment.
上記「感情」のラベルがつけられた学習音声区間中の笑いの表出区間に「笑い」をラベリングし、怒りの表出区間に「怒り」をラベリングし、悲しみの表出区間に「悲しみ」をラベリングし、これら「笑い」、「怒り」、「悲しみ」がラベリングされた音声区間に基づいて図14に示す符号帳を作成する。 Label “Laughter” in the laughter expression section in the learning voice section labeled “Emotion”, label “Anger” in the anger expression section, and “Sadness” in the grief expression section. 14 is created on the basis of the speech sections labeled “laughter”, “anger”, and “sadness”.
図15は、第2実施形態による「笑い」、「怒り」、「悲しみ」の感情表出区間を検出する処理手順を示す。ステップS1〜S4は図11の符号帳を使って図12に示した第1実施形態による感情表出区間の検出処理と同じであり、これにより、「笑い」、「怒り」、「悲しみ」のいずれかを含む感情表出区間S’が検出される。以降のステップS5〜S8により、感情表出区間S’の「笑い」、「怒り」、「悲しみ」のどれであるかを判別する。 FIG. 15 shows a processing procedure for detecting emotional expression intervals of “laughter”, “anger”, and “sadness” according to the second embodiment. Steps S1 to S4 are the same as the emotion expression section detection processing according to the first embodiment shown in FIG. 12 using the code book of FIG. 11, and thereby, “laughter”, “anger”, “sadness” An emotion expression section S ′ including any of them is detected. In subsequent steps S5 to S8, it is determined whether the emotion expression section S 'is "laughter", "anger", or "sadness".
ステップS5:ステップS4で検出された感情表出区間S’内の一連の音声特徴量ベクトルを得る。これはステップS1〜S3において全音声区間についての音声特徴量ベクトルが既に求められているので、その中から区間S’に対応する一連の音声特徴量ベクトルを取り出せばよい。 Step S5: A series of speech feature quantity vectors in the emotion expression section S 'detected in Step S4 is obtained. In this case, since speech feature vectors for all speech sections have already been obtained in steps S1 to S3, a series of speech feature vectors corresponding to the section S 'may be extracted from the speech feature vectors.
ステップS6:図14の符号帳を参照して検出感情表出区間S’の笑い表出尤度PAlau、怒りの表出尤度PAang、悲しみ表出尤度PAsadをそれぞれ計算する。
ステップS7:これら尤度PAlau、PAang、PAsadのうち、最大の尤度を判定し、その最大尤度の感情を表すマーク、例えば笑いはLau、怒りはAng、悲しみはSadのマークをその検出区間S’の位置に対応して記憶する。
Step S6: Referring to the code book of FIG. 14, the laughter expression likelihood P Aauu , the angry expression likelihood P Aang , and the sadness expression likelihood P Asad of the detected emotion expression section S ′ are calculated.
Step S7: Among these likelihoods P Aau , P Aang , and P Asad , the maximum likelihood is determined, and a mark indicating the emotion of the maximum likelihood, for example, Lau for laughter, Ang for anger, and Sad for sadness Stored in correspondence with the position of the detection section S ′.
ステップS8:未処理の感情表出検出区間S’が残っているか判定し、残っていればステップS5に戻り、次の感情表出検出区間S’について同様の処理を実行する。
ステップS9:全ての感情表出検出区間S’について最大尤度の判定が終了していれば、全ての感情表出検出区間S’の中からマークLau、Ang、Sadのうち、例えば利用者により指定された感情のマークの検出区間に対応する区間をコンテンツから抽出する。
Step S8: It is determined whether or not an unprocessed emotion expression detection section S ′ remains, and if it remains, the process returns to step S5, and the same process is executed for the next emotion expression detection section S ′.
Step S9: If the determination of the maximum likelihood has been completed for all the emotional expression detection sections S ′, the mark Lau, Ang, Sad among all the emotional expression detection sections S ′, for example, by the user A section corresponding to the detection section of the designated emotion mark is extracted from the content.
このように、第2実施形態に拠れば、利用者が1種類又は複数種類の感情表出を指定すれば、その指定された感情表出に対応する部分をコンテンツから抽出することができる。 As described above, according to the second embodiment, if the user designates one or more types of emotional expressions, the part corresponding to the designated emotional expression can be extracted from the content.
第3実施形態
上述の第2実施形態では音声データからまず感情表出区間を検出し、次に各感情表出区間が「笑い」、「怒り」、「悲しみ」のいずれかであるかを判定する場合を示したが、この第3実施形態では、音声データから直接「笑い」、「怒り」、「悲しみ」の任意の感情表出を検出する。符号帳は図14に示したものを使用する。図16は第3実施形態による感情表出区間の検出処理手順を示す。
Third Embodiment In the second embodiment described above, an emotion expression section is first detected from voice data, and then it is determined whether each emotion expression section is “laughter”, “anger”, or “sadness”. In this third embodiment, any emotional expression of “laughter”, “anger”, and “sadness” is directly detected from the audio data. The code book shown in FIG. 14 is used. FIG. 16 shows an emotion expression section detection processing procedure according to the third embodiment.
ステップS1:判定区間Sを入力音声コンテンツから取り込む。
ステップS2:判定区間Sの一連のフレーム音声特徴量ベクトルを求め、図14の符号帳を参照して笑い表出尤度PAlau、怒り表出尤度PAang、悲しみ表出尤度PAsadをそれぞれ計算する。
Step S1: The determination section S is taken from the input audio content.
Step S2: A series of frame speech feature amount vectors in the determination section S are obtained, and the laughing expression likelihood P Alau , the anger expression likelihood P Aang , and the sadness expression likelihood P Asad are obtained with reference to the code book of FIG. Calculate each.
ステップS3:これら尤度PAlau、PAang、PAsadのうち、最大の尤度を判定し、その最大尤度の感情を表すマーク例えば笑いはLau、怒りはAng、悲しみはSadのマークをその判定区間Sの位置に対応して記憶する。 Step S3: Among these likelihoods P Aau , P Aang , P Asad , the maximum likelihood is determined, and a mark representing the emotion of the maximum likelihood, for example, Lau for laughter, Ang for anger, and Sad for sadness Stored in correspondence with the position of the determination section S.
ステップS4:未処理の判定区間Sが残っているか判定し、残っていればステップS1に戻り、次の判定区間Sについて同様の処理を実行する。
ステップS5:全ての判定区間Sについて最大尤度の判定が終了していれば、全ての判定区間Sの中からマークLau、Ang、Sadのうち、例えば利用者により指定されたマークの検出区間に対応する区間をコンテンツから抽出する。
Step S4: It is determined whether or not an unprocessed determination section S remains. If it remains, the process returns to step S1, and the same process is performed for the next determination section S.
Step S5: If the determination of the maximum likelihood has been completed for all the determination sections S, among the determination sections S, for example, the mark detection section designated by the user among the marks Lau, Ang, and Sad. The corresponding section is extracted from the content.
このように、第3実施形態によっても、利用者が1種類又は複数種類の感情表出を指定すれば、その指定された感情表出に対応する部分をコンテンツから抽出することができる。この第3実施形態の場合は、第1実施形態における符号帳は使用しないので、平静状態尤度を使用しないことになる。即ち、この発明による感情表出の検出には、平静状態尤度の計算を必ずしも必要としない。 As described above, according to the third embodiment, if the user designates one or more types of emotion expressions, a portion corresponding to the designated emotion expressions can be extracted from the content. In the case of the third embodiment, since the codebook in the first embodiment is not used, the calm state likelihood is not used. That is, the detection of the emotional expression according to the present invention does not necessarily require the calculation of the calm state likelihood.
第4実施形態
この実施形態も、例えば「笑い」、「怒り」、「悲しみ」の3種類の感情表出の任意のもの(1つ又は複数)を抽出することを可能にするものであり、予め次の3つの符号帳を作成しておく(図9の例と同様である)。
Fourth Embodiment This embodiment also makes it possible to extract any one (one or more) of three types of emotion expressions, such as “laughter”, “anger”, and “sadness”, for example, The following three code books are created in advance (similar to the example of FIG. 9).
(1)学習音声中の全ての笑いの表出区間に「笑い」のラベリングをし、全ての平静状態区間に「平静」のラベリングをして笑い検出用符号帳を作成する。
(2)学習音声中の全ての怒りの表出区間に「怒り」のラベリングをし、全ての平静状態区間に「平静」のラベリングをして怒り検出用符号帳を作成する。
(3)学習音声中の全ての悲しみの表出区間に「悲しみ」のラベリングをし、全ての平静状態区間に「平静」のラベリングをして悲しみ検出用符号帳を作成する。
(1) “Laughter” is labeled in all the laughing expression sections in the learning voice, and “Silence” is labeled in all the calm state sections to create a laughter detection codebook.
(2) An anger detection codebook is created by labeling “anger” in all the angry expression sections in the learning voice and labeling “seduce” in all the calm state sections.
(3) A sadness detection codebook is created by labeling “sadness” in all the sadness expression intervals in the learning speech and labeling “seduce” in all the calm state intervals.
図17は第4実施形態の処理手順を示す。この実施形態においても、3種類の感情表出の任意の1つ又は複数を検出できる。
ステップS1:コンテンツの音声データから判定区間Sを取り込む。判定区間Sは前述のように音声小段落でもよいし、予め決めた一定長の区間でもよい。
FIG. 17 shows a processing procedure of the fourth embodiment. Also in this embodiment, any one or more of the three types of emotion expressions can be detected.
Step S1: The determination section S is fetched from the audio data of the content. The determination section S may be an audio sub-paragraph as described above, or may be a predetermined length section.
ステップS2:判定区間Sを分析してフレーム毎の音声特徴量を求め、上記笑い検出用符号帳を参照して笑い表出尤度PAlauとそれに対する平静状態尤度PAnrmを求め、笑い尤度比
RL=(logPAlau−logPAnrm)/L
を計算する。上記怒り検出用符号帳を参照して怒り表出尤度PAangとそれに対する平静状態尤度PAnrmを求め、怒り尤度比
RA=(logPAang−logPAnrm)/L
を計算する。更に、上記悲しみ検出用符号帳を参照して悲しみ表出尤度PAsadとそれに対する平常状態尤度PAnrmを求め、悲しみ尤度比
RS=(logPAsad−logPAnrm)/L
を計算する。計算したこれら尤度比RL,RA,RSを記憶する。
Step S2: Analyzing the determination section S to obtain a speech feature amount for each frame, referring to the laughter detection codebook to obtain a laughing expression likelihood P Alau and a calm state likelihood P Anrm corresponding thereto , and laughing likelihood degrees ratio R L = (logP Alau -logP Anrm ) / L
Calculate The anger expression likelihood P Aang and the calm state likelihood PAAnrm are obtained with reference to the anger detection codebook, and the anger likelihood ratio R A = (log P Aang −log P Anrm ) / L
Calculate Moreover, it obtains a sadness exposed likelihood P Asad and normal state likelihood PAnrm thereto with reference to the codebook for the sorrow detection, sadness likelihood ratio R S = (logP Asad -logP Anrm ) / L
Calculate The calculated likelihood ratios R L , R A and R S are stored.
ステップS3:残りの判定区間Sがあるか判定し、あればステップS1に戻り次の判定区間Sについて同様の処理を実行する。音声データの全区間について終了していれば、利用者により指定された「笑い」、「怒り」、「悲しみ」の任意の1つ又は複数について次のステップS4,S5,S6のうち、指定された感情に対応するものを実行する。 Step S3: It is determined whether there is a remaining determination section S. If there is, the process returns to Step S1 and the same process is executed for the next determination section S. If all the sections of the audio data have been completed, any one or more of “laughter”, “anger”, and “sadness” designated by the user is designated among the following steps S4, S5, and S6. Execute what corresponds to the emotion.
ステップS4,S5,S6:ステップS1,S2,S3の処理により例えば図18に概念的に示すように、縦軸を尤度比Rとして笑い表出尤度比RL、怒り表出尤度比RA、悲しみ表出尤度比RSの曲線がそれぞれ得られており、これらと予め決めた閾値Rthを比較し、Rthより大となる区間を検出し、それらの位置と感情マークLau,Ang,Sadを対応させて記憶する。 Steps S4, S5, and S6: As shown conceptually in FIG. 18 by the processing of steps S1, S2, and S3, for example, the ordinate represents the likelihood ratio R, the laughing expression likelihood ratio R L , and the anger expression likelihood ratio. Curves of R A and sadness expression likelihood ratio R S are respectively obtained, and these are compared with a predetermined threshold value Rth to detect sections larger than Rth, and their positions and emotion marks Lau, Ang , Sad are stored in correspondence.
ステップS7:「笑い」、「怒り」、「悲しみ」のうち、利用者により指定されたものの検出区間をコンテンツから抽出する。
このように、この第3実施形態においても「笑い」、「怒り」、「悲しみ」の任意の感情表出を選択してコンテンツから抽出することが可能である。
Step S7: Among the “laughter”, “anger”, and “sadness”, the detection section of the one designated by the user is extracted from the content.
As described above, also in the third embodiment, it is possible to select any emotion expression of “laughter”, “anger”, and “sadness” and extract it from the content.
第5実施形態
この実施形態は第4実施形態の変形例である。第4実施形態では感情表出区間を検出するために各感情表出状態尤度比を一定閾値Rthと比較したが、ここでは、各感情表出状態尤度を共通の平静状態尤度と比較して各感情表出区間を検出する。そのために、学習音声中の笑い表出区間、怒り表出区間、悲しみ表出区間にそれぞれ「笑い」、「怒り」、「悲しみ」をラベリングし、音声が平静となる区間に「平静」をそれぞれラベリングし、図19に示す符号帳を作成しておく。図19に示すように、符号帳には笑い、怒り、悲しみ、平静の各感情表出における符号の単独出現確率(unigram)、条件付出現確率(bigram、trigram)が学習音声から求められ、書き込まれている。
Fifth Embodiment This embodiment is a modification of the fourth embodiment. In the fourth embodiment, each emotion expression state likelihood ratio is compared with a certain threshold value Rth in order to detect an emotion expression section, but here each emotion expression state likelihood is compared with a common calm state likelihood. Then, each emotion expression section is detected. For that purpose, “Laughter”, “Anger”, and “Sadness” are labeled in the laughter expression section, anger expression section, and grief expression section in the learning voice, respectively, and “Silence” is indicated in the section where the voice is calm The code book shown in FIG. 19 is created by labeling. As shown in FIG. 19, the single appearance probability (unigram) and conditional appearance probability (bigram, trigram) of the code in each expression of laughter, anger, sadness, and calm are obtained and written in the codebook. It is.
図20は第5実施形態の処理手順を示す。
ステップS1:コンテンツの音声データから判定区間Sを取り込む。
ステップS2:判定区間Sを分析してフレーム毎の音声特徴量を求め、図19の符号帳を参照して笑い表出尤度PAlau、怒り表出尤度PAang、悲しみ表出尤度PAsad、平静状態尤度PAnrmを計算し、記憶する。
FIG. 20 shows a processing procedure of the fifth embodiment.
Step S1: The determination section S is fetched from the audio data of the content.
Step S2: Analyzing the determination section S to obtain a voice feature amount for each frame, referring to the code book of FIG. 19, the laughing expression likelihood P Aau , the anger expression likelihood P Aang , and the sadness expression likelihood P Asad , calm state likelihood P Anrm is calculated and stored.
ステップS3:残りの判定区間があるか判定し、あればステップS1に戻り、次の判定区間について同様の処理を実行する。残りの判定区間がなければ、「笑い」、「怒り」、「悲しみ」のうち利用者により指定された1つ又は複数についてステップS4、S5,S6の対応するものを実行する。 Step S3: It is determined whether there is a remaining determination section. If there is, the process returns to Step S1, and the same process is executed for the next determination section. If there is no remaining determination section, one corresponding to steps S4, S5, and S6 is executed for one or more designated by the user among “laughter”, “anger”, and “sadness”.
ステップS4,S5,S6:ステップS1,S2,S3の処理が終了した段階で例えば図21に概念的に示すように、笑い表出尤度PAlau、怒り表出尤度PAang、悲しみ表出尤度PAsad、平常状態尤度PAnrmの曲線が得られている。ただし、図21ではフレーム数FAの区間の各感情表出尤度PAlau、PAang、PAsadに重みWLを乗算した曲線を示している。これら尤度曲線WLPAlau、WLPAang、WLPAsadと曲線PAnrmと比較し、WLPAlau>PAnrm、WLPAang>PAnrm、WLPAsad>PAnrmを満足し、かつPAlau、PAang、PAsadのうち最大のものの区間をそれぞれ検出し、それぞれ検出区間の位置とマークを対応させて記憶する。
ステップS7:「笑い」、「怒り」、「悲しみ」のうち、利用者に指定された感情の検出区間に対応する区間を音声コンテンツから抽出する。
Steps S4, S5, and S6: At the stage where the processes of Steps S1, S2, and S3 are completed, as shown conceptually in FIG. 21, for example, the laughing expression likelihood P Aau , the anger expression likelihood P Aang , and the sadness expression Curves of likelihood P Asad and normal state likelihood P Anrm are obtained. However, the emotional expression likelihood P AlAu interval of the number of frames in FIG. 21 FA, P Aang, shows a curve obtained by multiplying the weight W L to P Asad. These likelihood curves W L P Aau , W L P Aang , W L P Asad and the curve P Anrm are compared, and W L P Aau > P Anrm , W L P Aang > P Anrm , W L P Asad > P Anrm The section of the largest one of P Alau , P Aang , and P Asad is detected, and the position of the detected section and the mark are stored in association with each other.
Step S7: Of the “laughter”, “anger”, and “sadness”, an interval corresponding to the emotion detection interval designated by the user is extracted from the audio content.
第6実施形態
この実施形態では、予め学習音声中の「笑い」、「怒り」、「悲しみ」の音声区間にそれぞれ対応するラベルをつけ、「笑い」の音声区間と「怒り」の音声区間の全フレームの音声特徴量スペクトルから笑い表出についての各量子化音声特徴量ベクトルの各出現確率と、怒り表出についての量子化音声特徴量ベクトルの各出現確率を求め、図22に示す符号帳CB−1を作成し、同様に「怒り」の音声区間と「悲しみ」の音声区間の全フレームの音声特徴量ベクトルから怒り表出についての各量子化音声特徴量ベクトルの各出現確率と、悲しみ表出についての量子化音声特徴量ベクトルの各出現確率を求め、図22に示す符号帳CB−2を作成し、「悲しみ」の音声区間と「笑い」の音声区間の全フレームの音声特徴量ベクトルから悲しみ表出についての各量子化音声特徴量ベクトルの各出現確率と、笑い表出についての量子化音声特徴量ベクトルの各出現確率を求め、図22に示す符号帳CB−3を作成しておく。
Sixth Embodiment In this embodiment, labels corresponding to the “laughter”, “anger”, and “sadness” speech segments in the learning speech are assigned in advance, and the “laughter” and “anger” speech segments are labeled. The appearance probability of each quantized speech feature vector for laughter expression and the appearance probability of the quantized speech feature vector for anger expression are obtained from the speech feature spectrum of all frames, and the codebook shown in FIG. CB-1 is created, and similarly, each occurrence probability of each quantized speech feature vector for anger expression and sadness from speech feature vectors of all frames of the speech segment of “anger” and “sadness” The respective appearance probabilities of the quantized speech feature vectors for the expression are obtained, and the code book CB-2 shown in FIG. 22 is created, and the speech feature values of all frames of the speech section of “sadness” and the speech section of “laughter” vector 22 to determine the appearance probability of each quantized speech feature quantity vector for sadness expression and the appearance probability of the quantized speech feature quantity vector for laughter expression, and create codebook CB-3 shown in FIG. deep.
図23は第6実施形態による感情表出検出処理手順を示す。
ステップS1〜S4は図12の各感情を区別しない場合の処理手順と同様であり、図11の符号帳を使って全音声区間について得た感情表出状態尤度WLPAemoと平静状態尤度PAnrmの曲線からWLPAemo>PAnrmとなる区間を感情表出区間S’として全て検出し、一時記憶する。
FIG. 23 shows an emotion expression detection process procedure according to the sixth embodiment.
Steps S1 to S4 are the same as the processing procedure in the case of not distinguishing each emotion in FIG. 12, and the emotion expression state likelihood W L P Aemo and the calm state likelihood obtained for all speech sections using the codebook of FIG. From the curve of degree P Anrm , all the sections where W L P Aemo > P Anrm are detected as emotion expression sections S ′ and temporarily stored.
ステップS5:感情表出区間S’を取り込む。
ステップS6:感情表出区間S’の一連の音声特徴量スペクトルから図22の符号帳CB−1を参照して笑い表出尤度PAlau1と怒り表出尤度PAang2を求め、符号帳CB−2を参照して怒り表出尤度PAang1と悲しみ表出尤度PAsad2を求め、符号帳CB−3を参照して悲しみ表出尤度PAsad1と笑い表出尤度PAlau3を求める。
ステップS7:上記尤度から笑い、怒り、悲しみについてそれぞれ2つの尤度を以下のように決める。
Step S5: The emotion expression section S ′ is captured.
Step S6: The laughter expression likelihood P Alau1 and the anger expression likelihood P Aang2 are obtained from the series of speech feature amount spectra in the emotion expression section S ′ with reference to the code book CB-1 in FIG. 22, and the code book CB. -2 is obtained, the anger expression likelihood P Aang1 and the sadness expression likelihood P Asad2 are obtained, and the sadness expression likelihood P Asad1 and the laughter expression likelihood P Alau3 are obtained by referring to the code book CB-3. .
Step S7: Two likelihoods for laughter, anger, and sadness are determined from the likelihood as follows.
笑い尤度:PLAU1=PAlau1/PAang2; PLAU2=PAlau2/PAsad1
怒り尤度:PANG1=PAang1/PAsad2; PANG2=PAang2/PAlau1
悲しみ尤度:PSAD1=PAsad1/PAlau2; PSAD2=PAsad2/PAang1
Laughter likelihood: P LAU1 = P Alau1 / P Aang2 ; P LAU2 = P Alau2 / P Asad1
Anger likelihood: P ANG1 = P Aang1 / P Asad2 ; P ANG2 = P Aang2 / P Alau1
Sadness likelihood: P SAD1 = P Asad1 / P Alau2 ; P SAD2 = P Asad2 / P Aang1
ステップS8:笑い度、怒り度、悲しみ度を以下のように決める。
笑い度:LAU=(PLAU1+PLAU2)/2
怒り度:ANG=(PANG1+PANG2)/2
悲しみ度:SAD=(PSAD1+PSAD2)/2
Step S8: Degree of laughter, anger, and sadness are determined as follows.
Laughter level: LAU = (PLAU1 + PLAU2) / 2
Angry degree: ANG = (PANG1 + PANG2) / 2
Sadness: SAD = (PSAD1 + PSAD2) / 2
ステップS9:図24に示すように、
LAU>ANGかつLAU>SADの区間を検出し、Lauのマークを付ける。
ANG>SADかつANG>LAUの区間を検出し、Angのマークを付ける。
SAD>LAUかつSAD>ANGの区間を検出し、Sadのマークを付ける。
Step S9: As shown in FIG.
The section of LAU> ANG and LAU> SAD is detected and marked with Lau.
The section of ANG> SAD and ANG> LAU is detected, and Ang is marked.
A section of SAD> LAU and SAD> ANG is detected, and a Sad mark is attached.
ステップS10:全ての検出区間S’について処理が終了したか判定し、終了してなければステップS5に戻って次の感情表出検出区間S’についてステップS6〜S9で同様の処理を実行する。
ステップS11:全ての検出区間S’について終了していれば、利用者により指定された感情のマークの区間を音声コンテンツから抽出する。あるいはユーザが希望する指定の時間長で要約を視聴したい、笑っているところだけを見たい、などの要求を満足する閾値Rth以上の区間を抽出してもよい(図22の破線参照)。
Step S10: It is determined whether or not the processing has been completed for all the detection sections S ′. If not, the process returns to Step S5 and the same processing is performed in Steps S6 to S9 for the next emotion expression detection detection section S ′.
Step S11: If all the detection sections S ′ have been completed, the section of the emotion mark designated by the user is extracted from the audio content. Alternatively, it is possible to extract a section equal to or greater than the threshold value Rth that satisfies the requirement that the user wants to view the summary for a specified length of time desired by the user, or to view only a smiling place (see the broken line in FIG. 22).
上述の第1から第6実施形態における各感情表出状態尤度PAlau、PAng、PAsadはいずれも前記式(17)または(19)のいずれを使用して計算してもよい。 Each of the emotion expression state likelihoods P Aau , P Ang , and P Asad in the first to sixth embodiments described above may be calculated using any of the above formulas (17) or (19).
以上説明したように、本発明の実施の形態に係る音声合成装置および音声合成プログラムは、発話者の音声から得られた語句に対応する合成音声情報を発話者の感情に応じて変更するため、合成音声の抑揚や韻律等に誤りがあった場合、または抑揚や韻律等を調整したい場合などにおいて合成音声を簡単に訂正することができる。 As described above, the speech synthesizer and the speech synthesis program according to the embodiment of the present invention change the synthesized speech information corresponding to the phrase obtained from the speech of the speaker according to the emotion of the speaker. When there is an error in the inflection or prosody of the synthesized speech, or when it is desired to adjust the inflection or prosody, the synthesized speech can be easily corrected.
また、発話者の音声から得られた語句を他言語の語句に翻訳するため、翻訳機として用いられる音声合成装置の合成音声も簡単に訂正することができる。 In addition, since the phrase obtained from the speech of the speaker is translated into another language, the synthesized speech of the speech synthesizer used as a translator can be easily corrected.
また、入力音声の音声特徴量の組を量子化し、符号帳中の対応する音声特徴量ベクトルが感情表出状態で出現する確率を符号帳から求め、この出現確率からその感情表出か否かを判定しているため、発話者の声質に依存することなく発話者の感情を特定することができ、合成音声を簡単に訂正することができる。 Also, quantize the set of speech features of the input speech, obtain the probability that the corresponding speech feature vector in the codebook will appear in the emotional expression state from the codebook, and determine whether the emotional expression is based on this appearance probability Therefore, the emotion of the speaker can be specified without depending on the voice quality of the speaker, and the synthesized speech can be easily corrected.
また、本発明の実施の形態では、音声処理装置が上記のS310〜S340の各ステップでの処理を行う音声処理動作について説明したが、これらのステップS310〜S340を含む音声処理動作を実行させるための音声処理プログラムがインストールされた所定のコンピュータを用いて実施することも可能である。 Further, in the embodiment of the present invention, the voice processing operation has been described in which the voice processing apparatus performs the processes in the above steps S310 to S340. However, in order to execute the voice processing operation including these steps S310 to S340. It is also possible to implement using a predetermined computer in which the voice processing program is installed.
本発明に係る音声合成装置および音声合成プログラムは、合成音声の抑揚や韻律等に誤りがあった場合、または抑揚や韻律等を調整したい場合などにおいて合成音声を簡単に訂正することができるという効果が有し、パソコンまたは公共施設に設置されている端末などの用途にも利用可能である。 The speech synthesizer and the speech synthesis program according to the present invention are capable of easily correcting synthesized speech when there is an error in the inflection or prosody of the synthesized speech or when it is desired to adjust the inflection or prosody. And can be used for applications such as personal computers or terminals installed in public facilities.
100 音声合成装置
101 CPU
102 ROM
103 RAM
104 EEPROM
105 ハードディスク
106 インタフェース部
107 ディスプレイ
108 スピーカ
110 音声信号受信手段
120 語句変換手段
130 感情推測手段
131 記憶手段
132 音声特徴量抽出手段
133 感情表出尤度算出手段
134 平静状態尤度算出手段
135 感情表出判定手段
140 合成音声変更手段
150 音声合成手段
160 翻訳手段
100
102 ROM
103 RAM
104 EEPROM
DESCRIPTION OF
Claims (4)
前記音声信号受信手段によって受信された音声信号を語句に変換する語句変換手段と、
前記音声信号受信手段によって受信された音声信号に基づいて前記発話者の感情を推測する感情推測手段と、
前記感情推測手段が推測した感情に応じて前記語句に対応する合成音声情報を変更する合成音声変更手段と
を備えたことを特徴とする音声合成装置。 Voice signal receiving means for receiving a voice signal obtained from the voice of the speaker;
A phrase conversion means for converting the voice signal received by the voice signal receiving means into a phrase;
Emotion estimating means for estimating the emotion of the speaker based on the audio signal received by the audio signal receiving means;
A speech synthesizer comprising: synthesized speech changing means for changing synthesized speech information corresponding to the word or phrase according to the emotion estimated by the emotion estimating means.
前記語句変換手段によって変換された語句を他言語の語句に翻訳する翻訳手段を備え、
前記合成音声変更手段は、前記感情推測手段が推測した感情に応じて、前記翻訳手段によって翻訳された語句に対応する合成音声情報を変更することを特徴とする請求項1に記載の音声合成装置。 The speech synthesizer
A translation means for translating the phrase converted by the phrase conversion means into a phrase of another language;
2. The speech synthesizer according to claim 1, wherein the synthesized speech changing unit changes the synthesized speech information corresponding to the words translated by the translating unit according to the emotion estimated by the emotion estimating unit. .
発話者の音声から得られた音声信号を受信する音声信号受信ステップと、
前記音声信号受信ステップで受信した音声信号を語句に変換する語句変換ステップと、
前記音声信号受信ステップで受信した音声信号に基づいて前記発話者の感情を推測する感情推測ステップと、
前記感情推測ステップで推測した感情に応じて前記語句に対応する合成音声情報を変更する合成音声変更ステップと
を実行させることを特徴とする音声合成プログラム。 On the computer,
A voice signal receiving step for receiving a voice signal obtained from the voice of the speaker;
A phrase conversion step of converting the voice signal received in the voice signal reception step into a phrase;
An emotion estimation step of estimating the emotion of the speaker based on the audio signal received in the audio signal reception step;
A speech synthesis program, comprising: executing a synthesized speech changing step of modifying synthesized speech information corresponding to the phrase according to the emotion estimated in the emotion estimation step.
前記感情推測ステップで推測した感情に応じて、前記翻訳手段ステップで翻訳した語句に対応する合成音声情報を変更するステップと
を実行させることを特徴とする請求項3に記載の音声合成プログラム。
A translation means step for translating the phrase converted in the phrase conversion step into a phrase of another language;
4. The speech synthesis program according to claim 3, wherein the step of changing the synthesized speech information corresponding to the phrase translated in the translation unit step is executed according to the emotion estimated in the emotion estimation step. 5.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004174544A JP2005352311A (en) | 2004-06-11 | 2004-06-11 | Speech synthesis apparatus and speech synthesis program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004174544A JP2005352311A (en) | 2004-06-11 | 2004-06-11 | Speech synthesis apparatus and speech synthesis program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2005352311A true JP2005352311A (en) | 2005-12-22 |
Family
ID=35586829
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004174544A Pending JP2005352311A (en) | 2004-06-11 | 2004-06-11 | Speech synthesis apparatus and speech synthesis program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2005352311A (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008204193A (en) * | 2007-02-20 | 2008-09-04 | Nippon Telegr & Teleph Corp <Ntt> | Content search / recommendation method, content search / recommendation device, and content search / recommendation program |
| US7983910B2 (en) | 2006-03-03 | 2011-07-19 | International Business Machines Corporation | Communicating across voice and text channels with emotion preservation |
| JP2011217018A (en) * | 2010-03-31 | 2011-10-27 | Oki Networks Co Ltd | Voice response apparatus, and program |
| JP2018077440A (en) * | 2016-11-11 | 2018-05-17 | 株式会社東芝 | Speech recognition apparatus, speech recognition method and program |
| CN109712604A (en) * | 2018-12-26 | 2019-05-03 | 广州灵聚信息科技有限公司 | A kind of emotional speech synthesis control method and device |
| JP2020134719A (en) * | 2019-02-20 | 2020-08-31 | ソフトバンク株式会社 | Translation equipment, translation methods, and translation programs |
| JP2025524434A (en) * | 2022-07-07 | 2025-07-30 | エヌビディア コーポレーション | Inferring Emotions from Utterances in Audio Data Using Deep Learning |
-
2004
- 2004-06-11 JP JP2004174544A patent/JP2005352311A/en active Pending
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7983910B2 (en) | 2006-03-03 | 2011-07-19 | International Business Machines Corporation | Communicating across voice and text channels with emotion preservation |
| US8386265B2 (en) | 2006-03-03 | 2013-02-26 | International Business Machines Corporation | Language translation with emotion metadata |
| JP2008204193A (en) * | 2007-02-20 | 2008-09-04 | Nippon Telegr & Teleph Corp <Ntt> | Content search / recommendation method, content search / recommendation device, and content search / recommendation program |
| JP2011217018A (en) * | 2010-03-31 | 2011-10-27 | Oki Networks Co Ltd | Voice response apparatus, and program |
| JP2018077440A (en) * | 2016-11-11 | 2018-05-17 | 株式会社東芝 | Speech recognition apparatus, speech recognition method and program |
| CN108074562A (en) * | 2016-11-11 | 2018-05-25 | 株式会社东芝 | Speech recognition equipment, audio recognition method and storage medium |
| CN108074562B (en) * | 2016-11-11 | 2021-12-03 | 株式会社东芝 | Speech recognition apparatus, speech recognition method, and storage medium |
| CN109712604A (en) * | 2018-12-26 | 2019-05-03 | 广州灵聚信息科技有限公司 | A kind of emotional speech synthesis control method and device |
| JP2020134719A (en) * | 2019-02-20 | 2020-08-31 | ソフトバンク株式会社 | Translation equipment, translation methods, and translation programs |
| JP2025524434A (en) * | 2022-07-07 | 2025-07-30 | エヌビディア コーポレーション | Inferring Emotions from Utterances in Audio Data Using Deep Learning |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP4266306B1 (en) | Processing a speech signal | |
| US10692484B1 (en) | Text-to-speech (TTS) processing | |
| CN106971709B (en) | Statistical parameter model establishment method and device, speech synthesis method and device | |
| US11763797B2 (en) | Text-to-speech (TTS) processing | |
| JP4829477B2 (en) | Voice quality conversion device, voice quality conversion method, and voice quality conversion program | |
| JP5039865B2 (en) | Voice quality conversion apparatus and method | |
| TW201901658A (en) | System and method for speech synthesis | |
| JP2005208652A (en) | Segmental tone modeling for tonal languages | |
| KR101014086B1 (en) | Speech processing apparatus and method, and recording medium | |
| WO2013018294A1 (en) | Speech synthesis device and speech synthesis method | |
| JP4580190B2 (en) | Audio processing apparatus, audio processing method and program thereof | |
| JP2003036097A (en) | Information detecting apparatus and method, and information searching apparatus and method | |
| JPH05197398A (en) | Method for expressing assembly of acoustic units in compact mode and chaining text-speech synthesizer system | |
| JP3803311B2 (en) | Voice processing method, apparatus using the method, and program thereof | |
| JP2005352311A (en) | Speech synthesis apparatus and speech synthesis program | |
| JP5574344B2 (en) | Speech synthesis apparatus, speech synthesis method and speech synthesis program based on one model speech recognition synthesis | |
| JP4581549B2 (en) | Audio processing apparatus and method, recording medium, and program | |
| Chiang et al. | The speech labeling and modeling toolkit (slmtk) version 1.0 | |
| JP4691327B2 (en) | Information processing apparatus and information processing program | |
| Sawada et al. | The NITech text-to-speech system for the blizzard challenge 2016 | |
| JP2005352893A (en) | Communication terminal and communication program | |
| JP4048473B2 (en) | Audio processing apparatus, audio processing method, program, and recording medium | |
| JP2005354519A (en) | Imaging apparatus and imaging program | |
| JP4256393B2 (en) | Voice processing method and program thereof | |
| JP2023030678A (en) | Learning device, data generation device and program |