[go: up one dir, main page]

JP2007264284A - Emotion addition device, emotion addition method, and emotion addition program - Google Patents

Emotion addition device, emotion addition method, and emotion addition program Download PDF

Info

Publication number
JP2007264284A
JP2007264284A JP2006088910A JP2006088910A JP2007264284A JP 2007264284 A JP2007264284 A JP 2007264284A JP 2006088910 A JP2006088910 A JP 2006088910A JP 2006088910 A JP2006088910 A JP 2006088910A JP 2007264284 A JP2007264284 A JP 2007264284A
Authority
JP
Japan
Prior art keywords
emotion
sentence
information
word
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006088910A
Other languages
Japanese (ja)
Inventor
Yoko Oike
陽子 大池
Akiko Yamato
亜紀子 大和
Ayako Hirano
絢子 平野
Makoto Tanaka
田中  誠
Shigeaki Komatsu
慈明 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2006088910A priority Critical patent/JP2007264284A/en
Publication of JP2007264284A publication Critical patent/JP2007264284A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】小説、物語等の文章を入力し、その入力した文章に対して自動で感情情報を付与することが可能な感情付加装置、感情付加方法及び感情付加プログラムを提供する。
【解決手段】文章を入力する文章入力手段26と、入力した文章を単語毎に区切る形態素解析手段28と、予め単語毎に、好意的、喜び、動的怒り、丁寧さ、快さ、悲しさ、静的怒り、不快さ、恨み、又は普通等の感情情報を関連付けた感情辞書を参照して、入力された文章の単語毎に感情情報を取得し、当該取得した感情情報をもとに文章中に感情情報を付与する感情付与手段30と、感情付与手段30により付与された感情情報付きの感情付文章を生成する感情付文章生成手段32とを備えた。
【選択図】図1
An emotion adding device, an emotion adding method, and an emotion adding program capable of inputting a sentence such as a novel or a story and automatically adding emotion information to the input sentence.
SOLUTION: A sentence input means 26 for inputting a sentence, a morpheme analyzing means 28 for dividing the inputted sentence for each word, and favorable, joyful, dynamic anger, politeness, pleasure, sadness for each word in advance. , Refer to an emotion dictionary that associates emotion information such as static anger, discomfort, grudge, or ordinary, and obtains emotion information for each word of the input sentence, and sentences based on the acquired emotion information Emotion provision means 30 for providing emotion information therein, and emotion-added sentence generation means 32 for generating emotion-added text with emotion information provided by the emotion provision means 30.
[Selection] Figure 1

Description

本発明は、任意の文章を入力し、その文章を、感情表現を伴う音声に変換して出力する感情付加装置、感情付加方法及び感情付加プログラムに関する。   The present invention relates to an emotion adding device, an emotion adding method, and an emotion adding program that input an arbitrary sentence, convert the sentence into sound accompanied by an emotion expression, and output the converted voice.

近年、文章のドキュメントやインターネットのホームページの文章、ブログ、ニュース、その他の任意の文章を入力して構文解析を行って、音韻情報を含む文章に変換し、その音韻情報を含む文章について所定の音声合成を行って合成音声を出力する音声合成装置が開発されている。一般に行われている音声合成では、喜び、怒り、悲しみ、不快さ、恨み等の感情表現の無い合成音声が出力される。   In recent years, text documents, Internet homepage sentences, blogs, news, and other arbitrary sentences are input and parsed to convert them into sentences containing phonological information. Speech synthesizers that synthesize and output synthesized speech have been developed. In speech synthesis that is generally performed, synthesized speech without emotion expressions such as joy, anger, sadness, discomfort, and resentment is output.

感情表現を伴う合成音声を生成する発明として、「明朗」、「落胆」、「怒り」等の感情を表す発話モードを利用者が指定することにより、その発話モードに応じて予め設定した発声速度、発声強度、声の高さ、抑揚の大きさ等の音声制御パラメータのレベルの組み合わせを一括して設定する発明が知られている(例えば特許文献1参照。)。   As an invention for generating synthesized speech with emotional expression, the user can specify a speech mode that expresses emotions such as “Akira”, “Disappointment”, “Angry”, etc., and the speech rate set in advance according to the speech mode There is known an invention in which combinations of levels of voice control parameters such as utterance intensity, voice pitch, and inflection level are collectively set (see, for example, Patent Document 1).

特許文献1に記載の音声合成装置では、利用者が指定した発話モードに基づいた音声制御パラメータを用いて、感情を表す合成音声を生成するようにしたので、使用者が個々の音声制御パラメータの値を逐一設定する必要がなくなり、種々の発話スタイルを定めている。   In the speech synthesizer described in Patent Literature 1, since the synthesized speech representing the emotion is generated using the speech control parameter based on the utterance mode designated by the user, the user can select each speech control parameter. There is no need to set values one by one, and various utterance styles are defined.

また、利用者に注意を促し且つ感情表現に富む読み上げを行うために、利用者がテキスト中の重要部分を指定すると、その指定された重要部分に対して他の部分と異ならせる韻律を形成して、その指定された重要部分に対して、ゆっくりとした音声や大きい声で読み上げる音声波形を生成する音声合成装置が知られている(例えば特許文献2参照。)。   In addition, when the user designates an important part in the text in order to alert the user and read aloud with emotional expression, a prosody that makes the designated important part different from other parts is formed. A speech synthesizer that generates a speech waveform that is read out slowly or with a loud voice is known for the designated important part (see, for example, Patent Document 2).

特許文献2に記載の音声合成装置では、利用者により指定された主語、述語、数字、固有名詞が、他のテキストの部分に対してゆっくりとした音声、又は大きな音声で読み上げられるので、利用者が聞き取りやすい音声を合成することが可能になる。さらに、明るい感情表現に対してピッチが高い音声、暗い感情表現に対してはピッチが低い音声を合成することができる。   In the speech synthesizer described in Patent Document 2, the subject, predicate, number, and proper noun specified by the user are read out slowly or loudly with respect to other text parts. It is possible to synthesize speech that is easy to hear. Furthermore, it is possible to synthesize a voice with a high pitch for bright emotion expressions and a voice with a low pitch for dark emotion expressions.

また、より自然な合成音声を生成するために、予め「怒」、「DJ」等の感情、発話スタイルが指定されたテキストを入力して大局的な発話スタイルの属性情報と言語解析したテキストを取得し、その言語解析結果と大局的な属性情報とに基づいて、テキスト内の各部の局所的な属性情報を決定し、言語解析結果と局所的な属性情報に基づいて合成音声信号を生成する音声合成装置が知られている(例えば特許文献3参照。)。   Also, in order to generate a more natural synthesized speech, texts with pre-specified emotions such as “anger” and “DJ” and utterance style, and text information that has been subjected to linguistic analysis are added. Acquire, determine local attribute information of each part in the text based on the language analysis result and global attribute information, and generate a synthesized speech signal based on the language analysis result and local attribute information A speech synthesizer is known (see, for example, Patent Document 3).

特許文献3に記載の音声合成方法によれば、入力したテキストの言語解析結果と感情や発話スタイルに関する大局的な属性情報から、テキスト内における感情や発話スタイルの局所的な属性情報を決定し、この情報を用いて合成音声を生成することにより、より自然な合成音声を生成することが可能となる。
特開平5−100692号公報 特開平11−231885号公報 特開2003−302992号公報
According to the speech synthesis method described in Patent Document 3, local attribute information of emotion and utterance style in the text is determined from the language analysis result of the input text and global attribute information about the emotion and utterance style. By generating synthesized speech using this information, a more natural synthesized speech can be generated.
Japanese Patent Laid-Open No. 5-100692 Japanese Patent Laid-Open No. 11-231885 JP 2003-302992 A

特許文献1に記載の音声合成装置で感情表現を伴う合成音声を出力するためには、予め利用者等により「明朗」、「落胆」、「怒り」等の感情を表す発話モードを指定する必要があった。小説や物語等の文章では、文章毎に感情が異なることが多いので、その文章毎に発話モードを切り換えて音声合成を行う必要があるという課題があった。   In order to output synthesized speech accompanied by emotional expression with the speech synthesizer described in Patent Document 1, it is necessary to designate an utterance mode representing emotions such as “Akira”, “Disappointment”, “Anger” in advance by a user or the like was there. Since sentences such as novels and stories often have different emotions for each sentence, there is a problem that it is necessary to perform speech synthesis by switching the utterance mode for each sentence.

また、特許文献2に記載の音声合成装置を用いて感情表現を含む音声を合成する際にも、利用者が主語、述語、数字、固有名詞等の重要部分を指定する必要があるという課題があった。また、文章内における同一の品詞は、全て強調された音声に合成されてしまうという課題があった。   Also, when synthesizing speech including emotional expressions using the speech synthesizer described in Patent Document 2, there is a problem that the user needs to specify important parts such as a subject, predicate, number, proper noun, etc. there were. In addition, there is a problem that all the same parts of speech in a sentence are synthesized into emphasized speech.

また、特許文献3に記載の音声合成装置を用いて感情表現を含む音声を合成する場合には、予め文章中に感情や発話スタイルに関する大局的な属性情報を付与しておく必要があるという課題があった。   In addition, when synthesizing speech including emotional expressions using the speech synthesizer described in Patent Document 3, it is necessary to add global attribute information related to emotions and utterance styles in advance in a sentence. was there.

本発明は上記課題を解決するためになされたもので、ニュース、小説、物語等の文章を入力して、その文章に用いられている単語毎又は文章毎に、自動で感情情報を付与することが可能な感情付加装置、感情付加方法及び感情付加プログラムを提供することを課題としている。   The present invention has been made to solve the above-mentioned problems, and inputs emotional information automatically for each word or sentence used in the sentence by inputting sentences such as news, novels, and stories. It is an object to provide an emotion addition device, an emotion addition method, and an emotion addition program.

上記課題を解決するために請求項1に記載の感情付加装置は、文章を入力する文章入力手段と、前記入力した文章を単語毎に区切る形態素解析手段と、予め単語毎に、好意的、喜び、動的怒り、丁寧さ、快さ、悲しさ、静的怒り、不快さ、恨み、又は普通等の感情情報を関連付けた感情辞書を参照して、前記入力された文章の単語毎に感情情報を取得し、当該取得した感情情報をもとに、文章中に感情情報を付与する感情付与手段と、前記感情付与手段により付与された感情情報付きの感情付文章を生成する感情付文章生成手段とを備えることを特徴とする。   In order to solve the above-mentioned problem, the emotion adding device according to claim 1 includes a sentence input means for inputting a sentence, a morpheme analyzing means for dividing the inputted sentence for each word, and a favorable, pleasant joy for each word in advance. , Emotional information for each word of the input sentence with reference to an emotional dictionary that associates emotional information such as dynamic anger, politeness, pleasure, sadness, static anger, discomfort, resentment, or ordinary Based on the acquired emotion information, emotion giving means for adding emotion information in the text, and emotion-added text generating means for generating emotion-added text with emotion information given by the emotion giving means It is characterized by providing.

また、請求項2に記載の発明は、前記感情付与手段が、単語毎に前記感情情報として感情種類とその感情レベルとを関連付けた感情辞書を参照して、前記入力された文章の単語毎に感情種類とその感情レベルとを取得し、前記感情種類と感情レベルと前記単語とをもとに文章中に感情情報を付与することを特徴とする。   Further, in the invention according to claim 2, the emotion giving means refers to an emotion dictionary that associates an emotion type and an emotion level as the emotion information for each word, and for each word of the inputted sentence. An emotion type and an emotion level are acquired, and emotion information is added to the sentence based on the emotion type, the emotion level, and the word.

また、請求項3に記載の発明は、前記感情付与手段が、文章中の自立語、文節、鉤括弧内、句読点間等の文中の特定単位毎に感情情報を付与することを特徴とする。   Further, the invention described in claim 3 is characterized in that the emotion imparting means imparts emotion information for each specific unit in the sentence such as an independent word in the sentence, a phrase, a bracket, or between punctuation marks.

また、請求項4に記載の発明は、前記感情付与手段が、単語毎に前記感情情報として感情種類とその感情レベルとを関連付けた感情辞書を参照して、前記入力された文章の単語毎に感情種類とその感情レベルとを取得し、当該取得した各感情種類のうち最大の感情レベルを有する感情情報をもとに文章中に感情情報を付与することを特徴とする。   In the invention according to claim 4, the emotion giving means refers to an emotion dictionary associating an emotion type and an emotion level as the emotion information for each word, and for each word of the inputted sentence. An emotion type and its emotion level are acquired, and emotion information is given in a sentence based on emotion information having the maximum emotion level among the acquired emotion types.

また、請求項5に記載の発明は、前記感情付与手段が、前記単語毎に取得した感情情報により、各感情種類毎に感情レベルの数値を加算し、前記加算した各感情種類のうち、感情レベルの数値が最大となる感情種類と前記加算した感情レベルを文章中に付与することを特徴とする。   Further, according to a fifth aspect of the present invention, the emotion imparting means adds an emotion level value for each emotion type based on the emotion information acquired for each word, and among the added emotion types, emotions are added. It is characterized in that the emotion type with the maximum level value and the added emotion level are given in the sentence.

また、請求項6に記載の発明は、前記感情付与手段が、予め単語と感情強調情報とを関連付けた感情辞書を参照して、前記入力された文章の単語毎に感情強調情報を取得し、当該取得した感情強調情報を前記感情レベルに加算又は乗算して文章中に感情情報を付与することを特徴とする。   Further, in the invention according to claim 6, the emotion imparting means acquires emotion emphasis information for each word of the inputted sentence by referring to an emotion dictionary in which words and emotion emphasis information are associated in advance. The acquired emotion emphasis information is added to or multiplied by the emotion level to add emotion information to the sentence.

また、請求項7に記載の発明は、前記感情強調情報と関連付けて記憶している単語を、特定の単語とその特定の単語と対で使われる単語の組み合わせとしたことを特徴とする。   The invention described in claim 7 is characterized in that a word stored in association with the emotion emphasis information is a combination of a specific word and a word used in a pair with the specific word.

また、請求項8に記載の発明は、前記感情付与手段が、自立語の単語と感情情報、及び、付属語の単語と感情情報とを関連付けた感情辞書を参照して、前記入力された文章の単語毎に感情情報を取得し、当該取得した感情情報をもとに、文章中に異なる感情情報がある場合には付属語の感情を優先して文章中に感情情報を付与することを特徴とする。   The invention according to claim 8 is characterized in that the emotion giving means refers to an emotion dictionary in which words of independent words and emotion information, and words of attached words and emotion information are associated with each other, and the inputted sentence Emotion information is acquired for each word, and if there is different emotion information in the sentence based on the acquired emotion information, the emotion information is given to the sentence with priority on the emotion of the attached word And

また、請求項9に記載の発明は、前記感情付与手段が、前記単語毎に取得した感情情報により、文章中に出現する各感情種類毎に出現頻度を加算し、前記加算した各感情種類のうち出現頻度が最大となる感情種類を文章の感情情報として取得することを特徴とする。   In the invention according to claim 9, the emotion giving means adds the appearance frequency for each emotion type appearing in the sentence based on the emotion information acquired for each word, and Of these, the emotion type having the maximum appearance frequency is acquired as emotion information of the sentence.

また、請求項10に記載の発明は、取得した各感情情報の中から最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合には、前記感情付与手段が、出現順が後ろの感情種類を文章中に付与することを特徴とする。   Further, in the invention according to claim 10, in the case where it is not possible to specify one emotion type having the maximum emotion level or maximum frequency from the acquired emotion information, It is characterized in that the emotion type in the order of appearance is added to the sentence.

また、請求項11に記載の発明は、取得した各感情情報の中から最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合には、前記感情付与手段が、感情種類を前もって設定した優先順位を用い、取得した複数の感情情報のうち優先順位の高い感情種類を文章中に付与することを特徴とする。   Further, in the invention according to claim 11, when it is not possible to specify one emotion type having the maximum emotion level or the maximum frequency from the acquired emotion information, Using the priority order set in advance for the emotion type, the emotion type having a higher priority among the acquired emotion information is given to the sentence.

また、請求項12に記載の発明は、取得した各感情情報の中から最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合には、前記感情付与手段が、文章中の自立語、文節、句読点間等の単位で区切り、別々の感情種類を付与することを特徴とする。   Further, in the invention according to claim 12, in the case where it is not possible to specify one emotion type having the maximum emotion level or the maximum frequency from the acquired emotion information, It is characterized in that it is divided into units such as independent words, clauses, and punctuation marks in a sentence and given different emotion types.

また、請求項13に記載の発明は、前記文章入力手段は複数の文章を入力し、取得した各感情情報の中から最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合であって、当該文章の前に前文章が存在する場合には、前記感情付与手段が、その前文章の感情情報を当該文章中に付与することを特徴とする。   The invention according to claim 13 is characterized in that the sentence input means inputs a plurality of sentences and specifies one emotion type having the maximum emotion level or maximum frequency from the acquired emotion information. If the previous sentence exists before the sentence, the emotion imparting means imparts emotion information of the previous sentence to the sentence.

また、請求項14に記載の発明は、感情付文章生成手段が、音素、音節、モーラ、形態素、単語、又はアクセント句等の発音単位毎に、音声を発生する際の音声の音程若しくは母音ホルマント、音声の強勢、発声速度、発声強度、又は抑揚等の音韻情報と、感情情報と、を予め関連付けた音響辞書を参照して、前記感情情報付与手段により付与された感情情報に対応した音韻情報を前記発音単位毎に取得して、音声情報を生成することを特徴とする。   Furthermore, the invention according to claim 14 is characterized in that the emotional sentence generating means generates a voice interval or vowel formant for each pronunciation unit such as a phoneme, a syllable, a mora, a morpheme, a word, or an accent phrase. Phonetic information corresponding to the emotion information given by the emotion information giving means with reference to an acoustic dictionary in which the phonetic information such as voice stress, voice rate, voice strength, or intonation and emotion information are associated in advance Is obtained for each pronunciation unit, and voice information is generated.

また、請求項15に記載の発明は、文章を入力する文章入力手段と、文書を単語毎に区切る形態素解析手段と、予め単語毎に感情情報を関連付けて記憶している感情辞書と、感情辞書を参照して文章中に感情情報を付与する感情付与手段と、感情付文章を生成する感情付文章生成手段とを用いた感情付加方法であって、前記文章入力手段から文章を入力するステップと、前記形態素解析手段が前記入力した文書を単語毎に区切るステップと、前記感情付与手段が前記感情辞書を参照して文章中に感情情報を付与するステップと、前記感情付文章生成手段が前記感情付与手段により付与された感情情報付きの感情付文章を生成するステップとを含むことを特徴とする。   The invention described in claim 15 is a sentence input means for inputting a sentence, a morpheme analyzing means for dividing the document into words, an emotion dictionary storing emotion information associated with each word in advance, and an emotion dictionary An emotion addition method using emotion imparting means for providing emotion information in a sentence with reference to and an emotion-added sentence generating means for generating an emotion-added sentence, wherein the sentence is input from the sentence input means; and The morpheme analyzing means divides the input document for each word, the emotion giving means refers to the emotion dictionary to add emotion information in the sentence, and the emotion-added sentence generating means is the emotion Generating a sentence with emotion attached with emotion information given by the granting means.

また、請求項15に記載の発明は、文書を単語毎に区切る形態素解析手段と、文章中に感情情報を付与する感情付与手段と、感情付文章を生成する感情付文章生成手段と、前記文章入力手段、前記形態素解析手段、前記感情付与手段、及び前記感情付文章生成手段を制御する情報処理手段とを備えた感情付加装置の、前記情報処理手段が実行する感情付加プログラムであって、前記情報処理手段が、前記文章入力手段から文章を入力する機能と、前記形態素解析手段に前記入力した文書を単語毎に区切る機能と、前記感情付与手段に予め単語毎に感情情報を関連付けて記憶している感情辞書を参照して、前記単語毎に感情情報を取得し、当該取得した感情情報をもとに文章中に感情情報を付与する機能と、前記感情付文章生成手段に前記感情付与手段により付与された感情情報付きの感情付文章を生成する機能とを実現させることを特徴とする。   The invention according to claim 15 is characterized in that a morpheme analyzing means for dividing a document into words, an emotion giving means for giving emotion information in a sentence, an emotion-added sentence generating means for generating an emotion-added sentence, and the sentence An emotion addition program executed by the information processing means of an emotion addition apparatus comprising an input means, the morpheme analysis means, the emotion giving means, and an information processing means for controlling the emotion-added sentence generating means, The information processing means stores a function of inputting sentences from the sentence input means, a function of dividing the input document into the morpheme analysis means for each word, and emotion information associated with each emotion word in advance in the emotion giving means. A function of referring to a sentiment dictionary and acquiring emotion information for each word, and adding emotion information to a sentence based on the acquired emotion information, Characterized in that to realize the function of generating a sentence with feelings with emotion information provided by the given unit.

請求項1に記載の発明によれば、入力した文章を単語毎に区切り、予め単語毎に、好意的、喜び、動的怒り、丁寧さ、快さ、悲しさ、静的怒り、不快さ、恨み、又は普通等の感情情報を関連付けた感情辞書を参照して、入力された文章の単語毎に感情情報を取得して感情付文章を自動で生成するようにしたので、テキスト文章等を自動で読み上げる際に、文章中の単語の内容に応じた感情で表現された音声を自動で生成することができる。   According to the first aspect of the present invention, the input sentence is divided into words, and each word is preliminarily favorable, joyful, dynamic anger, politeness, pleasure, sadness, static anger, discomfort, Referencing an emotional dictionary that associates emotional information such as grudges or normality, so that emotional information is automatically generated for each word in the input text, so text with text is automatically generated. When reading aloud, it is possible to automatically generate speech expressed with emotions according to the content of words in the sentence.

また、請求項2に記載の発明によれば、感情付与手段が感情辞書を参照して、文章の単語毎に感情種類とその感情レベルとを自動で付与するようにしたので、テキスト文書等を自動で読み上げる際に、文章中の単語の内容に対応した多様な感情で表現された音声を自動で生成することができる。   According to the invention described in claim 2, since the emotion imparting means refers to the emotion dictionary and automatically assigns the emotion type and the emotion level for each word of the sentence, When reading automatically, it is possible to automatically generate speech expressed with various emotions corresponding to the contents of words in the sentence.

また、請求項3に記載の発明によれば、感情付与手段が、文章中の自立語、文節、鉤括弧内、句読点間等の文中の特定単位毎に感情情報を自動で付与するようにしたので、テキスト文書等を自動で読み上げる際に、文章中の特定単位毎に感情で表現された音声を自動で発生させることができる。   According to the invention described in claim 3, the emotion giving means automatically gives emotion information for each specific unit in the sentence, such as an independent word in the sentence, a phrase, a bracket, and between punctuation marks. Therefore, when a text document or the like is automatically read out, a voice expressed by emotion can be automatically generated for each specific unit in the sentence.

また、請求項4に記載の発明によれば、感情付与手段が、感情辞書を参照して文章の単語毎に感情種類とその感情レベルとを取得し、その各感情種類のうち最大の感情レベルを有する感情情報をもとに文章中に感情情報を付与するようにしたので、テキスト文書等を自動で読み上げる際に、文章の内容に対応した強い感情で表現された音声を自動で生成させることができる。   According to the invention described in claim 4, the emotion imparting means refers to the emotion dictionary, acquires the emotion type and the emotion level for each word of the sentence, and the maximum emotion level among the emotion types. Emotion information is added to the sentence based on the emotion information that has, so when text documents are automatically read out, the voice expressed with strong emotion corresponding to the contents of the sentence is automatically generated. Can do.

また、請求項5に記載の発明によれば、感情付与手段が、各感情種類毎に感情レベルの数値を加算して、加算した各感情種類のうち最大となる感情レベルの感情種類を文章中に自動で付与するようにしたので、文章において最も強く表現されている感情を用いた音声で文章を読み上げることができる。   According to the invention of claim 5, the emotion imparting means adds the emotion level value for each emotion type, and the emotion type of the maximum emotion level among the added emotion types is included in the text. Since the sentence is automatically assigned to the sentence, the sentence can be read out by voice using the emotion most strongly expressed in the sentence.

また、請求項6に記載の発明によれば、感情付与手段が、感情辞書を参照して文章の単語毎に感情強調情報を取得し、その感情強調情報を感情レベルに加算又は乗算して文章中に感情情報を付与するようにしたので、文章中に感情を強調する単語が存在する場合には、文章の内容に則した感情を強調して表現した音声で文章を読み上げることができる。   According to the invention described in claim 6, the emotion imparting means obtains emotion emphasis information for each word of the sentence with reference to the emotion dictionary, and adds or multiplies the emotion emphasis information to the emotion level. Since emotion information is given in the text, if there is a word that emphasizes the emotion in the text, the text can be read out with a voice expressed by emphasizing the emotion according to the content of the text.

また、請求項7に記載の発明によれば、感情強調情報と関連付けて記憶している単語として、特定の単語とその特定の単語と対で使われる単語の組み合わせを用いるようにしたので、例えば副詞とその副詞に呼応した単語の組み合わせ、複合動詞とその複合動詞に対応した単語の組み合わせ等に応じた感情強調情報を、文章に付与することができる。   Further, according to the invention described in claim 7, as a word stored in association with emotion emphasis information, a combination of a specific word and a word used in a pair with the specific word is used. Emotion emphasis information corresponding to a combination of an adverb and a word corresponding to the adverb, a combination of a compound verb and a word corresponding to the compound verb, and the like can be given to the sentence.

これにより、例えば「『いったい』『何』時だと思っているんだ」のような組み合わせの文章や、「『何』『してるんだ』」のような組み合わせの文章について、『何』という単語のみでは怒っている感情なのか、優しく語りかけている感情なのか不明であるし、『いったい』や『してるんだ』という単語だけでは感情が不明であるが、組み合わせを探すことによって感情を付加することができる。   With this, for example, “What” for a sentence with a combination such as “What do you think?” Or “What?” It's unclear whether it's just an angry emotion or a gently speaking emotion, and it's unclear whether it's just "What?" Can be added.

また、請求項8に記載の発明によれば、感情付与手段が、自立語の単語と感情情報及び付属語の単語と感情情報とを関連付けた感情辞書を参照して、文章中に異なる感情情報がある場合には、付属語の感情を優先して文章中に感情情報を付与するようにしたので、より正確に感情情報を付加した感情付文章を生成することができる。この感情付文章を自動で読み上げることによって、より正確に文章の内容を感情表現した音声を自動で生成することができる。   According to the invention described in claim 8, the emotion giving means refers to the emotion dictionary in which the words of the independent words and the emotion information and the words of the attached words and the emotion information are associated with each other, and different emotion information in the sentence If there is, the emotion information is added to the sentence giving priority to the emotion of the attached word, so that it is possible to generate a sentence with emotion more accurately adding the emotion information. By automatically reading out the sentence with emotion, it is possible to automatically generate a voice that expresses the contents of the sentence more accurately.

また、請求項9に記載の発明によれば、感情付与手段が、各感情種類の出現頻度を加算し、出現頻度が最大となる感情種類を文章の感情情報として取得するようにしたので、文章中において最も多く用いられている感情で表現された音声を自動で生成することができる。   According to the invention of claim 9, since the emotion imparting means adds the appearance frequencies of the respective emotion types and acquires the emotion type with the highest appearance frequency as the emotion information of the text. It is possible to automatically generate speech expressed by emotions that are used most frequently.

また、請求項10に記載の発明によれば、取得した各感情情報の中から最大の感情レベル又は最大頻度となる一つの感情種類を特定することができない場合には、感情付与手段が、出現順が後ろの感情種類を文章中に付与するようにしたので、文章中に複数種類の感情情報が存在するにもかかわらず最大の感情レベル又は最大頻度となる一つの感情を特定することができない場合であっても、感情で表現された文章を生成することができる。   According to the invention of claim 10, when it is not possible to specify one emotion type having the maximum emotion level or maximum frequency from the acquired emotion information, the emotion imparting means appears. Since the last emotion type is added to the sentence, it is not possible to identify the single emotion that has the maximum emotion level or maximum frequency even though there are multiple types of emotion information in the sentence. Even in this case, it is possible to generate a sentence expressed by emotion.

また、請求項11に記載の発明によれば、取得した各感情情報の中から最大の感情レベル又は最大頻度となる一つの感情種類を特定することができない場合には、感情付与手段が、取得した複数の感情情報のうち優先順位の高い感情種類を文章中に付与するようにしたので、例えば好意的>喜び>動的怒り>丁寧さ>快さ>悲しさ>静的怒り>不快さ>恨み>普通等の予め定めた優先順位を用いて、優先順位の高い感情情報を取得することができる。   According to the invention of claim 11, when it is not possible to specify one emotion type having the maximum emotion level or maximum frequency from the acquired emotion information, the emotion imparting means acquires Since the emotion type with high priority among the plurality of sentiment information is given in the sentence, for example, favorable> joy> dynamic anger> politeness> pleasure> sadness> static anger> discomfort> It is possible to acquire emotion information with a high priority by using a predetermined priority order such as itching> normal.

これにより、文章中に複数種類の感情情報が存在するにもかかわらず、最大の感情レベル又は最大頻度となる一つの感情を特定することができない場合であっても、感情で表現された文章を生成することができる。   As a result, even if there are multiple types of emotion information in the sentence, even if it is not possible to identify one emotion that has the maximum emotion level or maximum frequency, Can be generated.

また、請求項12に記載の発明によれば、取得した各感情情報の中から最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合には、感情付与手段が、文章中の自立語、文節、句読点間等の単位で区切り、別々の感情種類を付与するようにしたので、文章内に複数種類の感情情報が存在しているにもかかわらず、最大の感情レベル又は最大頻度となる一つの感情を特定することができない場合であっても、単語や文節、句読点間などの単位ごとに感情で表現された文章を生成することができる。   According to the twelfth aspect of the present invention, when it is not possible to specify one emotion type having the maximum emotion level or maximum frequency from the acquired emotion information, the emotion imparting means , Separated by units such as independent words, clauses, punctuation marks, etc., and added different emotion types, so even if there are multiple types of emotion information in the sentence, the maximum emotion Even if it is not possible to specify a single emotion that has a level or maximum frequency, it is possible to generate a sentence expressed in emotion for each unit such as a word, a phrase, or between punctuation marks.

また、請求項13に記載の発明によれば、取得した各感情情報の中から最大の感情レベル又は最大頻度となる一つの感情種類を特定することができない場合であって、当該文章の前に前文章が存在する場合には、感情付与手段が、その前文章の感情情報を当該文章中に付与するようにしたので、文章内に複数種類の感情情報が存在しているにもかかわらず、最大の感情レベル又は最大頻度となる一つの感情を特定することができない場合であっても、前の文章の感情と連動した感情で表現された文章を生成することができる。   Further, according to the invention of claim 13, it is a case where one emotion type having the maximum emotion level or maximum frequency cannot be specified from the acquired emotion information, and before the sentence. When the previous sentence exists, the emotion imparting means adds the emotion information of the previous sentence in the sentence, so even though there are multiple types of emotion information in the sentence, Even if it is not possible to identify one emotion that has the maximum emotion level or maximum frequency, it is possible to generate a sentence expressed by an emotion linked to the emotion of the previous sentence.

また、請求項14に記載の発明によれば、感情付文章生成手段が、音素、音節、モーラ、形態素、単語、又はアクセント句等の発音単位毎に、音声を発生する際の音声の音程若しくは母音ホルマント、音声の強勢、発声速度、発声強度、又は抑揚等の音韻情報と、感情情報とを予め関連付けた音響辞書を参照して、発音単位毎に音声情報を生成するようにしたので、文章、単語毎に感情表現された音声を自動で発生させることができる。   According to the invention described in claim 14, the emotion-added sentence generating means generates a sound pitch when generating sound for each pronunciation unit such as a phoneme, a syllable, a mora, a morpheme, a word, or an accent phrase. Since voice information is generated for each pronunciation unit by referring to an acoustic dictionary in which emotion information is pre-associated with phonological information such as vowel formant, voice stress, utterance speed, utterance intensity, or intonation, etc. It is possible to automatically generate a voice that expresses emotion for each word.

また、請求項15に記載の発明によれば、入力した文章を単語毎に区切り、予め単語毎に感情情報を関連付けた感情辞書を参照して、入力された文章の単語毎に感情情報を取得して感情付文章を自動で生成するようにしたので、テキスト文章等を自動で読み上げる際に、文章中の単語の内容に応じた感情で表現された音声を自動で生成することができる。   According to the invention described in claim 15, the input sentence is divided for each word, and emotion information is obtained for each word of the input sentence by referring to an emotion dictionary in which emotion information is associated with each word in advance. Since the sentence with emotion is automatically generated, when the text sentence or the like is automatically read out, it is possible to automatically generate the voice expressed with the emotion according to the content of the word in the sentence.

また、請求項16に記載の発明によれば、入力した文章を単語毎に区切り、予め単語毎に感情情報を関連付けた感情辞書を参照して、入力された文章の単語毎に感情情報を取得して感情付文章を自動で生成するようにしたので、テキスト文章等を自動で読み上げる際に、文章中の単語の内容に応じた感情で表現された音声を自動で生成することができる。   According to the invention described in claim 16, the inputted sentence is divided into words, and emotion information is obtained for each word of the inputted sentence by referring to an emotion dictionary in which emotion information is associated with each word in advance. Since the sentence with emotion is automatically generated, when the text sentence or the like is automatically read out, it is possible to automatically generate the voice expressed with the emotion according to the content of the word in the sentence.

以下、本発明を実施するための最良の形態を、図面に基づき説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

先ず、図1を参照して、本発明の感情付加装置900の信号処理系ブロックの構成と、それぞれのブロックの機能について説明する。   First, with reference to FIG. 1, the structure of the signal processing system block of the emotion addition apparatus 900 of this invention and the function of each block are demonstrated.

感情付加装置900は、小説、物語その他の文章を、例えばインターネット10を経由して入力して、その入力した文章について形態素解析を行って感情辞書22の辞書見出し単位毎に区切り、その単位毎に好意的、喜び、動的怒り、丁寧さ、快さ、悲しさ、静的怒り、不快さ、恨み、又は普通等の感情情報を関連付けた文章を生成するコンピュータ装置、又は端末装置等の装置である。更に感情付加装置900は、文章に関連付けられている感情情報を用いた音声合成を行って、感情表現された合成音声を出力する機能を備えている。   The emotion adding device 900 inputs novels, stories, and other sentences via, for example, the Internet 10, performs morphological analysis on the input sentences, and divides them into units of dictionary headings of the emotion dictionary 22, and for each unit. A device such as a computer device or a terminal device that generates sentences that relate emotion information such as favor, joy, dynamic anger, politeness, pleasure, sadness, static anger, discomfort, resentment, or ordinary is there. Furthermore, the emotion adding device 900 has a function of performing voice synthesis using emotion information associated with a sentence and outputting a synthesized voice in which emotion is expressed.

感情付加装置900は、通信手段として、無線LANや携帯電話等のキャリアと電波の送受信を行うためのアンテナ960と、他の通信機器と情報の送受信を行うとともに、他の通信機器から小説や物語、ニュース、又はホームページに掲載されている文章、その他の各種文章を取得することが可能な無線送受信手段961と、インターネット10等の有線の通信網を介して他の通信機器と情報の送受信を行うとともに、他の通信機器から小説や物語、ニュース、又はホームページに掲載されている文章、その他の各種文章を取得することが可能な有線送受信手段962とを備えている。   The emotion adding device 900 transmits / receives information to / from other communication devices as well as an antenna 960 for transmitting / receiving radio waves to / from a carrier such as a wireless LAN or a mobile phone as a communication means. , News or text posted on a homepage, and other wireless communication means 961 that can acquire various other texts, and information is transmitted to and received from other communication devices via a wired communication network such as the Internet 10. In addition, it includes wired transmission / reception means 962 capable of acquiring novels, stories, news, sentences posted on homepages, and other various sentences from other communication devices.

また、感情付加装置900は、キーボードやマウス、トラックボール、タブレット等から構成される入力手段970と、入力手段970が利用者から入力した文字や各種指示情報をバス999を介して、CPU、MPU等から構成される情報処理手段980に伝達する入力インターフェース971と、文字や画像を利用者に対して表示する表示手段972と、情報処理手段980からバス999を介して表示情報を取得して映像信号に変換して表示手段に出力する表示インターフェース973とを備えている。   The emotion adding device 900 includes an input unit 970 including a keyboard, a mouse, a trackball, a tablet, and the like, and characters and various instruction information input from the user by the input unit 970 via a bus 999. An input interface 971 for transmitting information to the information processing means 980, a display means 972 for displaying characters and images to the user, and display information from the information processing means 980 via the bus 999 to obtain video A display interface 973 that converts the signal into a signal and outputs the signal to the display means.

また、感情付加装置900は、各種文章、感情辞書、音響辞書、及び各種処理プログラムを記憶するとともに情報処理手段980の作業領域として用いることが可能なハードディスク、半導体メモリ等の記憶手段984と、文章等の各種処理プログラムや定数等を一時記憶するとともに情報処理手段980の作業領域として用いることが可能なRAM981と、情報処理手段980が実行するBIOS(basic input output system)等のプログラムや定数等の各種情報を記憶するROM983と、時間を計測するタイマ990とを備えている。なお、各種文章、感情辞書、音響辞書、及び各種処理プログラムは、RAM981又はROM983に記憶するように構成してもよい。   The emotion adding device 900 stores various texts, emotion dictionaries, acoustic dictionaries, and various processing programs, and can also be used as a work area for the information processing means 980, such as a storage means 984 such as a hard disk or a semiconductor memory, The RAM 981 that can temporarily store various processing programs such as and constants, and can be used as a work area of the information processing means 980, and the BIOS (basic input output system) executed by the information processing means 980, constants, etc. A ROM 983 for storing various information and a timer 990 for measuring time are provided. Note that various texts, emotion dictionaries, acoustic dictionaries, and various processing programs may be stored in the RAM 981 or the ROM 983.

また、感情付加装置900は、文章を読み上げる際に合成した音声情報を情報処理手段980から取得して音声信号に変換し、増幅して出力する出力音声処理手段966と、音声信号を空気の振動に変換して音を発声するスピーカ等の音声出力手段965とを備えている。   The emotion adding device 900 obtains voice information synthesized when the text is read out from the information processing means 980, converts the voice information into a voice signal, amplifies and outputs it, and outputs the voice signal as air vibration. And a sound output means 965 such as a speaker for converting the sound into sound.

また、感情付加装置900は、無線又は有線の通信処理、入力手段970からの入力情報の処理、表示手段972に各種情報を表示するための表示処理、記憶手段984、RAM981、又はROM983等に対する情報の書き込み又は読み出し処理、記憶手段984又は他の通信機器から文章を入力する処理、文章を感情辞書22の辞書見出し単位毎に区切る処理、感情情報と単語とを関連付けた文章を生成する処理、文章毎に感情情報を取得する処理、文章と感情情報とを関連付けて感情付文章を生成する処理、音韻情報を発音単位毎に関連付けて音韻付文章を生成する処理、発音単位毎に音声信号を生成する処理、又はその他の各種処理を処理プログラムに基づいて実行する情報処理手段980を備えている。情報処理手段980として、CPU、MPUを用いることができ、簡単な処理であれば、PAL等の素子を用いることができる。   The emotion adding device 900 also includes wireless or wired communication processing, processing of input information from the input means 970, display processing for displaying various information on the display means 972, information for the storage means 984, RAM 981, ROM 983, and the like. Writing or reading processing, processing for inputting a sentence from the storage means 984 or other communication device, processing for dividing the sentence for each dictionary heading unit of the emotion dictionary 22, processing for generating a sentence in which emotion information is associated with a word, sentence Processing to acquire emotion information every time, processing to generate text with emotion by associating text and emotion information, processing to generate text with phoneme by associating phonemic information for each pronunciation unit, and generation of speech signal for each pronunciation unit Information processing means 980 for executing the processing to be performed or other various processing based on the processing program. A CPU or MPU can be used as the information processing means 980, and an element such as PAL can be used for simple processing.

感情付加装置900の情報処理手段980とその周辺の回路は、バス999で接続されており、相互に高速な情報の伝達を行うことが可能となっている。そして情報処理手段980にて動作する処理プログラムの指示に基づいて、情報処理手段980は周辺の回路を制御することが可能となっている。なお、情報処理手段980にて実行される処理プログラムは、記録媒体や通信によって提供することが可能である。また、各周辺の回路をASIC等で構成することも可能である。   The information processing means 980 of the emotion adding device 900 and its peripheral circuits are connected by a bus 999 and can transmit information at high speed. The information processing unit 980 can control peripheral circuits based on an instruction of a processing program that operates in the information processing unit 980. The processing program executed by the information processing unit 980 can be provided by a recording medium or communication. In addition, each peripheral circuit can be configured by an ASIC or the like.

以下に、情報処理手段980がプログラムに基づいて実現することが可能な各機能について説明する。   Hereinafter, each function that the information processing unit 980 can realize based on a program will be described.

[文章入力手段26について]
文章入力手段26は、利用者による指定に基づいて、ハードディスク等の記憶手段984(文章記憶手段20の機能を含む。)に記憶されている文章、無線送受信手段961又は有線送受信手段962を介して他の通信機器の文章記憶手段20から文章を入力する機能を備えている。文章入力手段26の機能は、情報処理手段980が実行するプログラムを用いて実現してもよいし、専用の処理回路を用いて実現してもよい。
[About text input means 26]
The text input means 26 is based on the text stored in the storage means 984 such as a hard disk (including the function of the text storage means 20), the wireless transmission / reception means 961 or the wired transmission / reception means 962 based on the designation by the user. A function of inputting a sentence from the sentence storage means 20 of another communication device is provided. The function of the text input unit 26 may be realized using a program executed by the information processing unit 980 or may be realized using a dedicated processing circuit.

[形態素解析手段28について]
形態素解析手段28は、入力した小説、物語等の文章を区切る機能を備えている。形態素解析手段28は、感情辞書22の辞書見出し(図2(a)、(b)、図3参照)単位に文章を区切り、以下、形態素解析手段28によって区切られたものを単語とよぶ。この単語が請求項の単語に対応する。
[About the morphological analysis means 28]
The morpheme analyzing means 28 has a function of separating input sentences such as novels and stories. The morpheme analysis unit 28 divides sentences in units of dictionary headings (see FIGS. 2A, 2B, and 3) of the emotion dictionary 22, and hereinafter, what is divided by the morpheme analysis unit 28 is referred to as a word. This word corresponds to the word in the claim.

形態素解析手段28の機能は、情報処理手段980が実行するプログラムを用いて実現してもよいし、専用の処理回路を用いて実現してもよい。   The function of the morphological analysis unit 28 may be realized using a program executed by the information processing unit 980, or may be realized using a dedicated processing circuit.

[感情付与手段30について]
感情付与手段30は、予め単語(辞書見出し)毎に、好意的、喜び、動的怒り、丁寧さ、快さ、悲しさ、静的怒り、不快さ、恨み、又は普通等の感情情報を関連付けた感情辞書22を参照して、形態素解析手段28によって区切られた単語毎に感情情報を取得し、当該取得した感情情報をもとに文章中に感情情報を付与する機能を備えている。
[Emotion giving means 30]
Emotion giving means 30 associates emotion information such as favor, joy, dynamic anger, politeness, pleasure, sadness, static anger, discomfort, resentment, or ordinary for each word (dictionary headline) in advance. The emotion dictionary 22 is referred to, emotion information is acquired for each word divided by the morphological analysis means 28, and emotion information is provided in the sentence based on the acquired emotion information.

また、感情付与手段30は、形態素解析手段28によって区切られた単語毎に感情情報として感情種類とその感情レベルとを関連付けた感情辞書22を参照して、形態素解析手段28によって区切られた単語毎に感情種類とその感情レベルとを取得し、感情種類と感情レベルと形態素解析手段28によって区切られた単語とをもとに、文章中に感情情報を付与する機能を備えている。   Further, the emotion imparting means 30 refers to the emotion dictionary 22 in which the emotion type and the emotion level are associated as emotion information for each word delimited by the morpheme analyzing means 28, and for each word delimited by the morpheme analyzing means 28. Is provided with a function of acquiring the emotion type and the emotion level, and adding emotion information to the sentence based on the emotion type, the emotion level, and the words delimited by the morphological analysis means 28.

また、感情付与手段30は、文章中の自立語、文節、鉤括弧内、句読点間等の文中の特定単位毎に感情情報を付与する機能を備えている。   The emotion imparting means 30 has a function of imparting emotion information for each specific unit in the sentence, such as an independent word in the sentence, a phrase, a bracket, or between punctuation marks.

また、感情付与手段30は、感情情報として感情種類とその感情レベルとを関連付けた感情辞書22を参照して、形態素解析手段28によって区切られた単語(辞書見出し)毎に感情種類とその感情レベルとを取得し、当該取得した各感情種類のうち最大の感情レベルを有する感情情報をもとに文章中に感情情報を付与する機能を備えている。   Also, the emotion imparting means 30 refers to the emotion dictionary 22 associating the emotion type and the emotion level as emotion information, and for each word (dictionary heading) delimited by the morphological analysis means 28, the emotion type and the emotion level. And the function of adding emotion information in the sentence based on emotion information having the maximum emotion level among the acquired emotion types.

また、感情付与手段30は、形態素解析手段28によって区切られた単語毎に取得した感情情報により、各感情種類毎に感情レベルの数値を加算して得た各感情種類のうち、感情レベルの数値が最大となる感情種類と、その加算した感情レベルを文章中に付与する機能を備えている。   Also, the emotion imparting means 30 uses the emotion information acquired for each word delimited by the morpheme analyzing means 28, and among the emotion types obtained by adding the emotion level numerical value for each emotion type, the emotion level numerical value. Has the function to give the emotion type that gives the maximum and the added emotion level to the sentence.

また、感情付与手段30は、予め単語(辞書見出し)と感情強調情報とを関連付けた感情辞書22を参照して、形態素解析手段28によって区切られた単語(辞書見出し)毎に感情強調情報を取得し、当該取得した感情強調情報を感情レベルに加算又は乗算して文章中に感情情報を付与する機能を備えている。   In addition, the emotion imparting means 30 refers to the emotion dictionary 22 in which the word (dictionary headline) and the emotion emphasis information are associated in advance, and acquires emotion emphasis information for each word (dictionary headline) delimited by the morphological analysis means 28. In addition, it has a function of adding or multiplying the acquired emotion emphasis information to the emotion level to add emotion information to the sentence.

また、感情付与手段30は、自立語の単語(辞書見出し)と感情情報、及び、付属語の単語(辞書見出し)と感情情報とを関連付けた感情辞書22を参照して、形態素解析手段28によって区切られた単語(辞書見出し)毎に感情情報を取得し、当該取得した感情情報をもとに文章中に異なる感情情報がある場合には、付属語の感情を優先して文章中に感情情報を付与する機能を備えている。   Further, the emotion imparting means 30 refers to the emotion dictionary 22 that associates the words of independent words (dictionary headings) and emotion information, and the words of adjunct words (dictionary headings) and emotion information, and the morpheme analyzing means 28 Emotion information is acquired for each delimited word (dictionary heading), and if there is different emotion information in the sentence based on the acquired emotion information, the emotion information in the sentence is given priority on the emotion of the attached word It has a function to give.

また、感情付与手段30は、文章中に出現する各感情種類毎に出現頻度を加算して、加算した各感情種類のうち出現頻度が最大となる感情種類を文章の感情情報として取得する機能を備えている。   In addition, the emotion imparting means 30 has a function of adding the appearance frequency for each emotion type appearing in the sentence and acquiring the emotion type having the maximum appearance frequency among the added emotion types as the emotion information of the sentence. I have.

また、感情付与手段30は、取得した各感情情報の中から、最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合には、出現順が後ろの感情種類を文章中に付与する機能を備えている。   In addition, when the emotion imparting means 30 cannot identify one emotion type having the maximum emotion level or maximum frequency from the acquired emotion information, the emotion imparting means 30 selects the emotion type in the order of appearance. It has a function to be given in the text.

また、感情付与手段30は、取得した各感情情報の中から、最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合には、取得した複数の感情情報のうち優先順位の高い感情種類を文章中に付与する機能を備えている。   In addition, when the emotion imparting unit 30 cannot identify one emotion type having the maximum emotion level or the maximum frequency from the acquired emotion information, It has a function to give emotion types with high priority to sentences.

また、感情付与手段30は、取得した各感情情報の中から、最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合には、文章中の自立語、文節、句読点間等の単位で区切り、別々の感情種類を付与する機能を備えている。   In addition, when the emotion imparting means 30 cannot identify the maximum emotion level or one emotion type having the maximum frequency from the acquired emotion information, the independent words, phrases, It has a function that separates punctuation marks and gives different emotion types.

また、感情付与手段30は、取得した各感情情報の中から、最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合であって、当該文章の前に前文章が存在する場合には、その前文章の感情情報を当該文章中に付与する機能を備えている。   Also, the emotion imparting means 30 is a case in which one emotion type having the maximum emotion level or the maximum frequency cannot be specified from the acquired emotion information, and the preceding sentence before the sentence. Is present, the emotion information of the previous sentence is provided in the sentence.

これら感情付与手段30の各機能は、情報処理手段980が実行するプログラムを用いて実現してもよいし、専用の処理回路を用いて実現してもよい。   Each function of the emotion imparting means 30 may be realized using a program executed by the information processing means 980, or may be realized using a dedicated processing circuit.

[感情付文章生成手段32について]
感情付文章生成手段32は、感情付与手段30により付与された感情情報付きの感情付文章を生成する機能を備えている。
[About the emotion-added sentence generating means 32]
The emotion-added text generating unit 32 has a function of generating the emotion-added text with emotion information provided by the emotion applying unit 30.

また、感情付文章生成手段32は、音素、音節、モーラ、形態素、単語、又はアクセント句等の発音単位毎に、音声を発生する際の、音声の音程若しくは母音ホルマント、音声の強勢、発声速度、発声強度、又は抑揚等の音韻情報と、感情情報とを予め関連付けた音響辞書24を参照して、感情情報付与手段により付与された感情情報に対応した音韻情報を発音単位毎に取得して、音声情報を生成する機能を備えている。   In addition, the emotion-added sentence generating unit 32 generates a voice pitch or vowel formant, voice stress, and voice rate when generating a voice for each pronunciation unit such as a phoneme, syllable, mora, morpheme, word, or accent phrase. The phonetic information corresponding to the emotion information given by the emotion information giving means is acquired for each pronunciation unit by referring to the acoustic dictionary 24 in which the phonetic information such as utterance intensity or intonation and emotion information are associated in advance. It has a function to generate voice information.

なお、音響辞書24は、音素、音節、モーラ、形態素、単語、又はアクセント句等の発音単位毎に、音声を発生する際の、音声の音程若しくは母音ホルマント、音声の強勢、発声速度、発声強度、又は抑揚等の音韻情報と、感情情報とを予め関連付けた辞書である。   Note that the acoustic dictionary 24 has a voice pitch or vowel formant, voice stress, voice speed, voice strength, when generating voice for each pronunciation unit such as phonemes, syllables, mora, morphemes, words, or accent phrases. Or a dictionary in which phoneme information such as intonation and emotion information are associated in advance.

感情付文章生成手段32の機能は、情報処理手段980が実行するプログラムを用いて実現してもよいし、専用の処理回路を用いて実現してもよい。   The function of the emotion-added sentence generating unit 32 may be realized by using a program executed by the information processing unit 980 or may be realized by using a dedicated processing circuit.

次に、感情付与手段30が参照して感情情報を取得する感情辞書22の構成について説明する。   Next, the configuration of the emotion dictionary 22 in which the emotion imparting means 30 refers to acquire emotion information will be described.

図2(a)及び図2(b)は、自立語の単語と感情情報とを関連付けた自立語の感情辞書22の構成を示す図表であり、図3は、付属語の単語と感情情報とを関連付けた付属語の感情辞書22の構成を示す図表である。また、図4は、感情情報として用いる記号の凡例を示す図表である。   FIG. 2A and FIG. 2B are diagrams showing the configuration of the independent word emotion dictionary 22 in which the independent word and the emotion information are associated, and FIG. It is a graph which shows the structure of the emotion dictionary 22 of the attached word which linked | related. FIG. 4 is a chart showing a legend of symbols used as emotion information.

図2及び図3に示す例では、自立語の感情辞書と付属語の感情辞書とを分けた実施形態で説明しているが、文章中の自立語と文章中の付属語との間で優先順位を定めない場合には、自立語の感情辞書と付属語の感情辞書とを分けずに併合した一つの感情辞書を用いるようにしてもよい。   In the example shown in FIG. 2 and FIG. 3, the embodiment is described in which the independent word emotion dictionary and the adjunct emotion dictionary are separated, but priority is given to the independent word in the sentence and the adjunct word in the sentence. In the case where the ranking is not determined, one emotion dictionary may be used in which the emotion dictionary of independent words and the emotion dictionary of attached words are merged without being divided.

図2(a)、図2(b)及び図3に示すように、感情辞書22は、文章を区切った各単語の感情情報等を検索する際の辞書見出しと、辞書見出しに対応する単語の感情種類及び単語の感情レベルとから構成される単語の感情情報と、文章の感情を強調する際に用いる感情強調情報と、単語を自動で読み上げる際に用いる単語の読みと、単語を自動で読み上げる際に用いるアクセントの情報と、主な品詞とをそれぞれ関連付けて記憶している。   As shown in FIGS. 2 (a), 2 (b), and 3, the emotion dictionary 22 includes a dictionary heading for searching emotion information and the like of each word in which sentences are separated, and a word corresponding to the dictionary heading. Emotion information of words composed of emotion type and emotion level of words, emotion emphasis information used when emphasizing emotions in sentences, reading of words used when reading out words automatically, and reading out words automatically Accent information used at the time and main parts of speech are stored in association with each other.

例えば図2(a)及び(b)に示す感情辞書22には、「あの野郎」という辞書見出しの単語が登録されている。この単語は「動的怒り」を表現するものと定めることができるので、「動的怒り」を表現する感情であることを示す記号「B」を感情種類として「辞書見出し」と関連付けて記憶している。また、単語「あの野郎」は、その「動的怒り」の感情表現の中でも、感情のレベルが高い表現と認められるため、感情レベルとして「2」を与え、「B2」という感情情報を「辞書見出し」と関連付けて記憶している。   For example, in the emotion dictionary 22 shown in FIGS. 2A and 2B, a word having a dictionary heading “that bastard” is registered. Since this word can be defined as expressing "dynamic anger", the symbol "B" indicating the emotion expressing "dynamic anger" is stored as an emotion type in association with "dictionary headline". ing. Also, since the word “that bastard” is recognized as an expression with a high level of emotion among the emotional expressions of “dynamic anger”, “2” is given as the emotion level, and emotion information “B2” is assigned to the “dictionary”. It is stored in association with “Heading”.

また、「いちばん」という辞書見出しの単語の場合には、その単語に特段の感情が含まれるとは認められないので、特に感情種類は関連付けていない。しかし、この「いちばん」という副詞は、他の単語を強調する表現であると認められるので、対応する他の単語の感情レベルを2つ上げるための「+2」という感情強調情報を「辞書見出し」と関連付けて記憶している。この「いちばん」という単語の例では、対応する他の単語の感情レベルに「2」を加算する実施形態を用いているが、他の単語の感情レベルに乗算する値を用いて感情表現を強調するようにしてもよい。   In addition, in the case of the word having the dictionary heading “Ichiban”, it is not recognized that the word contains a special emotion, and therefore no particular emotion type is associated. However, since the adverb “first” is recognized as an expression that emphasizes another word, emotion emphasis information “+2” for increasing the emotion level of the corresponding other word by two is added to the “dictionary heading”. It is stored in association with. In the example of the word “most”, an embodiment is used in which “2” is added to the emotion level of another corresponding word, but the emotion expression is emphasized using a value that is multiplied by the emotion level of the other word. You may make it do.

また、「いったい」という辞書見出しの単語の場合には、対応する単語に応じて感情強調情報を変更することが可能な構成としている。例えば、「いったい」に対応する単語として、後ろ3文節以内に「何、どこ、いくつ」の単語が存在する場合には、感情強調情報として「+2」を採用し、存在しない場合には「+1」を感情強調情報として採用する旨の指示を「辞書見出し」と関連付けて記憶している。   In addition, in the case of a word having a dictionary heading of “What”, the emotion emphasis information can be changed in accordance with the corresponding word. For example, when “what, where, how many” words exist within the last three phrases as the word corresponding to “what”, “+2” is adopted as emotion emphasis information, and “+1” when there is no word. Is stored in association with the “dictionary heading”.

また、図3に示す付属語の感情辞書22には、「!」という辞書見出しの記号が登録されている。この記号は特定の感情を表現しているとは認められないので、感情種類は関連付けずに、文章全体の感情レベルを1つ上げるための「+1」という感情強調情報を「辞書見出し」と関連付けて記憶している。この「!」の記号は、文章の感情レベルに「1」を加算する実施形態を用いているが、文章の感情レベルに乗算する値を用いて感情表現を強調するようにしてもよい。   Further, in the attached word emotion dictionary 22 shown in FIG. 3, a symbol of a dictionary heading “!” Is registered. Since this symbol is not recognized as expressing a specific emotion, it associates emotion emphasis information of “+1” with “dictionary headline” to raise the emotion level of the whole sentence by one without associating the emotion type. I remember. The symbol “!” Uses an embodiment in which “1” is added to the emotion level of the sentence, but the emotion expression may be emphasized using a value that is multiplied by the emotion level of the sentence.

また、文章の語尾が、「ーい」という単語の場合には、その単語は「喜び」を表現する形容詞活用語尾と定めることができるので、「喜び」を表現する感情であることを示す記号「A」を感情種類として「辞書見出し」と関連付けて記憶している。また、文章の語尾に「ーい」が用いられている場合には、「喜び」の感情表現の中でも、感情のレベルが低い表現と認められるため、感情レベルとして「1」を与え、「A1」という感情情報を「辞書見出し」と関連付けて記憶している。   Also, if the sentence ends with the word “i”, the word can be defined as an adjective ending that expresses “joy”, so a symbol indicating that it is an emotion that expresses “joy” “A” is stored as an emotion type in association with “dictionary headline”. In addition, when “-i” is used at the end of the sentence, “1” is given as the emotion level because the emotion level of “joy” is recognized as an expression with a low emotion level. Is stored in association with the “dictionary headline”.

また、文章の語尾が、「い」という単語の場合、その形容詞活用語尾の単語に特段の感情が含まれるとは認められないので、感情情報として「普通」の感情を表す「F0」を「辞書見出し」と関連付けて記憶している。   Also, if the word ends with the word “I”, it is not recognized that the adjective ending word contains special emotions, so “F0” representing “ordinary” emotion is expressed as emotion information “ It is stored in association with the dictionary heading.

また、文章の語尾が、「てるんだ」という複合動詞語尾の場合には、対応する単語に応じて強調情報を変更することが可能な構成としている。例えば、「てるんだ」に対応する単語として、前3文節以内に「何、どこ、いくつ」の単語が存在する場合には、感情情報として強めの「動的怒り」を表す「B2」を採用し、存在しない場合には好意的又は喜びを表す「A1」の感情情報を採用する旨の指示を「辞書見出し」と関連付けて記憶している。   Also, when the sentence ending is a compound verb ending “Teruda”, the emphasis information can be changed according to the corresponding word. For example, if “what, where, how many” words exist within the previous three paragraphs as the word corresponding to “terudan”, “B2” representing strong “dynamic anger” is expressed as emotion information. If it does not exist, an instruction to adopt the emotion information “A1” indicating favor or pleasure is stored in association with the “dictionary headline”.

図4は、図2(a)、図2(b)及び図3で用いている感情情報の記号が意味する感情種類と感情レベルの種類を示す実施形態の図表である。   FIG. 4 is a chart of an embodiment showing the types of emotions and the types of emotion levels that the emotion information symbols used in FIGS. 2 (a), 2 (b), and 3 mean.

図4に示す例では、感情種類「A」を「にっこり」や「ジャーン」などの「好意的」又は「喜び」を表現している単語を表すものと定め、感情種類「B」を「あの野郎」や「殺す」などの「動的怒り」を表現している単語を表すものと定め、感情種類「C」を「召し上がる」や「ございます」などの「丁寧さ」又は「快さ」を表現している単語を表すものと定めている。   In the example shown in FIG. 4, the emotion type “A” is determined to represent a word expressing “favorite” or “joy” such as “smile” or “Jahn”, and the emotion type “B” is It is determined that it represents a word expressing "dynamic anger" such as "roar" or "killing", and the emotion type "C" is "polite" or "pleasant" such as "eating" or "we are" It is determined to represent a word expressing.

また、感情種類「D」を「しくしく」などの「悲しさ」を表現している単語を表すものと定め、感情種類「E」を「おそろしげ」や「薄気味の悪い」、「むかつく」などの「静的怒り」や「不快さ」、「恨み」を表現している単語を表すものと定め、感情種類「F」を語尾に用いる「る」や「い」などの「普通」の感情を表現している単語を表すものと定めている。   Also, the emotion type “D” is determined to represent a word expressing “sadness” such as “succulent”, and the emotion type “E” is set to “slow”, “poor”, or “muddy”. Such as “Ru” and “I” that use the emotion type “F” at the end of a word that expresses “static anger”, “discomfort”, and “itch” It is defined as a word that expresses emotion.

また、図4に示すように、「A」〜「F」の各感情種類には、感情レベルが付加されている。図2(a)、図2(b)及び図3に示す例では、感情レベル「0」が、その単語の表現する感情レベルが最も弱いレベルであることを表し、感情レベル「5」が、その単語の表現する感情レベルが最も強いレベルであることを表している。なお、単語の表現する感情が「普通」の場合には、その「普通」の感情レベルには差がないと認められるので、感情レベルは「0」のみを用いている。   Also, as shown in FIG. 4, an emotion level is added to each of the emotion types “A” to “F”. In the example shown in FIG. 2A, FIG. 2B, and FIG. 3, the emotion level “0” indicates that the emotion level expressed by the word is the weakest level, and the emotion level “5” The emotion level expressed by the word is the strongest level. When the emotion expressed by the word is “normal”, it is recognized that there is no difference in the emotion level of “normal”, so only “0” is used as the emotion level.

次に、フローチャートを用いて感情付加装置900が実行する処理について説明する。   Next, processing executed by the emotion adding device 900 will be described using a flowchart.

図5は、小説、物語、又はニュースその他の文章を入力して、その入力した文章の単語を用いて感情情報を関連付け、その感情情報に基づいて表現された音声を自動で発生させる処理のフローチャートである。   FIG. 5 is a flowchart of a process of inputting a novel, a story, news or other text, associating emotion information using a word of the input text, and automatically generating sound expressed based on the emotion information. It is.

ステップS104「読み上げ文章指定」(以降、S104のように省略して記載する。)にて利用者が、感情付加装置900の入力手段970等を操作して、自動で読み上げる文章を指定する情報を入力する。この入力は、利用者が直接感情付加装置900の入力手段970を操作して入力してもよいし、インターネット10等の通信網及び有線送受信手段962若しくは無線送受信手段961等を介して他の通信機器から読み上げ文章の指定を入力するようにしてもよい。   In step S104 “Specify text to be read” (hereinafter abbreviated as S104), the user operates the input means 970 of the emotion adding device 900 and the like to specify information for automatically specifying the text to be read. input. This input may be input by the user directly operating the input unit 970 of the emotion adding device 900, or other communication via the communication network such as the Internet 10 and the wired transmission / reception unit 962 or the wireless transmission / reception unit 961. You may make it input designation | designated of the reading text from an apparatus.

利用者等から、自動で読み上げる文章が指定されると、その指定はバス999を介して情報処理手段980が取得する。読み上げ文章の指定を入力すると、情報処理手段980(文章入力手段26の機能を含む。)はS204「指定された文章を入力」にて、指定された一連の文章を文章記憶手段20から入力する処理を行う。文章記憶手段20は、ハードディスク等の記憶手段984内部に設けても良いし、インターネット10等を介して接続されている他の通信機器機やサーバ等に設けてもよい。S204にて、指定された一連の文章の入力が終了すると、情報処理手段980が実行する処理はS206「一文解析」の処理に進む。   When a sentence to be read out automatically is designated by a user or the like, the designation is acquired by the information processing means 980 via the bus 999. When the designation of the reading text is input, the information processing unit 980 (including the function of the text input unit 26) inputs the specified series of texts from the text storage unit 20 in S204 “Input specified text”. Process. The text storage unit 20 may be provided inside the storage unit 984 such as a hard disk, or may be provided in another communication device or server connected via the Internet 10 or the like. When the input of the designated series of sentences is completed in S204, the process executed by the information processing unit 980 proceeds to the process of S206 “single sentence analysis”.

S206にて情報処理手段980は、入力した文章について解析を行って一文毎に区切る処理を行う。文章の区切りは、一文毎に限定するものではなく、段落毎に区切ってもよいし文節毎、鍵括弧毎、句読点毎に区切るようにしてもよい。一文解析処理が終了すると、情報処理手段980が実行する処理は、次のS208「文章を単語毎に区切る」に進む。   In S <b> 206, the information processing unit 980 performs processing for analyzing the input sentence and dividing it into sentences. The sentence delimiter is not limited to each sentence, but may be delimited for each paragraph, each sentence, each bracket, and each punctuation mark. When the one sentence analysis process is completed, the process executed by the information processing means 980 proceeds to the next step S208 “separate sentences into words”.

S208にて情報処理手段980は、文章に対して分かち書き等の処理を行って、文章を単語毎に区切る処理を行う。文章を単語毎に区切る処理が終了すると、情報処理手段980が実行する処理は、次のS210「感情付与」の処理に進む。   In S208, the information processing unit 980 performs processing such as division on the sentence, and performs processing for dividing the sentence into words. When the process of dividing the sentence into words is completed, the process executed by the information processing unit 980 proceeds to the next S210 “emotion provision” process.

S210にて情報処理手段980は、区切った各単語を用いて感情辞書22を参照し、感情情報、読み、アクセント、又は品詞等の単語に関する情報を取得する処理を行う。図2(a)、図2(b)及び図3に示すように、感情辞書22には、予め単語毎に、好意的、喜び、動的怒り、丁寧さ、快さ、悲しさ、静的怒り、不快さ、恨み、又は普通等の感情情報が関連付けて記憶されている。例えば単語「美し」について感情情報を取得する場合には、単語「美し」と関連付けられている「C」の感情種類(図4参照)と、「1」の感情レベルと、品詞とを感情辞書22から検索して取得する処理を行う(図2(a)参照)。そして、全ての単語について取得した感情情報を関連付けて、感情を付与した文章を生成する処理を行う。   In S210, the information processing means 980 refers to the emotion dictionary 22 using each divided word, and performs processing for acquiring information related to words such as emotion information, reading, accent, or part of speech. As shown in FIG. 2A, FIG. 2B, and FIG. 3, the emotion dictionary 22 stores in advance, for each word, favor, joy, dynamic anger, politeness, pleasure, sadness, static Emotion information such as anger, discomfort, grudge, or ordinary is stored in association with each other. For example, when acquiring emotion information for the word “beauty”, the emotion type of “C” (see FIG. 4) associated with the word “beauty”, the emotion level of “1”, and the part of speech A process of searching and acquiring from the emotion dictionary 22 is performed (see FIG. 2A). And the process which produces | generates the sentence which provided the emotion was linked | related with the emotion information acquired about all the words.

例えば、実施例1の文章として、「鏡よ鏡、この世で一番美しいのはだあれ?」(グリム童話:白雪姫より引用。)を用い、単語毎に感情を付与した文章を生成すると、「鏡(名詞)/よ(助詞)|鏡(名詞)/、(記号)|この世(名詞)/で(助詞)|一番(副詞[+2])|美し(形容詞[C1])/い[F0]/のは(助詞)|だあれ(名詞)/?(記号)/」という文章が生成される。感情が付与された文章の生成処理が終了すると、情報処理手段980が実行する処理は、次のS212「文章毎に感情情報を取得」に進む。   For example, as a sentence of Example 1, using “Mirror mirror, who is the most beautiful in the world?” (Quoted from Grimm Fairy Tale: Snow White) and generating a sentence with emotions for each word, Mirror (noun) / yo (particle) | Mirror (noun) /, (symbol) | This world (noun) / de (particle) | Ichiban (adverb [+2]) | Beauty (adjective [C1]) / F0] / noha (particle) | daare (noun) /? (Symbol) / "is generated. When the generation process of the sentence to which the emotion is given ends, the process executed by the information processing unit 980 proceeds to the next step S212 “Acquire emotion information for each sentence”.

S212にて情報処理手段980(感情付文章生成手段32の機能を含む。)は、感情が付与された文章の各感情情報に基づいて感情情報付きの文章を生成する処理を行う。   In S212, the information processing unit 980 (including the function of the emotion-added sentence generating unit 32) performs processing for generating a sentence with emotion information based on each emotion information of the sentence to which the emotion is given.

例えば、「鏡よ鏡、この世で一番美しいのはだあれ?」という前述の文章の場合、「一番」という単語について[+2]の感情強調情報が関連付けられており、「美し」という単語について[C1]という感情種類と感情レベルとが関連付けられている。また、「い」という単語については[F0]の感情種類と感情レベルとが関連付けられている。この文章を自動で読み上げる際に用いる感情情報を定める処理の代表的なものとして、
(1)文章中の各感情情報のうち、最大の感情レベルを有する感情種類とその感情レベルとを文章の感情情報として取得する処理
(2)文章中の各感情レベルを各感情情報毎に加算し、最大の感情レベルを有する感情種類と加算した感情レベルを文章の感情情報として取得する処理
(3)文章中で一番多く用いられている感情種類をその文章文章の感情情報として取得する処理
(4)文章中の付属語の感情情報を用いて文章の感情情報を取得する処理
(5)前の文章の感情情報を引き継ぐ処理
(6)文章中の各感情情報のうち、出現順が後ろの感情種類とその感情レベルとを文章の感情情報として取得する処理
(7)文章中の各感情情報のうち、前もって設定した優先順位を用い、優先順位の高い感情種類とその感情レベルとを文章の感情情報として取得する処理
等の処理を挙げることができる。
For example, in the case of the above sentence, “Mirror and mirror, who is the most beautiful in the world?”, “+2” emotion emphasis information is associated with the word “Most” and “Beauty” The emotion type [C1] and the emotion level are associated with the word. For the word “I”, the emotion type and emotion level of [F0] are associated with each other. As a representative process of determining emotion information used when automatically reading this sentence,
(1) Processing for obtaining the emotion type having the maximum emotion level and the emotion level among the emotion information in the sentence as emotion information of the sentence (2) Adding each emotion level in the sentence for each emotion information (3) A process of acquiring the emotion type most frequently used in the sentence as the emotion information of the sentence sentence. (4) Process of acquiring emotion information of sentence using emotion information of attached word in sentence (5) Process of inheriting emotion information of previous sentence (6) Out of each emotion information in sentence, appearance order is backward To obtain the emotion type and the emotion level as the emotion information of the sentence (7) Of the emotion information in the sentence, the priority set in advance is used, and the emotion type with the higher priority and the emotion level are sentenced Emotions Treatment processing for acquiring may be mentioned as.

また、文章中の各感情情報の中から、最大の感情レベル又は最大頻度となる一つの感情種類を特定することができない場合には、文章中の単語、文節、句読点間等の単位で区切り、各単位毎に個別の感情種類を付与する処理を行うこともできる。   Also, if it is not possible to identify one emotion type with the maximum emotion level or maximum frequency from each emotion information in the sentence, it is divided in units such as words, phrases, punctuation marks in the sentence, It is also possible to perform a process of assigning individual emotion types for each unit.

なお、上記(1)〜(7)の処理の説明及びS212の処理の詳細については、図6のフローチャートを用いて別途説明を行うこととし、ここでは上記(1)の処理を用いた実施形態で説明する。   The description of the processes (1) to (7) and the details of the process of S212 will be described separately using the flowchart of FIG. 6, and here, the embodiment using the process (1) is used. I will explain it.

上記実施例1の文章の感情種類のうち、最大の感情レベルを有する感情情報は「美し」という単語についての[C1]である。この実施例1の文章には、他に「一番」という単語について[+2]の感情強調情報が関連付けられているので、「美し」の[C1]及び「一番」の[+2]を用いて、[C3]の感情情報を取得することができる。文章の感情情報を取得すると、情報処理手段980(感情付文章生成手段32の機能を含む。)は、当該感情情報と文章とを関連付けた感情付文章を生成する処理を行う。   Of the emotion types of the sentence in the first embodiment, the emotion information having the maximum emotion level is [C1] for the word “beauty”. Since the sentence of Example 1 has [+2] emotion emphasis information associated with the word “Ichiban” in addition, [C1] of “Beauty” and [+2] of “Ichiban” It is possible to acquire emotion information of [C3]. When the emotion information of the text is acquired, the information processing unit 980 (including the function of the emotion-added text generation unit 32) performs a process of generating an emotion-added text that associates the emotion information with the text.

ここで生成する感情付文章は、例えば上記実施例1の文章の場合、文章の先頭に[C3]を付加した「[C3]:鏡(名詞)/よ(助詞)|鏡(名詞)/、(記号)|この世(名詞)/で(助詞)|一番(副詞[+2])|美し(形容詞[C1])/い[F0]/のは(助詞)|だあれ(名詞)/?(記号)/」である。   For example, in the case of the sentence of Example 1 described above, the sentence with emotion generated here adds [C3] to the head of the sentence “[C3]: mirror (noun) / yo (particle) | mirror (noun) /, (Symbol) | this world (noun) / de (particle) | first (adverb [+2]) | beautiful (adjective [C1]) / i [F0] / noha (particle) | daare (noun) /? (Symbol) / ".

感情付文章の生成が終了すると、情報処理手段980が実行する処理はS214「音韻付文章の生成」に進む。   When the generation of the sentence with emotion is finished, the processing executed by the information processing unit 980 proceeds to S214 “Generation of sentence with phoneme”.

次のS214にて情報処理手段980(感情付文章生成手段32の機能を含む。)は、感情付文章の単語の読み、アクセント、品詞及び感情情報を用い、音響辞書24を参照して、発音単位毎に音韻情報を関連付けた音韻付文章の生成を行う。音響辞書24に対しては、音素、音節、モーラ、形態素、単語、又はアクセント句等の発音単位毎に読みを指定し、音声を発生する際の音声の音程若しくは母音ホルマント、音声の強勢、発声速度、発声強度、又は抑揚等の音韻情報を取得して、音声を発声させるための音韻付文章を生成する処理を行う。音韻付文章の生成が終了すると、情報処理手段980が実行する処理は次のS216「音声情報の生成」の処理に進む。   In the next S214, the information processing means 980 (including the function of the emotion-added sentence generating means 32) uses the word reading of the sentence with emotion, the accent, the part of speech, and the emotion information, and refers to the acoustic dictionary 24 to pronounce. A phonological sentence with associated phoneme information is generated for each unit. For the acoustic dictionary 24, reading is specified for each pronunciation unit such as phonemes, syllables, mora, morphemes, words, accent phrases, etc., and the pitch or vowel formant of the speech when generating the speech, the strength of the speech, the utterance The phoneme information such as speed, utterance intensity, or intonation is acquired, and a process for generating a phoneme-added sentence for uttering speech is performed. When the generation of the phoneme-added sentence is completed, the process executed by the information processing unit 980 proceeds to the next process of S216 “generation of voice information”.

S216にて情報処理手段980は、S214にて生成した音韻付文章に基づいて、音声波形を生成するための音声情報を生成する。そして、その音声情報を出力音声処理手段966に出力して、スピーカ等の音声出力手段から感情表現付の音声を発声させる処理を行う。   In S216, the information processing unit 980 generates speech information for generating a speech waveform based on the phoneme-added sentence generated in S214. Then, the audio information is output to the output audio processing unit 966, and a process of producing a voice with emotion expression from the audio output unit such as a speaker is performed.

上記実施例1の文章の例では、「カガミヨ|カガミ|コノヨデ/イチバン/ウツクシーノワ/ダアレ」という読みで、感情を付加した音声を発声する。感情表現を含む音声は、S106「音声受聴」にて利用者が受聴する。   In the example of the sentence of the first embodiment, a voice with emotion added is uttered by reading “Kagamyo | Kagami | Konoyode / Ichiban / Utsukushinowa / Dare”. The voice including emotional expression is received by the user in S106 “voice listening”.

音声情報の生成は、音声の音程若しくは母音ホルマント、音声の強勢、発声速度、発声強度、又は抑揚等の音韻情報に基づいて、発声する音声の周波数の組み合わせ、音量、及び発音単位の間隔等を調節した音声情報を生成する。音声情報又は音声信号の生成は、全て電子的に合成してもよいし、声優が感情表現を踏まえて発した音声を発音単位毎に分解したものを合成して生成するようにしてもよい。   The voice information is generated based on phonetic information such as voice pitch or vowel formant, voice stress, utterance speed, utterance intensity, or inflection, etc. Generate adjusted audio information. The generation of the voice information or the voice signal may be all synthesized electronically, or may be generated by synthesizing a voice produced by a voice actor based on emotional expression and disassembled for each pronunciation unit.

また、音声情報を生成する際に、感情情報が関連付けられている単語について、そのと感情種類や感情レベル等に応じて、ゆっくり読み上げたり、ピッチや音量を上げて読み上げるための音韻情報を音響辞書から取得して、音声情報を生成するようにしてもよい。   In addition, when generating speech information, the phonetic information for words that have emotion information associated with them is read aloud slowly or according to the emotion type, emotion level, etc. To obtain voice information.

音声情報の生成処理が終了すると、情報処理手段980が実行する処理は次のS220「最後の文章?」に進む。   When the voice information generation process ends, the process executed by the information processing means 980 proceeds to the next S220 “last sentence?”.

S220にて情報処理手段は、S204にて入力した一連の文章のうち、S216にて音声情報の生成を行った文章が最後の文章であるか否かの判断を行っている。まだ文章が残っている場合(S220;No)には、情報処理手段980が実行する処理はS206に戻り、S216にて音声情報の生成を行った文章が最後の文章である場合(S220;Yes)には、情報処理手段980が実行する処理はS222「終了」に進み、感情付加処理を終了する。   In S220, the information processing means determines whether or not the sentence for which the voice information is generated in S216 is the last sentence in the series of sentences input in S204. When the sentence still remains (S220; No), the process executed by the information processing unit 980 returns to S206, and when the sentence for which the voice information is generated in S216 is the last sentence (S220; Yes). ), The process executed by the information processing means 980 proceeds to “End” in S222, and the emotion addition process ends.

次に、S212「文章毎に感情情報を取得」の詳細な処理について、図6のフローチャートを用いて説明する。   Next, detailed processing of S212 “acquire emotion information for each sentence” will be described with reference to the flowchart of FIG.

図5のS212に処理が進むと、情報処理手段980(感情付与手段30又は感情付文章生成手段32の機能を含む。)が実行する処理はS302「文章中の単語から文章の感情情報を取得」の処理に進む。   When the process proceeds to S212 in FIG. 5, the process executed by the information processing unit 980 (including the function of the emotion imparting unit 30 or the emotion-added sentence generating unit 32) is S302 “acquires emotion information of the sentence from the words in the sentence. The process proceeds to.

S302にて情報処理手段980は、上記(1)文章中の各単語と関連付けられている感情情報のうち、最大の感情レベルを有する感情種類とその感情レベルとを文章の感情情報として取得する処理を行って、感情付きの文章を生成する処理を行う。   In S302, the information processing means 980 obtains the emotion type having the maximum emotion level and the emotion level as emotion information of the sentence among the emotion information associated with each word in the sentence (1). To generate a sentence with emotion.

上記(1)の処理を用いる場合には、当該文章中の各単語の感情情報のうち、最大の感情レベルを有する感情種類とその感情レベルとを文章の感情情報として取得する処理を行う。上記実施例1の文章の場合には、「美し」という単語についての[C1]と、「い」という語尾の単語についての[F0]との感情情報が存在するが、感情レベルの高い「美し」という単語についての[C1]の感情情報を取得する。更に、感情強調情報を採用する場合には、「一番」という単語について関連付けられている[+2]の感情強調情報を採用して、「美し」の[C1]及び「一番」の[+2]を用いて、[C3]の感情情報を取得する。   When the process (1) is used, a process of acquiring the emotion type having the maximum emotion level and the emotion level among the emotion information of each word in the sentence as the emotion information of the sentence is performed. In the case of the sentence of the first embodiment, there is emotion information of [C1] for the word “beauty” and [F0] for the word ending with “I”, but the emotion level “ The emotion information of [C1] for the word “beauty” is acquired. Further, when the emotion emphasis information is adopted, the [+2] emotion emphasis information associated with the word “most” is adopted, and “C1” of “beauty” and “ +2] is used to obtain emotion information of [C3].

また、上記(1)の処理に変えて、上記(2)〜(7)の処理を行って、感情付きの文章を生成する処理を行っても良い。   Further, instead of the process (1), the processes (2) to (7) may be performed to generate a sentence with emotion.

上記(2)の処理を用いる場合には、当該文章中の各単語の感情レベルを各感情種類毎に加算し、最大の感情レベルを有する感情種類と加算した感情レベルを文章の感情情報として取得する処理を行う。上記実施例1の文章の場合には、「美し」という単語についての[C1]と、「い」という語尾の単語についての[F0]の感情情報しか存在しないので、感情レベルの高い「美し」という単語についての[C1]の感情情報を取得する。更に、感情強調情報を採用する場合には、「一番」という単語について関連付けられている[+2]の感情強調情報を採用して、「美し」の[C1]及び「一番」の[+2]を用いて、[C3]の感情情報を取得する。この実施例1の文章の場合には、上記(1)の処理を用いた場合と同一の感情付文章が得られる。   When the process (2) is used, the emotion level of each word in the sentence is added for each emotion type, and the emotion level having the maximum emotion level and the added emotion level is acquired as the emotion information of the sentence. Perform the process. In the case of the sentence of the first embodiment, there is only emotion information of [C1] for the word “beauty” and [F0] for the word ending with “I”. The emotion information of [C1] for the word “shi” is acquired. Further, when the emotion emphasis information is adopted, the [+2] emotion emphasis information associated with the word “most” is adopted, and “C1” of “beauty” and “ +2] is used to obtain emotion information of [C3]. In the case of the text of Example 1, the same text with emotion is obtained as in the case of using the process (1).

上記(3)の処理を用いる場合には、当該文章中の各単語と関連付けられている感情種類を各感情種類毎に加算し、その加算した各感情種類のうち、一番多く用いられている最大頻度となる感情種類を文章の感情情報として取得する処理を行う。上記実施例1の文章の場合には、「美し」という単語についての[C1]と、「い」という語尾の単語についての[F0]との感情情報が1つずつ存在するので、最大頻度となる一つの感情種類を特定することができない状態となる。   When the process (3) is used, the emotion type associated with each word in the sentence is added for each emotion type, and the most frequently used among the added emotion types. A process of acquiring the emotion type having the highest frequency as the emotion information of the sentence is performed. In the case of the sentence of Example 1, there is one emotion information of [C1] for the word “beauty” and [F0] for the word ending with “I”, so the maximum frequency It becomes a state where one emotion type that becomes can not be specified.

このように、取得した各感情情報の中から、最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合には、上記(1)の処理の後に上記(2)〜(7)のいずれかの処理を実行するようにしてもよいし、又は、文章中の単語、文節、句読点間等の単位で区切って各単位毎に個別の感情種類を付与する処理を行うようにしてもよい。これらの処理は、利用者が感情付与のモードを切替可能な構成してもよいし、条件に応じて自動で切り換えるように構成してもよい。   As described above, when it is not possible to specify one emotion type having the maximum emotion level or maximum frequency from the acquired emotion information, the above (2) is performed after the processing of (1). The processing of any of (7) to (7) may be executed, or the processing of assigning an individual emotion type for each unit by dividing into words, phrases, punctuation marks, etc. in the sentence. You may do it. These processes may be configured such that the user can switch the emotion imparting mode, or may be configured to automatically switch depending on conditions.

S302にて文章中の単語から文章の感情情報を取得する処理が終了すると、情報処理手段980が実行する処理は、次のS304「文章に感情情報なし又は普通[F0]?」の判断に進む。   When the process of acquiring the emotion information of the sentence from the words in the sentence ends in S302, the process executed by the information processing means 980 proceeds to the next determination of S304 "No emotion information in the sentence or normal [F0]?" .

S304にて情報処理手段980は、S302にて一つの感情種類を特定することができなかったか、又は取得した文章の感情情報が「普通[F0]」の感情を表す情報であったか否かの判断を行っている。   In S304, the information processing means 980 determines whether one emotion type could not be specified in S302, or whether the emotion information of the acquired text was information representing an emotion of “ordinary [F0]”. It is carried out.

もし、「普通[F0]」以外の感情情報を取得している場合(S304;No)には、処理はS306「戻る」に進み、図5に示したS214の処理に進む。   If emotion information other than “normal [F0]” has been acquired (S304; No), the process proceeds to “return” to S306, and proceeds to the process of S214 illustrated in FIG.

また、一つの感情種類を特定することができなかったか、又は取得した文章の感情情報が「普通[F0]」の感情を表す情報である場合(S304;Yes)には、情報処理手段980が実行する処理はS308「段落先頭の文章か?」の判断に進む。   If one emotion type could not be specified, or the emotion information of the acquired text is information representing an emotion of “normal [F0]” (S304; Yes), the information processing means 980 The process to be executed proceeds to the determination in S308 “Is the sentence at the beginning of a paragraph?

S308にて情報処理手段980は、当該解析中の文章が、段落の先頭の文章であるか否かの判断を行っている。もし、当該解析を行っている文章が段落先頭の文章である場合(S308;Yes)には、S310「文章の感情情報を「普通」[F0]に設定」の処理に進み、当該文章に「普通」[F0]の感情情報を関連付けた感情付文章を生成する処理を行って、S306に進む。   In S308, the information processing means 980 determines whether or not the sentence being analyzed is the first sentence of the paragraph. If the sentence being analyzed is the first sentence of the paragraph (S308; Yes), the process proceeds to S310 “Set emotion information of sentence to“ Normal ”[F0]”. Processing is performed to generate a sentence with emotion associated with emotion information of “normal” [F0], and the process proceeds to S306.

S308にて、当該解析を行っている文章が段落先頭の文章でないと判断した場合(S308;No)には、S312「前文章と同一の感情情報に設定」の処理に進み、前文章の感情情報を当該文章の感情情報として関連付けた感情付文章を生成する処理を行って、S306に進む。   In S308, when it is determined that the sentence being analyzed is not the first sentence in the paragraph (S308; No), the process proceeds to S312 “Set same emotion information as previous sentence”, and the emotion of the previous sentence Processing for generating a sentence with emotion in which information is associated as emotion information of the sentence is performed, and the process proceeds to S306.

次に、図7を用いて、文章を読み上げる際の感情付加処理の他の実施例について説明する。   Next, another embodiment of emotion addition processing when reading a sentence will be described with reference to FIG.

図7は、入力した文章から感情付文章を生成する過程を示す図表である。   FIG. 7 is a chart showing a process of generating a sentence with emotion from the input sentence.

図7に示す実施例では、利用者は、物語「白雪姫」の読み上げを指定した場合の実施例である。   In the embodiment shown in FIG. 7, the user designates the reading of the story “Snow White”.

利用者が読み上げ文章を指定すると、感情付加装置900は指定された物語の文章を文章記憶手段20から入力する(図5に示したS204の処理。)。入力した物語の文章について一文解析を行った結果(図5に示したS206の処理。)、「鏡よ鏡、この世で一番美しいのはだあれ?」という文章を取得したとする(実施例1の文章)。   When the user designates a text to be read out, the emotion adding device 900 inputs the text of the designated story from the text storage unit 20 (the process of S204 shown in FIG. 5). As a result of performing a single sentence analysis on the text of the input story (the process of S206 shown in FIG. 5), it is assumed that the text “Mirror mirror, what is the most beautiful in the world?” Is acquired (Example) 1 sentence).

この実施例1の文章について形態素解析手段28が単語毎に区切る処理を行った後、感情付与手段30が感情辞書22を参照して単語毎に感情情報を取得して、感情情報と単語とを関連付けた文章を生成すると、「鏡(名詞)/よ(助詞)|鏡(名詞)/、(記号)|この世(名詞)/で(助詞)|一番(副詞[+2])|美し(形容詞[C1])/い[F0]/のは(助詞)|だあれ(名詞)/?(記号)/」という文章が生成される(図5に示したS208及びS210の処理。)。   After the morphological analysis unit 28 performs processing for dividing the word of the sentence of Example 1 for each word, the emotion imparting unit 30 refers to the emotion dictionary 22 to acquire emotion information for each word, and the emotion information and the word are combined. When the associated sentence is generated, “mirror (noun) / yo (particle) | mirror (noun) /, (symbol) | this world (noun) / de (particle) | first (adverb [+2]) | The adjective [C1]) / I [F0] / noha (particle) | daare (noun) /? (Symbol) / "is generated (the processing of S208 and S210 shown in FIG. 5).

次に、実施例1の文章内の各単語に関連付けられている感情情報を、上記(2)の、「文章中の各単語の感情レベルを各感情情報毎に加算し、最大の感情レベルを有する感情情報と加算した感情レベルを文章の感情情報として取得する処理」を用いて集計する。ここでは、文章感情取得手段が、「一番」という単語の感情強調情報[+2]と、「美し」という単語の感情種類と感情レベル[C1](図2(a)参照)とに基づいて、[C3](快さ:感情レベル3)の感情情報を取得する。そして、感情付文章生成手段32が、実施例1の文章と[C3]の感情情報とを関連付けた感情付文章を生成する(図5に示したS212の処理。)。   Next, the emotion information associated with each word in the sentence of Example 1 is added to the above (2) by adding the emotion level of each word in the sentence for each emotion information to obtain the maximum emotion level. The processing is totaled using “a process of acquiring the emotion level and the added emotion level as the emotion information of the sentence”. Here, the sentence emotion acquisition means is based on the emotion emphasis information [+2] of the word “most”, the emotion type and emotion level [C1] (see FIG. 2A) of the word “beauty”. Then, emotion information of [C3] (Pleasure: Emotion Level 3) is acquired. Then, the emotion-added text generation unit 32 generates an emotion-added text that associates the text of Example 1 with the emotion information of [C3] (the process of S212 shown in FIG. 5).

次に、感情付文章生成手段32が音響辞書を参照して、各単語の感情情報に対応した音韻情報を発音単位毎に取得して、音韻情報を発音単位毎に関連付けた音韻付文章を生成する(図5に示したS214の処理)。そして、音声情報生成手段が、音韻付文章に関連付けられている音韻情報に基づいて、発音単位毎に音声情報を生成し、その音声情報を出力音声処理手段966に出力して、スピーカ等の音声出力手段から感情表現付の音声を発声させる。   Next, the emotion-added sentence generating means 32 refers to the acoustic dictionary, acquires phoneme information corresponding to the emotion information of each word for each pronunciation unit, and generates a phoneme-added sentence in which the phoneme information is associated with each pronunciation unit. (Step S214 shown in FIG. 5). Then, the voice information generating means generates voice information for each pronunciation unit based on the phoneme information associated with the phoneme-added sentence, outputs the voice information to the output voice processing means 966, and the voice of the speaker or the like. The voice with emotion expression is uttered from the output means.

実施例1の文章の場合には、「カガミヨ|カガミ|コノヨデ/イチバン/ウツクシーノワ/ダアレ」という読みで、感情を付加した音声を発声し、利用者が受聴することができる。実施例1の文章が、入力した物語の最後の文章でない場合には、次の実施例2の文章を読み上げる処理を行う(図5に示したS216の処理。)。   In the case of the sentence of the first embodiment, the user can listen to the voice with emotion added by reading “Kagamiyo | Kagami | Konoyode / Ichiban / Utsukushinowa / Dare”. When the sentence of Example 1 is not the last sentence of the input story, the process of reading out the sentence of Example 2 is performed (the process of S216 shown in FIG. 5).

次に、「あの子を森の中へ連れて行って殺しておしまいっ」という文章を取得したとする(実施例2の文章とする。)。   Next, it is assumed that a sentence “Take that child into the forest and kill it” is acquired (referred to as a sentence of Example 2).

この実施例2の文章について形態素解析手段28が単語毎に区切る処理を行った後、感情付与手段30が感情辞書22を参照して単語毎に感情情報を取得して、感情情報と単語とを関連付けた文章を生成すると、「あの子(名詞)/を(助詞)/森(名詞)/の(助詞)/中(名詞)/へ(助詞)/連れ(動詞)/て行って(補助動詞)/殺(動詞[B2]/[E2])/し(語尾)/ておしまいっ(補助動詞[B2])/」という文章が生成される(図5に示したS208及びS210の処理。)。   After the morphological analysis unit 28 performs processing for dividing the word of the sentence of Example 2 for each word, the emotion imparting unit 30 refers to the emotion dictionary 22 to acquire emotion information for each word, and the emotion information and the word are combined. When the associated sentence is generated, “Anoko (Noun) / O (Participant) / Mori (Noun) / No (Participant) / Medium (Noun) / To (Participant) / Take (Verb) / ) / Killing (verb [B2] / [E2]) / do (ending) / deleting (auxiliary verb [B2]) / ”(processing of S208 and S210 shown in FIG. 5). .

次に、実施例2の文章内の各単語に関連付けられている感情情報を、上記(2)の、「文章中の各単語の感情レベルを各感情情報毎に加算し、最大の感情レベルを有する感情情報と加算した感情レベルを文章の感情情報として取得する処理」を用いて集計する。ここでは、文章感情取得手段が、「殺」という単語の感情種類と感情レベル[B2]又は[E2](図2(a)参照)と、「ておしまいっ」という単語の感情種類と感情レベル[B2](図3参照)とに基づいて、[B4](動的怒り:感情レベル4)の感情情報を取得する。そして、感情付文章生成手段32が、実施例2の文章と[B4]の感情情報とを関連付けた感情付文章を生成する(図5に示したS212の処理。)。   Next, the emotion information associated with each word in the sentence of Example 2 is added to the above (2) by adding the emotion level of each word in the sentence for each piece of emotion information, and obtaining the maximum emotion level. The processing is totaled using “a process of acquiring the emotion level and the added emotion level as the emotion information of the sentence”. Here, the sentence emotion acquisition means includes the emotion type and emotion level [B2] or [E2] (see FIG. 2 (a)) of the word “kill” and the emotion type and emotion level of the word “Otemai”. Based on [B2] (see FIG. 3), emotion information of [B4] (dynamic anger: emotion level 4) is acquired. Then, the emotion-added sentence generating unit 32 generates an emotion-added sentence that associates the sentence of Example 2 with the emotion information of [B4] (the process of S212 shown in FIG. 5).

次に、感情付文章生成手段32が音響辞書を参照して、各単語の感情情報に対応した音韻情報を発音単位毎に取得して、音韻情報を発音単位毎に関連付けた音韻付文章を生成する(図5に示したS214の処理)。そして、音声情報生成手段が、音韻付文章に関連付けられている音韻情報に基づいて、発音単位毎に音声情報を生成し、その音声情報を出力音声処理手段966に出力して、スピーカ等の音声出力手段から感情表現付の音声を発声させる。   Next, the emotion-added sentence generating means 32 refers to the acoustic dictionary, acquires phoneme information corresponding to the emotion information of each word for each pronunciation unit, and generates a phoneme-added sentence in which the phoneme information is associated with each pronunciation unit. (Step S214 shown in FIG. 5). Then, the voice information generating means generates voice information for each pronunciation unit based on the phoneme information associated with the phoneme-added sentence, outputs the voice information to the output voice processing means 966, and the voice of the speaker or the like. The voice with emotion expression is uttered from the output means.

実施例2の文章の場合には、「アノコヲ/モリノ/ナカエ/ツレテイッテ/コロシテオシマイッ」という読みで、感情を付加した音声を発声し、利用者が受聴することができる。実施例2の文章が、入力した物語の最後の文章でない場合には、次の実施例3の文章を読み上げる処理を行う(図5に示したS216の処理。)。   In the case of the sentence of the second embodiment, a voice with added emotion can be uttered and read by the user by reading “Anocowo / Morino / Nakae / Tureteite / Colosseoshimai”. When the sentence of Example 2 is not the last sentence of the input story, the process of reading out the sentence of Example 3 is performed (the process of S216 shown in FIG. 5).

次に、「何だと思ってるんだ」という文章を取得したとする(実施例3の文章とする。)。   Next, it is assumed that a sentence “What do you think?” Is acquired (referred to as a sentence of Example 3).

この実施例3の文章について形態素解析手段28が単語毎に区切る処理を行った後、感情付与手段30が感情辞書22を参照して単語毎に感情情報を取得して、感情情報と単語とを関連付けた文章を生成すると、「何(名詞[+1])/だ(助動詞)/と(助詞)/思(動詞)/っ(語尾)/てるんだ(補助動詞)[*B2/A1]/」という文章が生成される(図5に示したS208及びS210の処理。)。   After the morphological analysis unit 28 performs processing for dividing the sentence of the third embodiment for each word, the emotion imparting unit 30 refers to the emotion dictionary 22 to acquire emotion information for each word, and the emotion information and the word are combined. When an associated sentence is generated, “what (noun [+1]) / da (auxiliary verb) / to (particle) / thought (verb) / tsu (ending) / teruda (auxiliary verb) [* B2 / A1] / Is generated (the processing of S208 and S210 shown in FIG. 5).

次に、実施例3の文章内の各単語に関連付けられている感情情報を、上記(2)の、「文章中の各単語の感情レベルを各感情情報毎に加算し、最大の感情レベルを有する感情情報と加算した感情レベルを文章の感情情報として取得する処理」を用いて集計する。ここでは、文章感情取得手段が、「何」という単語の感情強調情報[+1](図2(a)参照)と、「てるんだ」という語尾の単語の感情種類と感情レベル[*B2]又は[A1](図3参照)とに基づいて、[B3](動的怒り:感情レベル3)の感情情報を取得する。そして、感情付文章生成手段32が、実施例3の文章と[B3]の感情情報とを関連付けた感情付文章を生成する(図5に示したS212の処理。)。   Next, the emotion information associated with each word in the sentence of Example 3 is added to the above (2) by adding the emotion level of each word in the sentence for each piece of emotion information, and obtaining the maximum emotion level. The processing is totaled using “a process of acquiring the emotion level and the added emotion level as the emotion information of the sentence”. Here, the sentence emotion acquisition means includes the emotion emphasis information [+1] of the word “what” (see FIG. 2A) and the emotion type and the emotion level [* B2] of the word ending with “Terunda”. Alternatively, emotion information of [B3] (dynamic anger: emotion level 3) is acquired based on [A1] (see FIG. 3). Then, the emotion-added sentence generating unit 32 generates an emotion-added sentence that associates the sentence of Example 3 with the emotion information of [B3] (the process of S212 shown in FIG. 5).

次に、感情付文章生成手段32が音響辞書を参照して、各単語の感情情報に対応した音韻情報を発音単位毎に取得して、音韻情報を発音単位毎に関連付けた音韻付文章を生成する(図5に示したS214の処理)。そして、音声情報生成手段が、音韻付文章に関連付けられている音韻情報に基づいて、発音単位毎に音声情報を生成し、その音声情報を出力音声処理手段966に出力して、スピーカ等の音声出力手段から感情表現付の音声を発声させる。   Next, the emotion-added sentence generating means 32 refers to the acoustic dictionary, acquires phoneme information corresponding to the emotion information of each word for each pronunciation unit, and generates a phoneme-added sentence in which the phoneme information is associated with each pronunciation unit. (Step S214 shown in FIG. 5). Then, the voice information generating means generates voice information for each pronunciation unit based on the phoneme information associated with the phoneme-added sentence, outputs the voice information to the output voice processing means 966, and the voice of the speaker or the like. The voice with emotion expression is uttered from the output means.

実施例3の文章の場合には、「ナンダト/オモッテルンダ」という読みで、感情を付加した音声を発声し、利用者が受聴することができる。実施例3の文章が、入力した物語の最後の文章でない場合には、次の文章を読み上げる処理を行い、実施例3の文章が最後の文章である場合には感情付加処理を終了する(図5に示したS222の処理。)。   In the case of the sentence of the third embodiment, the user can listen to the voice with emotion added by reading “Nandato / Omotterunda”. If the sentence of the third embodiment is not the last sentence of the input story, the next sentence is read out, and if the sentence of the third embodiment is the last sentence, the emotion addition process is terminated (see FIG. Step S222 shown in FIG.

次に、図8を用いて、文章を読み上げる際の感情付加処理の他の実施例について説明する。   Next, another embodiment of emotion addition processing when reading a sentence will be described with reference to FIG.

図8は、入力した文章から感情情報付きの文章を生成する過程を示す図表である。   FIG. 8 is a chart showing a process of generating a sentence with emotion information from the input sentence.

図8に示す実施例では、利用者は、小説「シャーロックホームズ」の読み上げを指定した場合の実施例である。   In the embodiment shown in FIG. 8, the user designates the reading of the novel “Sherlock Holmes”.

利用者が読み上げ文章を指定すると、感情付加装置900は指定された物語の文章を文章記憶手段20から入力する(図5に示したS204の処理。)。そして、「もうそろそろだな。」という文章を取得したとする(実施例4の文章とする。)。   When the user designates a text to be read out, the emotion adding device 900 inputs the text of the designated story from the text storage unit 20 (the process of S204 shown in FIG. 5). Then, it is assumed that a sentence “It is almost time” has been acquired (referred to as a sentence of Example 4).

この実施例4の文章について形態素解析手段28が単語毎に区切る処理を行った後、感情付与手段30が感情辞書22を参照して単語毎に感情情報を取得して、感情情報と単語とを関連付けた文章を生成すると、「もう(副詞)/そろそろ(副詞)/だな(助詞)/。(記号)/」という文章が生成される(図5に示したS208及びS210の処理。)。   After the morphological analysis unit 28 performs processing for dividing the word of the sentence of Example 4 for each word, the emotion imparting unit 30 refers to the emotion dictionary 22 to acquire emotion information for each word, and the emotion information and the word are combined. When the associated sentence is generated, a sentence “another (adverb) / soon (adverb) / dana (particle) /. (Symbol) /” is generated (the processing of S208 and S210 shown in FIG. 5).

次に、実施例4の文章内の各単語に関連付けられている感情情報を、上記(2)の、「文章中の各単語の感情レベルを各感情情報毎に加算し、最大の感情レベルを有する感情情報と加算した感情レベルを文章の感情情報として取得する処理」を用いて集計する。ところが、実施例4の文章の各単語「もう」、「そろそろ」、「だな」及び「。」のいずれにも感情情報が関連付けられていない(図2(a)、図2(b)及び図3参照)。実施例4の文章が、段落先頭の文章であるとすると、実施例4の文章と[F0](普通)の感情情報とを関連付けた感情付文章を生成する(図6に示したS304〜S310の処理。)。   Next, the emotion information associated with each word in the sentence of Example 4 is added to the above (2) by adding the emotion level of each word in the sentence for each piece of emotion information. The processing is totaled using “a process of acquiring the emotion level and the added emotion level as the emotion information of the sentence”. However, emotion information is not associated with any of the words “already”, “soon”, “dana”, and “.” In the sentence of Example 4 (FIGS. 2A, 2B, and 2). (See FIG. 3). If the sentence of Example 4 is the sentence at the beginning of the paragraph, the sentence with emotion that associates the sentence of Example 4 with emotion information of [F0] (normal) is generated (S304 to S310 shown in FIG. 6). Processing.).

次に、感情付文章生成手段32が音響辞書を参照して、各単語の感情情報に対応した音韻情報を発音単位毎に取得して、音韻情報を発音単位毎に関連付けた音韻付文章を生成する(図5に示したS214の処理)。そして、音声情報生成手段が、音韻付文章に関連付けられている音韻情報に基づいて、発音単位毎に音声情報を生成し、その音声情報を出力音声処理手段966に出力して、スピーカ等の音声出力手段から感情表現付の音声を発声させる。   Next, the emotion-added sentence generating means 32 refers to the acoustic dictionary, acquires phoneme information corresponding to the emotion information of each word for each pronunciation unit, and generates a phoneme-added sentence in which the phoneme information is associated with each pronunciation unit. (Step S214 shown in FIG. 5). Then, the voice information generating means generates voice information for each pronunciation unit based on the phoneme information associated with the phoneme-added sentence, outputs the voice information to the output voice processing means 966, and the voice of the speaker or the like. The voice with emotion expression is uttered from the output means.

実施例4の文章の場合には、「モー/ソロソロダナ」という読みで、特別に感情を付加しない普通の読みで音声を発声し、利用者が受聴する。実施例4の文章が、入力した物語の最後の文章でない場合には、次の実施例5の文章を読み上げる処理を行う(図5に示したS216の処理。)。   In the case of the sentence of the fourth embodiment, the voice is uttered by a normal reading which does not add feelings specially by reading “Moo / Solo Solodana” and the user listens to it. When the sentence of Example 4 is not the last sentence of the inputted story, the process of reading the sentence of Example 5 is performed (the process of S216 shown in FIG. 5).

次に、「あのおぞましい目やおそろしげなのっぺりした顔を見ると。」という文章を取得したとする(実施例5の文章とする。)。   Next, it is assumed that the sentence “If you look at that ridiculous eye or a messy face” is acquired (referred to as the sentence of Example 5).

この実施例5の文章について形態素解析手段28が単語毎に区切る処理を行った後、感情付与手段30が感情辞書22を参照して単語毎に感情情報を取得して、感情情報と単語とを関連付けた文章を生成すると、「あの(連体詞)/おぞまし(形容詞([E3]助詞)/い(語尾)/目(名詞)/や(助詞)/おそろしげ(形容動詞[E3])/な(語尾)/のっぺり(副詞)/し(動詞)/た(助動詞)/顔(名詞)/を(助詞)/見(動詞)/る(語尾)/と(助詞)/。(記号)/」という文章が生成される(図5に示したS208及びS210の処理。)。   After the morphological analysis means 28 performs processing for dividing the words of this Example 5 for each word, the emotion imparting means 30 refers to the emotion dictionary 22 to acquire emotion information for each word, and the emotion information and the word are combined. When the associated sentence is generated, “Ano (communicative) / Ozomashi (adjective ([E3] particle) / I (ending) / eye (noun) / ya (particle) / fair (adjective verb [E3]) / na ( (End of word) / Topper (adverb) / Shi (verb) / Ta (auxiliary verb) / Face (noun) / (Participant) / See (verb) / Ru (End of word) / and (Participant) /. A sentence is generated (the processing of S208 and S210 shown in FIG. 5).

次に、実施例5の文章内の各単語に関連付けられている感情情報を、上記(2)の、「文章中の各単語の感情レベルを各感情情報毎に加算し、最大の感情レベルを有する感情情報と加算した感情レベルを文章の感情情報として取得する処理」を用いて集計する。ここでは、文章感情取得手段が、「おぞまし」という単語の感情種類と感情レベル[E3](図2(a)参照)と、「おそろしげ」という単語の感情種類と感情レベル[E3](図2(a)参照)とに基づいて、[E6]という感情種類と感情レベルとを取得する。なお、図4に示したように、動的怒りを表す感情情報[E]の感情レベルの最大値は、音響辞書24との関係で「4」に定められているので、文章感情取得手段は、取得した[E6]の感情情報を[E4](静的怒り:感情レベル4)に変更する処理を行う。そして、感情付文章生成手段が、実施例5の文章と[E4]の感情情報とを関連付けた感情付文章を生成する(図5に示したS212の処理。)。   Next, the emotion information associated with each word in the sentence of Example 5 is added to the above (2) by adding the emotion level of each word in the sentence for each emotion information to obtain the maximum emotion level. The processing is totaled using “a process of acquiring the emotion level and the added emotion level as the emotion information of the sentence”. Here, the sentence emotion acquisition means has the emotion type and emotion level [E3] (see FIG. 2 (a)) of the word “Ozomashi”, and the emotion type and emotion level [E3] (see FIG. 2). 2 (a)), the emotion type [E6] and the emotion level are acquired. As shown in FIG. 4, since the maximum emotion level of emotion information [E] representing dynamic anger is set to “4” in relation to the acoustic dictionary 24, the sentence emotion acquisition means Then, a process of changing the acquired emotion information of [E6] to [E4] (static anger: emotion level 4) is performed. Then, the emotion-added sentence generating means generates an emotion-added sentence that associates the sentence of Example 5 with the emotion information of [E4] (the process of S212 shown in FIG. 5).

次に、感情付文章生成手段32が音響辞書を参照して、各単語の感情情報に対応した音韻情報を発音単位毎に取得して、音韻情報を発音単位毎に関連付けた音韻付文章を生成する(図5に示したS214の処理)。そして、音声情報生成手段が、音韻付文章に関連付けられている音韻情報に基づいて、発音単位毎に音声情報を生成し、その音声情報を出力音声処理手段966に出力して、スピーカ等の音声出力手段から感情表現付の音声を発声させる。   Next, the emotion-added sentence generating means 32 refers to the acoustic dictionary, acquires phoneme information corresponding to the emotion information of each word for each pronunciation unit, and generates a phoneme-added sentence in which the phoneme information is associated with each pronunciation unit. (Step S214 shown in FIG. 5). Then, the voice information generating means generates voice information for each pronunciation unit based on the phoneme information associated with the phoneme-added sentence, outputs the voice information to the output voice processing means 966, and the voice of the speaker or the like. The voice with emotion expression is uttered from the output means.

実施例5の文章の場合には、「アノ/オゾマシー/メヤ/オソロシゲナ/ノッペリシタ/カオヲ/ミルト」という読みで、感情を付加した音声を発声し、利用者が受聴することができる。実施例5の文章が、入力した物語の最後の文章でない場合には、次の実施例6の文章を読み上げる処理を行う(図5に示したS216の処理)。   In the case of the sentence of the fifth embodiment, a voice with emotion added can be uttered by reading “Ano / Ozomasy / Meya / Osoroshigena / Noppelisita / Kaowo / Mirto” and can be heard by the user. If the sentence of the fifth embodiment is not the last sentence of the input story, a process of reading the next sentence of the sixth embodiment is performed (the process of S216 shown in FIG. 5).

次に、「ミルヴァートンを見るとちょうどそんな気分になるんだよ。」という文章を取得したとする(実施例6の文章とする。)。   Next, it is assumed that the sentence “I feel like that when I look at Milverton” is acquired (referred to as the sentence of Example 6).

この実施例6の文章について形態素解析手段28が単語毎に区切る処理を行った後、感情付与手段30が感情辞書22を参照して単語毎に感情情報を取得して、感情情報と単語とを関連付けた文章を生成すると、「ミルヴァートン(名詞)/を(助詞)/見(動詞)/る(語尾)/と(助詞)/ちょうど(副詞)/そんな(連体詞)/気分(名詞)/に(助詞)/な(動詞)/る(語尾)/んだよ(助動詞)/。(記号)/」という文章が生成される(図5に示したS208及びS210の処理。)。   After the morphological analysis unit 28 performs processing for dividing the sentence of Example 6 for each word, the emotion imparting unit 30 refers to the emotion dictionary 22 to acquire emotion information for each word, and the emotion information and the word are combined. When the associated sentence is generated, “Milverton (noun) / O (participant) / see (verb) / ru (ending) / to (particle) / just (adverb) / such (combined) / mood (noun) / (Sentence particles) / na (verb) / ru (ending) / danyo (auxiliary verb) /. (Symbol) / ”is generated (the processing of S208 and S210 shown in FIG. 5).

次に、実施例6の文章内の各単語に関連付けられている感情情報を、上記(2)の、「文章中の各単語の感情レベルを各感情情報毎に加算し、最大の感情レベルを有する感情情報と加算した感情レベルを文章の感情情報として取得する処理」を用いて集計する。ところが、実施例6の文章の各単語のいずれにも感情情報が関連付けられていない(図2(a)、図2(b)及び図3参照)。   Next, the emotion information associated with each word in the sentence of Example 6 is added to the above (2) by adding the emotion level of each word in the sentence for each piece of emotion information. The processing is totaled using “a process of acquiring the emotion level and the added emotion level as the emotion information of the sentence”. However, emotion information is not associated with any of the words in the sentence of Example 6 (see FIGS. 2A, 2B, and 3).

もし実施例6の文章が、段落先頭の文章であるとすると、実施例6の文章と[F0](普通)の感情情報とを関連付けた感情付文章を生成する(図6に示したS304〜S310の処理。)。しかし、実施例6の文章の前には実施例5の文章が存在するので、S312の処理に進み、直前の実施例5の文章の感情情報[E4]と同一の感情情報と関連付けた感情付文章を生成する。   If the sentence of Example 6 is the sentence at the beginning of a paragraph, a sentence with emotion that associates the sentence of Example 6 with emotion information of [F0] (normal) is generated (S304 to S304 shown in FIG. 6). Process of S310.) However, since the sentence of the fifth example exists before the sentence of the sixth example, the process proceeds to the process of S312 to add emotions associated with the same emotion information as the emotion information [E4] of the sentence of the previous fifth example. Generate sentences.

次に、感情付文章生成手段32が音響辞書を参照して、各単語の感情情報に対応した音韻情報を発音単位毎に取得して、音韻情報を発音単位毎に関連付けた音韻付文章を生成する(図5に示したS214の処理)。そして、音声情報生成手段が、音韻付文章に関連付けられている音韻情報に基づいて、発音単位毎に音声情報を生成し、その音声情報を出力音声処理手段966に出力して、スピーカ等の音声出力手段から感情表現付の音声を発声させる。   Next, the emotion-added sentence generating means 32 refers to the acoustic dictionary, acquires phoneme information corresponding to the emotion information of each word for each pronunciation unit, and generates a phoneme-added sentence in which the phoneme information is associated with each pronunciation unit. (Step S214 shown in FIG. 5). Then, the voice information generating means generates voice information for each pronunciation unit based on the phoneme information associated with the phoneme-added sentence, outputs the voice information to the output voice processing means 966, and the voice of the speaker or the like. The voice with emotion expression is uttered from the output means.

実施例4の文章の場合には、「ミルヴァートンヲ/ミルト/チョード/ソンナ/キブンニ/ナルンダヨ」という読みで、特別に感情を付加しない普通の読みで音声を発声し、利用者が受聴する。実施例6の文章が、入力した物語の最後の文章でない場合には、次の文章を読み上げる処理を行い、実施例6の文章が最後の文章である場合には感情付加処理を終了する(図5に示したS222)。   In the case of the sentence of the fourth embodiment, the voice is uttered by a normal reading that does not add special emotions in a reading of “Milvertonwo / Milt / Chodo / Sonna / Kibunni / Narudayo”, and the user listens. If the sentence of the sixth embodiment is not the last sentence of the input story, the next sentence is read out, and if the sentence of the sixth embodiment is the last sentence, the emotion addition process is terminated (see FIG. S222 shown in FIG.

このようにして、文章の内容に対応した音声で文章を読み上げることができる。   In this way, it is possible to read a sentence with a voice corresponding to the contents of the sentence.

次に、文章中の自立語と関連付けられている各感情情報を用いても、最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合に、文章中の付属語の感情情報を文章の感情情報として取得する実施形態について説明する。   Next, if each emotion information associated with an independent word in the sentence cannot be used to identify the maximum emotion level or one emotion type that has the maximum frequency, the adjunct word in the sentence An embodiment in which the emotion information is acquired as the emotion information of the sentence will be described.

利用者が「私は、悪魔でございます。」(実施例7の文章とする)という文章の読み上げを指定すると、形態素解析手段28が単語毎に区切る処理を行い、感情付与手段30が感情辞書22を参照して単語毎に感情情報を取得して、感情情報と単語とを関連付けた「私(代名詞)/は(係助詞)/悪魔(名詞[E2])/で(接続助詞)/ございます(断定助動詞[C1])/。(記号)/」という文章を生成する。(図5に示したS208及びS210の処理。)。   When the user designates the reading of the sentence “I am a devil” (which is the sentence of Example 7), the morpheme analysis means 28 performs a process of dividing into words, and the emotion giving means 30 is the emotion dictionary. “I (pronoun) / ha (correspondent particle) / devil (noun [E2]) / de (connecting particle) / Yes” The sentence “Mass (Conclusive auxiliary verb [C1]) /. (Symbol) /” is generated. (Processing of S208 and S210 shown in FIG. 5).

次に、実施例7の文章内の各単語に関連付けられている感情情報を、上記(4)の、「文章中の付属語の感情情報を用いて文章の感情情報を取得する処理」を用いて集計する。実施例7の文章には、「悪魔」という単語が存在し、感情種類及び感情レベルとして不快さを表す[E2]が関連付けられているが、本実施例の場合には、語尾の「ございます」という単語に関連付けられている丁寧さを表す[C1]の感情情報を取得して、感情付文章を生成する。   Next, the emotion information associated with each word in the sentence of Example 7 is used as the above-mentioned (4) “Process for obtaining the emotion information of the sentence using the emotion information of the attached word in the sentence”. Tally. In the text of Example 7, the word “devil” exists and is associated with [E2] representing the discomfort as the emotion type and emotion level. The emotion information of [C1] indicating the politeness associated with the word “is acquired, and the sentence with emotion is generated.

次に、感情付文章生成手段32が音響辞書を参照して、各単語の感情情報に対応した音韻情報を発音単位毎に取得して、音韻情報を発音単位毎に関連付けた音韻付文章を生成する(図5に示したS214の処理)。そして、音声情報生成手段が、音韻付文章に関連付けられている音韻情報に基づいて、発音単位毎に音声情報を生成し、その音声情報を出力音声処理手段966に出力して、スピーカ等の音声出力手段から感情表現付の音声を発声させる。   Next, the emotion-added sentence generating means 32 refers to the acoustic dictionary, acquires phoneme information corresponding to the emotion information of each word for each pronunciation unit, and generates a phoneme-added sentence in which the phoneme information is associated with each pronunciation unit. (Step S214 shown in FIG. 5). Then, the voice information generating means generates voice information for each pronunciation unit based on the phoneme information associated with the phoneme-added sentence, outputs the voice information to the output voice processing means 966, and the voice of the speaker or the like. The voice with emotion expression is uttered from the output means.

実施例7の文章の場合には、「ワタシ/ハ/アクマ/デ/ゴザイマス」という丁寧な読みで音声を発声する。このように、文章中に多様な感情情報が混在している場合であっても、文章全体の感情を表現している可能性の高い語尾の単語の感情情報を取得することによって、適切な感情で表現された文章を生成することができる。   In the case of the sentence of the seventh embodiment, the voice is uttered with a polite reading of “Watashi / Ha / Akuma / De / Gozaimasu”. Thus, even if various emotion information is mixed in the sentence, it is possible to obtain appropriate emotion by acquiring emotion information of the ending word that is likely to express the emotion of the entire sentence. The sentence expressed by can be generated.

本発明の実施の形態に係る感情付加装置の信号処理系ブロック図を示す図である。It is a figure which shows the signal processing type | system | group block diagram of the emotion addition apparatus which concerns on embodiment of this invention. 自立語の単語と感情情報を関連付けた自立語の感情辞書の構成を示す図表である。It is a graph which shows the structure of the independent word emotion dictionary which linked | related the word of the independent word and emotion information. 自立語の単語と感情情報を関連付けた自立語の感情辞書の構成を示す図表である。It is a graph which shows the structure of the independent word emotion dictionary which linked | related the word of the independent word and emotion information. 付属語の単語と感情情報とを関連付けた付属語の感情辞書の構成を示す図表である。It is a graph which shows the structure of the emotion dictionary of the adjunct word which linked | related the word of the adjunct word, and emotion information. 感情情報として用いる記号の凡例を示す図表である。It is a chart which shows the legend of the symbol used as emotion information. 入力した文章に対して感情表現を加えた音声を自動で発生させる処理のフローチャートである。It is a flowchart of the process which automatically generate | occur | produces the audio | voice which added the emotional expression with respect to the input sentence. 文章毎に感情情報を取得する処理のフローチャートである。It is a flowchart of the process which acquires emotion information for every sentence. 入力した文章から感情付文章を生成する過程を示す図表である。It is a graph which shows the process of producing | generating the sentence with an emotion from the input sentence. 入力した文章から感情付文章を生成する過程を示す図表である。It is a graph which shows the process of producing | generating the sentence with an emotion from the input sentence.

符号の説明Explanation of symbols

10 インターネット
20 文章記憶手段
22 感情辞書
24 音響辞書
26 文章入力手段
28 形態素解析手段
30 感情付与手段
32 感情付文章生成手段
900 感情付加装置
960 アンテナ
961 無線送受信手段
962 有線送受信手段
970 入力手段
971 入力インターフェース
972 表示手段
973 表示インターフェース
980 情報処理手段
981 RAM
983 ROM
984 記憶手段
990 タイマ
965 音声出力手段
966 出力音声処理手段
999 バス
DESCRIPTION OF SYMBOLS 10 Internet 20 Text memory | storage means 22 Emotion dictionary 24 Acoustic dictionary 26 Text input means 28 Morphological analysis means 30 Emotion provision means 32 Emotion sentence generation means 900 Emotion addition apparatus 960 Antenna 961 Wireless transmission / reception means 962 Wire transmission / reception means 970 Input means 971 Input interface 972 Display means 973 Display interface 980 Information processing means 981 RAM
983 ROM
984 Storage unit 990 Timer 965 Audio output unit 966 Output audio processing unit 999 Bus

Claims (16)

文章を入力する文章入力手段と、
前記入力した文章を単語毎に区切る形態素解析手段と、
予め前記単語毎に感情情報を関連付けた感情辞書を参照して、前記入力された文章の区切られた単語毎に感情情報を取得し、当該取得した感情情報をもとに、文章中に感情情報を付与する感情付与手段と、
前記感情付与手段により付与された感情情報付きの感情付文章を生成する感情付文章生成手段と、
を備えることを特徴とする感情付加装置。
A sentence input means for inputting sentences;
Morphological analysis means for dividing the inputted sentence into words,
By referring to an emotion dictionary in which emotion information is associated with each word in advance, emotion information is acquired for each word separated from the input sentence, and emotion information is included in the sentence based on the acquired emotion information. Emotion imparting means for imparting,
Emotion-added text generating means for generating emotion-added text with emotion information given by the emotion giving means;
An emotion adding device characterized by comprising:
前記感情付与手段は、単語毎に前記感情情報として感情種類とその感情レベルとを関連付けた感情辞書を参照して、前記入力された文章の単語毎に感情種類とその感情レベルとを取得し、前記感情種類と感情レベルと前記単語とをもとに、文章中に感情情報を付与する
ことを特徴とする請求項1に記載の感情付加装置。
The emotion giving means refers to an emotion dictionary that associates an emotion type and its emotion level as the emotion information for each word, acquires an emotion type and its emotion level for each word of the input sentence, The emotion adding apparatus according to claim 1, wherein emotion information is added to a sentence based on the emotion type, the emotion level, and the word.
前記感情付与手段は、
文章中の自立語、文節、鉤括弧内、句読点間等の文中の特定単位毎に付与する
ことを特徴とする請求項1に記載の感情付加装置。
The feeling imparting means is
The emotion adding device according to claim 1, wherein the emotion adding device is provided for each specific unit in a sentence such as an independent word in a sentence, a clause, a bracket, or between punctuation marks.
前記感情付与手段は、単語毎に前記感情情報として感情種類とその感情レベルとを関連付けた感情辞書を参照して、前記入力された文章の単語毎に感情種類とその感情レベルとを取得し、当該取得した各感情種類のうち、最大の感情レベルを有する感情情報をもとに、文章中に感情情報を付与する
ことを特徴とする請求項3に記載の感情付加装置。
The emotion giving means refers to an emotion dictionary that associates an emotion type and its emotion level as the emotion information for each word, acquires an emotion type and its emotion level for each word of the input sentence, 4. The emotion adding apparatus according to claim 3, wherein emotion information is added to a sentence based on emotion information having a maximum emotion level among the acquired emotion types.
前記感情付与手段は、前記単語毎に取得した感情情報により、各感情種類毎に感情レベルの数値を加算し、前記加算した各感情種類のうち、感情レベルの数値が最大となる感情種類と前記加算した感情レベルを、文章中に付与する
ことを特徴とする請求項3に記載の感情付加装置。
The emotion imparting means adds emotion level values for each emotion type based on the emotion information acquired for each word, and among the added emotion types, the emotion type with the maximum emotion level value and the emotion type The emotion adding apparatus according to claim 3, wherein the added emotion level is added to the sentence.
前記感情付与手段は、
予め単語と感情強調情報とを関連付けた感情辞書を参照して、前記入力された文章の単語毎に感情強調情報を取得し、当該取得した感情強調情報を前記感情レベルに加算又は乗算して、文章中に感情情報を付与する
ことを特徴とする請求項4または請求項5に記載の感情付加装置。
The feeling imparting means is
Refer to an emotion dictionary that associates words and emotion emphasis information in advance, acquire emotion emphasis information for each word of the input sentence, add or multiply the acquired emotion emphasis information to the emotion level, The emotion adding device according to claim 4 or 5, wherein emotion information is given in a sentence.
前記感情強調情報と関連付けて記憶している単語は、特定の単語とその特定の単語と対で使われる単語の組み合わせであることを特徴とする請求項5に記載の感情付加装置。   6. The emotion adding apparatus according to claim 5, wherein the word stored in association with the emotion emphasis information is a combination of a specific word and a word used as a pair with the specific word. 前記感情付与手段は、自立語の単語と感情情報、及び、付属語の単語と感情情報とを関連付けた感情辞書を参照して、前記入力された文章の単語毎に感情情報を取得し、当該取得した感情情報をもとに、文章中に異なる感情情報がある場合には、付属語の感情を優先して文章中に感情情報を付与する
ことを特徴とする請求項3〜7のいずれか1項に記載の感情付加装置。
The emotion giving means refers to an emotion dictionary that associates words of independent words and emotion information, and words of accessory words and emotion information, acquires emotion information for each word of the input sentence, 8. The emotion information is given to the sentence giving priority to the emotion of the attached word when there is different emotion information in the sentence based on the acquired emotion information. The emotion adding device according to item 1.
前記感情付与手段は、前記単語毎に取得した感情情報により、文章中に出現する各感情種類毎に出現頻度を加算し、前記加算した各感情種類のうち、出現頻度が最大となる感情種類を文章の感情情報として取得する
ことを特徴とする請求項3に記載の感情付加装置。
The emotion imparting means adds the appearance frequency for each emotion type appearing in the sentence based on the emotion information acquired for each word, and selects the emotion type having the maximum appearance frequency among the added emotion types. The emotion adding device according to claim 3, wherein the emotion adding device is acquired as emotion information of a sentence.
前記取得した各感情情報の中から、最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合には、前記感情付与手段は、出現順が後ろの感情種類を文章中に付与する
ことを特徴とする請求項4又は請求項9に記載の感情付加装置。
In the case where it is not possible to specify one emotion type having the maximum emotion level or maximum frequency from the acquired emotion information, the emotion imparting means writes the emotion type in the order of appearance. The emotion adding device according to claim 4 or 9, wherein the emotion adding device is provided inside.
前記取得した各感情情報の中から、最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合には、前記感情付与手段は、感情種類を前もって設定した優先順位を用い、取得した複数の感情情報のうち優先順位の高い感情種類を文章中に付与する
ことを特徴とする請求項4又は請求項9に記載の感情付加装置。
In the case where it is not possible to specify the maximum emotion level or one emotion type having the maximum frequency from each of the acquired emotion information, the emotion giving means sets the priority order set in advance for the emotion type. The emotion adding apparatus according to claim 4 or 9, wherein the emotion type having a higher priority among the plurality of acquired emotion information is used in the sentence.
前記取得した各感情情報の中から、最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合には、前記感情付与手段は、文章中の自立語、文節、句読点間等の単位で区切り、別々の感情種類を付与する
ことを特徴とする請求項4又は請求項9に記載の感情付加装置。
In the case where it is not possible to specify the emotion level that is the maximum emotion level or the maximum frequency from each of the acquired emotion information, the emotion imparting means, the independent words, phrases, punctuation marks in the sentence The emotion adding device according to claim 4 or 9, wherein the emotion adding device is divided by a unit such as an interval to give different emotion types.
前記文章入力手段は、複数の文章を入力し、
前記取得した各感情情報の中から、最大の感情レベル、又は、最大頻度となる一つの感情種類を特定することができない場合であって、当該文章の前に前文章が存在する場合には、前記感情付与手段は、その前文章の感情情報を当該文章中に付与する
ことを特徴とする請求項4又は請求項9に記載の感情付加装置。
The sentence input means inputs a plurality of sentences,
In the case where it is not possible to specify the emotion level that is the maximum emotion level or the maximum frequency from each of the acquired emotion information, and there is a previous sentence before the sentence, The emotion adding device according to claim 4 or 9, wherein the emotion imparting means imparts emotion information of the previous sentence to the sentence.
感情付文章生成手段は、音素、音節、モーラ、形態素、単語、又はアクセント句等の発音単位毎に、音声を発生する際の音声の音程若しくは母音ホルマント、音声の強勢、発声速度、発声強度、又は抑揚等の音韻情報と、感情情報とを予め関連付けた音響辞書を参照して、前記感情情報付与手段により付与された感情情報に対応した音韻情報を、前記発音単位毎に取得して、音声情報を生成することを特徴とする請求項3〜13のいずれか1項に記載の感情付加装置。   Emotional sentence generation means, for each pronunciation unit such as phonemes, syllables, mora, morphemes, words, accent phrases, etc., the pitch or vowel formant of the voice when generating the voice, the voice strength, the voice speed, the voice intensity, Or, by referring to an acoustic dictionary that associates phoneme information such as intonation and emotion information in advance, phoneme information corresponding to the emotion information given by the emotion information giving means is acquired for each pronunciation unit, The emotion adding device according to any one of claims 3 to 13, wherein information is generated. 文章を入力する文章入力手段と、文書を単語毎に区切る形態素解析手段と、予め単語毎に感情情報を関連付けて記憶している感情辞書と、感情辞書を参照して文章中に感情情報を付与する感情付与手段と、感情付文章を生成する感情付文章生成手段と、を用いた感情付加方法であって、
前記文章入力手段から、文章を入力するステップと、
前記形態素解析手段が、前記入力した文書を単語毎に区切るステップと、
前記感情付与手段が、前記感情辞書を参照して文章中に感情情報を付与するステップと、
前記感情付文章生成手段が、前記感情付与手段により付与された感情情報付きの感情付文章を生成するステップと、
を含むことを特徴とする感情付加方法。
Sentence input means for inputting a sentence, morphological analysis means for dividing a document into words, an emotion dictionary in which emotion information is associated with each word in advance, and emotion information is added to the sentence by referring to the emotion dictionary An emotion addition method using an emotion imparting means for generating an emotion-added sentence generating means for generating an emotion-added sentence,
Inputting a sentence from the sentence input means;
The morpheme analyzing means divides the input document into words;
The emotion giving means giving emotion information in a sentence with reference to the emotion dictionary;
The step of generating a sentence with emotion with the emotion information given by the feeling giving means;
An emotion addition method characterized by including:
文章を入力する文章入力手段と、文書を単語毎に区切る形態素解析手段と、文章中に感情情報を付与する感情付与手段と、感情付文章を生成する感情付文章生成手段と、前記文章入力手段、前記形態素解析手段、前記感情付与手段、及び前記感情付文章生成手段を制御する情報処理手段とを備えた感情付加装置の、前記情報処理手段が実行する感情付加プログラムであって、
前記情報処理手段が、
前記文章入力手段から、文章を入力する機能と、
前記形態素解析手段に、前記入力した文書を単語毎に区切る機能と、
前記感情付与手段に、予め単語毎に感情情報を関連付けて記憶している感情辞書を参照して、前記単語毎に感情情報を取得し、当該取得した感情情報をもとに、文章中に感情情報を付与する機能と、
前記感情付文章生成手段に、前記感情付与手段により付与された感情情報付きの感情付文章を生成する機能と、
を実現させることを特徴とする感情付加プログラム。
Sentence input means for inputting sentences, morphological analysis means for dividing the document into words, emotion giving means for giving emotion information in the sentences, sentiment-added sentence generating means for generating sentimented sentences, and the sentence input means An emotion addition program executed by the information processing means of an emotion addition apparatus comprising the information processing means for controlling the morpheme analysis means, the emotion giving means, and the emotion-added sentence generating means,
The information processing means is
A function of inputting a sentence from the sentence input means;
A function of separating the input document into words for the morphological analysis means;
The emotion imparting means refers to an emotion dictionary stored in advance by associating emotion information for each word, acquires emotion information for each word, and emotions in a sentence based on the acquired emotion information The ability to give information,
A function for generating a text with emotion with emotion information given by the emotion giving means to the text with emotion generation means;
Emotion addition program characterized by realizing.
JP2006088910A 2006-03-28 2006-03-28 Emotion addition device, emotion addition method, and emotion addition program Pending JP2007264284A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006088910A JP2007264284A (en) 2006-03-28 2006-03-28 Emotion addition device, emotion addition method, and emotion addition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006088910A JP2007264284A (en) 2006-03-28 2006-03-28 Emotion addition device, emotion addition method, and emotion addition program

Publications (1)

Publication Number Publication Date
JP2007264284A true JP2007264284A (en) 2007-10-11

Family

ID=38637336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006088910A Pending JP2007264284A (en) 2006-03-28 2006-03-28 Emotion addition device, emotion addition method, and emotion addition program

Country Status (1)

Country Link
JP (1) JP2007264284A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009204795A (en) * 2008-02-27 2009-09-10 Nippon Telegr & Teleph Corp <Ntt> Fundamental frequency estimation device, fundamental frequency estimation method, fundamental frequency estimation program, and storage medium
JP2012198277A (en) * 2011-03-18 2012-10-18 Toshiba Corp Document reading-aloud support device, document reading-aloud support method, and document reading-aloud support program
US8370500B2 (en) 2008-08-06 2013-02-05 Futurewei Technologies, Inc. Remote session control
US8928592B2 (en) 2009-05-12 2015-01-06 Shelko Electronics Co. Ltd. Method and apparatus for alphabet input
US10002501B2 (en) 2010-12-22 2018-06-19 Kyocera Corporation Electronic device
JP2019012255A (en) * 2017-06-29 2019-01-24 ネイバー コーポレーションNAVER Corporation Method and system for emotional conversations between humans and machines
US11302106B2 (en) * 2016-12-28 2022-04-12 Honda Motor Co., Ltd. Information provision system
CN114449297A (en) * 2020-11-04 2022-05-06 阿里巴巴集团控股有限公司 Multimedia information processing method, computing equipment and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104778A (en) * 1993-10-07 1995-04-21 Fuji Xerox Co Ltd Feeling expressing device
JP2002311981A (en) * 2001-04-17 2002-10-25 Sony Corp Natural language processing device, natural language processing method, program and recording medium
JP2003202885A (en) * 2001-12-28 2003-07-18 Canon Electronics Inc Information processor and information processing method
JP2004514220A (en) * 2000-11-15 2004-05-13 株式会社ジャストシステム Method and apparatus for analyzing emotions and emotions in text
JP2004145015A (en) * 2002-10-24 2004-05-20 Fujitsu Ltd Text-to-speech synthesis system and method
JP2004259238A (en) * 2003-02-25 2004-09-16 Kazuhiko Tsuda Feeling understanding system in natural language analysis

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104778A (en) * 1993-10-07 1995-04-21 Fuji Xerox Co Ltd Feeling expressing device
JP2004514220A (en) * 2000-11-15 2004-05-13 株式会社ジャストシステム Method and apparatus for analyzing emotions and emotions in text
JP2002311981A (en) * 2001-04-17 2002-10-25 Sony Corp Natural language processing device, natural language processing method, program and recording medium
JP2003202885A (en) * 2001-12-28 2003-07-18 Canon Electronics Inc Information processor and information processing method
JP2004145015A (en) * 2002-10-24 2004-05-20 Fujitsu Ltd Text-to-speech synthesis system and method
JP2004259238A (en) * 2003-02-25 2004-09-16 Kazuhiko Tsuda Feeling understanding system in natural language analysis

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009204795A (en) * 2008-02-27 2009-09-10 Nippon Telegr & Teleph Corp <Ntt> Fundamental frequency estimation device, fundamental frequency estimation method, fundamental frequency estimation program, and storage medium
US8370500B2 (en) 2008-08-06 2013-02-05 Futurewei Technologies, Inc. Remote session control
US9294111B2 (en) 2008-08-06 2016-03-22 Futurewei Technologies, Inc. Remote media IMS sessions
US8928592B2 (en) 2009-05-12 2015-01-06 Shelko Electronics Co. Ltd. Method and apparatus for alphabet input
US10002501B2 (en) 2010-12-22 2018-06-19 Kyocera Corporation Electronic device
JP2012198277A (en) * 2011-03-18 2012-10-18 Toshiba Corp Document reading-aloud support device, document reading-aloud support method, and document reading-aloud support program
US9280967B2 (en) 2011-03-18 2016-03-08 Kabushiki Kaisha Toshiba Apparatus and method for estimating utterance style of each sentence in documents, and non-transitory computer readable medium thereof
US11302106B2 (en) * 2016-12-28 2022-04-12 Honda Motor Co., Ltd. Information provision system
JP2019012255A (en) * 2017-06-29 2019-01-24 ネイバー コーポレーションNAVER Corporation Method and system for emotional conversations between humans and machines
CN114449297A (en) * 2020-11-04 2022-05-06 阿里巴巴集团控股有限公司 Multimedia information processing method, computing equipment and storage medium

Similar Documents

Publication Publication Date Title
US8219398B2 (en) Computerized speech synthesizer for synthesizing speech from text
US20130080160A1 (en) Document reading-out support apparatus and method
JPH05333900A (en) Method and device for speech synthesis
JPH086591A (en) Audio output device
WO2007138944A1 (en) Information giving system, information giving method, information giving program, and information giving program recording medium
WO2004066271A1 (en) Speech synthesizing apparatus, speech synthesizing method, and speech synthesizing system
JP2009139677A (en) Voice processing apparatus and program thereof
JP4745036B2 (en) Speech translation apparatus and speech translation method
JP2007183421A (en) Speech synthesizer
JP2007264284A (en) Emotion addition device, emotion addition method, and emotion addition program
JP2019045867A (en) Voice control method, voice control device and program
JP3270356B2 (en) Utterance document creation device, utterance document creation method, and computer-readable recording medium storing a program for causing a computer to execute the utterance document creation procedure
JP2007271655A (en) Emotion addition device, emotion addition method, and emotion addition program
CN1801321B (en) System and method for converting text to speech
JP6289950B2 (en) Reading apparatus, reading method and program
JP4409279B2 (en) Speech synthesis apparatus and speech synthesis program
JP2009020264A (en) Speech synthesis apparatus, speech synthesis method, and program
JP3446342B2 (en) Natural language processing method and speech synthesizer
JP2894447B2 (en) Speech synthesizer using complex speech units
JP4056647B2 (en) Waveform connection type speech synthesis apparatus and method
KR20080060909A (en) Method for synthesizing and outputting speech according to sentence state and speech synthesizer using same
JP3446341B2 (en) Natural language processing method and speech synthesizer
JPH11259094A (en) Rule speech synthesizer
JPH08185197A (en) Japanese analyzer and Japanese text-to-speech synthesizer
JP2003005776A (en) Voice synthesizing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100914

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110125