JP2003208161A - Robot apparatus and control method thereof - Google Patents
Robot apparatus and control method thereofInfo
- Publication number
- JP2003208161A JP2003208161A JP2001359787A JP2001359787A JP2003208161A JP 2003208161 A JP2003208161 A JP 2003208161A JP 2001359787 A JP2001359787 A JP 2001359787A JP 2001359787 A JP2001359787 A JP 2001359787A JP 2003208161 A JP2003208161 A JP 2003208161A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- robot
- unit
- music
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
- Toys (AREA)
Abstract
(57)【要約】
【課題】各種動作に対して特定の音が対応付けられてい
るため、ロボットの動きからそのときどのような音が出
力されるのかがユーザに事前に予測できてしまい、いず
れ飽きられるおそれがあった。
【解決手段】ロボット装置に動作を発現させながら、当
該動作と自己の内部状態とに応じた音楽を生成し、当該
音楽を外部に出力させるようにした。
(57) [Summary] [Problem] Since a specific sound is associated with various actions, it is possible for a user to predict in advance what kind of sound will be output from the movement of the robot, There was a risk of getting bored eventually. A robot generates music in accordance with the operation and its own internal state while causing the robot device to perform the operation, and outputs the music to the outside.
Description
【0001】[0001]
【発明の属する技術分野】本発明はロボット装置及びそ
の制御方法に関し、例えば2足歩行型のロボットに適用
して好適なものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus and its control method, and is suitable for application to, for example, a bipedal robot.
【0002】[0002]
【従来の技術】近年、人間の外観形状を模ったヒューマ
ノイドタイプのロボットや、一般家庭でペットとして飼
育される犬や猫の外観形状を模った4脚歩行型のペット
ロボット等の各種ロボットが開発され、商品化されてい
る。2. Description of the Related Art In recent years, various robots such as a humanoid type robot that imitates the appearance of a human and a four-legged walking pet robot that imitates the appearance of a dog or cat raised as a pet in a general household. Has been developed and commercialized.
【0003】そしてこれらのロボットとしては、ユーザ
からの指令や周囲の状況などに応じて自律的に行動し得
るようになされたものや、ユーザ操作に応動してその操
作に予め対応付けられた1つの動作を発現するようにな
されたものなど、種々のものが存在している。As these robots, ones that can act autonomously in response to a command from the user and the surrounding situation, and one that is previously associated with the operation in response to the user's operation. There are various things, such as one that is designed to express one movement.
【0004】[0004]
【発明が解決しようとする課題】ところで、従来のロボ
ットにおいては、予め定義された音声ファイルを内部に
有しており、その音声ファイルを特定の動作等と対応付
けて再生することにより、かかる動作の発現時にこれと
合わせてその音を外部に出力するように構成されてい
る。By the way, a conventional robot has a predefined audio file inside and reproduces the audio file by associating it with a specific operation or the like. When it appears, the sound is output to the outside together with this.
【0005】ところがかかる従来の構成によると、上述
のように各種動作に対して特定の音が対応付けられてい
るため、ロボットの動きからそのときどのような音が出
力されるのかがユーザに事前に予測できてしまい、いず
れ飽きられるおそれがあった。However, according to such a conventional configuration, since a specific sound is associated with various operations as described above, the user is informed in advance what kind of sound is output from the movement of the robot at that time. There was a risk that I could get tired of it.
【0006】かかる問題を解決するための1つの手法と
して、各動作にそれぞれ対応させて複数種類の音声ファ
イルを用意しておき、これをランダムに再生する方法な
ども考えられる。As one method for solving such a problem, a method of preparing a plurality of types of audio files corresponding to respective operations and reproducing them at random can be considered.
【0007】しかしながらこの方法によると、音声ファ
イルを保存しておくためのメモリとして容量が大きなも
のが必要となったり、プログラムが複雑化する問題があ
る。またかかる方法では、いずれにせよ1つの動作に対
して何種類かの音が繰り返し出力されることには変わり
がないため、ロボットに対するユーザの飽きを有効には
防止し得ない問題がある。However, according to this method, there is a problem that a memory having a large capacity is required as a memory for storing an audio file and the program becomes complicated. Moreover, in such a method, there is no change in that some kinds of sounds are repeatedly output for one motion in any case, so that there is a problem that the user's boredom of the robot cannot be effectively prevented.
【0008】本発明は以上の点を考慮してなされたもの
で、構成の煩雑化及び大型化を防止しながらエンターテ
インメント性を格段的に向上させ得るロボット装置及び
その制御方法を提案しようとするものである。The present invention has been made in consideration of the above points, and proposes a robot apparatus and a control method thereof capable of significantly improving the entertainment property while preventing the configuration from becoming complicated and upsizing. Is.
【0009】[0009]
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、ロボット装置において、動作発現
部により発現される動作と自己の内部状態とに応じた音
楽を生成する音楽生成手段を設けるようにした。この結
果、ロボット装置が動作を発現する際に放音すべき音楽
のデータを予め格納しておくためのメモリが不要とな
り、またロボット装置の内部状態に応じて種々の音楽が
生成されて放音されるため、ユーザがロボット装置に飽
きるのを有効に防止することができる。In order to solve such a problem, according to the present invention, the robot apparatus is provided with a music generating means for generating music according to the motion expressed by the motion demonstrating section and its own internal state. I did it. As a result, a memory for preliminarily storing data of music to be emitted when the robot device expresses an action is unnecessary, and various kinds of music are generated and emitted according to the internal state of the robot device. Therefore, it is possible to effectively prevent the user from getting tired of the robot device.
【0010】また本発明においては、ロボット装置の制
御方法において、ロボット装置に動作を発現させなが
ら、当該動作と自己の内部状態とに応じた音楽を生成
し、当該音楽を外部に出力させるようにした。この結
果、ロボット装置が動作を発現する際に放音すべき音楽
のデータを予め格納しておくためのメモリが不要とな
り、またロボット装置の内部状態に応じて種々の音楽が
生成されて放音されるため、ユーザがロボット装置に飽
きるのを有効に防止することができる。Further, according to the present invention, in the control method of the robot apparatus, while causing the robot apparatus to perform an action, music corresponding to the action and the internal state of the self is generated and the music is output to the outside. did. As a result, a memory for preliminarily storing data of music to be emitted when the robot device expresses an action is unnecessary, and various kinds of music are generated and emitted according to the internal state of the robot device. Therefore, it is possible to effectively prevent the user from getting tired of the robot device.
【0011】[0011]
【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described in detail below with reference to the drawings.
【0012】(1)本実施の形態によるロボットの構成
(1−1ロボットの構成)図1及び図2において、1は
全体として本実施の形態による2足歩行型のロボットを
示し、胴体部ユニット2の上部に頭部ユニット3が配設
されると共に、当該胴体部ユニット2の上部左右にそれ
ぞれ同じ構成の腕部ユニット4A、4Bがそれぞれ配設
され、かつ胴体部ユニット2の下部左右にそれぞれ同じ
構成の脚部ユニット5A、5Bがそれぞれ所定位置に取
り付けられることにより構成されている。(1) Configuration of Robot According to the Present Embodiment (1-1 Configuration of Robot) In FIGS. 1 and 2, reference numeral 1 denotes a bipedal robot as a whole according to the present embodiment, and a body unit 2, a head unit 3 is disposed on the upper part of the body portion 2, arm units 4A and 4B having the same configuration are disposed on the upper left and right portions of the body portion unit 2, and on the lower left and right sides of the body portion unit 2, respectively. The leg units 5A and 5B having the same configuration are attached to respective predetermined positions.
【0013】胴体部ユニット2においては、体幹上部を
形成するフレーム10及び体幹下部を形成する腰ベース
11が腰関節機構12を介して連結することにより構成
されており、体幹下部の腰ベース11に固定された腰関
節機構12の各アクチュエータA1、A2をそれぞれ駆
動することによって、体幹上部を図3に示す直交するロ
ール軸13及びピッチ軸14の回りにそれぞれ独立に回
転させることができるようになされている。In the trunk unit 2, a frame 10 forming an upper trunk and a waist base 11 forming a lower trunk are connected to each other via a waist joint mechanism 12, and the lower waist of the trunk is connected. By driving the actuators A 1 and A 2 of the lumbar joint mechanism 12 fixed to the base 11, the upper trunk is independently rotated around the orthogonal roll axis 13 and pitch axis 14 shown in FIG. Is made possible.
【0014】また頭部ユニット3は、フレーム10の上
端に固定された肩ベース15の上面中央部に首関節機構
16を介して取り付けられており、当該首関節機構16
の各アクチュエータA3、A4をそれぞれ駆動すること
によって、図3に示す直交するピッチ軸17及びヨー軸
18の回りにそれぞれ独立に回転させることができるよ
うになされている。The head unit 3 is attached to a central portion of the upper surface of a shoulder base 15 fixed to the upper end of the frame 10 via a neck joint mechanism 16, and the neck joint mechanism 16 is attached.
By driving each of the actuators A 3 and A 4 of the above, the actuator can be independently rotated around the orthogonal pitch axis 17 and yaw axis 18 shown in FIG.
【0015】さらに各腕部ユニット4A、4Bは、それ
ぞれ肩関節機構19を介して肩ベース15の左右に取り
付けられており、対応する肩関節機構19の各アクチュ
エータA5、A6をそれぞれ駆動することによって図3
に示す直交するピッチ軸20及びロール軸21の回りに
それぞれ独立に回転させることができるようになされて
いる。Further, the arm units 4A and 4B are attached to the left and right of the shoulder base 15 via the shoulder joint mechanism 19, and drive the actuators A 5 and A 6 of the corresponding shoulder joint mechanism 19, respectively. Fig. 3
Can be independently rotated around the orthogonal pitch axis 20 and roll axis 21 shown in FIG.
【0016】この場合、各腕部ユニット4A、4Bは、
それぞれ上腕部を形成するアクチュエータA7の出力軸
に肘関節機構22を介して前腕部を形成するアクチュエ
ータA8が連結され、当該前腕部の先端に手部23が取
り付けられることにより構成されている。In this case, each arm unit 4A, 4B is
An actuator A 8 forming a forearm is connected to an output shaft of an actuator A 7 forming an upper arm via an elbow joint mechanism 22, and a hand 23 is attached to the tip of the forearm. .
【0017】そして各腕部ユニット4A、4Bでは、ア
クチュエータA7を駆動することによって前腕部を図3
に示すヨー軸24の回りに回転させ、アクチュエータA
8を駆動することによって前腕部を図3に示すピッチ軸
25の回りにそれぞれ回転させることができるようにな
されている。[0017] The arm units 4A, in 4B, FIG. 3 the forearm by driving the actuator A 7
The actuator A is rotated around the yaw axis 24 shown in FIG.
By driving 8 , the forearm can be rotated around the pitch axis 25 shown in FIG.
【0018】これに対して各脚部ユニット5A、5Bに
おいては、それぞれ股関節機構26を介して体幹下部の
腰ベース11にそれぞれ取り付けられており、それぞれ
対応する股関節機構26の各アクチュエータをA9〜A
11それぞれ駆動することによって、図3に示す互いに
直交するヨー軸27、ロール軸28及びピッチ軸29の
回りにそれぞれ独立に回転させることができるようにな
されている。On the other hand, in each leg unit 5A, 5B, each leg unit 5A, 5B is attached to the waist base 11 under the torso via the hip joint mechanism 26, and each actuator of the corresponding hip joint mechanism 26 is A 9 ~ A
By driving each of them 11, the yaw shaft 27, the roll shaft 28, and the pitch shaft 29 shown in FIG. 3 which are orthogonal to each other can be independently rotated.
【0019】この場合各脚部ユニット5A、5Bは、そ
れぞれ大腿部を形成するフレーム30の下端に膝関節機
構31を介して下腿部を形成するフレーム32が連結さ
れると共に、当該フレーム32の下端に足首関節機構3
3を介して足部34が連結されることにより構成されて
いる。In this case, in each of the leg units 5A and 5B, a frame 32 forming the lower leg is connected to the lower end of a frame 30 forming the thigh via a knee joint mechanism 31, and the frame 32 is connected. Ankle joint mechanism 3 at the lower end of
It is configured by connecting the foot portion 34 via the terminal 3.
【0020】これにより各脚部ユニット5A、5Bにお
いては、膝関節機構31を形成するアクチュエータA
12を駆動することによって、下腿部を図3に示すピッ
チ軸35の回りに回転させることができ、また足首関節
機構33のアクチュエータA1 3、A14をそれぞれ駆
動することによって、足部34を図3に示す直交するピ
ッチ軸36及びロール軸37の回りにそれぞれ独立に回
転させることができるようになされている。Thus, in each of the leg units 5A and 5B, the actuator A forming the knee joint mechanism 31 is formed.
By driving the 12, can rotate the lower leg around the pitch axis 35 shown in FIG. 3, and by driving the actuator A 1 3, A 14 of the ankle joint mechanism 33 respectively, the foot portion 34 Can be independently rotated around the orthogonal pitch axis 36 and roll axis 37 shown in FIG.
【0021】一方、胴体部ユニット2の体幹下部を形成
する腰ベース11の背面側には、図4に示すように、当
該ロボット1全体の動作制御を司るメイン制御部40
と、電源回路及び通信回路などの周辺回路41と、バッ
テリ45(図5)となどがボックスに収納されてなる制
御ユニット42が配設されている。On the other hand, on the back side of the waist base 11 forming the lower trunk of the body unit 2, as shown in FIG. 4, a main control unit 40 for controlling the operation of the robot 1 as a whole.
A control unit 42 including a peripheral circuit 41 such as a power supply circuit and a communication circuit, a battery 45 (FIG. 5), and the like is housed in a box.
【0022】そしてこの制御ユニット42は、各構成ユ
ニット(胴体部ユニット2、頭部ユニット3、各腕部ユ
ニット4A、4B及び各脚部ユニット5A、5B)内に
それぞれ配設された各サブ制御部43A〜43Dと接続
されており、これらサブ制御部43A〜43Dに対して
必要な電源電圧を供給したり、これらサブ制御部43A
〜43Dと通信を行ったりすることができるようになさ
れている。The control unit 42 is provided in each constituent unit (body unit 2, head unit 3, each arm unit 4A, 4B and each leg unit 5A, 5B) and each sub-control is arranged. The sub-control units 43A to 43D are connected to the sub-control units 43A to 43D by supplying a necessary power supply voltage to the sub-control units 43A to 43D.
~ 43D can be communicated with.
【0023】また各サブ制御部43A〜43Dは、それ
ぞれ対応する構成ユニット内の各アクチュエータA1〜
A14と接続されており、当該構成ユニット内の各アク
チュエータA1〜A14をメイン制御部40から与えら
れる各種制御コマンドに基づいて指定された状態に駆動
し得るようになされている。Further, each of the sub-control units 43A to 43D has each of the actuators A 1 to
Is connected to the A 14, it is configured so as to be able to drive each actuator A 1 to A 14 in the configuration unit to the state specified on the basis of the various control commands given from the main control unit 40.
【0024】さらに頭部ユニット3には、図5に示すよ
うに、このロボット1の「目」として機能するCCD
(Charge Coupled Device )カメラ50、「耳」として
機能するマイクロホン51及びタッチセンサ52などか
らなる外部センサ部53と、「口」として機能するスピ
ーカ54となどがそれぞれ所定位置に配設され、制御ユ
ニット42内には、バッテリセンサ55及び加速度セン
サ56などからなる内部センサ部57が配設されてい
る。Further, as shown in FIG. 5, the head unit 3 has a CCD functioning as "eyes" of the robot 1.
(Charge Coupled Device) A camera 50, an external sensor portion 53 including a microphone 51 and a touch sensor 52 that function as “ears”, a speaker 54 that functions as a “mouth”, and the like are arranged at predetermined positions, and a control unit is provided. Inside 42, an internal sensor unit 57 including a battery sensor 55, an acceleration sensor 56, and the like is provided.
【0025】そして外部センサ部53のCCDカメラ5
0は、周囲の状況を撮像し、得られた画像信号S1Aを
メイン制御部に送出する一方、マイクロホン51は、ユ
ーザから音声入力として与えられる「歩け」、「伏せ」
又は「ボールを追いかけろ」等の各種命令音声を集音
し、かくして得られた音声信号S1Bをメイン制御部4
0に送出するようになされている。The CCD camera 5 of the external sensor section 53
0 captures the surrounding situation and sends the obtained image signal S1A to the main control unit, while the microphone 51 causes the microphone 51 to "walk" or "prone" given as a voice input.
Alternatively, various command voices such as "follow the ball" are collected, and the voice signal S1B thus obtained is collected by the main control unit 4
It is designed to be sent to 0.
【0026】またタッチセンサ52は、図1及び図2に
おいて明らかなように頭部ユニット3の上部に設けられ
ており、ユーザからの「撫でる」や「叩く」といった物
理的な働きかけにより受けた圧力を検出し、検出結果を
圧力検出信号S1Cとしてメイン制御部40に送出す
る。As is apparent from FIGS. 1 and 2, the touch sensor 52 is provided on the upper portion of the head unit 3, and the pressure applied by a physical action such as "stroking" or "striking" from the user. Is detected and the detection result is sent to the main controller 40 as a pressure detection signal S1C.
【0027】さらに内部センサ部57のバッテリセンサ
55は、バッテリ45のエネルギ残量を所定周期で検出
し、検出結果をバッテリ残量検出信号S2Aとしてメイ
ン制御部40に送出する一方、加速度センサ56は、3
軸方向(x軸、y軸及びz軸)の加速度を所定周期で検
出し、検出結果を加速度検出信号S2Bとしてメイン制
御部40に送出する。Further, the battery sensor 55 of the internal sensor unit 57 detects the remaining energy level of the battery 45 in a predetermined cycle, and sends the detection result to the main control unit 40 as a remaining battery level detection signal S2A, while the acceleration sensor 56 operates. Three
The acceleration in the axial direction (x-axis, y-axis, and z-axis) is detected in a predetermined cycle, and the detection result is sent to the main control unit 40 as an acceleration detection signal S2B.
【0028】メイン制御部部40は、外部センサ部53
のCCDカメラ50、マイクロホン51及びタッチセン
サ52等からそれぞれ供給される画像信号S1A、音声
信号S1B及び圧力検出信号S1C等(以下、これらを
まとめて外部センサ信号S1と呼ぶ)と、内部センサ部
57のバッテリセンサ55及び加速度センサ等からそれ
ぞれ供給されるバッテリ残量検出信号S2A及び加速度
検出信号S2B等(以下、これらをまとめて内部センサ
信号S2と呼ぶ)に基づいて、ロボット1の周囲及び内
部の状況や、ユーザからの指令、ユーザからの働きかけ
の有無などを判断する。The main control section 40 includes an external sensor section 53.
Image signal S1A, audio signal S1B, pressure detection signal S1C, etc. (hereinafter collectively referred to as external sensor signal S1) supplied from CCD camera 50, microphone 51, touch sensor 52, etc., and internal sensor unit 57. Based on the battery remaining amount detection signal S2A, the acceleration detection signal S2B, etc. (hereinafter collectively referred to as the internal sensor signal S2) supplied from the battery sensor 55, the acceleration sensor, etc. Determine the situation, commands from the user, and whether or not the user is working.
【0029】そしてメイン制御部40は、この判断結果
と、予め内部メモリ40Aに格納されている制御プログ
ラムと、そのとき装填されている外部メモリ58に格納
されている各種制御パラメータとに基づいて続く行動を
決定し、決定結果に基づく制御コマンドを対応するサブ
制御部43A〜43Dに送出する。この結果、この制御
コマンドに基づき、そのサブ制御部43A〜43Dの制
御のもとに、対応するアクチュエータA1〜A14が駆
動され、かくして頭部ユニット3を上下左右に揺動させ
たり、腕部ユニット4A、4Bを上にあげたり、歩行す
るなどの行動がロボット1により発現されることとな
る。Then, the main control section 40 continues based on this judgment result, the control program stored in advance in the internal memory 40A, and various control parameters stored in the external memory 58 loaded at that time. The action is determined, and the control command based on the determination result is sent to the corresponding sub control unit 43A to 43D. As a result, based on this control command, the corresponding actuators A 1 to A 14 are driven under the control of the sub-control units 43A to 43D, thus swinging the head unit 3 vertically and horizontally, and arm movement. The robot 1 expresses actions such as raising the sub-units 4A and 4B and walking.
【0030】またこの際メイン制御部40は、必要に応
じて所定の音声信号S3をスピーカ54に与えることに
より当該音声信号S3に基づく音声を外部に出力させた
り、外見上の「目」として機能する頭部ユニット3の所
定位置に設けられたLEDに駆動信号を出力することに
よりこれを点滅させる。Further, at this time, the main controller 40 outputs a voice based on the voice signal S3 to the outside by giving a predetermined voice signal S3 to the speaker 54 as necessary, or functions as an apparent "eye". A drive signal is output to an LED provided at a predetermined position of the head unit 3 to blink it.
【0031】このようにしてこのロボット1において
は、周囲及び内部の状況や、ユーザからの指令及び働き
かけの有無などに基づいて自律的に行動することができ
るようになされている。In this way, the robot 1 can autonomously act on the basis of the surrounding and internal conditions, the instruction from the user and the presence or absence of the action.
【0032】(1−2)メイン制御部の処理
ここでこのようなロボット1の行動生成に関するメイン
制御部40の処理について説明する。(1-2) Process of Main Control Unit Here, the process of the main control unit 40 relating to the action generation of the robot 1 will be described.
【0033】図6に示すように、ロボット1の行動生成
に関するメイン制御部40の処理内容を機能的に分類す
ると、外部及び内部の状態を認識する状態認識部60
と、状態認識部60の認識結果等に基づいて感情及び本
能の状態を決定する感情・本能モデル61と、状態認識
部60の認識結果及び感情・本能モデル61において決
定された感情・本能の状態に基づいて次の行動を決定す
る行動決定部62と、行動決定部62の決定結果に基づ
いて実際にロボット1に行動を発現させる行動生成部6
3とに分けることができる。以下、これら状態認識部6
0、感情・本能モデル部61、行動決定部62及び行動
生成部63について説明する。As shown in FIG. 6, when the processing contents of the main control unit 40 relating to the action generation of the robot 1 are functionally classified, the state recognition unit 60 that recognizes the external and internal states.
And an emotion / instinct model 61 that determines the state of emotion and instinct based on the recognition result of the state recognition unit 60, and the recognition result of the state recognition unit 60 and the state of emotion / instinction determined in the emotion / instinct model 61. An action determining unit 62 that determines the next action based on the action determination unit 6 and an action generating unit 6 that actually causes the robot 1 to exert an action based on the determination result of the action determining unit 62.
It can be divided into three. Hereinafter, these state recognition units 6
0, the emotion / instinct model unit 61, the action determination unit 62, and the action generation unit 63 will be described.
【0034】(1−2−1)状態認識部60の処理
状態認識部60は、外部センサ部53から与えられる外
部センサ信号S1及び内部センサ部57から与えられる
内部センサ信号S2に基づいて特定の状態を認識し、認
識結果を状態認識情報D1として感情・本能モデル61
及び行動決定部62に通知する。(1-2-1) The processing state recognizing unit 60 of the state recognizing unit 60 specifies a specific one based on the external sensor signal S1 given from the external sensor unit 53 and the internal sensor signal S2 given from the internal sensor unit 57. The state is recognized, and the recognition result is used as the state recognition information D1 for the emotion / instinct model 61
And the action determination unit 62 is notified.
【0035】具体的に状態認識部60は、外部センサ部
53のCCDカメラ50から与えられる画像信号S1A
を常時監視し、当該画像信号S1Aに基づく画像内に例
えば「赤い丸いもの」や「進行方向に位置する物体」を
検出したときには「ボールがある」、「障害物がある」
と認識して、当該認識結果を感情・本能モデル61及び
行動決定部62に通知する。Specifically, the state recognition section 60 is provided with an image signal S1A provided from the CCD camera 50 of the external sensor section 53.
Is constantly monitored, and when a "red round object" or "object located in the traveling direction" is detected in the image based on the image signal S1A, "there is a ball", "there is an obstacle"
And the emotion / instinct model 61 and the action determining unit 62 are notified of the recognition result.
【0036】また状態認識部60は、マイクロホン51
から与えられる音声信号S1Bを常時監視し、HMM
(Hidden Markov Model)法などの音声認識手法により
「歩け」、「伏せ」、「ボールを追いかけろ」等の各種
音声を認識したときには、これを感情・本能モデル61
及び行動決定部62に通知する。The state recognition unit 60 also includes a microphone 51.
Constantly monitors the audio signal S1B given by
When various voices such as “walk”, “prone”, and “follow the ball” are recognized by a voice recognition method such as the (Hidden Markov Model) method, the voice is recognized as an emotion / instinct model 61.
And the action determination unit 62 is notified.
【0037】さらに状態認識部60は、タッチセンサ5
2から与えられる圧力検出信号S1Cを常時監視し、当
該圧力検出信号S1Cに基づいて所定の閾値以上のかつ
短時間(例えば2秒未満)の圧力を検出したときには
「叩かれた(叱られた)」と認識し、所定の閾値未満の
かつ長時間(例えば2秒以上)の圧力を検出したときに
は「撫でられた(誉められた)」と認識し、認識結果を
感情・本能モデル部61及び行動決定部62に通知す
る。Further, the state recognizing section 60 is provided with the touch sensor 5
2. The pressure detection signal S1C given from 2 is constantly monitored, and when a pressure equal to or higher than a predetermined threshold value and for a short time (for example, less than 2 seconds) is detected based on the pressure detection signal S1C, it is "struck" When a pressure lower than a predetermined threshold value and for a long time (for example, 2 seconds or more) is detected, it is recognized as “stroked (praised)”, and the recognition result is the emotion / instinct model unit 61 and the action. Notify the decision unit 62.
【0038】さらに状態認識部60は、内部センサ部5
7の加速度センサ56から与えられる加速度検出信号S
2Bを常時監視し、当該加速度検出信号S2Bに基づい
て転倒等を検出したときには、これを感情・本能モデル
部61及び行動決定部62に通知する。Further, the state recognizing section 60 includes an internal sensor section 5
Acceleration detection signal S given from the acceleration sensor 56 of No. 7
2B is constantly monitored, and when a fall or the like is detected based on the acceleration detection signal S2B, this is notified to the emotion / instinct model unit 61 and the action determination unit 62.
【0039】(1−2−2)感情・本能モデル部61の
処理
感情・本能モデル部61は、「喜び」、「悲しみ」、
「驚き」、「恐怖」、「嫌悪」及び「怒り」の合計6つ
の情動について、これら情動ごとにその情動の強さを表
すパラメータを保持している。そして感情・本能モデル
部61は、これら各情動のパラメータ値を、それぞれ状
態認識部60から状態認識情報D1として与えられる
「誉められた」、「叱られた」などの特定の認識結果等
に基づいて順次変更する。(1-2-2) Processing of Emotion / Instinct Model Unit 61 The emotion / instinct model unit 61 performs "joy", "sadness",
With respect to a total of six emotions of “surprise”, “fear”, “disgust”, and “anger”, a parameter indicating the strength of the emotion is held for each emotion. Then, the emotion / instinct model unit 61, based on the specific recognition result such as “praised” or “scold”, which gives the parameter value of each emotion as the state recognition information D1 from the state recognition unit 60, respectively. Change sequentially.
【0040】具体的に感情・本能モデル部61は、状態
認識情報D1に基づき得られる認識結果及び行動決定部
62から行動決定情報D2として通知されるロボット1
の直前の出力行動がその情動に対して作用する度合い
(予め設定されている)と、他の情動から受ける抑制及
び刺激の度合いと、経過時間となどに基づいて所定の演
算式により算出されるその情動の変化量ΔE〔t〕、現
在のその情動のパラメータ値をE〔t〕、認識結果等に
応じてその情動を変化させる割合を表す係数をk eとし
て、所定周期で次式Specifically, the emotion / instinct model 61 is
Recognition result and action determination unit obtained based on the recognition information D1
Robot 1 notified from 62 as action determination information D2
Of the output behavior just before the action on the emotion
(Preset) and the suppression and control from other emotions
Performance based on the degree of
The emotional change amount ΔE [t] calculated by the formula,
The parameter value of the current emotion is used as E [t], recognition result, etc.
K is the coefficient that represents the rate of changing the emotion eage
Then, in a predetermined cycle,
【0041】[0041]
【数1】 [Equation 1]
【0042】を用いて次の周期におけるその情動のパラ
メータ値E〔t+1〕を算出する。Using, the parameter value E [t + 1] of the emotion in the next cycle is calculated.
【0043】そして感情・本能モデル部61は、この演
算結果を現在のその情動のパラメータ値E〔t〕と置き
換えるようにしてその情動のパラメータ値を更新する。
なお各認識結果や各出力行動に対してどの情動のパラメ
ータ値を更新するかは予め定められており、例えば「叩
かれた」といった認識結果が与えられた場合には「怒
り」の情動のパラメータ値が上がり、「撫でられた」と
いった認識結果が与えられた場合には「喜び」の情動の
パラメータ値が上がる。Then, the emotion / instinct model unit 61 updates the parameter value of the emotion by replacing the calculation result with the current parameter value E [t] of the emotion.
Note that it is predetermined which emotion parameter value is updated for each recognition result or each output action. For example, when a recognition result such as “struck” is given, the emotion parameter of “anger” is given. When the value rises and a recognition result such as “struck” is given, the emotional parameter value of “joy” rises.
【0044】これと同様にして、感情・本能モデル部6
1は、「愛情欲」、「探索欲」、「運動欲」、「充電
欲」及び「睡眠欲」の互いに独立した5つの欲求につい
て、これら欲求ごとにその欲求の強さを表すパラメータ
を保持している。そして感情・本能モデル部61は、こ
れら各欲求のパラメータ値を、それぞれ状態認識部60
からの認識結果や経過時間等に基づいて順次変更する。Similarly to this, the emotion / instinct model unit 6
1 holds five independent desires of "love desire", "search desire", "exercise desire", "charge desire" and "sleep desire", each of which has a parameter representing the strength of the desire. is doing. Then, the emotion / instinct model unit 61 sets the parameter values of each of these desires in the state recognition unit 60.
It is changed sequentially based on the recognition result from, the elapsed time, and so on.
【0045】具体的に感情・本能モデル部61は、「愛
情欲」、「探索欲」及び「運動欲」については、ロボッ
ト1の出力行動、経過時間及び認識結果などに基づいて
所定の演算式により算出されるその欲求の変化量ΔI
〔k〕、現在のその欲求のパラメータ値をI〔k〕、そ
の欲求の感度を表す係数をkiとして、所定周期で次式More specifically, the emotion / instinct model unit 61 calculates a predetermined arithmetic expression for “love desire”, “search desire”, and “exercise desire” based on the output behavior of the robot 1, elapsed time, recognition result, and the like. The change amount ΔI of the desire calculated by
[K], the current parameter value of the desire is I [k], and a coefficient representing the sensitivity of the desire is k i
【0046】[0046]
【数2】 [Equation 2]
【0047】を用いて次の周期におけるその欲求のパラ
メータ値I〔k+1〕を算出し、この演算結果を現在の
その欲求のパラメータ値I〔k〕と置き換えるようにし
てその欲求のパラメータ値を更新する。この場合、出力
行動や認識結果等に対してどの欲求のパラメータ値を変
化させるかは予め定められており、例えば行動決定部6
1から何らかの行動を行ったとの通知があったときは
「運動欲」のパラメータ値が下がることとなる。The parameter value I [k + 1] of the desire in the next cycle is calculated using and the calculation result is replaced with the current parameter value I [k] of the desire to update the parameter value of the desire. To do. In this case, which desire parameter value to change with respect to the output behavior, the recognition result, and the like is predetermined, and for example, the behavior determination unit 6
When there is a notification from 1 that some action has been taken, the parameter value of "motivation for exercise" is lowered.
【0048】また感情・本能モデル部61は、「食欲」
については、状態認識部60を介して与えられるバッテ
リ残量検出信号S2Aに基づいて、バッテリ残量をBL
として所定周期で次式Further, the emotion / instinct model part 61 is "appetite".
Regarding the battery remaining amount BL based on the battery remaining amount detection signal S2A given via the state recognition unit 60.
With the following formula
【0049】[0049]
【数3】 [Equation 3]
【0050】により「食欲」のパラメータ値I〔k+
1〕を算出し、この演算結果を現在の食欲のパラメータ
値I〔k〕を置き換えるようにして当該「食欲」のパラ
メータ値を更新する。The parameter value I [k +
1] is calculated, and the calculation result is replaced with the current parameter value I [k] of appetite to update the parameter value of the “appetite”.
【0051】なお本実施の形態においては、各情動及び
各欲求のパラメータ値がそれぞれ0から100までの範囲
で変動するように規制されており、また係数ke、ki
の値も各情動及び各欲求ごとにそれぞれ個別に設定され
ている。In the present embodiment, the parameter values of each emotion and each desire are regulated so as to vary within the range of 0 to 100, and the coefficients k e and k i are regulated.
The value of is also set individually for each emotion and each desire.
【0052】因みに、上述のように各認識結果や各出力
行動に対してどの情動又は欲求のパラメータ値をどの程
度増減させるかは予め設定されているが、これもその後
のユーザからの働きかけや、自己の行動結果等に応じて
順次変更される。By the way, as described above, it is set in advance which parameter value of emotion or desire is increased or decreased for each recognition result or each output action. It is changed sequentially according to the result of one's own action.
【0053】実際上、感情・本能モデル部61は、例え
ば状態認識部60から当該ロボット1が好きな色やボー
ル等のアイテム等を見ているとの状態認識情報D1が与
えられると、初期時には「喜び」の情動のパラメータ値
を増加させるように更新するが、このときに「叩かれ
た」という状態認識情報D1が与えられた場合には、
「喜び」の係数keを下げると共に、「怒り」の係数k
eを上げるようにこれらの係数値を更新する。In practice, the emotion / instinct model unit 61 receives the state recognition information D1 indicating that the robot 1 is looking at an item such as a color or a ball, which the robot 1 likes, from the state recognition unit 60. The parameter value of the emotion of "joy" is updated so as to be increased, but if the state recognition information D1 "struck" is given at this time,
Along with the lower the coefficient k e of "joy", coefficient of "anger" k
Update these coefficient values to raise e .
【0054】この結果、ロボット1が好きな色やアイテ
ム等を見ているときに「叩く」という働きかけが何度も
行われると、その色やアイテム等に対する「喜び」の係
数k eが徐々に小さくなると共に、「怒り」の係数ke
が徐々に大きくなり、やがてその色やアイテム等を見る
と「怒り」のパラメータ値が大きくなるように更新され
ることにより、後述のようにロボット1が怒ったような
行動を発現するようになる。As a result, the robot 1 has a favorite color and
Many times, when I was watching a movie
Once done, the "joy" clerk for the color, item, etc.
A few k eBecomes gradually smaller, and the coefficient of "anger" ke
Gradually becomes larger, and eventually you will see the color and items etc.
And the "anger" parameter value was updated to be larger
As a result, the robot 1 seems to be angry as described later.
You will begin to express actions.
【0055】また感情・本能モデル部61は、状態認識
部60から『大きなボールがある』ということを意味す
る「ボール(大)」という状態認識情報D1が与えられ
た後、行動決定部62から『ボールをキックする』とい
うことを意味する「キック」という行動決定情報D2が
与えられ、さらにこの後状態認識部60から『小さなボ
ールがある』ということを意味する「ボール(小)」と
いう状態認識情報D1が与えられた場合には、『ボール
を蹴るのに成功した』と判断し、その事象と関連する
『ボール』というアイテムに対する「喜び」の係数ke
と、「運動欲」の係数kiとをそれぞれ上げるようにこ
れらの係数値を更新する。Further, the emotion / instinct model unit 61 is given the state recognition information D1 of "ball (large)" which means "there is a big ball" from the state recognition unit 60, and then the action determination unit 62. The action determination information D2 of "kick" meaning "kick the ball" is given, and after that, the state recognition unit 60 further indicates a state of "ball (small)" meaning "small ball exists". When the recognition information D1 is given, it is determined that "the ball has been successfully kicked", and the coefficient of "joy" for the item "ball" related to the phenomenon, k e
And the coefficient k i of the "motility desire" are respectively increased, these coefficient values are updated.
【0056】この結果、ロボット1がボールを蹴る動作
を何度も成功すると、『ボール』に対する「喜び」の係
数keと「運動欲」の係数kiとがそれぞれ徐々に大き
くなり、やがてボールを見ると「喜び」及び「運動欲」
のパラメータ値が大きくなるように更新されることによ
り、後述のようにロボット1がボールを見ると喜んだ行
動を発現したり、ボール遊びをよくするようになる。[0056] When this result, the robot 1 is also successful many times the action to kick the ball, and the coefficient k i is increased gradually each of the "joy" coefficient k e and the "movement greed" of for the "ball", before long ball Sees "joy" and "motivation"
By updating the parameter value so that it becomes large, the robot 1 can express a pleasing action when looking at the ball, or improve the ball play, as described later.
【0057】これとは逆に、感情・本能モデル部61
は、状態認識部60から「ボール(大)」という状態認
識情報D1が与えられた後、行動決定部62から「キッ
ク」という行動決定情報D2が与えられ、さらにこの後
状態認識部60から「ボール(大)」という状態認識情
報D1が与えられた場合には、『ボールを蹴るのに失敗
した』と判断し、『ボール』に対する「喜び」の係数k
eと、「運動欲」の係数kiとをそれぞれ下げるように
これらの係数値を更新する。On the contrary, the emotion / instinct model unit 61
Is given the state recognition information D1 of "ball (large)" from the state recognition unit 60, the action determination information D2 of "kick" from the action determination unit 62, and then the state recognition information from the state recognition unit 60. When the state recognition information D1 “Ball (Large)” is given, it is determined that “kicking the ball has failed” and the coefficient of “joy” for the “ball” is k.
These coefficient values are updated so that e and the coefficient k i of "motility desire" are respectively lowered.
【0058】この結果、ロボット1がボールを蹴る動作
を何度も失敗すると、『ボール』に対する「喜び」の係
数keと「運動欲」の係数kiとがそれぞれ徐々に小さ
くなり、やがてボールを見ると「喜び」及び「運動欲」
のパラメータ値が小さくなるように更新されることによ
り、後述のようにロボット1がボールを見ても無反応と
なったり、ボール遊びをあまりしないようになる。[0058] As a result, the robot 1 also fail many times the action to kick the ball, and the coefficient k i decreases gradually each of the "joy" coefficient k e and the "movement greed" of for the "ball", before long ball Sees "joy" and "motivation"
By updating the parameter value so that it becomes smaller, the robot 1 becomes unresponsive or does not play much when the ball is seen, as described later.
【0059】このようにして、このロボット1において
は、ユーザからの働きかけや、自己の行動結果等に応じ
て性格を変化させ得るようになされている。In this way, in the robot 1, the character can be changed according to the user's action, the result of his / her own action, and the like.
【0060】(1−2−3)行動決定部62の処理
一方、行動決定部62は、状態認識部60から状態認識
情報D1が与えられたときや、現在の行動に移ってから
一定時間経過したとき、感情・本能モデル部61におけ
るいずれかの情動又は本能のパラメータ値が閾値を超え
たときなどに、内部メモリ40Aに格納されている制御
プログラム及び外部メモリ58に格納されている制御パ
ラメータに基づいて次の行動を決定する。(1-2-3) Processing of the action deciding unit 62 On the other hand, the action deciding unit 62 receives the state recognition information D1 from the state recognizing unit 60, and a certain period of time has passed since the current action was taken. When any of the emotion or instinct parameter values in the emotion / instinct model unit 61 exceeds a threshold value, the control program stored in the internal memory 40A and the control parameter stored in the external memory 58 are changed. Based on this, the next action is determined.
【0061】具体的に行動決定部62は、次の行動を決
定する手法として、図7に示すように、状態をノードN
ODE0〜NODEnとして表現し、1つのノードNO
DE 0から次にどのノードNODE0〜NODEnに遷
移するかを、自ノードNODE0〜NODEnにおいて
完結し又は各ノードNODE0〜NODEn間を接続す
るアークARC0〜ARCnに対してそれぞれ設定され
た遷移確率P0〜Pnに基づいて確率的に決定する確率
オートマトンと呼ばれるアルゴリズムを用いる。Specifically, the action determining section 62 determines the next action.
As a method of determining the state, as shown in FIG.
ODE0~ NODEnAs one node NO
DE 0From which node NODE0~ NODEnTransition to
Whether to move the node NODE0~ NODEnAt
Completed or each node NODE0~ NODEnConnect between
Ark ARC0~ ARCnRespectively set for
Transition probability P0~ PnProbabilistically determined based on
An algorithm called an automaton is used.
【0062】この場合この確率オートマトンにおける各
ノードNODE0〜NODEn間の接続関係や、各アー
クARC0〜ARCnに対する遷移確率P1〜Pn及び
各アークARC0〜ARCnにそれぞれ対応付けられた
動作が制御パラメータ(行動モデル)として外部メモリ
58に格納されている。[0062] respectively associated with this case and the connection relationship between the nodes NODE 0 ~NODE n in the probability automaton, each arc ARC 0 transitions for ~ARC n probability P 1 to P n and each arc ARC 0 ~ARC n The motion described above is stored in the external memory 58 as a control parameter (behavior model).
【0063】そして行動決定部62は、例えば状態認識
部60から状態認識情報D1が与えられたときや、現在
のノード(NODE0)に移ってから一定時間が経過し
たとき、感情・本能モデル部61におけるいずれかの情
動又は本能のパラメータ値が閾値を超えたときなどに、
かかる確率オートマトンにおける次の遷移先のノード
(NODE0〜NODEn)を各アークARC0〜AR
Cnに対する遷移確率P 0〜Pnに基づいて確率的に決
定し、このとき決定したノード(NODE0〜NODE
n)と元のノード(NODE0)をと接続するアーク
(ARC0〜ARC n)に対応付けられた行動を次に発
現すべき行動として、行動決定情報D2として行動生成
部に通知する。Then, the action determining section 62, for example, recognizes the state.
When the state recognition information D1 is given from the section 60,
Node (NODE0), A certain amount of time has passed since
When one of the emotions / instinct model section 61
When the parameter value of movement or instinct exceeds a threshold value,
Node of next transition destination in such probability automaton
(NODE0~ NODEn) Each arc ARC0~ AR
CnTransition probability P for 0~ PnProbabilistically based on
The node (NODE0~ NODE
n) And the original node (NODE0) Is connected to the arc
(ARC0~ ARC n), The action associated with
Generate action as action decision information D2 as action to be shown
Notify the department.
【0064】(1−2−4)行動生成部63の処理
行動生成部63においては、行動決定部62から行動決
定情報D2が与えられると、当該行動決定情報D2に基
づく行動をロボットに発現させるための制御コマンドC
OMを対応するサブ制御部43A〜43Dにそれぞれ出
力する。(1-2-4) Processing of Action Generating Unit 63 When the action determining unit 62 receives the action determining information D2, the action generating unit 63 causes the robot to develop an action based on the action determining information D2. Control command C for
The OM is output to the corresponding sub control units 43A to 43D.
【0065】具体的に、行動生成部63は、「歩く」、
「座る」、「ダンスする」等の各動作にそれぞれ対応さ
せて、その動作をロボット1に発現させるためにどのア
クチュエータA1〜A14(図1及び図2)の出力軸を
どのタイミングでどのくらいの角度だけ回転駆動させる
かといった、動作ごとの各アクチュエータA1〜A1 4
の時系列的な制御内容を規定したファイル(以下、これ
をモーションファイルと呼ぶ)を外部メモリ58内に有
している。Specifically, the action generator 63 "walks",
The actuators A 1 to A 14 (FIGS. 1 and 2) output shafts at which timings and how much the actuators A 1 to A 14 (FIGS. 1 and 2) correspond to the motions such as “sitting” and “dancing” to cause the robot 1 to express the motions. Actuators A 1 to A 1 4 for each operation, such as whether to rotate and drive only the angle
The external memory 58 has a file (hereinafter, referred to as a motion file) defining the time-series control contents of the above.
【0066】そして行動生成部63は、行動決定部62
から行動決定情報D2が与えられるごとに、対応するモ
ーションファイルを順次再生して当該モーションファイ
ルに格納された制御パラメータに基づく制御コマンドC
OMを生成し、当該制御コマンドCOMを対応するサブ
制御部43A〜43Dに送出する。Then, the action generation section 63 has the action determination section 62.
Each time the action decision information D2 is given from the control command C, the corresponding motion file is sequentially reproduced and the control command C based on the control parameter stored in the motion file is reproduced.
The OM is generated and the control command COM is sent to the corresponding sub control units 43A to 43D.
【0067】この結果この制御コマンドCOMに基づい
て、対応するサブ制御部43A〜43Dによって対応す
るアクチュエータA1〜A14が順次駆動され、かくし
てロボット1がかかる動作を発現することとなる。As a result, based on this control command COM, the corresponding sub-control units 43A to 43D sequentially drive the corresponding actuators A 1 to A 14 , and thus the robot 1 develops such an operation.
【0068】また行動生成部63は、各種音のWAVE
ファイルである複数の音声ファイルと、上述した外見上
の「目」として機能するLEDの駆動データが格納され
た複数のLED駆動ファイルを外部メモリ58内に有し
ており、かかるモーションファイルの再生時等にそのモ
ーションファイルと対応付けられた音声ファイル及び又
はLED駆動ファイルを同時に再生することにより、ロ
ボット1に動作と合わせてスピーカ54(図5)から音
声を出力させたり、当該LEDを点滅駆動させる。Further, the action generator 63 uses the WAVE of various sounds.
The external memory 58 has a plurality of audio files, which are files, and a plurality of LED drive files in which the drive data of the LEDs functioning as the above-mentioned "eyes" are stored in the external memory 58. The audio file and / or the LED drive file associated with the motion file are simultaneously played back to the robot 1 to cause the robot 1 to output a voice from the speaker 54 (FIG. 5) or to drive the LED to blink. .
【0069】このようにしてメイン制御部40において
は、外部及び内部の状況や、ユーザからの指令及び働き
かけの有無等に応じてロボット1を自律的に行動させ得
るようになされている。In this way, the main control section 40 is configured to allow the robot 1 to act autonomously in accordance with external and internal conditions, instructions from the user and presence / absence of an action.
【0070】(2)ダンスモード時におけるメイン制御
部40の処理
次にこのロボット1のダンスモード時におけるメイン制
御部40の処理について説明する。(2) Process of Main Control Unit 40 in Dance Mode Next, the process of the main control unit 40 in the dance mode of the robot 1 will be described.
【0071】このロボット1の場合、上述のように外部
及び内部の状況や、ユーザからの指令及び働きかけの有
無に応じて自律的に行動する自律モードの他に、動作モ
ードとして、予めプログラマ又はユーザにより作成され
たダンスを行うダンスモードを有している。そしてロボ
ット1は、このダンスモード時には、そのときの感情の
状態に応じて音楽を自己生成し、これを外部に放音する
ようになされている。In the case of the robot 1, in addition to the autonomous mode in which the robot 1 behaves autonomously in accordance with the external and internal conditions, the command from the user and the presence / absence of an action from the user as described above, the operation mode is previously set to the programmer or the user. It has a dance mode for performing the dance created by. Then, in this dance mode, the robot 1 self-generates music according to the emotional state at that time, and emits it to the outside.
【0072】この場合、かかるダンスモード時における
ロボット1の行動生成に関する制御は、主として上述し
た行動生成部63(図6)によって行われる。In this case, the control relating to the action generation of the robot 1 in the dance mode is mainly performed by the action generation unit 63 (FIG. 6) described above.
【0073】実際上、行動生成部63は、状態認識部6
0から「ダンスして」という音声入力があったとの状態
認識結果が行動決定部62を介して通知されると、動作
モードをダンスモードに切り換える。In practice, the action generation section 63 has the state recognition section 6
When the state recognition result that the voice input “Dance” is input from 0 is notified via the action determination unit 62, the operation mode is switched to the dance mode.
【0074】そして行動生成部63は、予め登録されて
いるダンス用のモーションファイルを再生することによ
りロボット1にダンスを行わせると共に、感情・本能モ
デル部61(図6)における各情動のパラメータ値に基
づき、ロボット1の動きの速さに応じたリズムで音楽を
生成し、これをダンスと共に外部に放音させる。Then, the action generator 63 causes the robot 1 to perform a dance by playing back a previously registered motion file for dance, and the emotion / instinct model 61 (FIG. 6) shows the parameter values of each emotion. Based on the above, music is generated at a rhythm according to the speed of movement of the robot 1, and this is emitted to the outside together with dance.
【0075】ここで、かかるダンスモード時におけるロ
ボット1の行動生成に関する行動生成部63の処理内容
を機能的に分類すると、図8に示すように、モーション
ファイル再生部70と音楽生成部71とに分けることが
できる。以下、ダンスモード時におけるこれらモーショ
ンファイル再生部70と音楽生成部71の処理について
説明する。Here, the processing contents of the action generating section 63 relating to the action generation of the robot 1 in the dance mode are functionally classified into a motion file reproducing section 70 and a music generating section 71, as shown in FIG. Can be divided. The processing of the motion file reproducing unit 70 and the music generating unit 71 in the dance mode will be described below.
【0076】(2−1)モーションファイル再生部70
の処理
モーションファイル再生部70は、ダンスモードに移行
すると、まず必要に応じてロボット1の姿勢を「ダン
ス」をするための姿勢(例えば「立つ」の姿勢)に遷移
させる。またモーションファイル再生部70は、この後
ロボット1に「ダンス」をさせるための当該ロボットの
動作を定義したモーションファイル72(図9)を外部
メモリ58から読み出し、これを再生して「ダンス」と
いう動作をロボット1に発現させるための制御コマンド
COMを生成すると共に、これを対応するサブ制御部4
3A〜43Dに送出する。(2-1) Motion file reproducing unit 70
When the process motion file reproducing unit 70 shifts to the dance mode, the posture of the robot 1 first transitions to a posture for "dancing" (for example, a "standing" posture), if necessary. Further, the motion file reproducing unit 70 thereafter reads the motion file 72 (FIG. 9) that defines the motion of the robot 1 for causing the robot 1 to “dance” from the external memory 58, reproduces it, and calls it “dance”. A control command COM for causing the robot 1 to express an action is generated and the corresponding sub-control unit 4
3A to 43D.
【0077】具体的には、このロボット1の場合、図9
に示すように、かかる「ダンス」のモーションファイル
72は、幾つかのプリミティブモーションのモーション
番号(motion 1、motion 2、……、motion m)を時
系列的に並べたデータ構造を有している。プリミティブ
モーションとは、ロボット1の複雑な一連の動作(例え
ばダンス)を構成する例えば「手を上に上げる」、「腰
を振る」、「ジャンプする」等の細かい基本的な動作要
素のことをいう。Specifically, in the case of this robot 1, FIG.
As shown in FIG. 4, the motion file 72 of such “dance” has a data structure in which motion numbers (motion 1, motion 2, ..., Motion m) of some primitive motions are arranged in time series. . The primitive motion is a detailed basic motion element such as "raising hands", "waving hips", "jumping", etc., which constitutes a complicated series of motions (for example, dance) of the robot 1. Say.
【0078】また外部メモリ58には、プリミティブモ
ーションファイルデータベース73が格納されており、
当該プリミティブモーションファイルデータベース73
には、各種プリミティブモーションをロボット1に発現
させるために、どのアクチュエータA1〜A14(図1
及び図2)の出力軸をどのタイミングでどのくらいの角
度だけ回転駆動させればよいかといった、各プリミティ
ブモーションごとの各アクチュエータA1〜A14の時
系列的な制御内容を規定した制御パラメータ(以下、こ
れらをプリミティブモーション制御パラメータと呼ぶ)
PM1〜PMnが、それぞれそのプリミティブモーショ
ンのモーション番号(motion 1、motion 2、……、mo
tion m)と対応付けられて格納されている。In addition, the external memory 58 stores a primitive motion file database 73,
The primitive motion file database 73
In order to express various primitive motions to the robot 1, which actuators A 1 to A 14 (see FIG.
2) and the control parameters that define the time-series control contents of the actuators A 1 to A 14 for each primitive motion, such as at what timing and at what angle the output shaft should be rotationally driven. , These are called primitive motion control parameters)
PM 1 to PM n are the motion numbers (motion 1, motion 2, ..., Mo ) of the primitive motion.
(tion m) and stored.
【0079】そしてモーションファイル再生部70(図
8)は、ダンスモード時、外部メモリ58から再生した
「ダンス」のモーションファイル72に基づいて、当該
モーションファイル72において時系列的に規定されて
いる各プリミティブモーションに対応するプリミティブ
モーション制御パラメータPM1〜PMnをそれぞれそ
の順番でプリミティブモーションファイルデータベース
73から読み出すと共に、当該読み出したプリミティブ
モーション制御パラメータPM1〜PMnに基づいて制
御コマンドCOMを順次生成し、当該制御コマンドCO
Mを対応するサブ制御部43A〜43D(図5)に順次
送出する。Then, in the dance mode, the motion file reproducing section 70 (FIG. 8), based on the “dance” motion file 72 reproduced from the external memory 58, each of the motion files 72 is specified in time series. The primitive motion control parameters PM 1 to PM n corresponding to the primitive motion are read from the primitive motion file database 73 in that order, and the control commands COM are sequentially generated based on the read primitive motion control parameters PM 1 to PM n. , The control command CO
The M is sequentially sent to the corresponding sub control units 43A to 43D (FIG. 5).
【0080】この結果この制御コマンドCOMに基づい
て、そのサブ制御部43A〜43Dにより対応するアク
チュエータA1〜A14が順次駆動されることにより、
「手を上に上げる」、「腰を振る」、「ジャンプする」
というプリミティブモーションがロボット1により連続
して順次発現され、この一連のプリミティブモーション
の発現によって、あたかも「ダンス」をしているかのご
とくロボット1が動作することとなる。As a result, the corresponding actuators A 1 to A 14 are sequentially driven by the sub-control units 43A to 43D based on the control command COM,
"Raise your hand", "shake your hips", "jump"
The primitive motion is continuously expressed by the robot 1, and by the expression of the series of primitive motions, the robot 1 operates as if "dancing".
【0081】なおこの実施の形態の場合、「ダンス」の
モーションファイル72には、当該モーションファイル
72を構成する各プリミティブモーションについて、そ
れぞれそのプリミティブモーションをどのくらいの速さ
で再生するかを表す制御パラメータであるテンポ(図9
のtempo1、tempo2)が当該プリミティブモーションと
対応付けて格納されている。In the case of this embodiment, the motion file 72 of “dance” has a control parameter indicating how fast each primitive motion forming the motion file 72 is reproduced. Is the tempo (Fig. 9
Tempo1 and tempo2) are stored in association with the primitive motion.
【0082】このテンポ(tempo1、tempo2、……temp
on)は、通常、音楽理論において以下の式
Tempo=(60(秒)×拍子記号の分子×全小節数)÷全
演奏時間(秒)
により与えられるものであり、例えば次式This tempo (tempo1, tempo2, ... temp
On) is usually given by the following formula in music theory: Tempo = (60 (seconds) × numerator of time signature × total number of measures) ÷ total playing time (seconds).
【0083】[0083]
【数4】 [Equation 4]
【0084】とは、4分音符が1分間に100回演奏され
ることを表す。The term "fourth note" means that the quarter note is played 100 times in one minute.
【0085】そしてモーションファイル再生部70(図
8)は、プリミティブモーションファイルデータベース
73から読み出した各プリミティブモーションファイル
に基づいて制御コマンド生成する際に、このテンポのデ
ータを参酌しながら制御コマンドを生成する。Then, the motion file reproducing unit 70 (FIG. 8) generates a control command while taking into consideration the tempo data when generating a control command based on each primitive motion file read from the primitive motion file database 73. .
【0086】この結果この制御コマンドCOMに基づい
て、そのサブ制御部43A〜43Dにより対応するアク
チュエータA1〜A14が順次駆動されることにより、
かかるテンポに応じた速度で各プリミティブモーション
がそれぞれロボットにより発現されることとなる。As a result, the corresponding actuators A 1 to A 14 are sequentially driven by the sub-control units 43A to 43D based on the control command COM,
Each primitive motion is expressed by the robot at a speed according to the tempo.
【0087】(2−2)音楽生成部71の処理
一方、音楽生成部71は、かかるモーションファイル再
生部70の処理と平行して、そのときの感情・本能モデ
ル部61(図6)における各情動のパラメータ値に基づ
き、ロボット1の動きの速さに応じたリズムで音楽を生
成する。(2-2) Processing of Music Generating Unit 71 On the other hand, the music generating unit 71, in parallel with the processing of the motion file reproducing unit 70, performs each process in the emotion / instinct model unit 61 (FIG. 6) at that time. Music is generated at a rhythm corresponding to the speed of movement of the robot 1 based on the emotional parameter value.
【0088】実際上、音楽生成部71は、図10に示す
ように、そのときの感情・本能モデル部61における各
情動のパラメータ値と、ダンスを構成する各プリミティ
ブモーションのテンポとに基づいてリズムパターン、コ
ード進行及びメロディスケールの3要素をそれぞれ決定
するようにして音楽を生成する。In practice, the music generation section 71, as shown in FIG. 10, rhythms based on the parameter values of each emotion in the emotion / instinct model section 61 at that time and the tempo of each primitive motion forming the dance. Music is generated by determining each of the three elements of the pattern, chord progression, and melody scale.
【0089】そしてこれらリズムパターン、コード進行
及びメロディスケールを決定する手段として、例えば図
11に示すような音楽生成ルールデータベース80が外
部メモリ58内に格納されている。As a means for determining the rhythm pattern, chord progression and melody scale, a music generation rule database 80 as shown in FIG. 11 is stored in the external memory 58.
【0090】この場合、この音楽生成ルールデータベー
ス80は、感情値テーブル81、リズムパターンデータ
ファイル82、コード進行表データファイル83及びメ
ロディスケールデータファイル84から構成されてお
り、このうちリズムパターンデータファイル82には、
ロック調(Rock)、リズム・アンド・ブルース調(R&
B)、ダンス調(Dance)、クラッシック調(Classica
l)等の各種リズムパターンのテンプレートデータが各
リズムパターンについてそれぞれ複数種類ずつ格納され
ている。In this case, the music generation rule database 80 comprises an emotion value table 81, a rhythm pattern data file 82, a chord progression table data file 83 and a melody scale data file 84, of which the rhythm pattern data file 82. Has
Rock, Rhythm & Blues (R &
B), Dance style (Dance), Classic style (Classica)
A plurality of types of template data for various rhythm patterns such as l) are stored for each rhythm pattern.
【0091】また感情値テーブル81では、「喜び」、
「悲しみ」、「驚き」、「恐怖」、「嫌悪」及び「怒
り」の各情動について、感情・本能モデル部61におけ
るその情動のパラメータ値が他の情動のパラメータ値と
比して最も値が大きかった場合に選択すべき幾つかのリ
ズムパターンの選択肢がそのリズムパターンが選択され
るべき確率と対応づけられて規定されている。In the emotion value table 81, "joy",
For each emotion of “sadness”, “surprise”, “fear”, “disgust”, and “anger”, the parameter value of the emotion in the emotion / instinct model unit 61 is the highest compared to the parameter values of other emotions. Several rhythm pattern options to be selected when the rhythm pattern is large are defined in association with the probability that the rhythm pattern should be selected.
【0092】例えば図11に示す例では、感情・本能モ
デル部61における「喜び(Joy)」のパラメータ値が
最も大きかった場合には、ロック調(Rock)、ダンス調
(Dance)、……のリズムパターンの中から1つのリズ
ムパターンをそれぞれ50〔%〕、20〔%〕、……の
確率で選択すべきことが規定され、「悲しみ(Sadnes
s)」のパラメータ値が最も大きかった場合には、ブル
ース調(Blues)、リズム・アンド・ブルース調(R&
B)、……のリズムパターンの中から1つのリズムパタ
ーンをそれぞれ40〔%〕、30〔%〕、……の確率で
選択すべきことが規定されている。For example, in the example shown in FIG. 11, when the parameter value of “joy” in the emotion / instinct model portion 61 is the largest, the rock tone (Rock), dance tone (Dance), ... It is stipulated that one rhythm pattern should be selected from the rhythm patterns with a probability of 50%, 20%, and so on.
s) ”has the largest parameter value, blues (Blues), rhythm and blues (R &
It is stipulated that one rhythm pattern should be selected from the rhythm patterns B), ... With a probability of 40%, 30% ,.
【0093】かくして音楽生成部71は、ダンスモード
に遷移した直後の感情・本能モデル部61における各情
動のパラメータ値を参照して、これらの中から最もパラ
メータ値が大きい情動を検出すると共に、当該検出結果
に基づき音楽生成ルールデータベース80内の感情値テ
ーブル81を利用して確率的にリズムパターンを1つ選
択し、さらにこの選択したリズムパターンについて、リ
ズムパターンデータファイル82内のそのリズムパター
ンとして複数種類用意されたテンプレートの中から1つ
を選択するようにしてリズムパターンを決定する。Thus, the music generation section 71 refers to the parameter value of each emotion in the emotion / instinct model section 61 immediately after the transition to the dance mode, detects the emotion having the largest parameter value among these, and Based on the detection result, one rhythm pattern is stochastically selected using the emotion value table 81 in the music generation rule database 80, and a plurality of rhythm patterns are selected as the rhythm pattern in the rhythm pattern data file 82. The rhythm pattern is determined by selecting one from the templates prepared for each type.
【0094】また音楽生成部71は、これと共にそのと
きロボット1が発現しているプリミティブモーションの
テンポデータをモーションファイル再生部70から得、
当該テンポデータに基づいてかかる決定したリズムパタ
ーンのテンポを決定する。Further, the music generating section 71 obtains the tempo data of the primitive motion which the robot 1 is expressing at that time from the motion file reproducing section 70,
The tempo of the determined rhythm pattern is determined based on the tempo data.
【0095】一方、音楽生成ルールデータベース80の
コード進行表データファイル83には、各種コード進行
を規定したコード進行表のデータが格納されている。こ
の場合このコード進行としては、各キー(C、D、E、
……の各コード)について、それぞれメジャースケール
のものとマイナースケールのものとがそれぞれ複数種類
用意されている。例えば図11は、「C」をキーとする
コード進行の一部を例示したものである。On the other hand, the chord progression table data file 83 of the music generation rule database 80 stores chord progression table data defining various chord progressions. In this case, as the chord progression, each key (C, D, E,
For each code), there are multiple types of major scale and minor scale. For example, FIG. 11 exemplifies a part of chord progression with "C" as a key.
【0096】そして音楽生成部71は、コード進行を決
定するに際し、まず曲のキー(最初のコード)を決定す
ると共に、ダンスモードに遷移した直後の感情・本能モ
デル部61における最大パラメータ値の情動の種類に基
づいて、メジャースケールにするか又はマイナースケー
ルにするかを決定する。具体的に、音楽生成部71は、
感情・本能モデル部61における「喜び」のようなポジ
ティブな情動のパラメータ値が最も大きいときにはメジ
ャースケールを選択し、「悲しみ」、「驚き」、「恐
怖」、「嫌悪」及び「怒り」のようなネガティブな情動
のパラメータ値が最も大きいときにはマイナースケール
を選択する。When determining the chord progression, the music generation section 71 first determines the key of the song (first chord) and the emotion of the maximum parameter value in the emotion / instinct model section 61 immediately after the transition to the dance mode. Based on the type, the major scale or the minor scale is determined. Specifically, the music generator 71
When the parameter value of the positive emotion such as "joy" in the emotion / instinct model unit 61 is the largest, the major scale is selected, and "sadness", "surprise", "fear", "disgust", and "anger" are selected. If the negative emotional parameter value is the largest, select the minor scale.
【0097】また音楽生成部71は、この後上述の決定
結果に基づいて、コード進行表データファイル83に格
納されたコード進行表に定義されているコード進行のう
ち、上述のようにして決定したキーに対応するものであ
って、さらに上述のようにして決定したメジャースケー
ル又はマイナースケールに対応するものの中から1つの
コード進行を選択し、これをそのとき出力する音楽のコ
ード進行として決定する。Further, the music generating section 71 thereafter determines, as described above, among the chord progressions defined in the chord progression table stored in the chord progression table data file 83, based on the above-mentioned determination result. One chord progression is selected from the ones corresponding to the keys and corresponding to the major scale or the minor scale determined as described above, and this is determined as the chord progression of the music to be output at that time.
【0098】次にメロディであるが、1つの音を決定す
るための決定要素として、レングス(音の長さ)、ピッ
チ(音階)、ベロシティ(音の強さ)の3つがある。Next, regarding the melody, there are three determinants for determining one note: length (note length), pitch (note scale), and velocity (note strength).
【0099】このため音楽生成部71は、図12に示す
ように、レングス、ピッチ及びベロシティの3軸により
メロディ空間を定義し、このメロディ空間内の1点を以
下のようにして選択することにより1つの音を決定する
と共に、これを順次繰り返すことによりメロディを生成
する。なお図12は、それぞれの軸が8ビットで表現さ
れ、レングス、ピッチ及びベロシティがそれぞれ0〜2
56の値をとる場合の一例を示したものである。Therefore, as shown in FIG. 12, the music generating section 71 defines a melody space with three axes of length, pitch and velocity, and selects one point in this melody space as follows. A melody is generated by deciding one sound and repeating this in sequence. In FIG. 12, each axis is represented by 8 bits, and the length, pitch, and velocity are 0 to 2 respectively.
This is an example of a case where a value of 56 is taken.
【0100】具体的に音楽生成部71は、1つの音を決
定する場合に、まずレングスについては、「拍」におい
て必ず音が出力されるようにランダムに決定する。つま
り、音を出すタイミングが予め決まっており、その中か
ら「拍」のタイミングを含めてあとはどこで音を出すか
を選択することによりレングスを決定する。図12で
は、レングスの値として「100」が決定された場合を
示している。Specifically, when determining one sound, the music generating section 71 first randomly determines the length so that the sound is always output in the “beat”. In other words, the timing for producing the sound is predetermined, and the length is determined by selecting where to produce the sound after that, including the timing of the “beat”. FIG. 12 shows a case where “100” is determined as the length value.
【0101】またピッチは、ロボット1の感情を反映さ
せるため、直前の音のピッチをP(t)、次の音のピッ
チをP(t+1)、ダンスモードに遷移した直後の感情
・本能モデル部61における各情動のパラメータ値の中
から最大のパラメータ値の値をPrとして、次式In order to reflect the emotion of the robot 1, the pitch is the pitch of the immediately preceding sound P (t), the pitch of the next sound P (t + 1), and the emotion / instinct model part immediately after the transition to the dance mode. From the parameter values of each emotion in 61, the maximum parameter value is Pr, and
【0102】[0102]
【数5】 [Equation 5]
【0103】により与えられる範囲内においてランダム
に次の音のピッチP(t+1)を決定する。従って、ロ
ボット1の感情が激しいとき(かかる感情・本能モデル
部61における最大のパラメータ値が大きいとき)には
ピッチの振れる範囲が広くなり、逆に感情が穏やかなと
き(当該最大のパラメータ値が小さいとき)にはピッチ
の振れる範囲が狭くなる。The pitch P (t + 1) of the next note is randomly determined within the range given by. Accordingly, when the emotion of the robot 1 is intense (when the maximum parameter value in the emotion / instinct model 61 is large), the pitch fluctuation range becomes wide, and conversely when the emotion is calm (the maximum parameter value is When it is small), the pitch fluctuation range becomes narrow.
【0104】さらにベロシティについても、ピッチと同
様にロボット1の感情を反映させるため、直前の音のベ
ロシティをV(t)、次の音のベロシティをV(t+
1)、ダンスモードに遷移した直後の感情・本能モデル
部61における各情動のパラメータ値の中から最大のパ
ラメータ値の値をVrとして、次式As for the velocity, the velocity of the immediately preceding sound is V (t) and the velocity of the next sound is V (t +) in order to reflect the emotion of the robot 1 similarly to the pitch.
1) The value of the maximum parameter value among the parameter values of each emotion in the emotion / instinct model unit 61 immediately after the transition to the dance mode is Vr, and
【0105】[0105]
【数6】 [Equation 6]
【0106】により与えられる範囲内においてランダム
に次の音のベロシティV(t+1)を決定する。The velocity V (t + 1) of the next note is randomly determined within the range given by.
【0107】ただし、上述のようにレングス、ピッチ及
びベロシティをランダムに決定するといっても、不協和
音とならないように、その音を出すときのコードとの兼
ね合いも考慮する必要がある。However, even if the length, pitch, and velocity are randomly determined as described above, it is necessary to consider the balance with the chord at the time of producing the note so as not to cause dissonance.
【0108】そこでこの実施の形態の場合、音楽生成ル
ールデータベース80内のメロディスケールファイル8
4には、各コードについて、そのコードと不協和音とな
らない音の候補(以下、これを候補音と呼ぶ)がそれぞ
れ複数個ずつ当該コードと対応づけられて格納されてい
る。図11においては、そのときのコードが「A」であ
る場合の候補音として「A1」、「E2」、「D1」等
が対応付けられ、コードが「C」である場合の候補音と
して「C1」、「E2」、「G1」等が対応付けられて
いることを示している。Therefore, in the case of this embodiment, the melody scale file 8 in the music generation rule database 80 is
In FIG. 4, for each chord, a plurality of sound candidates that are not dissonant with the chord (hereinafter referred to as candidate sounds) are stored in association with each other. In FIG. 11, “A1”, “E2”, “D1”, and the like are associated as candidate sounds when the chord at that time is “A”, and “No” as the candidate sound when the chord is “C”. It indicates that "C1", "E2", "G1", etc. are associated.
【0109】そして音楽生成部71は、次の音を決定す
る際にはそのときのコードを考慮し、メロディスケール
ファイル84に格納されている当該コードに対応付けら
れた候補音の中から上述したレングス、ピッチ及びベロ
シティの各条件をすべて満たす候補音を1つ選択するよ
うにする。Then, the music generation section 71 considers the chord at that time when determining the next note, and selects from among the candidate notes associated with the chord stored in the melody scale file 84. Try to select one candidate note that satisfies all the length, pitch, and velocity conditions.
【0110】実際上、かかる候補音を選択する手法とし
て、音楽生成部71は、メロディスケールファイル84
に格納されたそのときのコードに対応付けられた候補音
のうち、上述のようにして決定したレングスをL、直前
の音のピッチ及びベロシティをそれぞれP(t)、V
(t)として、図12に示すメロディ空間内の次式In practice, as a method of selecting such candidate sounds, the music generator 71 uses the melody scale file 84.
Among the candidate tones associated with the chord at that time stored in the above, the length determined as described above is L, and the pitch and velocity of the immediately preceding tone are P (t) and V, respectively.
As (t), the following equation in the melody space shown in FIG.
【0111】[0111]
【数7】 [Equation 7]
【0112】及び次式And the following equation
【0113】[0113]
【数8】 [Equation 8]
【0114】と、上述の(6)式及び(7)式との全て
を満たすlength-pitch-velocity空間領域90(図1
2)内に含まれる空間座標(L,P(t+1),V(t
+1))を有する幾つかの候補音の中から1つの候補音
をランダムに選択するようにして次の音を決定する。な
お(7)式におけるr1及び(8)式におけるr2は、
それぞれ次の音がそのときのコードと適合するように平
均的な人間の感性を考慮して予め設定される経験的な値
である。かくして音楽生成部71は、このような処理を
繰り返して次の音を順次決定することによりメロディを
生成する。And the length-pitch-velocity space region 90 (FIG. 1) that satisfies all of the above equations (6) and (7).
2) spatial coordinates (L, P (t + 1), V (t
The next sound is determined by randomly selecting one candidate sound from among several candidate sounds having +1)). Note that r 1 in the equation (7) and r 2 in the equation (8) are
Each of the following sounds is an empirical value preset in consideration of the average human sensitivity so as to match the chord at that time. Thus, the music generation section 71 repeats such processing to sequentially determine the next sound, thereby generating a melody.
【0115】そして音楽生成部71は、上述のようにし
てそのときの感情・本能モデル部61(図6)における
各情動のパラメータ値に基づきリズムパターン、コード
進行及びメロディを順次決定するようにして音楽を生成
する一方、かくして得られたその音楽の音声データS3
を順次スピーカ54(図5)に送出することにより当該
音楽を外部に放音させる。Then, the music generation section 71 sequentially determines the rhythm pattern, chord progression and melody based on the parameter values of each emotion in the emotion / instinct model section 61 (FIG. 6) at that time as described above. While generating music, the voice data S3 of the music thus obtained
Are sequentially output to the speaker 54 (FIG. 5) to output the music to the outside.
【0116】このようにしてこのロボット1において
は、そのときの感情・本能モデル部61(図6)におけ
る各情動のパラメータ値に基づき、ロボット1の動きの
速さに応じたリズムで音楽を生成し、これを外部に出力
する。In this way, in the robot 1, music is generated at a rhythm according to the speed of movement of the robot 1 based on the parameter value of each emotion in the emotion / instinct model unit 61 (FIG. 6) at that time. Then, this is output to the outside.
【0117】(3)本実施の形態の動作及び効果
以上の構成において、ロボット1は、ダンスモード時、
そのときの感情に応じて、喜んでいるときには明るめの
音楽、それ以外の悲しんでいるときや怒っているときに
は暗めの音楽をそれぞれ奏でながらダンスする。またこ
の際奏でられる音楽は、そのときの感情の強さに応じ
て、当該感情が強いときには激しいメロディ、当該感情
が弱いときには穏やかなメロディとなる。(3) Operations and Effects of this Embodiment In the above configuration, the robot 1 is
Depending on the emotions at that time, dance while playing bright music when you are happy, and dark music when you are otherwise sad or angry. Further, the music played at this time becomes a violent melody when the emotion is strong and a gentle melody when the emotion is weak, depending on the strength of the emotion at that time.
【0118】従って、このロボット1では、ロボットの
動きからそのときどのような音楽が出力されるのかをユ
ーザに事前に予測することができず、またかかる音楽に
そのときのロボット1の感情が反映されるため、ユーザ
がロボットに飽きるのを有効に防止することができる。Therefore, the robot 1 cannot predict in advance what kind of music will be output from the movement of the robot, and the emotion of the robot 1 at that time is reflected in such music. Therefore, it is possible to effectively prevent the user from getting tired of the robot.
【0119】またこのロボット1では、かかる音楽をそ
の度ごとに自己生成するため、当該音楽を記憶しておく
ためのメモリ等を必要とせず、その分このような機能を
ロボットに搭載するに際して当該ロボット1の構成の複
雑化及び大型化を防止することができる。Further, since the robot 1 self-generates such music each time, it does not require a memory or the like for storing the music, and accordingly, when such a function is mounted on the robot, It is possible to prevent the configuration of the robot 1 from becoming complicated and upsizing.
【0120】以上の構成によれば、ダンスをする際にそ
のときのロボット1の感情に基づいて音楽を生成して放
音するようにしたことにより、ロボット1に対するユー
ザの飽きを有効に防止することができ、かくして構成の
煩雑化及び大型化を防止しながらエンターテインメント
性を格段的に向上させ得るロボットを実現できる。According to the above configuration, when the user dances, music is generated based on the emotion of the robot 1 at that time and the sound is emitted, so that the user is effectively prevented from getting bored with the robot 1. Thus, it is possible to realize a robot capable of remarkably improving the entertainment property while preventing the configuration from becoming complicated and upsizing.
【0121】(4)他の実施の形態
なお上述の実施の形態においては、本発明を図1及び図
2のように構成された2足歩行型のロボット1に適用す
るようにした場合について述べたが、本発明はこれに限
らず、例えば4脚歩行型のペットロボットや、この他種
々のロボット装置に広く適用することができる。(4) Other Embodiments In the above-mentioned embodiments, the case where the present invention is applied to the bipedal walking robot 1 configured as shown in FIGS. 1 and 2 will be described. However, the present invention is not limited to this, and can be widely applied to, for example, a four-legged walking type pet robot and various other robot devices.
【0122】また上述の実施の形態においては、ロボッ
ト1の感情に基づいて音楽を生成するようにした場合に
ついて述べたが、本発明はこれに限らず、例えば感情の
一部(「喜び」、「悲しみ」、「驚き」、「恐怖」、
「嫌悪」及び「怒り」のうちの一部)に基づいて音楽を
生成するようにしたり、又は本能(「愛情欲」、「探索
欲」、「運動欲」、「充電欲」及び「睡眠欲」)若しく
は内部温度等のこの他種々の内部状態やその組み合わせ
に応じて音楽を生成するようにしても良い。Further, in the above-mentioned embodiment, the case where the music is generated based on the emotion of the robot 1 has been described, but the present invention is not limited to this. For example, a part of the emotion (“joy”, "Sadness,""Surprise,""Fear,"
The music is generated based on "dislike" and "anger" or a part of instinct ("love desire", "search desire", "exercise desire", "charge desire" and "sleep desire". )) Or music may be generated according to various other internal states such as the internal temperature and combinations thereof.
【0123】さらに上述の実施の形態においては、かか
る音楽生成処理をダンスモード時にのみ行うようにした
場合について述べたが、本発明はこれに限らず、自律モ
ード時等の通常モード時にもかかる音楽生成処理を行う
ようにしても良い。Further, in the above-described embodiment, the case where the music generation process is performed only in the dance mode has been described. However, the present invention is not limited to this, and the music generated in the normal mode such as the autonomous mode is also described. You may make it perform a generation process.
【0124】さらに上述の実施の形態においては、動作
を発現する動作発現部がロボット1の胴体部ユニット
2、頭部ユニット3、各腕部ユニット4A、4B、各脚
部ユニット5A、5Bからなる体全体である場合につい
て述べたが、本発明はこれに限らず、本発明を適用する
ロボット装置の形態に応じてこの他種々の構成を広く適
用することができる。Further, in the above-described embodiment, the motion expressing unit for expressing the motion is composed of the body unit 2, head unit 3, arm units 4A and 4B, and leg units 5A and 5B of the robot 1. Although the case of the whole body has been described, the present invention is not limited to this, and various other configurations can be widely applied depending on the form of the robot device to which the present invention is applied.
【0125】さらに上述の実施の形態においては、ロボ
ットが発現する動作と自己の感情とに応じた音楽を生成
する音楽生成手段として、ロボット1全体の動作制御を
司るメイン制御部40を適用するようにした場合につい
て述べたが、本発明はこれに限らず、かかるメイン制御
部40とは別途個別にかかる機能を有する音楽生成部を
設けるようにしても良い。Further, in the above-described embodiment, the main control unit 40 which controls the operation of the entire robot 1 is applied as the music generating means for generating music according to the motion expressed by the robot and its own emotions. However, the present invention is not limited to this, and a music generation unit having such a function may be provided separately from the main control unit 40.
【0126】[0126]
【発明の効果】上述のように本発明によれば、ロボット
装置において、動作発現部により発現される動作と自己
の内部状態とに応じた音楽を生成する音楽生成手段を設
けるようにしたことにより、動作を発現する際に放音す
べき音楽のデータを予め格納しておくためのメモリが不
要となり、またロボット装置の内部状態に応じて種々の
音楽が生成されて放音されるため、ユーザがロボット装
置に飽きるのを有効に防止することができ、かくして構
成の煩雑化及び大型化を防止しながらエンターテインメ
ント性を格段的に向上させ得るロボット装置を実現でき
る。As described above, according to the present invention, the robot apparatus is provided with the music generating means for generating the music according to the motion expressed by the motion expressing section and the internal state of the robot. Since a memory for preliminarily storing data of music to be emitted when an action is expressed is unnecessary, and various music is generated and emitted according to the internal state of the robot device, the user It is possible to effectively prevent the robot from getting tired of the robot device, and thus it is possible to realize a robot device that can significantly improve the entertainment property while preventing the configuration from becoming complicated and upsizing.
【0127】また本発明によれば、ロボット装置の制御
方法において、ロボット装置に動作を発現させながら、
当該動作と自己の内部状態とに応じた音楽を生成し、当
該音楽を外部に出力させるようにしたことにより、ロボ
ット装置が動作を発現する際に放音すべき音楽のデータ
を予め格納しておくためのメモリが不要となり、またロ
ボット装置の内部状態に応じて種々の音楽が生成されて
放音されるため、ユーザがロボット装置に飽きるのを有
効に防止することができ、かくしてロボット装置の構成
の煩雑化及び大型化を防止しながらエンターテインメン
ト性を格段的に向上させ得るロボット装置の制御方法を
実現できる。Further, according to the present invention, in the control method of the robot apparatus, while causing the robot apparatus to perform an operation,
By generating music according to the operation and the internal state of the self and outputting the music to the outside, the data of the music to be emitted when the robot device performs the operation is stored in advance. A memory for storing is unnecessary, and various kinds of music are generated and emitted according to the internal state of the robot apparatus, which can effectively prevent the user from getting tired of the robot apparatus, and thus It is possible to realize a control method of a robot apparatus that can significantly improve entertainment while preventing the configuration from becoming complicated and upsizing.
【図1】本実施の形態によるロボットの外部構成を示す
斜視図である。FIG. 1 is a perspective view showing an external configuration of a robot according to this embodiment.
【図2】ロボットの外部構成を示す斜視図である。FIG. 2 is a perspective view showing an external configuration of a robot.
【図3】ロボットの外部構成の説明に供する略線図であ
る。FIG. 3 is a schematic diagram used to describe an external configuration of a robot.
【図4】ロボットの内部構成の説明に供するブロック図
である。FIG. 4 is a block diagram for explaining the internal configuration of the robot.
【図5】ロボットの内部構成の説明に供するブロック図
である。FIG. 5 is a block diagram for explaining the internal configuration of the robot.
【図6】メイン制御部の処理内容の説明に供するブロッ
ク図である。FIG. 6 is a block diagram for explaining processing contents of a main control unit.
【図7】確率オートマトンの説明に供する概念図であ
る。FIG. 7 is a conceptual diagram for explaining a probability automaton.
【図8】ダンスモード時における行動生成部の処理内容
の説明に供するブロック図である。FIG. 8 is a block diagram for explaining processing contents of an action generation unit in a dance mode.
【図9】モーションファイル再生部の処理内容の説明に
供する略線図である。FIG. 9 is a schematic diagram for explaining the processing content of a motion file reproducing unit.
【図10】音楽生成部の処理内容の説明に供する概念図
である。FIG. 10 is a conceptual diagram for explaining the processing content of a music generation unit.
【図11】音楽生成ルールデータベースの説明に供する
概念図である。FIG. 11 is a conceptual diagram for explaining a music generation rule database.
【図12】メロディの生成処理の説明に供する概念図で
ある。FIG. 12 is a conceptual diagram for explaining a melody generation process.
1……ロボット、2……胴体部ユニット、3……頭部ユ
ニット、4A、4B……腕部ユニット、5A、5B……
脚部ユニット、40……メイン制御部、50……CC
D、51……マイクロホン、52……タッチセンサ、5
4……スピーカ、55……バッテリセンサ、56……加
速度センサ、58……外部メモリ、63……行動生成
部、70……モーションファイル再生部、71……音楽
生成部、73……モーションデータベース、80……音
楽生成ルールデータベース、81……感情値テーブル、
81……リズムパターンデータファイル、82……コー
ド進行表データファイル、84……メロディスケールデ
ータファイル、A1〜A14……アクチュエータ、プリ
ミティブモーション制御パラメータ……PM1〜P
Mn。1 ... Robot, 2 ... Body unit, 3 ... Head unit, 4A, 4B ... Arm unit, 5A, 5B ...
Leg unit, 40 ... Main control unit, 50 ... CC
D, 51 ... Microphone, 52 ... Touch sensor, 5
4 ... Speaker, 55 ... Battery sensor, 56 ... Acceleration sensor, 58 ... External memory, 63 ... Behavior generation unit, 70 ... Motion file playback unit, 71 ... Music generation unit, 73 ... Motion database , 80 ... Music generation rule database, 81 ... Emotion value table,
81 ...... rhythm pattern data file, 82 ...... chord progression table data file, 84 ...... melody scale data files, A 1 to A 14 ...... actuator, primitive motion control parameters ...... PM 1 to P
M n .
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B25J 13/00 B25J 13/00 Z G10K 15/04 302 G10K 15/04 302F (72)発明者 花形 理 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 福地 正樹 東京都品川区北品川6丁目7番35号ソニー 株式会社内 (72)発明者 加藤 恵輔 東京都品川区北品川6丁目7番35号ソニー 株式会社内 Fターム(参考) 2C150 BA11 CA01 DA04 DA24 DA26 DA27 DA28 DF03 DF06 DF08 DF33 ED10 ED42 ED52 EF07 EF16 EF17 EF22 EF23 EF29 EF33 EF36 3C007 AS36 CS08 KS10 KS23 KS31 KS39 KT01 MT14 WA03 WA13 WB16 WB19 WB23 WB25 WC06 5D108 CA04 CA08 CA13 CA15 CA25 5D378 MM98 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 7 Identification code FI Theme Coat (reference) B25J 13/00 B25J 13/00 Z G10K 15/04 302 G10K 15/04 302F (72) Inventor Hanagatari Tokyo 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Masaki Fukuchi 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo 6-35 Sony, Inc. (72) Inventor Keisuke Kato Kita, Shinagawa-ku, Tokyo Shinagawa 6-35 Sony F-Term in Sony Corporation (reference) 2C150 BA11 CA01 DA04 DA24 DA26 DA27 DA28 DF03 DF06 DF08 DF33 ED10 ED42 ED52 EF07 EF16 EF17 EF22 EF23 EF29 EF33 EF36 3C007 AS36 CS08 KS10 WA03 KS01 KS23 WA31 KT23 WB16 WB19 WB23 WB25 WC06 5D108 CA04 CA08 CA13 CA15 CA25 5D378 MM98
Claims (6)
とに応じた音楽を生成する音楽生成手段とを具えること
を特徴とするロボット装置。1. A robot apparatus comprising: a motion expression unit that expresses a motion; and music generation means that generates music according to the motion expressed by the motion expression unit and its own internal state. .
手段と、 上記センサ手段の出力に応じて感情を生成する感情生成
手段とを具え、 上記内部状態は、 上記感情生成手段により生成された上記感情の状態であ
ることを特徴とする請求項1に記載のロボット装置。2. A sensor means for detecting an external and / or internal situation, and an emotion generating means for generating an emotion according to an output of the sensor means, wherein the internal state is generated by the emotion generating means. The robot apparatus according to claim 1, wherein the robot apparatus is in the emotional state.
なり、 上記感情の状態は、当該複数の情動の中から最も数値の
大きい上記情動及び当該情動の上記数値であることを特
徴とする請求項2に記載のロボット装置。3. The emotion comprises a plurality of digitized emotions, and the state of the emotion is the emotion having the largest numerical value among the emotions and the numerical value of the emotion. The robot apparatus according to claim 2.
該動作と自己の内部状態とに応じた音楽を生成し、当該
音楽を外部に出力させることを特徴とするロボット装置
の制御方法。4. A method for controlling a robot apparatus, which is characterized by generating music according to the operation and an internal state of the robot apparatus while causing the robot apparatus to generate an operation and outputting the music to the outside.
に応じて生成した上記ロボット装置の感情の状態である
ことを特徴とする請求項4に記載のロボット装置の制御
方法。5. The method for controlling a robot apparatus according to claim 4, wherein the internal state is an emotional state of the robot apparatus generated according to an external and / or internal situation.
なり、 上記感情の状態は、当該複数の情動の中から最も数値の
大きい上記情動及び当該情動の上記数値であることを特
徴とする請求項5に記載のロボット装置の制御方法。6. The emotion is composed of a plurality of digitized emotions, and the state of the emotion is the emotion having the largest numerical value among the emotions and the numerical value of the emotion. The control method of the robot apparatus according to claim 5.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001359787A JP2003208161A (en) | 2001-11-12 | 2001-11-26 | Robot apparatus and control method thereof |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001-346420 | 2001-11-12 | ||
| JP2001346420 | 2001-11-12 | ||
| JP2001359787A JP2003208161A (en) | 2001-11-12 | 2001-11-26 | Robot apparatus and control method thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2003208161A true JP2003208161A (en) | 2003-07-25 |
Family
ID=27667121
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001359787A Pending JP2003208161A (en) | 2001-11-12 | 2001-11-26 | Robot apparatus and control method thereof |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2003208161A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005169567A (en) * | 2003-12-11 | 2005-06-30 | Sony Corp | Content reproduction system, content reproduction method, and content reproduction apparatus |
| WO2006030529A1 (en) * | 2004-09-17 | 2006-03-23 | National Institute Of Advanced Industrial Science And Technology | Simulated organism device with pseudo-emotion creating means |
| CN100431808C (en) * | 2005-06-07 | 2008-11-12 | Lg电子株式会社 | Apparatus and method for notifying state of self-moving cleaning robot |
| JP2012069157A (en) * | 2011-12-19 | 2012-04-05 | Nec Infrontia Corp | Circuit board, and method for controlling keyboard device |
| JP2016506305A (en) * | 2012-12-12 | 2016-03-03 | アラム・アコピアンAram Akopian | Apparatus and system for exercise demonstration |
| WO2018008323A1 (en) * | 2016-07-08 | 2018-01-11 | Groove X株式会社 | Autonomous robot that wears clothes |
-
2001
- 2001-11-26 JP JP2001359787A patent/JP2003208161A/en active Pending
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005169567A (en) * | 2003-12-11 | 2005-06-30 | Sony Corp | Content reproduction system, content reproduction method, and content reproduction apparatus |
| WO2006030529A1 (en) * | 2004-09-17 | 2006-03-23 | National Institute Of Advanced Industrial Science And Technology | Simulated organism device with pseudo-emotion creating means |
| CN100431808C (en) * | 2005-06-07 | 2008-11-12 | Lg电子株式会社 | Apparatus and method for notifying state of self-moving cleaning robot |
| JP2012069157A (en) * | 2011-12-19 | 2012-04-05 | Nec Infrontia Corp | Circuit board, and method for controlling keyboard device |
| JP2016506305A (en) * | 2012-12-12 | 2016-03-03 | アラム・アコピアンAram Akopian | Apparatus and system for exercise demonstration |
| WO2018008323A1 (en) * | 2016-07-08 | 2018-01-11 | Groove X株式会社 | Autonomous robot that wears clothes |
| JPWO2018008323A1 (en) * | 2016-07-08 | 2018-07-05 | Groove X株式会社 | Autonomous robot to wear clothes |
| GB2564822A (en) * | 2016-07-08 | 2019-01-23 | Groove X Inc | Autonomous robot that wears clothes |
| JP2019022935A (en) * | 2016-07-08 | 2019-02-14 | Groove X株式会社 | Autonomous robot to wear clothes |
| GB2564822B (en) * | 2016-07-08 | 2021-08-18 | Groove X Inc | Autonomously acting robot that wears clothes |
| US11198221B2 (en) | 2016-07-08 | 2021-12-14 | Groove X, Inc. | Autonomously acting robot that wears clothes |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4696361B2 (en) | Robot apparatus and operation control method | |
| US6445978B1 (en) | Robot device and method for controlling the same | |
| US6711469B2 (en) | Robot system, robot apparatus and cover for robot apparatus | |
| EP2596461B1 (en) | Autonomous robotic life form | |
| WO2001039932A1 (en) | Robot apparatus, control method thereof, and method for judging character of robot apparatus | |
| US6711467B2 (en) | Robot apparatus and its control method | |
| JP4239635B2 (en) | Robot device, operation control method thereof, and program | |
| JPWO2000043167A1 (en) | Robot device and operation control method | |
| JP4179230B2 (en) | Robot apparatus and operation control method thereof | |
| WO2000068879A1 (en) | Robot device, its control method, and recorded medium | |
| JP2001038663A (en) | Machine control system | |
| JP2003266351A (en) | Robot apparatus and operation control method for robot apparatus | |
| JP2001191281A (en) | Editing device, editing method, and recording medium | |
| WO2000067959A1 (en) | Robot device and method for controlling the same | |
| JP3277500B2 (en) | Robot device | |
| JP2003208161A (en) | Robot apparatus and control method thereof | |
| JP2003340760A (en) | Robot apparatus, robot control method, recording medium, and program | |
| JP4506249B2 (en) | Robot apparatus and operation comparison method thereof | |
| JP2002178282A (en) | Robot apparatus and control method thereof | |
| JP2001157982A (en) | Robot apparatus and control method therefor | |
| JP2003271196A (en) | Robot apparatus and control method thereof | |
| JP4411503B2 (en) | Robot apparatus and control method thereof | |
| JP2002120182A (en) | Robot apparatus and control method therefor | |
| JP2001157984A (en) | Robot apparatus and operation control method for robot apparatus | |
| WO2025041588A1 (en) | Information processing device and information processing method |