JP2003033580A - Network system, information providing device, and information providing method - Google Patents
Network system, information providing device, and information providing methodInfo
- Publication number
- JP2003033580A JP2003033580A JP2001225054A JP2001225054A JP2003033580A JP 2003033580 A JP2003033580 A JP 2003033580A JP 2001225054 A JP2001225054 A JP 2001225054A JP 2001225054 A JP2001225054 A JP 2001225054A JP 2003033580 A JP2003033580 A JP 2003033580A
- Authority
- JP
- Japan
- Prior art keywords
- information
- terminal device
- action
- robot
- information providing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Toys (AREA)
Abstract
(57)【要約】
【課題】本発明は、ネットワークシステムに関し、ロボ
ット装置のエンタテインメント性をより向上させること
を提案する。
【解決手段】端末装置31A〜31Nから送信されるロ
ボット装置1A〜1Nの特徴情報に応じた仮想生物を生
成し、当該仮想生物を所定の仮想空間において特徴情報
に基づく行動を行わせるための行動情報を生成してこれ
を端末装置31A〜31Nに提供することにより、より
一層の面白みをユーザに与えることができ、従ってロボ
ット装置1A〜1Nとしてのエンタテインメント性をよ
り向上させることができる。
(57) [Summary] The present invention relates to a network system, and proposes to further improve the entertainment property of a robot device. Kind Code: A1 An action for generating a virtual creature according to feature information of robot devices 1A to 1N transmitted from terminal devices 31A to 31N, and causing the virtual creature to perform an action based on the feature information in a predetermined virtual space. By generating information and providing the generated information to the terminal devices 31A to 31N, it is possible to provide the user with more fun, and thus it is possible to further improve the entertainment properties of the robot devices 1A to 1N.
Description
【0001】[0001]
【発明の属する技術分野】本発明はネットワークシステ
ム、情報提供装置及び情報提供方法に関し、例えばネッ
トワークを介してペットロボットに関する種々の情報を
送受信するネットワークシステムに適用して好適なもの
である。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a network system, an information providing apparatus, and an information providing method, and is suitable for application to, for example, a network system that transmits and receives various kinds of information regarding a pet robot via a network.
【0002】[0002]
【従来の技術】従来、ユーザからの指令や周囲の環境に
応じて行動を行う4足歩行型のペットロボットが本願特
許出願人から提案及び開発されている。かかるペットロ
ボットは、一般家庭において飼育される犬や猫に似た形
状を有し、ユーザからの指令や周囲の環境に応じて自律
的に行動するものである。2. Description of the Related Art Conventionally, the applicant of the present patent application has proposed and developed a four-legged walking type pet robot which behaves according to a command from a user and the surrounding environment. Such a pet robot has a shape similar to a dog or a cat raised in a general household, and acts autonomously according to a command from a user and a surrounding environment.
【0003】[0003]
【発明が解決しようとする課題】ところで近年では、イ
ンターネットなどの通信手段の普及によって情報通信技
術が飛躍的に発達し、画像や音声を利用して各種情報を
リアルタイムに伝送し得るようになされている。By the way, in recent years, due to the spread of communication means such as the Internet, information communication technology has been dramatically developed, and various kinds of information can be transmitted in real time using images and voice. There is.
【0004】従って、このインターネットなどを利用す
ることによって上述のペットロボットに関する種々の情
報を送受信することができれば、より一層の面白みをユ
ーザに与えてペットロボットとしてのエンタテインメン
ト性をより向上させることができるものと考えられる。Therefore, if various kinds of information about the pet robot can be transmitted and received by utilizing the Internet or the like, it is possible to give the user further interest and further improve the entertainment property as the pet robot. It is considered to be a thing.
【0005】本発明は以上の点を考慮してなされたもの
で、ロボット装置のエンタテインメント性をより向上さ
せることができるネットワークシステム、情報提供装置
及び情報提供方法を提案しようとするものである。The present invention has been made in consideration of the above points, and an object thereof is to propose a network system, an information providing apparatus, and an information providing method capable of further improving the entertainment property of a robot apparatus.
【0006】[0006]
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、所定の通信路を介して情報提供装
置及び端末装置が接続されたネットワークシステムにお
いて、端末装置は、ユーザが所有するロボット装置固有
の特徴を示す特徴情報を通信路を介して情報提供装置に
送信し、情報提供装置は、端末装置から送信されるロボ
ット装置の特徴情報に応じた仮想生物を生成し、当該仮
想生物を所定の仮想空間で特徴情報に基づいて行動させ
るための行動情報を生成する生成手段と、生成した行動
情報を提供情報として端末装置に提供する提供手段とを
設けた。In order to solve such a problem, according to the present invention, in a network system in which an information providing device and a terminal device are connected via a predetermined communication path, the terminal device is a robot owned by a user. The characteristic information indicating the characteristic peculiar to the device is transmitted to the information providing device via the communication path, and the information providing device generates a virtual creature according to the characteristic information of the robot device transmitted from the terminal device, A generation unit that generates action information for making an action based on the characteristic information in a predetermined virtual space, and a provision unit that provides the generated action information to the terminal device as provision information are provided.
【0007】この結果、より一層の面白みをユーザに与
えることができ、従ってロボット装置としてのエンタテ
インメント性をより向上させることができる。As a result, it is possible to provide the user with even more interest, and thus to further improve the entertainment property of the robot device.
【0008】[0008]
【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described in detail below with reference to the drawings.
【0009】(1)ペットロボットの構成
図1において、1は全体として本実施の形態によるペッ
トロボットを示し、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A〜3Dが連結されると共に、胴体
部ユニット2の前端部及び後端部にそれぞれ頭部ユニッ
ト4及び尻尾部ユニット5が連結されることにより構成
されている。(1) Structure of Pet Robot In FIG. 1, reference numeral 1 denotes the pet robot according to the present embodiment as a whole, in which leg units 3A to 3D are connected to the front, rear, left and right of the body unit 2, respectively, and a body is formed. The head unit 4 and the tail unit 5 are connected to the front end and the rear end of the sub unit 2, respectively.
【0010】この場合胴体部ユニット2には、図2に示
すように、このペットロボット1全体の動作を制御する
コントローラ10と、このペットロボット1の動力源と
なるバッテリ11と、バッテリセンサ12及び熱センサ
13からなる内部センサ部14となどが収納されてい
る。In this case, in the body unit 2, as shown in FIG. 2, a controller 10 for controlling the operation of the pet robot 1 as a whole, a battery 11 as a power source of the pet robot 1, a battery sensor 12 and The internal sensor unit 14 including the thermal sensor 13 and the like are stored.
【0011】また頭部ユニット4には、このペットロボ
ットの「耳」に相当するマイクロホン15と、「目」に
相当するCCD(Charge Coupled Device )カメラ16
と、タッチセンサ17と、「口」に相当するスピーカ1
8となどがそれぞれ所定位置に配設されている。The head unit 4 has a microphone 15 corresponding to the "ears" of the pet robot and a CCD (Charge Coupled Device) camera 16 corresponding to the "eyes".
, Touch sensor 17, and speaker 1 corresponding to the "mouth"
8 and the like are arranged at predetermined positions.
【0012】さらに各脚部ユニット3A〜3Dの関節部
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5及び胴体部ユニット
2の連結部分などにはそれぞれアクチュエータ191〜
19nが配設されている。Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D and the body unit 2 are connected.
Actuators 19 1 to 19 1 to the connection parts of the head unit 4 and the body unit 2, and the connection parts of the tail unit 5 and the body unit 2, respectively.
19 n are provided.
【0013】そして頭部ユニット4のマイクロホン15
は、ユーザから図示しないサウンドコマンダを介して音
階として与えられる「歩け」、「伏せ」又は「ボールを
追いかけろ」等の指令音を集音し、得られた音声信号S
1をコントローラ10に送出する。またCCDカメラ1
6は、周囲の状況を撮像し、得られた画像信号S2をコ
ントローラ10に送出する。The microphone 15 of the head unit 4
Is a voice signal S obtained by collecting command sounds such as "walk", "prone" or "follow the ball" given as a scale from a user through a sound commander (not shown).
1 is sent to the controller 10. CCD camera 1
6 captures an image of the surrounding situation and sends the obtained image signal S2 to the controller 10.
【0014】さらにタッチセンサ17は、図1において
明らかなように、頭部ユニット4の上部に設けられてお
り、ユーザからの「撫でる」や「叩く」といった物理的
な働きかけにより受けた圧力を検出し、検出結果を圧力
検出信号S3としてコントローラ10に送出する。Further, as is apparent from FIG. 1, the touch sensor 17 is provided on the upper part of the head unit 4 and detects the pressure received by a physical action such as "stroking" or "striking" from the user. Then, the detection result is sent to the controller 10 as the pressure detection signal S3.
【0015】さらに胴体部ユニット2のバッテリセンサ
12は、バッテリ11のエネルギー残量を検出し、検出
結果をバッテリ残量検出信号S4としてコントローラ1
0に送出し、熱センサ13は、ペットロボット1内部の
熱を検出して検出結果を熱検出信号S5としてコントロ
ーラ10に送出する。Further, the battery sensor 12 of the body unit 2 detects the energy remaining amount of the battery 11, and the detection result is used as the battery remaining amount detection signal S4 to the controller 1
The heat sensor 13 detects the heat inside the pet robot 1 and sends the detection result to the controller 10 as a heat detection signal S5.
【0016】コントローラ10は、マイクロホン15、
CCDカメラ16、タッチセンサ17、バッテリセンサ
12及び熱センサ13から与えられる音声信号S1、画
像信号S2、圧力検出信号S3、バッテリ残量信号S4
及び熱検出信号S5などに基づいて、周囲の状況や、ユ
ーザからの指令及びユーザからの働きかけの有無などを
判断する。The controller 10 includes a microphone 15,
A voice signal S1, an image signal S2, a pressure detection signal S3, and a battery remaining amount signal S4 provided from the CCD camera 16, the touch sensor 17, the battery sensor 12, and the heat sensor 13.
Based on the heat detection signal S5 and the like, it is determined whether or not there is a surrounding situation, a command from the user, and the presence or absence of an action from the user.
【0017】そしてコントローラ10は、この判断結果
及び予めメモリ10Aに格納された各種制御パラメータ
を含む制御プログラムに基づいて続く行動や動作を決定
し、決定結果に基づいて必要なアクチュエータ191〜
19nを駆動させることにより、頭部ユニット4を上下
左右に振らせたり、尻尾部ユニット5の尻尾5Aを動か
せたり、各脚部ユニット3A〜3Dを駆動して歩行させ
るなどの行動や動作を行わせる。なお以下においては、
動作の集合を行動と定義して使用するものとする。Then, the controller 10 determines a subsequent action or operation based on the result of this determination and a control program including various control parameters stored in advance in the memory 10A, and the required actuators 19 1 to 19 1 to
By driving 19 n , the head unit 4 can be swung up and down, right and left, the tail 5A of the tail unit 5 can be moved, and the leg units 3A to 3D can be driven to walk or the like. Let it be done. In the following,
A set of actions is defined as an action and used.
【0018】またこの際コントローラ10は、必要に応
じてメモリ10Aに格納された所定の音声信号S6をス
ピーカ18に与えることにより当該音声信号S6に基づ
く音声を外部に出力させたり、このペットロボット1の
「目」の位置に設けられた図示しないLED(Light Em
itting Diode)を点滅させる。Further, at this time, the controller 10 outputs a voice based on the voice signal S6 to the outside by giving a predetermined voice signal S6 stored in the memory 10A to the speaker 18 as necessary, or the pet robot 1 LED (Light Em
blink iting diode).
【0019】このようにしてこのペットロボット1にお
いては、周囲の状況や、メモリ10Aに格納された制御
プログラム等に基づいて自律的に行動し得るようになさ
れている。In this way, the pet robot 1 can act autonomously based on the surrounding conditions, the control program stored in the memory 10A, and the like.
【0020】ここでペットロボット1における上述の制
御プログラムのソフトウェア構成を図3に示す。この図
3からも明らかなように、制御プログラムは、意味変換
オブジェクト20、感情・本能生成オブジェクト21、
行動決定オブジェクト22及び行動生成オブジェクト2
3から構成されている。Here, the software configuration of the above-mentioned control program in the pet robot 1 is shown in FIG. As is clear from FIG. 3, the control program includes a meaning conversion object 20, an emotion / instinct generation object 21,
Action decision object 22 and action generation object 2
It consists of three.
【0021】この場合、意味変換オブジェクト20は、
マイクロホン15、CCDカメラ16、タッチセンサ1
7、バッテリセンサ12及び熱センサ13から与えられ
る音声信号S1、画像信号S2、圧力検出信号S3、バ
ッテリ残量検出信号S4及び熱検出信号S5を入力し、
これらに基づいて「叩かれた」、「撫でられた」、「ボ
ールを検出した」、「バッテリ残量が少なくなった」、
「内部温度が高くなった」等の特定の外部状態及び内部
状態を認識し、認識結果を感情・本能生成オブジェクト
21及び行動決定オブジェクト22に通知する。In this case, the meaning conversion object 20 is
Microphone 15, CCD camera 16, touch sensor 1
7, the voice signal S1, the image signal S2, the pressure detection signal S3, the battery remaining amount detection signal S4, and the heat detection signal S5 provided from the battery sensor 12 and the heat sensor 13 are input,
Based on these, "struck", "struck", "ball detected", "battery low",
It recognizes a specific external state and internal state such as “internal temperature has risen” and notifies the emotion / instinct generation object 21 and the action determination object 22 of the recognition result.
【0022】感情・本能生成オブジェクト21は、意味
変換オブジェクト20から与えられる認識結果と、メモ
リ10Aに格納された制御パラメータの1つである個人
情報24と、後述のように行動決定オブジェクト22か
ら与えられる実行した行動を表す通知とに基づいてペッ
トロボット1の感情及び本能の状態を決定し、当該感情
及び本能の状態が所定レベルを越えた場合には、これを
行動決定オブジェクト22に通知する。The emotion / instinct generation object 21 is given from the recognition result given from the meaning conversion object 20, the personal information 24 which is one of the control parameters stored in the memory 10A, and the action decision object 22 as described later. The emotion and instinct state of the pet robot 1 is determined based on the notification indicating the performed action, and when the emotion and instinct state exceeds a predetermined level, the action determination object 22 is notified of this.
【0023】すなわち感情・本能生成オブジェクト21
は、「喜び」、「悲しみ」、「怒り」、「驚き」、「恐
怖」及び「嫌悪」の各情動の強さをそれぞれ表す合計6
つのパラメータを保持する感情モデルと、「愛情欲」、
「探索欲」、「運動欲」及び「食欲」の各欲求の強さを
それぞれ表す合計4つのパラメータを保持する本能モデ
ルとを有している。That is, the emotion / instinct generation object 21
Indicates a total of 6 emotional strengths of "joy", "sadness", "anger", "surprise", "fear" and "disgust".
Emotional model that holds two parameters and "lust for love",
It has an instinct model that holds a total of four parameters that represent the strength of each desire of “search desire”, “exercise desire”, and “appetite”.
【0024】またメモリ10Aには、個人情報24とし
て、例えば「叩かれた」ときには「怒り」のパラメータ
を上げると共に「喜び」のパラメータを下げ、「撫でら
れた」ときには「喜び」のパラメータを上げると共に
「怒り」のパラメータを下げ、ある行動を発現したとき
には「運動欲」のパラメータを上げると共に「喜び」の
パラメータを上げるといったような、意味変換オブジェ
クト20の認識結果と、後述の行動決定オブジェクト2
2からの行動を行ったという通知とに対してどの情動又
は欲求のパラメータの値を増加又は減少させるかといっ
たデータが格納されている。In the memory 10A, as the personal information 24, for example, the parameter of "anger" is increased when "struck" and the parameter of "joy" is lowered, and the parameter of "joy" is increased when "stabbed". Together with lowering the parameter of “anger” and raising a parameter of “motivation” and a parameter of “joy” when a certain behavior is expressed, the recognition result of the meaning conversion object 20 and a behavior determination object 2 described later.
Data about which emotion or desire parameter value to increase or decrease in response to the notification that the action is performed from 2 is stored.
【0025】そして感情・本能生成オブジェクト21
は、意味変換オブジェクト20から与えられる認識結果
や、行動決定オブジェクト22からの通知などに基づい
て周期的に感情モデル又は本能モデルの対応する情動又
は欲求のパラメータの値を個人情報に基づいて変更す
る。Then, the emotion / instinct generation object 21
Changes the value of the corresponding emotional or desire parameter of the emotion model or the instinct model periodically based on the personal information based on the recognition result given from the meaning conversion object 20, the notification from the action determination object 22, or the like. .
【0026】より具体的には、感情・本能生成オブジェ
クト21は、各情動について、その情動の1周期前のパ
ラメータ値をE(n−1)、その周期中に与えられた認
識結果及び行動決定オブジェクト22からの通知内容に
基づき所定の演算により得られる数値をP、その情動に
対して予め設定された感度を表す係数値をkeとして、
次式More specifically, the emotion / instinct generation object 21 sets the parameter value of each emotion one cycle before the emotion E (n-1) , and the recognition result and action decision given during that cycle. A numerical value obtained by a predetermined calculation based on the notification content from the object 22 is P, and a coefficient value representing a preset sensitivity to the emotion is k e ,
The following formula
【0027】[0027]
【数1】 [Equation 1]
【0028】によりその情動の次の周期のパラメータ値
E(n)を算出し、その情動のパラメータ値をこのパラ
メータ値E(n)に変更する。Then, the parameter value E (n) of the next cycle of the emotion is calculated, and the parameter value of the emotion is changed to this parameter value E (n) .
【0029】また感情・本能生成オブジェクト21は、
各欲求について、その欲求の1周期前のパラメータ値を
I(n−1)、その周期中に与えられた認識結果及び行
動決定オブジェクト22からの通知内容に基づき所定の
演算により得られる数値をQ、その欲求に対して予め設
定された感度を表す係数値をkiとして、次式The emotion / instinct generation object 21 is
For each desire, the parameter value one cycle before the desire is I (n-1) , and a numerical value obtained by a predetermined calculation based on the recognition result and the notification content from the action determination object 22 given during the cycle is Q. , K i is a coefficient value representing a preset sensitivity to the desire,
【0030】[0030]
【数2】 [Equation 2]
【0031】によりその欲求の次の周期のパラメータ値
I(n)を算出し、その欲求のパラメータ値をこのパラ
メータ値I(n)に変更する。The parameter value I (n) of the next cycle of the desire is calculated by and the parameter value of the desire is changed to this parameter value I (n) .
【0032】そして感情・本能生成オブジェクト21
は、このような各パラメータ値の更新処理の結果として
いずれかの情動又は欲求のパラメータのパラメータ値が
その情動又は本能に対して予め設定された値を越えたと
きに、これを行動決定オブジェクト22に通知する。The emotion / instinct generation object 21
When the parameter value of any emotion or desire parameter exceeds a value preset for the emotion or instinct as a result of the updating process of each parameter value, the action determination object 22 To notify.
【0033】行動決定オブジェクト22は、意味変換オ
ブジェクト20から与えられる認識結果と、感情・本能
生成オブジェクト21からの通知と、メモリ10Aに格
納された制御パラメータの1つである行動モデル25と
に基づいて続く行動や動作を決定し、決定結果を行動生
成オブジェクト23に通知する。The action determination object 22 is based on the recognition result given from the meaning conversion object 20, the notification from the emotion / instinct generation object 21, and the action model 25 which is one of the control parameters stored in the memory 10A. The subsequent action or action is determined, and the action generation object 23 is notified of the determination result.
【0034】なおこの実施の形態の場合、行動決定オブ
ジェクト22は、次の行動を決定する手法として、図4
に示すような1つのノード(状態)NODE0〜NOD
Enから他のどのノードNODE0〜NODEnに遷移
するかを各ノードNODE0〜NODEn間を接続する
アークARC1〜ARCn-1に対してそれぞれ設定され
た遷移確率P1〜Pn+1に基づいて確率的に決定する確
率オートマトンと呼ばれるアルゴリズムを用いる。Note that in the case of this embodiment, the action decision object 22 uses the method shown in FIG.
One node (state) NODE 0 to NOD as shown in
Arc ARC 1 ~ARC transition probabilities are set respectively n-1 P 1 ~P n for connecting the respective nodes NODE 0 ~NODE n or transitions from E n to any other node NODE 0 ~NODE n An algorithm called a probabilistic automaton that determines probabilistically based on +1 is used.
【0035】より具体的には、メモリ10Aには行動モ
デル25として各ノードNODE0〜NODEnごとの
図5に示すような状態遷移表26が格納されており、行
動決定オブジェクト22がこれら状態遷移表26に基づ
いて続く行動を設定するようになされている。More specifically, a state transition table 26 as shown in FIG. 5 for each node NODE 0 to NODE n is stored in the memory 10A as an action model 25, and the action decision object 22 makes these state transitions. The subsequent action is set based on the table 26.
【0036】すなわち状態遷移表26においては、その
ノードNODE0〜NODEnにおいて遷移条件とする
入力イベント(認識結果)が「入力イベント」の行に優
先順に列記され、その遷移条件についてのさらなる条件
が「データ名」及び「データ範囲」の行における対応す
る列に記述されている。That is, in the state transition table 26, the input events (recognition results) which are the transition conditions in the nodes NODE 0 to NODE n are listed in order of priority in the row of “input event”, and further conditions regarding the transition conditions are listed. It is described in the corresponding columns in the rows of "data name" and "data range".
【0037】従って図5の状態遷移表で表されるノード
NODE100では、「ボールを検出(BALL)」とい
う認識結果が与えられた場合に、当該認識結果と共に与
えられるそのボールの「大きさ(SIZE)」が「0か
ら1000の範囲(0,1000)」であることや、「障害物を
検出(OBSTACLE)」という認識結果が与えられ
た場合に、当該認識結果と共に与えられるその障害物ま
での「距離(DISTANCE)」が「0〜100 の範囲
(0,100 )」であることが他のノードに遷移するため
の条件となっている。Therefore, in the node NODE 100 represented by the state transition table of FIG. 5, when the recognition result of "detecting a ball (BALL)" is given, the "size (size) of the ball given together with the recognition result is given. "SIZE)" is in the range of 0 to 1000 (0,1000), and when the recognition result of "obstacle detection (OBSTACE)" is given, the obstacles given together with the recognition result The “distance (DISTANCE)” of “is in the range of 0 to 100 (0,100)” is a condition for transition to another node.
【0038】またこのノードNODE100では、認識結
果の入力がない場合においても、行動決定オブジェクト
が周期的に参照する感情・本能生成オブジェクト21内
の感情モデル及び本能モデルの各情動及び各欲求のパラ
メータ値のうち、「喜び(JOY)」、「驚き(SUP
RISE)」若しくは「悲しみ(SUDNESS)」の
いずれかのパラメータ値が「50〜100 の範囲(50,100
)」であるときには他のノードに遷移することができ
るようになっている。Further, in this node NODE 100 , even if there is no input of the recognition result, the emotion model in the emotion / instinct generation object 21 periodically referenced by the action determination object and each emotion and each desire parameter of the instinct model are set. Of the values, "joy (joy)" and "surprise (SUP
RISE) ”or“ Sadness ”parameter value is in the range of 50-100 (50,100
) ”, It is possible to transit to another node.
【0039】また状態遷移表26においては、「他のノ
ードへの遷移確率」の欄における「遷移先ノード」の列
にそのノードNODE0〜NODEnから遷移できるノ
ード名が列記されると共に、「入力イベント名」、「デ
ータ値」及び「データの範囲」の各行に記述された全て
の条件が揃ったときに遷移できる他の各ノードNODE
0〜NODEnへの遷移確率が「他のノードへの遷移確
率」の欄における「出力行動」の行に記述されている。
なお「他のノードへの遷移確率」の欄における各行の遷
移確率の和は100 〔%〕となっている。Further, in the state transition table 26, in the column of "transition destination node" in the column of "transition probability to another node", the node names that can transit from the nodes NODE 0 to NODE n are listed, and " Each other node NODE that can transition when all the conditions described in each row of "input event name", "data value" and "data range" are met
The transition probability from 0 to NODE n is described in the row of “output behavior” in the column of “transition probability to other node”.
Note that the sum of the transition probabilities of each row in the "Transition Probability to Other Node" column is 100 [%].
【0040】従って図5の状態遷移表26で表されるノ
ードNODE100では、例えば「ボールを検出(BAL
L)」し、そのボールの「大きさ(SIZE)」が「0
〜1000の範囲(0,1000)」であるという認識結果が与
えられた場合には、「30〔%〕」の遷移確率で「ノード
NODE120(node 120)」に遷移でき、そのとき「A
CTION 1」の行動が出力されることとなる。Therefore, in the node NODE 100 represented by the state transition table 26 of FIG. 5, for example, "ball detection (BAL
L) ”, and the“ size ”of the ball is“ 0 ”.
When the recognition result that the range is up to 1000 (0,1000) "is given, it is possible to transit to" node NODE 120 (node 120) "with a transition probability of" 30 [%] ", and at that time," A
The action of "CATION 1" will be output.
【0041】そして行動モデル25は、このような状態
遷移表26として記述されたノードNODE0〜NOD
Enがいくつも繋がるようにして構成されている。そし
て行動決定オブジェクト22は、意味変換オブジェクト
20から認識結果が与えられたときや、感情・本能生成
オブジェクト21から通知が与えられたときなどに、メ
モリ10Aに格納されている対応するノードNODE0
〜NODEnの状態遷移表26を利用して次の行動や動
作を確率的に決定し、決定結果を行動生成オブジェクト
23に通知するようになされている。The behavior model 25 has nodes NODE 0 to NOD described as such a state transition table 26.
E n is configured as several leads. Then, the action determination object 22 corresponds to the node NODE 0 stored in the memory 10A when the recognition result is given from the meaning conversion object 20 or when the emotion / instinct generation object 21 gives a notification.
~ The state transition table 26 of NODE n is used to probabilistically determine the next action or action, and the action generation object 23 is notified of the determination result.
【0042】行動生成オブジェクト23は、行動決定オ
ブジェクト22からの通知に基づいて、ペットロボット
1が指定された行動や動作を発現するように、必要に応
じて対応するアクチュエータ191〜19nを駆動制御
したり、メモリ10Aに格納された制御パラメータの1
つであるサウンドデータファイル内のサウンドデータに
基づいて、対応する音声信号S6(図2)を生成してス
ピーカ19に送出したり、又はメモリ10Aに格納され
た制御パラメータの1つである発光データファイル内の
発光データに基づいて、「目」の位置のLEDを対応す
る発光パターンで点滅させる。Based on the notification from the action determination object 22, the action generation object 23 drives the corresponding actuators 19 1 to 19 n as necessary so that the pet robot 1 exhibits the designated action or motion. One of the control parameters stored in memory 10A
Based on the sound data in one sound data file, the corresponding sound signal S6 (FIG. 2) is generated and sent to the speaker 19, or the light emission data which is one of the control parameters stored in the memory 10A. Based on the light emission data in the file, the LED at the "eye" position is caused to blink in a corresponding light emission pattern.
【0043】このようにしてペットロボット1において
は、制御プログラムに基づいて、自己及び周囲の状況
や、ユーザからの指示及び働きかけに応じた自律的な行
動を行うことができるようになされている。In this way, the pet robot 1 is capable of performing autonomous actions in accordance with its own and surrounding conditions and instructions and actions from the user based on the control program.
【0044】(2)ペットロボットネットワークシステ
ムの構成
ここで図6は、このようなペットロボット1に関する種
々の情報をやりとりするためのネットワークシステム
(以下、これをペットロボットネットワークシステムと
呼ぶ)30を示すものである。(2) Structure of Pet Robot Network System FIG. 6 shows a network system (hereinafter referred to as a pet robot network system) 30 for exchanging various kinds of information regarding the pet robot 1 as described above. It is a thing.
【0045】かかるペットロボットネットワークシステ
ム30においては、各ユーザが保有するペットロボット
1A〜1Nが接続された個人端末31A〜31Nが電話
回線等を通じてインターネットプロバイダ35と接続さ
れると共に、当該インターネットプロバイダ35がイン
ターネット36を介してペットロボット1の販売業者3
7が設置したサーバ38と接続されることにより構成さ
れている。In the pet robot network system 30, the personal terminals 31A to 31N to which the pet robots 1A to 1N owned by each user are connected are connected to the Internet provider 35 through a telephone line or the like, and the Internet provider 35 is connected to the personal terminals 31A to 31N. Seller 3 of pet robot 1 via Internet 36
7 is connected to the installed server 38.
【0046】この場合、各個人端末31A〜31Nは、
一般家庭等に設置された通常のパーソナルコンピュータ
であり、インターネット36を介してサーバ38と通信
し、当該サーバ38との間でペットロボット1A〜1N
に関する種々のデータを送受信し得るようになされてい
る。In this case, the individual terminals 31A to 31N are
It is an ordinary personal computer installed in a general household or the like, communicates with a server 38 via the Internet 36, and communicates with the server 38, the pet robots 1A to 1N.
It is adapted to be able to send and receive various data regarding.
【0047】またサーバ38は、販売業者37がペット
ロボット1に関する情報を送受信する際の各種処理を行
うWebサーバであり、インターネット36を介してア
クセスしてきた個人端末31A〜31Nに対して後述の
ような各種画面の画面データを送出したり、必要な画像
データを生成して当該画像データに基づく画像を対応す
る画面上に表示させることができるようになされてい
る。The server 38 is a Web server that performs various processes when the dealer 37 sends and receives information about the pet robot 1, and will be described later with respect to the personal terminals 31A to 31N accessed through the Internet 36. It is possible to send screen data of various screens, generate necessary image data, and display an image based on the image data on the corresponding screen.
【0048】なおこのサーバ38の構成を図7に示す。
この図7からも明らかなように、サーバ38は、インタ
ーネット36用のインターフェース回路を内蔵するLA
N(Local Area Network)カード40と、サーバ38全
体の制御を司るCPU42と、CPU42のワークメモ
リとしての半導体メモリ等でなる一時記憶メディア43
と、サーバ38が後述のような処理を行うための各種デ
ータが格納されたハードディスク装置等のストレージメ
ディア44とから構成されている。The configuration of the server 38 is shown in FIG.
As is clear from FIG. 7, the server 38 is an LA that incorporates an interface circuit for the Internet 36.
An N (Local Area Network) card 40, a CPU 42 that controls the entire server 38, and a temporary storage medium 43 such as a semiconductor memory as a work memory of the CPU 42.
And a storage medium 44 such as a hard disk device in which various data is stored for the server 38 to perform the processes described later.
【0049】そしてサーバ38においては、インターネ
ット36を介してアクセスしてきた個人端末31A〜3
1Nから供給されるデータやコマンドをLANカード4
0を介してCPU42に取り込み、当該データやコマン
ドと、ストレージメディア44に格納されている制御情
報とに基づいて所定の処理を実行する。Then, in the server 38, the personal terminals 31A to 3A that have accessed through the Internet 36.
Data and commands supplied from 1N are sent to LAN card 4
It is fetched into the CPU 42 via 0, and a predetermined process is executed based on the data or command and the control information stored in the storage medium 44.
【0050】そしてCPU42は、この処理結果に応じ
た対応する画面の画面データを必要に応じて生成してこ
れをLANカード40を介して対応する個人端末31A
〜31Nに送出するようになされている。Then, the CPU 42 generates screen data of a screen corresponding to the processing result as needed, and generates the screen data via the LAN card 40 to the corresponding personal terminal 31A.
.. to 31N.
【0051】次にペットロボットネットワークシステム
30においてペットロボット1についての情報を取得す
る際の処理手順について説明する。このペットロボット
ネットワークシステム30では、個人端末31A〜31
Nに接続されたペットロボット1A〜1Nと同様の性格
や成長段階を有するキャラクタがサーバ38上のバーチ
ャル空間を自律的に行動するなどして、ペットロボット
1A〜1Nを所有するユーザと販売業者37との間でペ
ットロボット1に関する情報を送受信し得ると共に、ペ
ットロボット1A〜1Nを所有するユーザ同士で自己の
ペットロボット1A〜1Nに関する種々の情報を送受信
し得るようになされている。Next, a processing procedure for acquiring information about the pet robot 1 in the pet robot network system 30 will be described. In this pet robot network system 30, personal terminals 31A to 31
A character having the same personality and growth stage as the pet robots 1A to 1N connected to N autonomously act in the virtual space on the server 38, and the user owning the pet robots 1A to 1N and the seller 37. The information about the pet robot 1 can be transmitted and received between the users and the users who own the pet robots 1A to 1N can also transmit and receive various information related to the pet robots 1A to 1N.
【0052】すなわちペットロボットネットワークシス
テム30では、ペットロボット1A〜1Nのユーザが、
まず当該ペットロボット1A〜1Nを個人端末31A〜
31Nに有線接続し、当該個人端末31A〜31Nを用
いてサーバ38にアクセスすることにより、ペットロボ
ット1A〜1Nに対応するキャラクタがサーバ38上に
設けられたバーチャル空間を訪問する際の訪問先を指定
する指定操作を行う。That is, in the pet robot network system 30, the users of the pet robots 1A to 1N are
First, the pet robots 1A-1N are connected to the personal terminals 31A-
By connecting to 31N by wire and accessing the server 38 using the personal terminals 31A to 31N, the destinations when the characters corresponding to the pet robots 1A to 1N visit the virtual space provided on the server 38 are displayed. Perform the specified operation.
【0053】ここでは例えばペットロボット1A〜1N
が故障したため、ユーザの自宅付近で当該ペットロボッ
ト1A〜1Nを修理することができる店舗を検索するこ
とを目的としてユーザがサーバ38にアクセスした場合
について説明する。Here, for example, pet robots 1A to 1N
A case where the user accesses the server 38 for the purpose of searching for a store near the user's home where the pet robots 1A to 1N can be repaired will be described.
【0054】サーバ38のCPU42は、個人端末31
A〜31Nからインターネット36を介して送信されて
きた訪問先の指定操作に関する操作情報を受信すると、
ストレージメディア44に予め記録されている地図デー
タを読み出し、当該読み出した地図データに関する画面
データを個人端末31A〜31Nに送信する。The CPU 42 of the server 38 uses the personal terminal 31.
When the operation information regarding the designated operation of the visited place transmitted from A to 31N via the Internet 36 is received,
The map data recorded in advance in the storage medium 44 is read, and the screen data related to the read map data is transmitted to the personal terminals 31A to 31N.
【0055】この結果、個人端末31A〜31Nは、サ
ーバ38から送信される画面データに基づいて、図8
(A)に示すような訪問先の国を選択するための選択画
面50をディスプレイに表示する。なお図中斜線部分
は、ペットロボット1A〜1Nを所有するユーザが存在
する地域、又はペットロボット1A〜1Nの情報を発信
する通信業者が存在する地域を示す。As a result, each of the personal terminals 31A to 31N receives the screen data shown in FIG.
A selection screen 50 for selecting a destination country as shown in (A) is displayed on the display. The shaded area in the drawing indicates the area where the user who owns the pet robots 1A to 1N exists, or the area where the telecommunications carrier that transmits the information of the pet robots 1A to 1N exists.
【0056】この状態において、ペットロボット1A〜
1Nのユーザは、マウスを用いた入力操作によってカー
ソル50Aを所望の国に位置させてクリックすることに
より、訪問先の国を選択すると、個人端末31A〜31
Nのディスプレイには、サーバ38から送信される画面
データに基づいて、図8(B)に示すような訪問先の地
域を選択するための選択画面51が表示される。In this state, the pet robots 1A ...
When the user of 1N selects the country of the visit by positioning the cursor 50A in the desired country by an input operation using a mouse and clicking the selected country, the personal terminals 31A to 31A
On the display of N, a selection screen 51 for selecting an area to be visited as shown in FIG. 8B is displayed based on the screen data transmitted from the server 38.
【0057】この状態において、ペットロボット1A〜
1Nのユーザは、カーソル51Aを所望の地域に位置さ
せてクリックすることにより、訪問先の地域を選択する
と、個人端末31A〜31Nのディスプレイには、サー
バ38から送信される画面データに基づいて、図8
(C)に示すような訪問先の場所を選択するための選択
画面52が表示される。In this state, the pet robots 1A ...
When the user of 1N selects a region to visit by positioning the cursor 51A in a desired region and clicking the region, the display of the personal terminals 31A to 31N displays the screen data transmitted from the server 38 on the personal terminals 31A to 31N. Figure 8
A selection screen 52 for selecting a visited place as shown in (C) is displayed.
【0058】さらにこの状態において、ペットロボット
1A〜1Nのユーザは、カーソル52Aを所望の地域に
位置させてクリックすることにより、訪問先の場所を選
択すると、個人端末31A〜31Nは、サーバ38から
送信される画面データに基づいて、図8(D)に示すよ
うな訪問先の場所を表示した詳細画面53をディスプレ
イに表示すると共に、当該詳細画面53上に当該個人端
末31A〜31Nに接続されているペットロボット1A
〜1Nに対応するキャラクタC1を表示する。Further, in this state, the user of the pet robots 1A to 1N selects the place to visit by positioning the cursor 52A in the desired area and clicking the cursor 52A, and the personal terminals 31A to 31N receive the information from the server 38. Based on the transmitted screen data, a detailed screen 53 showing the visited place as shown in FIG. 8D is displayed on the display, and the detailed screen 53 is connected to the personal terminals 31A to 31N. Pet Robot 1A
The character C1 corresponding to 1N is displayed.
【0059】このキャラクタC1は、個人端末31A〜
31Nに接続されているペットロボット1A〜1Nの自
律的な動作に対応するように詳細画面53上を動作する
ようになされており、この場合、例えばペットロボット
1A〜1Nが数歩歩くと、キャラクタC1は歩道を渡り
きるなど、距離の調整がなされている。This character C1 is personal terminal 31A ...
The pet robots 1A to 1N connected to the robot 31N are operated on the detailed screen 53 so as to correspond to the autonomous movements of the pet robots 1A to 1N. The distance of C1 is adjusted by crossing the sidewalk.
【0060】すなわち、個人端末31A〜31Nは、接
続されているペットロボット1A〜1Nが動作すると、
当該動作に応じた動作情報をインターネット36を介し
てサーバ38に送信し、サーバ38のCPU42は、こ
の動作情報に基づいてキャラクタC1を生成し詳細画面
53上で動作させるようになされている。That is, in the personal terminals 31A to 31N, when the connected pet robots 1A to 1N operate,
The motion information according to the motion is transmitted to the server 38 via the Internet 36, and the CPU 42 of the server 38 generates the character C1 based on this motion information and operates it on the detailed screen 53.
【0061】ところでユーザが、詳細画面53上に表示
されている店舗53A〜53Cのうち、店舗53Aにカ
ーソルを位置させてクリックすると、個人端末31A〜
31Nは、当該クリックされた店舗53Aのサービス内
容、例えばペットロボット1A〜1Nの修理を受け付け
るサービスを行っている旨などを詳細画面53に重ねて
表示する。By the way, when the user positions the cursor on the store 53A among the stores 53A to 53C displayed on the detailed screen 53 and clicks it, the personal terminals 31A to 31A.
31N superimposes and displays on the detailed screen 53 the service content of the clicked store 53A, for example, that the service for accepting the repair of the pet robots 1A to 1N is being performed.
【0062】このようにユーザは、自宅付近に存在する
店舗の中からペットロボット1A〜1Nの修理を受け付
けている店舗53Aを検索することができ、これにより
当該ペットロボット1A〜1Nの修理を実際に店舗53
Aに依頼する。In this way, the user can search for the store 53A accepting the repair of the pet robots 1A to 1N from the stores existing near his / her home, whereby the repair of the pet robots 1A to 1N can be actually performed. In store 53
Ask A.
【0063】また、詳細画面53上に表示されているキ
ャラクタC2及びC3は、当該詳細画面53上で偶然に
出会い、この場合、キャラクタC2に対応するペットロ
ボット1のユーザとキャラクタC3に対応するペットロ
ボット1のユーザとが当該詳細画面53を通じて互いに
会話を行い得るようになされている。このようにペット
ロボットネットワークシステム30では、ペットロボッ
ト1A〜1Nのユーザ同士で交流を図ることができるよ
うになされている。The characters C2 and C3 displayed on the detailed screen 53 happen to meet on the detailed screen 53, and in this case, the user of the pet robot 1 corresponding to the character C2 and the pet corresponding to the character C3. The user of the robot 1 can talk with each other through the detailed screen 53. As described above, in the pet robot network system 30, users of the pet robots 1A to 1N can interact with each other.
【0064】(3)本実施の形態の動作及び効果
以上の構成において、このペットロボットネットワーク
システム30では、個人端末31A〜31Nに接続され
たペットロボット1A〜1Nと同様の性格や成長段階を
有するキャラクタをサーバ38上のバーチャル空間で自
律的に行動させながら、ペットロボット1A〜1Nを所
有するユーザと販売業者37との間、又はペットロボッ
ト1A〜1Nを所有するユーザ同士でペットロボット1
A〜1Nに関する種々の情報を送受信する。(3) Operations and Effects of the Present Embodiment In the above configuration, the pet robot network system 30 has the same character and growth stage as the pet robots 1A to 1N connected to the personal terminals 31A to 31N. While autonomously acting the character in the virtual space on the server 38, the pet robot 1 is between the user who owns the pet robots 1A to 1N and the dealer 37, or between the users who own the pet robots 1A to 1N.
It transmits and receives various information regarding A to 1N.
【0065】このようにインターネット36を介してペ
ットロボット1A〜1Nに関する種々の情報を送受信す
ることにより、より一層の面白みをユーザに与えること
ができ、従ってペットロボット1A〜1Nとしてのエン
タテインメント性をより向上させることができる。By transmitting and receiving various kinds of information regarding the pet robots 1A to 1N via the Internet 36 in this manner, it is possible to provide the user with further interest, and thus the entertainment property of the pet robots 1A to 1N is further enhanced. Can be improved.
【0066】以上の構成によれば、個人端末31A〜3
1Nに接続されたペットロボット1A〜1Nに対応する
キャラクタをサーバ38上のバーチャル空間で自律的に
行動させながら、インターネット36を介して他のペッ
トロボット1A〜1Nのユーザや当該ペットロボット1
A〜1Nの販売業者との間でペットロボット1A〜1N
に関する種々の情報を送受信することにより、より一層
の面白みをユーザに与えることができ、従ってペットロ
ボット1A〜1Nとしてのエンタテインメント性をより
向上させることができる。According to the above configuration, the personal terminals 31A-3A
While allowing the characters corresponding to the pet robots 1A to 1N connected to 1N to autonomously act in the virtual space on the server 38, the users of the other pet robots 1A to 1N and the pet robot 1 concerned via the Internet 36.
Pet robots 1A to 1N with distributors A to 1N
By transmitting and receiving various kinds of information relating to the pet robot, it is possible to provide the user with more fun, and therefore, the entertainment property of the pet robots 1A to 1N can be further improved.
【0067】(4)他の実施の形態
なお上述の実施の形態においては、ペットロボット1A
〜1Nに対応するキャラクタをサーバ38上のバーチャ
ル空間で行動させながら、ペットロボット1A〜1Nの
修理を受け付けている店舗を検索するサービスや、他の
ペットロボット1A〜1Nとの交流を図るサービスを提
供するようにした場合について述べたが、本発明はこれ
に限らず、例えばペットロボット1A〜1Nの故障診断
サービスのような他の種々のサービスを提供するように
しても良い。(4) Other Embodiments In the above embodiment, the pet robot 1A is used.
A service for searching a store accepting repairs of the pet robots 1A to 1N while allowing the characters corresponding to 1N to act in the virtual space on the server 38, and a service for interacting with other pet robots 1A to 1N. Although the case has been described above, the present invention is not limited to this, and various other services such as a failure diagnosis service for the pet robots 1A to 1N may be provided.
【0068】また上述の実施の形態においては、ペット
ロボット1A〜1Nを個人端末31A〜31Nに有線接
続した場合について述べたが、本発明はこれに限らず、
ペットロボット1A〜1Nを個人端末31A〜31Nに
無線接続するようにしても良い。Further, in the above-mentioned embodiment, the case where the pet robots 1A to 1N are connected to the personal terminals 31A to 31N by wire is described, but the present invention is not limited to this.
The pet robots 1A to 1N may be wirelessly connected to the personal terminals 31A to 31N.
【0069】また上述の実施の形態においては、詳細画
面53上に表示されている店舗53A〜53Cのうち、
選択された店舗のサービス内容を詳細画面53に重ねて
表示する場合について述べたが、本発明はこれに限ら
ず、ペットロボット1A〜1Nに対応するキャラクタの
意思やユーザの指令に応じてキャラクタが「おしっこ」
をすると、その場所にマーキングを詳細画面53上に重
畳して表示するようにしても良く、この場合、ユーザが
詳細画面53上に表示されているマーキングをクリック
すると、他のキャラクタの訪問記録を表示するようにし
ても良い。Further, in the above-described embodiment, of the stores 53A to 53C displayed on the detail screen 53,
Although the case where the service content of the selected store is displayed on the detailed screen 53 is described, the present invention is not limited to this, and the character corresponding to the pet robots 1A to 1N can be displayed according to the intention of the character or the user's command. "Pee"
Then, the marking may be displayed so as to be superimposed on the detailed screen 53 at that location. In this case, when the user clicks the marking displayed on the detailed screen 53, the visit records of other characters are displayed. It may be displayed.
【0070】また上述の実施の形態においては、ペット
ロボット1A〜1Nのユーザ同士がサーバ38上のバー
チャル空間を通じて互いに会話をする場合について述べ
たが、本発明はこれに限らず、例えば販売対象のペット
ロボット1A〜1Nに対して予め親子関係を構築した上
でユーザに販売することにより、当該ペットロボット1
A〜1Nのユーザがサーバ38上のバーチャル空間を通
じて両親や兄弟を捜索するようにしても良い。In the above-described embodiment, the case where the users of the pet robots 1A to 1N talk with each other through the virtual space on the server 38 has been described, but the present invention is not limited to this and, for example, the target of sale. By constructing a parent-child relationship with the pet robots 1A to 1N in advance and selling it to the user, the pet robot 1
The users A to 1N may search for parents and siblings through the virtual space on the server 38.
【0071】また上述の実施の形態においては、ペット
ロボット1A〜1Nのユーザ同士がサーバ38上のバー
チャル空間を通じて互いに会話をする場合について述べ
たが、本発明はこれに限らず、ペットロボット1A〜1
NのCCD16によって撮像された画像データをサーバ
38に送信し、当該画像データを基にペットロボット1
A〜1Nのユーザ同士が交流を図るようにしても良い。In the above-described embodiment, the case where the users of the pet robots 1A to 1N talk with each other through the virtual space on the server 38 has been described, but the present invention is not limited to this, and the pet robots 1A to 1N. 1
Image data captured by the N CCD 16 is transmitted to the server 38, and the pet robot 1 is based on the image data.
The users A to 1N may interact with each other.
【0072】また上述の実施の形態においては、ペット
ロボット1A〜1Nのユーザ同士がサーバ38上のバー
チャル空間を通じて互いに会話をする場合について述べ
たが、本発明はこれに限らず、例えばサーバ38上のバ
ーチャル空間でペットロボット1A〜1Nに対応するキ
ャラクタに脚の速さを競わせるなど、他の種々の競争を
行わせるようにしても良い。Further, in the above-described embodiment, the case where the users of the pet robots 1A to 1N talk with each other through the virtual space on the server 38 has been described, but the present invention is not limited to this and, for example, on the server 38. In the virtual space, the characters corresponding to the pet robots 1A to 1N may be allowed to compete in various other types such as leg speed.
【0073】また上述の実施の形態においては、通信路
としてインターネット36を適用した場合について述べ
たが、本発明はこれに限らず、例えば公衆回線やLAN
などのような他の種々の通信路を適用するようにしても
良い。In the above-described embodiment, the case where the Internet 36 is applied as the communication path has been described, but the present invention is not limited to this, and for example, a public line or LAN.
Other various communication paths such as the above may be applied.
【0074】また上述の実施の形態においては、情報提
供装置としてサーバ38を適用した場合について述べた
が、本発明はこれに限らず、他の種々の情報提供装置を
適用するようにしても良い。Further, in the above-mentioned embodiment, the case where the server 38 is applied as the information providing apparatus has been described, but the present invention is not limited to this, and various other information providing apparatuses may be applied. .
【0075】また上述の実施の形態においては、端末装
置として、パーソナルコンピュータでなる個人端末31
A〜31Nを適用した場合について述べたが、本発明は
これに限らず、例えば携帯電話機のような他の種々の端
末装置を適用するようにしても良い。Further, in the above-mentioned embodiment, the personal terminal 31 which is a personal computer is used as the terminal device.
The case of applying A to 31N has been described, but the present invention is not limited to this, and various other terminal devices such as a mobile phone may be applied.
【0076】また上述の実施の形態においては、生成手
段としてCPU42を適用した場合について述べたが、
本発明はこれに限らず、端末装置から送信されるロボッ
ト装置の特徴情報に応じた仮想生物を生成し、当該仮想
生物を所定の仮想空間で上記特徴情報に基づいて行動さ
せるための行動情報を生成する他の種々の生成手段を適
用するようにしても良い。In the above embodiment, the case where the CPU 42 is applied as the generation means has been described.
The present invention is not limited to this, generates a virtual creature according to the characteristic information of the robot device transmitted from the terminal device, the action information for causing the virtual creature to act in a predetermined virtual space based on the characteristic information. Other various generating means for generating may be applied.
【0077】さらに上述の実施の形態においては、提供
手段としてCPU42を適用した場合について述べた
が、本発明はこれに限らず、生成した行動情報を提供情
報として端末装置に提供する他の種々の提供手段を適用
するようにしても良い。Further, in the above-described embodiment, the case where the CPU 42 is applied as the providing means has been described, but the present invention is not limited to this, and various other types of providing the generated behavior information as the provision information to the terminal device. You may make it apply a provision means.
【0078】[0078]
【発明の効果】上述のように本発明によれば、端末装置
から送信されるロボット装置の特徴情報に応じた仮想生
物を生成し、当該仮想生物を所定の仮想空間で特徴情報
に基づいて行動させるための行動情報を生成してこれを
端末装置に提供することにより、より一層の面白みをユ
ーザに与えることができ、従ってロボット装置としての
エンタテインメント性をより向上させることができる。As described above, according to the present invention, a virtual creature is generated according to the characteristic information of the robot device transmitted from the terminal device, and the virtual creature acts in a predetermined virtual space based on the characteristic information. By generating the action information for causing the terminal device to provide the action information to the terminal device, it is possible to provide the user with further interest, and thus to further improve the entertainment property as the robot device.
【図1】本発明によるペットロボットの一実施の形態を
示す略線図である。FIG. 1 is a schematic diagram showing an embodiment of a pet robot according to the present invention.
【図2】ペットロボットの構成を示すブロック図であ
る。FIG. 2 is a block diagram showing a configuration of a pet robot.
【図3】ペットロボットの行動生成の説明に供する略線
図である。FIG. 3 is a schematic diagram used for explaining behavior generation of a pet robot.
【図4】確率オートマトンの説明に供する略線図であ
る。FIG. 4 is a schematic diagram used to explain a probability automaton.
【図5】状態遷移表の説明に供する略線図である。FIG. 5 is a schematic diagram for explaining a state transition table.
【図6】ペットロボットネットワークシステムの説明に
供する略線図である。FIG. 6 is a schematic diagram for explaining a pet robot network system.
【図7】サーバの構成を示すブロック図である。FIG. 7 is a block diagram showing a configuration of a server.
【図8】情報取得画面を示す略線図である。FIG. 8 is a schematic diagram showing an information acquisition screen.
1……ペットロボット、2……胴体部ユニット、3……
脚部ユニット、4……頭部ユニット、5……尻尾部ユニ
ット、10……コントローラ、11……バッテリ、12
……バッテリセンサ、13……熱センサ、15……マイ
クロホン、16……CCDカメラ、17……タッチセン
サ、18……スピーカ、19……アクチュエータ、30
……ペットロボットネットワークシステム、31……個
人端末、35……インターネットプロバイダ、36……
インターネット、37……販売業者、38……サーバ、
40……LANカード、42……CPU、43……一時
記憶メディア、44……ストレージメディア。1 ... Pet robot, 2 ... Body unit, 3 ...
Leg unit, 4 ... Head unit, 5 ... Tail unit, 10 ... Controller, 11 ... Battery, 12
...... Battery sensor, 13 ...... heat sensor, 15 ...... microphone, 16 ...... CCD camera, 17 ...... touch sensor, 18 ...... speaker, 19 ...... actuator, 30
...... Pet robot network system, 31 ...... Personal terminal, 35 ...... Internet provider, 36 ......
Internet, 37 ... Distributor, 38 ... Server,
40 ... LAN card, 42 ... CPU, 43 ... Temporary storage medium, 44 ... Storage medium.
Claims (12)
末装置が接続されたネットワークシステムにおいて、 上記端末装置は、 ユーザが所有するロボット装置固有の特徴を示す特徴情
報を上記通信路を介して上記情報提供装置に送信し、 上記情報提供装置は、 上記端末装置から送信される上記ロボット装置の特徴情
報に応じた仮想生物を生成し、当該仮想生物を所定の仮
想空間で上記特徴情報に基づいて行動させるための行動
情報を生成する生成手段と、 上記生成した行動情報を提供情報として上記端末装置に
提供する提供手段とを具えることを特徴とするネットワ
ークシステム。1. In a network system in which an information providing device and a terminal device are connected via a predetermined communication path, the terminal device transmits characteristic information indicating a characteristic peculiar to a robot device owned by a user via the communication path. To the information providing device, the information providing device generates a virtual creature corresponding to the characteristic information of the robot device transmitted from the terminal device, and converts the virtual creature into the characteristic information in a predetermined virtual space. A network system comprising: a generation unit that generates action information for making an action based on the action; and a provision unit that provides the generated action information as provision information to the terminal device.
上記ロボット装置の動作に対応するように上記仮想生物
を動作させるための上記行動情報を生成することを特徴
とする請求項1に記載のネットワークシステム。2. The terminal device transmits the motion of the robot device as motion information, and the generation means, based on the motion information transmitted from the terminal device,
The network system according to claim 1, wherein the action information for operating the virtual creature is generated so as to correspond to the operation of the robot device.
する情報を上記端末装置に提供することを特徴とする請
求項1に記載のネットワークシステム。3. The network system according to claim 1, wherein the providing means provides the terminal device with information held by the information providing device in response to a request from the terminal device.
ト装置に関する情報を提供することを特徴とする請求項
1に記載のネットワークシステム。4. The network system according to claim 1, wherein the providing means provides the terminal device with information about another robot device transmitted from another terminal device.
た情報提供装置において、 上記端末装置から送信されるロボット装置の特徴情報に
応じた仮想生物を生成し、当該仮想生物を所定の仮想空
間で上記特徴情報に基づいて行動させるための行動情報
を生成する生成手段と、 上記生成した行動情報を提供情報として上記端末装置に
提供する提供手段とを具えることを特徴とする情報提供
装置。5. An information providing device, to which a terminal device is connected via a predetermined communication path, generates a virtual creature according to the characteristic information of the robot device transmitted from the terminal device, and sets the virtual creature to a predetermined number. Information providing, comprising: a generation unit that generates action information for making an action in the virtual space based on the characteristic information; and a providing unit that provides the generated action information as provision information to the terminal device. apparatus.
報に基づいて、上記ロボット装置の行動に対応するよう
に上記仮想生物を動作させるための上記行動情報を生成
することを特徴とする請求項5に記載の情報提供装置。6. The generation means generates the action information for operating the virtual creature so as to correspond to the action of the robot device, based on the action information of the robot device transmitted from the terminal device. The information providing apparatus according to claim 5, wherein
する情報を上記端末装置に提供することを特徴とする請
求項5に記載の情報提供装置。7. The information providing apparatus according to claim 5, wherein the providing means provides the terminal apparatus with information held by the information providing apparatus in response to a request from the terminal apparatus.
ト装置に関する情報を提供することを特徴とする請求項
5に記載の情報提供装置。8. The information providing device according to claim 5, wherein the providing means provides the terminal device with information about another robot device transmitted from another terminal device.
末装置が接続されたネットワークシステムの情報提供方
法において、 ユーザが所有するロボット装置固有の特徴を示す特徴情
報を上記端末装置から上記通信路を介して上記情報提供
装置に送信する第1のステップと、 上記端末装置から送信される上記ロボット装置の特徴情
報に応じた仮想生物を生成し、当該仮想生物を所定の仮
想空間で上記特徴情報に基づいて行動させるための行動
情報を生成する第2のステップと、 上記行動情報を提供情報として上記端末装置に提供する
第3のステップとを具えることを特徴とする情報提供方
法。9. In an information providing method of a network system in which an information providing device and a terminal device are connected via a predetermined communication path, characteristic information indicating a characteristic unique to a robot device owned by a user is transmitted from the terminal device to the communication. A first step of transmitting to the information providing device via a path, a virtual creature according to the characteristic information of the robot device transmitted from the terminal device, and generating the virtual creature in a predetermined virtual space. An information providing method comprising: a second step of generating action information for making an action based on the information; and a third step of providing the action information as provision information to the terminal device.
上記ロボット装置の動作に対応するように上記仮想生物
を動作させるための上記行動情報を生成することを特徴
とする請求項9に記載の情報提供方法。10. In the first step, the motion of the robot device is transmitted as motion information, and in the second step, based on the motion information transmitted from the terminal device,
The information providing method according to claim 9, wherein the action information for operating the virtual creature is generated so as to correspond to the operation of the robot device.
する情報を上記端末装置に提供することを特徴とする請
求項9に記載の情報提供方法。11. The information providing method according to claim 9, wherein in the third step, the information possessed by the information providing device is provided to the terminal device in response to a request from the terminal device.
ト装置に関する情報を提供することを特徴とする請求項
9に記載の情報提供方法。12. The information providing method according to claim 9, wherein in the third step, the terminal device is provided with information about another robot device transmitted from another terminal device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001225054A JP2003033580A (en) | 2001-07-25 | 2001-07-25 | Network system, information providing device, and information providing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001225054A JP2003033580A (en) | 2001-07-25 | 2001-07-25 | Network system, information providing device, and information providing method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2003033580A true JP2003033580A (en) | 2003-02-04 |
| JP2003033580A5 JP2003033580A5 (en) | 2008-09-04 |
Family
ID=19058111
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001225054A Pending JP2003033580A (en) | 2001-07-25 | 2001-07-25 | Network system, information providing device, and information providing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2003033580A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020064420A (en) * | 2018-10-16 | 2020-04-23 | 東京瓦斯株式会社 | Robot matching system and program |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10319831A (en) * | 1997-05-21 | 1998-12-04 | Sony Corp | Client device, image display control method, shared virtual space providing device and method, and providing medium |
| JPH10333542A (en) * | 1997-05-27 | 1998-12-18 | Sony Corp | Client device, display control method, shared virtual space providing device and method, and providing medium |
| JPH11192384A (en) * | 1997-12-26 | 1999-07-21 | Bandai Co Ltd | Training simulation device using network |
| JPH11249544A (en) * | 1998-03-02 | 1999-09-17 | Bandai Co Ltd | Training simulation device |
| WO2000066239A1 (en) * | 1999-04-30 | 2000-11-09 | Sony Corporation | Electronic pet system, network system, robot, and storage medium |
-
2001
- 2001-07-25 JP JP2001225054A patent/JP2003033580A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10319831A (en) * | 1997-05-21 | 1998-12-04 | Sony Corp | Client device, image display control method, shared virtual space providing device and method, and providing medium |
| JPH10333542A (en) * | 1997-05-27 | 1998-12-18 | Sony Corp | Client device, display control method, shared virtual space providing device and method, and providing medium |
| JPH11192384A (en) * | 1997-12-26 | 1999-07-21 | Bandai Co Ltd | Training simulation device using network |
| JPH11249544A (en) * | 1998-03-02 | 1999-09-17 | Bandai Co Ltd | Training simulation device |
| WO2000066239A1 (en) * | 1999-04-30 | 2000-11-09 | Sony Corporation | Electronic pet system, network system, robot, and storage medium |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020064420A (en) * | 2018-10-16 | 2020-04-23 | 東京瓦斯株式会社 | Robot matching system and program |
| JP7186058B2 (en) | 2018-10-16 | 2022-12-08 | 東京瓦斯株式会社 | Robot matching system and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2001222316A (en) | Robot management system and robot management method | |
| CN209364629U (en) | Information processing unit | |
| US6493606B2 (en) | Articulated robot and method of controlling the motion of the same | |
| JP4032793B2 (en) | Charging system, charging control method, robot apparatus, charging control program, and recording medium | |
| JP2020535557A (en) | Modular Hierarchical Visual System for Autonomous Personal Companion | |
| KR100827088B1 (en) | Software robotic device | |
| JP2004110802A (en) | Environment identification device, environment identification method, program and recording medium, and robot device | |
| WO2000041853A1 (en) | Robot, main unit of robot, and coupling unit of robot | |
| WO2001059703A1 (en) | Information processing device and method, data holding device, and program | |
| KR20230151736A (en) | Method and system for selecting movement routs of mobile robot performing multiple tasks based on deep reinforcement learning | |
| WO2001049461A1 (en) | Edit device, edit method, and recorded medium | |
| WO2001048689A1 (en) | Information transmission system, information transmission method, robot, information recording medium, online sales system, online sales method and sales server | |
| WO2019087478A1 (en) | Information processing device, information processing method, and program | |
| US7162409B2 (en) | Diagnostic system, diagnostic device and diagnostic method | |
| JP7014168B2 (en) | Virtual organism control systems, virtual organism control methods, and programs | |
| JP2004302644A (en) | Face identification device, face identification method, recording medium, and robot device | |
| JP7363823B2 (en) | Information processing device and information processing method | |
| CN111278516B (en) | Information processing device, information processing method, and program | |
| WO2002030629A1 (en) | Robot apparatus, information display system, and information display method | |
| JP2003033580A (en) | Network system, information providing device, and information providing method | |
| JP2004130427A (en) | Robot apparatus and operation control method for robot apparatus | |
| JPWO2019087490A1 (en) | Information processing equipment, information processing methods, and programs | |
| JP2003271958A (en) | Image processing method, device thereof, program thereof, recording medium thereof, and robot device mounted with image processing device | |
| JP2001191274A (en) | Data holding device, robot device, change device and change method | |
| JP4556425B2 (en) | Content reproduction system, content reproduction method, and content reproduction apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080723 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080723 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110705 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111101 |