JP2018001387A - ロボット、プログラム、ロボットシステム及びサーバ - Google Patents
ロボット、プログラム、ロボットシステム及びサーバ Download PDFInfo
- Publication number
- JP2018001387A JP2018001387A JP2016135919A JP2016135919A JP2018001387A JP 2018001387 A JP2018001387 A JP 2018001387A JP 2016135919 A JP2016135919 A JP 2016135919A JP 2016135919 A JP2016135919 A JP 2016135919A JP 2018001387 A JP2018001387 A JP 2018001387A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- user
- log
- response
- analyzed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004044 response Effects 0.000 claims abstract description 70
- 230000005540 biological transmission Effects 0.000 claims description 6
- 230000008451 emotion Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 abstract description 12
- 238000004458 analytical method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Landscapes
- Manipulator (AREA)
- Toys (AREA)
Abstract
【課題】ユーザのロボットに対するアクションと、これに対するロボットのリアクションのログを収集することができる技術を提供すること【解決手段】本発明は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボットである。【選択図】図1
Description
本発明は、ロボット、プログラム、ロボットシステム及びサーバに関する。
近年、人とコミュニケーションを図るロボット(例えば、人型ロボット)があり、特に、ロボットが自然なコミュニケーションを行える研究が盛んである。
しかしながら、実際にロボットが出荷され、ユーザがどのようにロボットに接しているかの情報を収集できていないのが実情である。例えば、ロボットに対して、ユーザが話しかける言葉はどのような言葉が多いのか、また、そのユーザの言葉に対してロボットは自然なリアクションを行っているのか等の情報を収集する手段がなかった。
その結果、ユーザのロボットに対するアクションに対するロボットのリアクションを適切に行うように改善することが行われていなかった。
例えば、ある人的な調査結果では、ユーザがロボットに話しかける言葉の中で最も多い言葉は「握手して」であった。しかし、ロボットを開発する側は、その「握手して」が一番多い言葉であることを入手する方法がなく、仮に、「握手して」が一番多い言葉であることの情報が得られれば、ロボットを開発する側は、ロボットが握手することができるアプリや、その代価としてのロボットの返答等の対応を行うことができるはずである。
そこで、本発明は、ユーザのロボットに対するアクションと、これに対するロボットのリアクションのログを収集することができる技術を提供することにある。
本発明の一態様は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボットである。
本発明の一態様は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得処理をロボットに内蔵されたコンピュータに実行させるプログラムである。
本発明の一態様は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボットと、前記ユーザログ及び前記レスポンスログを受信し、ロボットに関する統計情報を生成する統計情報生成部を有するサーバとを有するロボットシステムである。
本発明の一態様は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを受信し、ロボットに関する統計情報を生成する統計情報生成部を有するサーバである。
本発明によれば、ロボットユーザーの動向とこれに対してロボットがどのようなレスポンスをしたかのログが取れ、ロボットの改善を行うことができる。
本発明の第1の実施の形態を説明する。
図1は、第1の実施の形態の概略を説明するための図である。
本実施の形態では、ロボット1に設けられた各種のセンサにより検出されて解析されたユーザA,Bのユーザログと、ロボット1がユーザA,Bに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得部を有するロボット1について説明する。
本実施の形態の概略を説明すると、ロボット1は、ロボット1に設けられた各種のセンサにより、ロボット1の周りにいる人間(図1中では、ユーザA,B)のログ(どのようなユーザが存在しているのか、ロボットにタッチしたとか等)を取得する。尚、以下の説明では、このようなロボットの各種センサから得られるユーザの動向に関する情報をユーザログと記載する。
ロボット1に設けられるセンサの例としては、カメラ、マイク、バッテリセンサ、温度センサ、加速度センサ、タッチセンサ、動作エラー検出センサ等である。
各種のセンサにより検出されて解析されたユーザのユーザログの例としては、センサがカメラである場合、カメラで撮影された画像から得られるユーザの情報であり、ロボットの視界に存在するユーザの有無や、ユーザにロボット1が見られていた時間の長さ(注視時間)、ロボットの周囲に存在するユーザの男女の比率や年代、ユーザの顔などの表情が得られるユーザの感情等である。また、センサがマイクである場合、マイクで集音された音声から解析されたユーザログの例としては、ユーザに話しかけられた言葉などである。また、センサがロボット1の各部(ロボットの頭の頂部や手、腕など)に設けられたタッチセンサである場合、センサが設けられている部位に対するタッチの記録である。
ロボット1は、上記のような各種のセンサにより検出されて解析されたユーザログを取得する。
次に、ロボット1は、ユーザA,Bに対してロボット1が行ったリアクション又はレスポンスのレスポンスログを取得する。
ここで、レスポンスログとは、ロボット1の周囲に存在するユーザに対する動作(頭を下げたり、腕を上げる、握手する等である)や、ユーザがロボット1に話しかけた言葉に対する返答、ユーザのロボット1へのタッチに対するリアクション(頭を下げたり、腕を上げる、握手する等である)等のユーザに対するロボットの動作のログである。また、そのレスポンスログには、ユーザに対してロボットが何もリアクションを取らなかったというレスポンスログも含まれる。尚、以下の説明では、このように、ユーザに対してロボット1が行ったロボット1のリアクション又はレスポンスの動作のログを、レスポンスログと記載する。
このように取得されたユーザログ及びレスポンスログは、ロボット1内に記憶される。このとき、ログとして記憶される際に、ユーザがロボット1に対して行ったアクションのユーザログと、そのアクションに対するリアクション又はレスポンスのレスポンスログとを関連付けて記憶することが好ましい。
また、ロボット1に記憶されたユーザログ及びレスポンスログは、外部のサーバに定期的に報告するように構成しても良い。
続いて、第1の実施の形態におけるロボット1の具体的な構成を図2に示す。
図2中、ロボット1は、センサ10と、解析部11と、ロボット制御部12と、ログ取得部13と、ログ記録部14とを備える。
センサ10は、各種センサであり、例えば、音声を集音するマイク101、ロボット1の周辺の画像を撮影するカメラ102、ロボット1の各部(ロボットの頭の頂部や手、腕など)に設けられたタッチセンサ103等である。これらの集音された音や、撮影された画像、タッチの検出(状態)は、センシング情報として解析部11に出力される。
解析部11は、センサ10からセンシング情報を受信する。そして、センシング情報を解析する。解析方法は、例えば、マイク101が集音した音声ならば、音声解析を行ってテキスト化する。カメラ102が撮影した画像ならば、その画像を解析して画像中のユーザの存在、存在するならば、そのユーザの性別、年齢、顔の表情等を解析する。ロボット1の各部(ロボットの頭の頂部や手、腕など)に設けられたタッチセンサ103が検出信号ならば、どこに設けられたタッチセンサが検出したか、また、そのタッチの強度等である。
ロボット制御部12は、解析部11の解析結果を受けて、ロボットにレスポンス(動作制御)を行わせるものである。例えば、解析されたユーザの音声に対する返答を行ったり、画像解析によりユーザの存在が検出された場合に、そのユーザに対して声をかけたり、頭部を下げて挨拶する動作を行ったり、ロボットの頭の頂部や手、腕などに対するユーザのタッチに対して頭部を下げる、握手を行う等のレスポンスを行わせるものである。例えば、ロボット制御部12は、音声解析により、ユーザがロボットに対して「名前は?」と話しかけていると判定した場合、ユーザの「名前は?」に対するレスポンスとして「私はAAAです。」とロボットに返答させる。また、ロボット制御部12は、撮影画像の解析により、ロボット1の周囲にユーザが存在することが判明した場合、そのユーザに向けて「こんにちは」とロボットに発話させる。また、タッチセンサの検出信号が頭部をタッチされたことを示している場合、それに反応して、ロボット1の手を挙げる動作を行わせる等である。
ログ取得部13は、解析部11で解析された解析結果であるユーザログ及びロボット制御部12で行われたレスポンスのレスポンスログを取得し、ログ記録部14に記録する。その際、ユーザがロボット1に対して行ったアクションのユーザログと、そのアクションに対するリアクション又はレスポンスのレスポンスログとを関連付けてログ記録部14に記録する。例えば、ユーザログ“音声「名前は?」”とレスポンスログ”音声「私はAAAです。」”とを関連付けてログ記録部14に記録する。また、ユーザログ“タッチセンサ「頭部」”とレスポンスログ”動作「右手を挙げる」”とを関連付けてログ記録部14に記録する。このようにして、ログ取得部13は、ロボットのログを取得して記録する。
図3は、ログ記録部14に記憶されたユーザログ及びレスポンスログの一例を示す図である。図3のログでは、ユーザがロボット1に対して行ったアクションのユーザログと、そのアクションに対するリアクション又はレスポンスのレスポンスログとが対応付けられて記憶されている。そして、ユーザログはユーザの動作等を検出したセンサの種類及びそのセンシング情報の解析結果が記録される。また、レスポンスログはロボット1のリアクション又はレスポンスの種類及びその内容が記録される。一例としては、ユーザログ「マイク:名前は?」と、レスポンスログ「音声:名前は?」とが対応付けられて記憶されている。また、ユーザログ「カメラ:ユーザ有」と、レスポンスログ「音声:こんにちは」とが対応付けられて記憶されている。また、ユーザログ「タッチセンサ:頭部」と、レスポンスログ「動作:右手を挙げる」とが対応付けられて記憶されている。また、ユーザログ「カメラ:ユーザ有」と、レスポンスログ「無:無」とが対応付けられて記憶されている。尚、このようなロボット1が何らかの検出を行ったにもかかわらず、ロボットが反応しなかった場合もレスポンスログ「無:無」として記録される。
ログ記録部14に蓄積されたユーザログ及びレスポンスログは、外部から要求により読み出すことができ、そのログにより、ロボットの改善を行うことができる。
本発明の第2の実施の形態を説明する。
本発明の第2の実施の形態は、ロボット1に記憶されたログを、予め定められた間隔で、外部のサーバ2に報告する例を説明する。図4は第2の実施の形態のブロック図である。
ロボット1は、ログ記録部14に記録されたログを、サーバ2に送信するログ送信部15を有する。ログ送信部15は、予め定められ間隔で、ログ記録部14からユーザログ及びレスポンスログを読み出し、サーバ2に送信する。
サーバ2は、ログ送信部15からユーザログ及びレスポンスログを受信し、ユーザの求めに応じてそのユーザログ及びレスポンスログの統計情報を生成し、外部の出力部3に出力するログ統計部20を有する。尚、出力部3は、例えば、ディスプレイ、プリンターに限られず、スマートフォンのような端末でも良い。
ログ統計部20は、受信したユーザログ及びレスポンスログを蓄積し、日時毎や週毎、又は、性別、年代、感情等のカテゴリー毎に統計的な資料を作成する。
図5、6、7は、蓄積されたログに基づいて、ログ統計部20が生成した統計的資料の一例である。図5は画像解析によるユーザの感情、性別、年代、注視時間のヒストグラムであり、図6はユーザの感情、性別、年代、注視時間の時間的な変化を示した図であり、図7はユーザの感情、性別、年代、注視時間の日ごとの割合を示した図である。
このように、ユーザログ及びレスポンスログを蓄積し、それから得られる統計資料により、ロボットの改善を行うことが出来る。
尚、上述した実施の形態では、各部をハードウェアで構成したが、上述した動作の処理を情報処理装置(CPU)に行わせるプログラムによっても構成できる。
以上好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
1 ロボット
2 サーバ
3 出力部
10 センサ
11 解析部
12 ロボット制御部
13 ログ取得部
14 ログ記録部
15 ログ送信部
20 ログ統計部
2 サーバ
3 出力部
10 センサ
11 解析部
12 ロボット制御部
13 ログ取得部
14 ログ記録部
15 ログ送信部
20 ログ統計部
Claims (10)
- ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボット。
- 前記ログ取得手段が取得したユーザログ及びレスポンスログを、サーバに送信するログ送信手段を有する請求項1に記載のロボット。
- 前記ユーザログは、センサにより取得して解析された、前記ロボットの周囲に存在するユーザの有無、ユーザの前記ロボットへの注視の有無、ユーザの性別、年代、感情、ユーザのロボットに対する発話、ユーザのロボットに対する接触の少なくともいずれかである
請求項1又は請求項2に記載のロボット。 - 前記レスポンスログは、ロボットのユーザに対する発話、動作の少なくともいずれかである
請求項1から請求項3のいずれかに記載のロボット。 - ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得処理をロボットに内蔵されたコンピュータに実行させるプログラム。
- 前記取得したユーザログ及びレスポンスログを、サーバに送信するログ送信処理を、ロボットに内蔵されたコンピュータに実行させる請求項5に記載のプログラム。
- 前記ユーザログは、センサにより取得して解析された、前記ロボットの周囲に存在するユーザの有無、ユーザの前記ロボットへの注視の有無、ユーザの性別、年代、感情、ユーザのロボットに対する発話、ユーザのロボットに対する接触の少なくともいずれかである
請求項5又は請求項6に記載のプログラム。 - 前記レスポンスログは、ロボットのユーザに対する発話、動作の少なくともいずれかである
請求項5から請求項7のいずれかに記載のプログラム。 - ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボットと、
前記ユーザログ及び前記レスポンスログを受信し、ロボットに関する統計情報を生成する統計情報生成部を有するサーバと
を有するロボットシステム。 - ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを受信し、ロボットに関する統計情報を生成する統計情報生成部を有するサーバ。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016135919A JP2018001387A (ja) | 2016-07-08 | 2016-07-08 | ロボット、プログラム、ロボットシステム及びサーバ |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016135919A JP2018001387A (ja) | 2016-07-08 | 2016-07-08 | ロボット、プログラム、ロボットシステム及びサーバ |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018001387A true JP2018001387A (ja) | 2018-01-11 |
Family
ID=60945613
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016135919A Pending JP2018001387A (ja) | 2016-07-08 | 2016-07-08 | ロボット、プログラム、ロボットシステム及びサーバ |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018001387A (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020032014A (ja) * | 2018-08-31 | 2020-03-05 | Groove X株式会社 | 日常生活を記録する自律行動型ロボット |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001277163A (ja) * | 2000-04-03 | 2001-10-09 | Sony Corp | ロボットの制御装置及び制御方法 |
| JP2009061547A (ja) * | 2007-09-06 | 2009-03-26 | Olympus Corp | ロボット制御システム、ロボット、プログラム及び情報記憶媒体 |
| JP2009131914A (ja) * | 2007-11-29 | 2009-06-18 | Advanced Telecommunication Research Institute International | ロボット制御システム |
| JP2011115936A (ja) * | 2009-11-04 | 2011-06-16 | Advanced Telecommunication Research Institute International | 触覚提示付ロボット |
| EP2933066A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Activity monitoring of a robot |
| JP2016071050A (ja) * | 2014-09-29 | 2016-05-09 | シャープ株式会社 | 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム |
| JP2017514173A (ja) * | 2014-04-17 | 2017-06-01 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | ロボットの対話を管理する方法とシステム |
-
2016
- 2016-07-08 JP JP2016135919A patent/JP2018001387A/ja active Pending
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001277163A (ja) * | 2000-04-03 | 2001-10-09 | Sony Corp | ロボットの制御装置及び制御方法 |
| JP2009061547A (ja) * | 2007-09-06 | 2009-03-26 | Olympus Corp | ロボット制御システム、ロボット、プログラム及び情報記憶媒体 |
| JP2009131914A (ja) * | 2007-11-29 | 2009-06-18 | Advanced Telecommunication Research Institute International | ロボット制御システム |
| JP2011115936A (ja) * | 2009-11-04 | 2011-06-16 | Advanced Telecommunication Research Institute International | 触覚提示付ロボット |
| EP2933066A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Activity monitoring of a robot |
| JP2017514173A (ja) * | 2014-04-17 | 2017-06-01 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | ロボットの対話を管理する方法とシステム |
| JP2016071050A (ja) * | 2014-09-29 | 2016-05-09 | シャープ株式会社 | 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020032014A (ja) * | 2018-08-31 | 2020-03-05 | Groove X株式会社 | 日常生活を記録する自律行動型ロボット |
| JP7298861B2 (ja) | 2018-08-31 | 2023-06-27 | Groove X株式会社 | 日常生活を記録する自律行動型ロボット |
| JP2023123555A (ja) * | 2018-08-31 | 2023-09-05 | Groove X株式会社 | 日常生活を記録する自律行動型ロボット |
| JP7548621B2 (ja) | 2018-08-31 | 2024-09-10 | Groove X株式会社 | 日常生活を記録する自律行動型ロボット |
| JP2024161583A (ja) * | 2018-08-31 | 2024-11-19 | Groove X株式会社 | 日常生活を記録する自律行動型ロボット |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20220391697A1 (en) | Machine-learning based gesture recognition with framework for adding user-customized gestures | |
| US20110201960A1 (en) | Systems for inducing change in a human physiological characteristic | |
| US20110201959A1 (en) | Systems for inducing change in a human physiological characteristic | |
| KR20150140867A (ko) | 소셜 그래프들, 스피치 모델들, 및 사용자 콘텍스트를 통해 모바일 디바이스 사용자에 근접한 사람들을 식별하는 것 | |
| JP2012040655A (ja) | ロボット制御方法、プログラム、及びロボット | |
| CN113287175A (zh) | 互动式健康状态评估方法及其系统 | |
| JP2012230535A (ja) | 電子機器および電子機器の制御プログラム | |
| KR102552220B1 (ko) | 정신건강 진단 및 치료를 적응적으로 수행하기 위한 컨텐츠 제공 방법, 시스템 및 컴퓨터 프로그램 | |
| US20210151154A1 (en) | Method for personalized social robot interaction | |
| KR102423257B1 (ko) | 치매 환자의 기록 데이터 가공 서비스를 지원하는 시스템 | |
| JP2019197509A (ja) | 介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラム | |
| JP2019051129A (ja) | 嚥下機能解析システム及びプログラム | |
| KR20230154380A (ko) | 행동 및 발화 패턴 기반 감성 인식 결과에 의해 사용자의 감성 상태에 적합한 헬스케어 서비스를 제공하는 시스템 및 방법 | |
| JP6798258B2 (ja) | 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム | |
| WO2019235190A1 (ja) | 情報処理装置、情報処理方法、プログラム及び対話システム | |
| JP2018001387A (ja) | ロボット、プログラム、ロボットシステム及びサーバ | |
| WO2016206642A1 (zh) | 机器人的控制数据的生成方法及装置 | |
| JP2012230534A (ja) | 電子機器および電子機器の制御プログラム | |
| JP2025049138A (ja) | システム | |
| JP2021162929A (ja) | 介護支援システム、介護支援方法、診療支援システム、診療支援方法、及びプログラム | |
| CN116442242A (zh) | 控制装置、机器人、机器人的控制方法以及记录介质 | |
| EP3671724A1 (en) | Playback of personalised audio | |
| JP2020067562A (ja) | ユーザの顔の映像に基づいて発動タイミングを推定する装置、プログラム及び方法 | |
| EP4558043A1 (en) | Obtaining biometric information of a user based on a ballistocardiogram signal obtained when a mobile computing device is held against the head of the user | |
| JP7405357B2 (ja) | 高齢者等見守システム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190423 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200701 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210120 |