[go: up one dir, main page]

JP2018001387A - ロボット、プログラム、ロボットシステム及びサーバ - Google Patents

ロボット、プログラム、ロボットシステム及びサーバ Download PDF

Info

Publication number
JP2018001387A
JP2018001387A JP2016135919A JP2016135919A JP2018001387A JP 2018001387 A JP2018001387 A JP 2018001387A JP 2016135919 A JP2016135919 A JP 2016135919A JP 2016135919 A JP2016135919 A JP 2016135919A JP 2018001387 A JP2018001387 A JP 2018001387A
Authority
JP
Japan
Prior art keywords
robot
user
log
response
analyzed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016135919A
Other languages
English (en)
Inventor
義博 中橋
Yoshihiro Nakahashi
義博 中橋
貴史 鹿田
Takashi Shikata
貴史 鹿田
尋満 山内
Hiromitsu Yamauchi
尋満 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robot Start Inc
Original Assignee
Robot Start Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robot Start Inc filed Critical Robot Start Inc
Priority to JP2016135919A priority Critical patent/JP2018001387A/ja
Publication of JP2018001387A publication Critical patent/JP2018001387A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

【課題】ユーザのロボットに対するアクションと、これに対するロボットのリアクションのログを収集することができる技術を提供すること【解決手段】本発明は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボットである。【選択図】図1

Description

本発明は、ロボット、プログラム、ロボットシステム及びサーバに関する。
近年、人とコミュニケーションを図るロボット(例えば、人型ロボット)があり、特に、ロボットが自然なコミュニケーションを行える研究が盛んである。
しかしながら、実際にロボットが出荷され、ユーザがどのようにロボットに接しているかの情報を収集できていないのが実情である。例えば、ロボットに対して、ユーザが話しかける言葉はどのような言葉が多いのか、また、そのユーザの言葉に対してロボットは自然なリアクションを行っているのか等の情報を収集する手段がなかった。
その結果、ユーザのロボットに対するアクションに対するロボットのリアクションを適切に行うように改善することが行われていなかった。
例えば、ある人的な調査結果では、ユーザがロボットに話しかける言葉の中で最も多い言葉は「握手して」であった。しかし、ロボットを開発する側は、その「握手して」が一番多い言葉であることを入手する方法がなく、仮に、「握手して」が一番多い言葉であることの情報が得られれば、ロボットを開発する側は、ロボットが握手することができるアプリや、その代価としてのロボットの返答等の対応を行うことができるはずである。
そこで、本発明は、ユーザのロボットに対するアクションと、これに対するロボットのリアクションのログを収集することができる技術を提供することにある。
本発明の一態様は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボットである。
本発明の一態様は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得処理をロボットに内蔵されたコンピュータに実行させるプログラムである。
本発明の一態様は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボットと、前記ユーザログ及び前記レスポンスログを受信し、ロボットに関する統計情報を生成する統計情報生成部を有するサーバとを有するロボットシステムである。
本発明の一態様は、ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを受信し、ロボットに関する統計情報を生成する統計情報生成部を有するサーバである。
本発明によれば、ロボットユーザーの動向とこれに対してロボットがどのようなレスポンスをしたかのログが取れ、ロボットの改善を行うことができる。
図1は第1の実施の形態の概略を説明するための図である。 図2は第1の実施の形態におけるロボット1の具体的な構成を示す図である。 図3はログ記録部14に記憶されたユーザログ及びレスポンスログの一例を示す図である。 図4は第2の実施の形態のブロック図である。 図5は蓄積されたログに基づいて、ログ統計部20が生成した統計的資料の一例を示す図である。 図6は蓄積されたログに基づいて、ログ統計部20が生成した統計的資料の一例を示す図である。 図7は蓄積されたログに基づいて、ログ統計部20が生成した統計的資料の一例を示す図である。
本発明の第1の実施の形態を説明する。
図1は、第1の実施の形態の概略を説明するための図である。
本実施の形態では、ロボット1に設けられた各種のセンサにより検出されて解析されたユーザA,Bのユーザログと、ロボット1がユーザA,Bに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得部を有するロボット1について説明する。
本実施の形態の概略を説明すると、ロボット1は、ロボット1に設けられた各種のセンサにより、ロボット1の周りにいる人間(図1中では、ユーザA,B)のログ(どのようなユーザが存在しているのか、ロボットにタッチしたとか等)を取得する。尚、以下の説明では、このようなロボットの各種センサから得られるユーザの動向に関する情報をユーザログと記載する。
ロボット1に設けられるセンサの例としては、カメラ、マイク、バッテリセンサ、温度センサ、加速度センサ、タッチセンサ、動作エラー検出センサ等である。
各種のセンサにより検出されて解析されたユーザのユーザログの例としては、センサがカメラである場合、カメラで撮影された画像から得られるユーザの情報であり、ロボットの視界に存在するユーザの有無や、ユーザにロボット1が見られていた時間の長さ(注視時間)、ロボットの周囲に存在するユーザの男女の比率や年代、ユーザの顔などの表情が得られるユーザの感情等である。また、センサがマイクである場合、マイクで集音された音声から解析されたユーザログの例としては、ユーザに話しかけられた言葉などである。また、センサがロボット1の各部(ロボットの頭の頂部や手、腕など)に設けられたタッチセンサである場合、センサが設けられている部位に対するタッチの記録である。
ロボット1は、上記のような各種のセンサにより検出されて解析されたユーザログを取得する。
次に、ロボット1は、ユーザA,Bに対してロボット1が行ったリアクション又はレスポンスのレスポンスログを取得する。
ここで、レスポンスログとは、ロボット1の周囲に存在するユーザに対する動作(頭を下げたり、腕を上げる、握手する等である)や、ユーザがロボット1に話しかけた言葉に対する返答、ユーザのロボット1へのタッチに対するリアクション(頭を下げたり、腕を上げる、握手する等である)等のユーザに対するロボットの動作のログである。また、そのレスポンスログには、ユーザに対してロボットが何もリアクションを取らなかったというレスポンスログも含まれる。尚、以下の説明では、このように、ユーザに対してロボット1が行ったロボット1のリアクション又はレスポンスの動作のログを、レスポンスログと記載する。
このように取得されたユーザログ及びレスポンスログは、ロボット1内に記憶される。このとき、ログとして記憶される際に、ユーザがロボット1に対して行ったアクションのユーザログと、そのアクションに対するリアクション又はレスポンスのレスポンスログとを関連付けて記憶することが好ましい。
また、ロボット1に記憶されたユーザログ及びレスポンスログは、外部のサーバに定期的に報告するように構成しても良い。
続いて、第1の実施の形態におけるロボット1の具体的な構成を図2に示す。
図2中、ロボット1は、センサ10と、解析部11と、ロボット制御部12と、ログ取得部13と、ログ記録部14とを備える。
センサ10は、各種センサであり、例えば、音声を集音するマイク101、ロボット1の周辺の画像を撮影するカメラ102、ロボット1の各部(ロボットの頭の頂部や手、腕など)に設けられたタッチセンサ103等である。これらの集音された音や、撮影された画像、タッチの検出(状態)は、センシング情報として解析部11に出力される。
解析部11は、センサ10からセンシング情報を受信する。そして、センシング情報を解析する。解析方法は、例えば、マイク101が集音した音声ならば、音声解析を行ってテキスト化する。カメラ102が撮影した画像ならば、その画像を解析して画像中のユーザの存在、存在するならば、そのユーザの性別、年齢、顔の表情等を解析する。ロボット1の各部(ロボットの頭の頂部や手、腕など)に設けられたタッチセンサ103が検出信号ならば、どこに設けられたタッチセンサが検出したか、また、そのタッチの強度等である。
ロボット制御部12は、解析部11の解析結果を受けて、ロボットにレスポンス(動作制御)を行わせるものである。例えば、解析されたユーザの音声に対する返答を行ったり、画像解析によりユーザの存在が検出された場合に、そのユーザに対して声をかけたり、頭部を下げて挨拶する動作を行ったり、ロボットの頭の頂部や手、腕などに対するユーザのタッチに対して頭部を下げる、握手を行う等のレスポンスを行わせるものである。例えば、ロボット制御部12は、音声解析により、ユーザがロボットに対して「名前は?」と話しかけていると判定した場合、ユーザの「名前は?」に対するレスポンスとして「私はAAAです。」とロボットに返答させる。また、ロボット制御部12は、撮影画像の解析により、ロボット1の周囲にユーザが存在することが判明した場合、そのユーザに向けて「こんにちは」とロボットに発話させる。また、タッチセンサの検出信号が頭部をタッチされたことを示している場合、それに反応して、ロボット1の手を挙げる動作を行わせる等である。
ログ取得部13は、解析部11で解析された解析結果であるユーザログ及びロボット制御部12で行われたレスポンスのレスポンスログを取得し、ログ記録部14に記録する。その際、ユーザがロボット1に対して行ったアクションのユーザログと、そのアクションに対するリアクション又はレスポンスのレスポンスログとを関連付けてログ記録部14に記録する。例えば、ユーザログ“音声「名前は?」”とレスポンスログ”音声「私はAAAです。」”とを関連付けてログ記録部14に記録する。また、ユーザログ“タッチセンサ「頭部」”とレスポンスログ”動作「右手を挙げる」”とを関連付けてログ記録部14に記録する。このようにして、ログ取得部13は、ロボットのログを取得して記録する。
図3は、ログ記録部14に記憶されたユーザログ及びレスポンスログの一例を示す図である。図3のログでは、ユーザがロボット1に対して行ったアクションのユーザログと、そのアクションに対するリアクション又はレスポンスのレスポンスログとが対応付けられて記憶されている。そして、ユーザログはユーザの動作等を検出したセンサの種類及びそのセンシング情報の解析結果が記録される。また、レスポンスログはロボット1のリアクション又はレスポンスの種類及びその内容が記録される。一例としては、ユーザログ「マイク:名前は?」と、レスポンスログ「音声:名前は?」とが対応付けられて記憶されている。また、ユーザログ「カメラ:ユーザ有」と、レスポンスログ「音声:こんにちは」とが対応付けられて記憶されている。また、ユーザログ「タッチセンサ:頭部」と、レスポンスログ「動作:右手を挙げる」とが対応付けられて記憶されている。また、ユーザログ「カメラ:ユーザ有」と、レスポンスログ「無:無」とが対応付けられて記憶されている。尚、このようなロボット1が何らかの検出を行ったにもかかわらず、ロボットが反応しなかった場合もレスポンスログ「無:無」として記録される。
ログ記録部14に蓄積されたユーザログ及びレスポンスログは、外部から要求により読み出すことができ、そのログにより、ロボットの改善を行うことができる。
本発明の第2の実施の形態を説明する。
本発明の第2の実施の形態は、ロボット1に記憶されたログを、予め定められた間隔で、外部のサーバ2に報告する例を説明する。図4は第2の実施の形態のブロック図である。
ロボット1は、ログ記録部14に記録されたログを、サーバ2に送信するログ送信部15を有する。ログ送信部15は、予め定められ間隔で、ログ記録部14からユーザログ及びレスポンスログを読み出し、サーバ2に送信する。
サーバ2は、ログ送信部15からユーザログ及びレスポンスログを受信し、ユーザの求めに応じてそのユーザログ及びレスポンスログの統計情報を生成し、外部の出力部3に出力するログ統計部20を有する。尚、出力部3は、例えば、ディスプレイ、プリンターに限られず、スマートフォンのような端末でも良い。
ログ統計部20は、受信したユーザログ及びレスポンスログを蓄積し、日時毎や週毎、又は、性別、年代、感情等のカテゴリー毎に統計的な資料を作成する。
図5、6、7は、蓄積されたログに基づいて、ログ統計部20が生成した統計的資料の一例である。図5は画像解析によるユーザの感情、性別、年代、注視時間のヒストグラムであり、図6はユーザの感情、性別、年代、注視時間の時間的な変化を示した図であり、図7はユーザの感情、性別、年代、注視時間の日ごとの割合を示した図である。
このように、ユーザログ及びレスポンスログを蓄積し、それから得られる統計資料により、ロボットの改善を行うことが出来る。
尚、上述した実施の形態では、各部をハードウェアで構成したが、上述した動作の処理を情報処理装置(CPU)に行わせるプログラムによっても構成できる。
以上好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
1 ロボット
2 サーバ
3 出力部
10 センサ
11 解析部
12 ロボット制御部
13 ログ取得部
14 ログ記録部
15 ログ送信部
20 ログ統計部

Claims (10)

  1. ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボット。
  2. 前記ログ取得手段が取得したユーザログ及びレスポンスログを、サーバに送信するログ送信手段を有する請求項1に記載のロボット。
  3. 前記ユーザログは、センサにより取得して解析された、前記ロボットの周囲に存在するユーザの有無、ユーザの前記ロボットへの注視の有無、ユーザの性別、年代、感情、ユーザのロボットに対する発話、ユーザのロボットに対する接触の少なくともいずれかである
    請求項1又は請求項2に記載のロボット。
  4. 前記レスポンスログは、ロボットのユーザに対する発話、動作の少なくともいずれかである
    請求項1から請求項3のいずれかに記載のロボット。
  5. ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得処理をロボットに内蔵されたコンピュータに実行させるプログラム。
  6. 前記取得したユーザログ及びレスポンスログを、サーバに送信するログ送信処理を、ロボットに内蔵されたコンピュータに実行させる請求項5に記載のプログラム。
  7. 前記ユーザログは、センサにより取得して解析された、前記ロボットの周囲に存在するユーザの有無、ユーザの前記ロボットへの注視の有無、ユーザの性別、年代、感情、ユーザのロボットに対する発話、ユーザのロボットに対する接触の少なくともいずれかである
    請求項5又は請求項6に記載のプログラム。
  8. 前記レスポンスログは、ロボットのユーザに対する発話、動作の少なくともいずれかである
    請求項5から請求項7のいずれかに記載のプログラム。
  9. ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを取得するログ取得手段を有するロボットと、
    前記ユーザログ及び前記レスポンスログを受信し、ロボットに関する統計情報を生成する統計情報生成部を有するサーバと
    を有するロボットシステム。
  10. ロボットに設けられたセンサにより検出されて解析されたユーザのユーザログと、前記ユーザに対して前記ロボットがユーザに対して行ったロボットのレスポンスのレスポンスログとを受信し、ロボットに関する統計情報を生成する統計情報生成部を有するサーバ。
JP2016135919A 2016-07-08 2016-07-08 ロボット、プログラム、ロボットシステム及びサーバ Pending JP2018001387A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016135919A JP2018001387A (ja) 2016-07-08 2016-07-08 ロボット、プログラム、ロボットシステム及びサーバ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016135919A JP2018001387A (ja) 2016-07-08 2016-07-08 ロボット、プログラム、ロボットシステム及びサーバ

Publications (1)

Publication Number Publication Date
JP2018001387A true JP2018001387A (ja) 2018-01-11

Family

ID=60945613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016135919A Pending JP2018001387A (ja) 2016-07-08 2016-07-08 ロボット、プログラム、ロボットシステム及びサーバ

Country Status (1)

Country Link
JP (1) JP2018001387A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020032014A (ja) * 2018-08-31 2020-03-05 Groove X株式会社 日常生活を記録する自律行動型ロボット

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001277163A (ja) * 2000-04-03 2001-10-09 Sony Corp ロボットの制御装置及び制御方法
JP2009061547A (ja) * 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP2009131914A (ja) * 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International ロボット制御システム
JP2011115936A (ja) * 2009-11-04 2011-06-16 Advanced Telecommunication Research Institute International 触覚提示付ロボット
EP2933066A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Activity monitoring of a robot
JP2016071050A (ja) * 2014-09-29 2016-05-09 シャープ株式会社 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム
JP2017514173A (ja) * 2014-04-17 2017-06-01 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe ロボットの対話を管理する方法とシステム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001277163A (ja) * 2000-04-03 2001-10-09 Sony Corp ロボットの制御装置及び制御方法
JP2009061547A (ja) * 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
JP2009131914A (ja) * 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International ロボット制御システム
JP2011115936A (ja) * 2009-11-04 2011-06-16 Advanced Telecommunication Research Institute International 触覚提示付ロボット
EP2933066A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Activity monitoring of a robot
JP2017514173A (ja) * 2014-04-17 2017-06-01 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe ロボットの対話を管理する方法とシステム
JP2016071050A (ja) * 2014-09-29 2016-05-09 シャープ株式会社 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020032014A (ja) * 2018-08-31 2020-03-05 Groove X株式会社 日常生活を記録する自律行動型ロボット
JP7298861B2 (ja) 2018-08-31 2023-06-27 Groove X株式会社 日常生活を記録する自律行動型ロボット
JP2023123555A (ja) * 2018-08-31 2023-09-05 Groove X株式会社 日常生活を記録する自律行動型ロボット
JP7548621B2 (ja) 2018-08-31 2024-09-10 Groove X株式会社 日常生活を記録する自律行動型ロボット
JP2024161583A (ja) * 2018-08-31 2024-11-19 Groove X株式会社 日常生活を記録する自律行動型ロボット

Similar Documents

Publication Publication Date Title
US20220391697A1 (en) Machine-learning based gesture recognition with framework for adding user-customized gestures
US20110201960A1 (en) Systems for inducing change in a human physiological characteristic
US20110201959A1 (en) Systems for inducing change in a human physiological characteristic
KR20150140867A (ko) 소셜 그래프들, 스피치 모델들, 및 사용자 콘텍스트를 통해 모바일 디바이스 사용자에 근접한 사람들을 식별하는 것
JP2012040655A (ja) ロボット制御方法、プログラム、及びロボット
CN113287175A (zh) 互动式健康状态评估方法及其系统
JP2012230535A (ja) 電子機器および電子機器の制御プログラム
KR102552220B1 (ko) 정신건강 진단 및 치료를 적응적으로 수행하기 위한 컨텐츠 제공 방법, 시스템 및 컴퓨터 프로그램
US20210151154A1 (en) Method for personalized social robot interaction
KR102423257B1 (ko) 치매 환자의 기록 데이터 가공 서비스를 지원하는 시스템
JP2019197509A (ja) 介護ロボット、介護ロボット制御方法及び介護ロボット制御プログラム
JP2019051129A (ja) 嚥下機能解析システム及びプログラム
KR20230154380A (ko) 행동 및 발화 패턴 기반 감성 인식 결과에 의해 사용자의 감성 상태에 적합한 헬스케어 서비스를 제공하는 시스템 및 방법
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
WO2019235190A1 (ja) 情報処理装置、情報処理方法、プログラム及び対話システム
JP2018001387A (ja) ロボット、プログラム、ロボットシステム及びサーバ
WO2016206642A1 (zh) 机器人的控制数据的生成方法及装置
JP2012230534A (ja) 電子機器および電子機器の制御プログラム
JP2025049138A (ja) システム
JP2021162929A (ja) 介護支援システム、介護支援方法、診療支援システム、診療支援方法、及びプログラム
CN116442242A (zh) 控制装置、机器人、机器人的控制方法以及记录介质
EP3671724A1 (en) Playback of personalised audio
JP2020067562A (ja) ユーザの顔の映像に基づいて発動タイミングを推定する装置、プログラム及び方法
EP4558043A1 (en) Obtaining biometric information of a user based on a ballistocardiogram signal obtained when a mobile computing device is held against the head of the user
JP7405357B2 (ja) 高齢者等見守システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200701

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210120