JP2017007033A - ロボット - Google Patents
ロボット Download PDFInfo
- Publication number
- JP2017007033A JP2017007033A JP2015124986A JP2015124986A JP2017007033A JP 2017007033 A JP2017007033 A JP 2017007033A JP 2015124986 A JP2015124986 A JP 2015124986A JP 2015124986 A JP2015124986 A JP 2015124986A JP 2017007033 A JP2017007033 A JP 2017007033A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- display
- image
- control unit
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Manipulator (AREA)
Abstract
【課題】応対を受ける人物に臨場感および親近感を与える。【解決手段】対象者の近傍まで移動して当該対象者に応対するロボット(1または2)は、対象者に応対を示すキャラクタの外形に類似した形状を有しており、上記キャラクタの略全身の画像を表示するディスプレイ(17)を備える。【選択図】図1
Description
本発明は、人物に応対するロボットに関する。
従来から、病院や店舗等で人間の代わりにユーザと応対するロボットが開発されている。例えば特許文献1には、タブレットやディスプレイなどの表示装置を備え、当該表示装置に遠隔ユーザの映像を映し応対を行うテレプレゼンスロボットが開示されている。
ここで、上記テレプレゼンスロボットでは、遠隔ユーザの顔など一部分だけが四角形の表示装置に表示される。ゆえに、上記テレプレゼンスロボットの応対を受けた人物は、単に表示画面を見ているだけという印象を抱きがちであり、臨場感や親近感を感じにくいという問題があった。
本発明は上記問題点に鑑みたものであり、その目的は、応対を受ける人物に、より臨場感および親近感を与えることができるロボットを実現することにある。
上記の課題を解決するために、本発明の一態様に係るロボットは、対象者の近傍まで移動して当該対象者に応対するロボットであって、上記対象者に上記応対を示すキャラクタの外形に類似した形状を有しており、上記キャラクタの略全身の画像を表示するディスプレイを備えることを特徴とする。
本発明の一態様によれば、応対を受ける人物に、より臨場感および親近感を与えることができるという効果を奏する。
〔実施形態1〕
以下、本発明の第1の実施形態について図1〜4を参照して説明する。まず始めに、本実施形態に係るロボット1の装置外観について図2を参照して説明する。
以下、本発明の第1の実施形態について図1〜4を参照して説明する。まず始めに、本実施形態に係るロボット1の装置外観について図2を参照して説明する。
≪ロボット1の外観≫
図2は、ロボット1の外観の一例を示す図である。ロボット1は、自機が応対するべき人物(対象者)の近傍まで移動して当該人物に対し応対する自走型ロボットである。ここで、「応対」とは、後述するキャラクタの画像を少なくとも用いて、対象者に情報を伝達する、または入力操作や問いかけなどの対象者の行動に対し反応を返すことを示す。具体例を挙げると、応対とは、キャラクタの画像を用いた接客、道案内、会話などである。また、「近傍」とは、ロボット1が行う応対を上記対象者が認識可能な程度の距離を示す。さらに具体例を挙げれば、ロボット1は例えば空港、ショッピングセンター、イベント会場、遊園地、および美術館などの不特定多数の人物が存在する環境に配置されることが望ましい。これらの例の場合、ロボット1は、人物(対象者)を先導し目的地まで道案内したり、展示物や商品の説明を行ったり、店舗やアトラクションなどに対象者が赴くように誘導を行ったりする。ロボット1はパネルユニット10と、パネルユニット10の下部に接続された台車ユニット20とから構成される。なお、パネルユニット10および台車ユニット20の形状および配置は図2に示す形状および配置に限定されない。
図2は、ロボット1の外観の一例を示す図である。ロボット1は、自機が応対するべき人物(対象者)の近傍まで移動して当該人物に対し応対する自走型ロボットである。ここで、「応対」とは、後述するキャラクタの画像を少なくとも用いて、対象者に情報を伝達する、または入力操作や問いかけなどの対象者の行動に対し反応を返すことを示す。具体例を挙げると、応対とは、キャラクタの画像を用いた接客、道案内、会話などである。また、「近傍」とは、ロボット1が行う応対を上記対象者が認識可能な程度の距離を示す。さらに具体例を挙げれば、ロボット1は例えば空港、ショッピングセンター、イベント会場、遊園地、および美術館などの不特定多数の人物が存在する環境に配置されることが望ましい。これらの例の場合、ロボット1は、人物(対象者)を先導し目的地まで道案内したり、展示物や商品の説明を行ったり、店舗やアトラクションなどに対象者が赴くように誘導を行ったりする。ロボット1はパネルユニット10と、パネルユニット10の下部に接続された台車ユニット20とから構成される。なお、パネルユニット10および台車ユニット20の形状および配置は図2に示す形状および配置に限定されない。
パネルユニット10は、ディスプレイ17を始めとする入出力デバイスを含むユニットである。ディスプレイ17はキャラクタの画像(キャラクタ画像100)を表示する。ここで、「キャラクタ」とは、対象者に応対を示す主体となるものである。キャラクタは、例えば人物や動物など実在する存在であってもよいし、映画の登場人物やテーマパークのマスコットなど、架空の存在であってもよい。また、キャラクタ画像100はキャラクタの全身の画像、またはキャラクタの全身のうち、対象者が当該画像からキャラクタの全体像を判別できる程度の部分が含まれている画像である。すなわち、キャラクタ画像100はキャラクタの略全身の画像である。具体的には、キャラクタが人物である場合、キャラクタ画像100は人物の全身画像、足先など微細な部分を省略した画像、または当該人物の肩や腕の一部などが見切れた画像であってもよい。ロボット1は、ロボット1が配置される状況に応じたキャラクタ画像100を表示する。
台車ユニット20は、パネルユニット10に含まれる入出力デバイスの制御と、ロボット1全体の姿勢制御および移動制御を行うユニットである。また、台車ユニット20は左右水平方向に車軸(図示せず)を備え、車軸の両端にそれぞれ車輪21を備えている。台車ユニット20の駆動部40(後述)は、車輪21を回転させ、ロボット1の姿勢(傾き)制御および移動(走行)を行う。ロボット1の姿勢制御および移動の具体的方法については後述する。なお、本実施形態では台車ユニット20が車輪21を2輪備えている場合について説明する。しかしながら、ロボット1の姿勢制御および移動が可能であれば、車輪21の種類および個数、ならびに車軸の有無および個数は特に限定しない。例えば、台車ユニット20は車輪21を3輪または4輪備えていてもよいし、車軸を備えずボール状の1つの車輪21を備えていてもよい。
≪要部構成≫
(パネルユニット10の構成)
次に、図1を参照してロボット1の要部構成を説明する。図1は、ロボット1の要部構成を示すブロック図である。パネルユニット10は、アンテナ11と、各種センサ12と、カメラ13と、マイク14と、スピーカ15と、ディスプレイ17と、タッチパネル18とを含む。
(パネルユニット10の構成)
次に、図1を参照してロボット1の要部構成を説明する。図1は、ロボット1の要部構成を示すブロック図である。パネルユニット10は、アンテナ11と、各種センサ12と、カメラ13と、マイク14と、スピーカ15と、ディスプレイ17と、タッチパネル18とを含む。
アンテナ11は、後述する制御部30の制御に従って対象者の所持する通信端末などと無線通信を行う。なお、アンテナ11は透明アンテナで、タッチスクリーン16(ディスプレイ17)の表示面上に形成されることが望ましい。これにより、ディスプレイ17での画像表示と無線通信における入力部であるアンテナ11とを一体化し、対象者に直観的かつ簡単に無線通信を行わせることができる。アンテナ11における無線通信は、例えば対象者が通信端末からロボット1へと情報を送信する際などに用いられる。
各種センサ12は、ロボット1の自律走行のため、ロボット1の周辺環境の情報を収集するセンサを少なくとも含むセンサ群である。各種センサ12に含まれるセンサはそれぞれ連携してロボット1の周辺環境の情報を収集する。各種センサ12が収集した情報は制御部30へ送信される。各種センサ12の種類は特に限定されないが、例えば、レンジングソナー、近接クリフ検出器、接触センサ、レーザスキャナ、3Dイメージング/深度センサ、イメージングソナーなどから、ロボット1の使用環境に応じて適したセンサを選択し配置すればよい。なお、ロボット1の自律走行以外の目的で各種センサ12の収集した情報を利用してもよい。例えば各種センサ12の取得した情報を制御部30へ送信し、制御部30にて後述する対象者の特定や応対内容の決定に利用してもよい。さらに、各種センサ12は、対象者の特定や応対内容の決定のために利用する情報を取得するためのセンサを含んでいてもよい。具体的には、各種センサ12として光学式センサを備え、当該センサの検知結果を制御部30へ送信し、制御部30にて対象者の特定や応対内容の決定に利用してもよい。
カメラ13は、ロボット1の周辺を撮影する。なお、より広範囲の映像を撮影することが可能なように、カメラ13はディスプレイ17の上端部に取付けられることが望ましい。カメラ13の撮影画像は制御部30へ送信される。マイク14は、対象者またはロボット1の周辺の音声を取得する。マイク14は取得した音声を制御部30に送信する。また、スピーカ15は、制御部30の制御に応じて音声を出力する。
タッチスクリーン16は、タッチ入力機能を備えた表示装置であって、ユーザの入力操作を受け付けるGUI(Graphical User Interface)である。タッチスクリーン16は、ディスプレイ17と、タッチパネル18とを含む。
ディスプレイ17は、制御部30の表示制御部33の制御に従いキャラクタ画像100を表示する。ディスプレイ17はその形状を自由に設計することが可能なフリーフォームディスプレイであり、キャラクタ画像100の外形に類似した形状に予め設計されている。例えば、キャラクタ画像100として人物画像を表示するディスプレイ17である場合、ディスプレイ17は当該人物画像のシルエット(輪郭)に類似した人型形状に形成される。なお、ディスプレイ17がキャラクタの複数種類の画像を入れ替わりで表示する場合、もしくはキャラクタの動画を表示する場合、当該ディスプレイ17の形状はいずれかのキャラクタ画像におけるキャラクタの輪郭に類似した形であればよい。このように、ディスプレイ17はキャラクタの輪郭に類似した形状をしているので、対象者に、ディスプレイ17を見ているだけという機械的な印象を与えにくく、応対またはキャラクタ自体に対する臨場感および親近感を与えることができる。また、ディスプレイ17は、一般的な四角形のディスプレイから、キャラクタ画像100の表示に不要な部分を除いた形状をしているので、上記四角形のディスプレイに比べて総面積が少ない。そのため、対象者がディスプレイの大きさにより受ける威圧感を減少させ親近感を増すことができるとともに、画面表示に係る電力消費を抑えることができる。加えて、ディスプレイ17は一般的な四角形のディスプレイよりも重量が少ないので、後述する駆動部40によるロボット1の姿勢制御や移動に係る電力消費を抑えることができる。
なお、ディスプレイ17が表示するキャラクタ画像100は静止画であってもよいが、動画であることがより望ましい。特に、キャラクタ画像100はキャラクタがジェスチャで応対している動画であることが望ましい。キャラクタのジェスチャを示す動画を表示することにより、応対の対象者に、キャラクタが身振り手振りで応対しているような印象を与えることができる。したがって対象者に臨場感および親近感を与えやすいという利点がある。
また、ディスプレイ17は、キャラクタが人物である場合、当該人物の実物大(等身大)の画像をキャラクタ画像100として表示することが望ましい。人物の実物大の画像を表示することにより、ロボット1は対象者に、上記人物が実際にその場に居て応対した場合に近い印象を与えることができる。そのため、ロボットは対象者に、応対またはキャラクタ(人物)自体に対する臨場感および親近感を与えることができる。さらには、ディスプレイ17はキャラクタ画像100以外の任意のコンテンツをキャラクタ画像100と併せて表示してもよい。例えば、ロボット1が対象者に行き先を案内する場合、キャラクタ画像100での案内とともに、行き先の映像や行き先までの経路および地図などを表示してもよい。
なお、ディスプレイ17は、一例としてゲートドライバを液晶表示領域(ディスプレイ17の表示面内)に分散して配置した液晶ディスプレイで実現可能である。これは、従来はベゼルに並んでいたゲートドライバを自由な位置に配置できるようになるので、ディスプレイ17の四辺のうち三辺のベゼルをほぼ無くすことができ、当該三辺の長さやカーブなどが自由に設計可能になるからである。
タッチパネル18は、対象者の入力操作を受け付け、当該入力操作を示す情報(入力情報)を取得し制御部30へ送信する。タッチパネル18はディスプレイ17と重畳して配置される。なお、タッチパネル18は指示体の接触だけでなく近接(ホバー)を検出可能なタッチパネルであってもよい。この場合、タッチパネル18は、タッチパネル18に近接したユーザの手指のジェスチャを検出することができる。
なお、パネルユニット10は少なくともディスプレイ17を備えていればよく、アンテナ11、各種センサ12、カメラ13、マイク14、スピーカ15、およびタッチパネル18は必須の構成ではない。さらに、アンテナ11、各種センサ12、カメラ13、マイク14、およびスピーカ15はパネルユニット10と台車ユニット20とのいずれに配置されてもよい。
(台車ユニット20の構成)
一方、台車ユニット20は、通信部70と、電池80と、GPS受信機60と、メモリ50と、制御部30と、駆動部40とを含む。
一方、台車ユニット20は、通信部70と、電池80と、GPS受信機60と、メモリ50と、制御部30と、駆動部40とを含む。
通信部70は、外部機器と情報の送受信を行う。通信部70の通信方式、および送受信するデータは特に限定されない。例えば、通信部70は対象者の通信端末にインストールされている所定のアプリケーションからの通知やデータ送信を受付け、受信した通知またはデータを制御部30に送ってもよい。また、通信部70は、制御部30から受信した応対内容(後述)などのデータをサーバなどの外部記憶装置に送信してもよい。電池80は、ロボット1を駆動するための電気エネルギーを供給する。なお、ロボット1は電池80の代わりにロボット1の配置された施設内の電源と接続する電源コネクタを備えていてもよい。
GPS受信機60は、GPS(Global Positioning System)衛星信号を受信することにより、ロボット1の現在位置を測位するものである。GPS受信機60の測位した現在位置を示す情報(位置情報)は制御部30に送信される。
メモリ50は、制御部30および駆動部40の制御処理に必要なデータを格納するメモリである。メモリ50は、対象者情報データベース(対象者情報DB)51と、応対内容データベース(応対内容DB)52とを含む。
対象者情報DB51は、制御部30が取得する各種情報(取得情報)が満たす条件を規定し、当該条件に、対象者の属性を示す情報(対象者情報)を対応付けて記憶しているデータベースである。換言すると、対象者情報DBは、ロボット1が得た何らかの情報が当該DBに規定された条件を満たした場合の、対象者の属性を示している。
ここで、上記条件とは、例えば、撮影画像などから特定可能な対象者の外見的特徴の条件(特定の服装をしているか、特定のアイテムを所持しているかなど)、取得音声から音声認識により特定された発話内容に関する条件(ロボット1に施設案内を指示しているかなど)、対象者の通信端末で起動されたアプリケーションでの登録情報(会員情報など)に関する条件(年齢が20歳以上か否かなど)である。また、対象者情報とは、例えば、イベント参加者、イベント提供者(従業者)、来店した顧客、および店員など、ロボット1を使用するシーンでの対象者の状況や立場を示す情報、または、対象者が大人であるか子供であるか、男女いずれであるかなど、対象者自体の属性を示す情報である。
応対内容DB52は、対象者情報に、応対内容を示す情報を対応づけて記憶しているデータベースである。ここで、「応対内容」とは、ロボット1が対象者に対し行う一連の応対を示すものである。具体的には、応対内容とは、ディスプレイ17に表示させるキャラクタ画像100を少なくとも含み、その他対象者に提示する画像や、スピーカ15から出力する音声など、対象者に向けて出力する一連のデータを示す。
制御部30(動作制御部)は、ロボット1の応対を制御するものである。制御部30はパネルユニット10の各種入力デバイス(各種センサ12、カメラ13、マイク14、およびタッチパネル18)が得た情報を受信し、当該情報を用いてロボット1の応対を制御する。より詳しくは、制御部30は、対象者特定部31にて対象者を特定し、応対決定部32にてキャラクタの応対内容(すなわち、対象者に提示するキャラクタ画像100(およびキャラクタの音声))を決定する。そして、表示制御部33にてディスプレイ17(およびスピーカ15)に決定したキャラクタ画像100(および音声)を出力させる。また、制御部30は対象者の位置情報を受信した場合、位置情報が示す位置の近傍までロボット1を移動させるよう、駆動部40に指示する。なお、制御部30は、上述したパネルユニット10の各種入力デバイスから受信した情報のうちいずれかの情報を駆動部40に送り、姿勢制御および移動制御に利用させてもよい。
対象者特定部31は、対象者を特定するものである。より具体的には、対象者特定部31は、制御部30が取得した各種センサ12(例えば人感センサ)の検出結果、カメラ13の映像、マイク14が取得した音声、タッチパネル18への入力情報などの少なくともいずれかを用いて対象者を特定する。なお、対象者特定部31の対象者の特定方法は特に限定されない。例えば、カメラ13によりロボット1の周辺を撮影し、撮影画像から人間の顔を、従来知られた顔認識アルゴリズムを用いて特定することにより、ロボット1の周辺に居る対象者を特定してもよい。また、マイク14により音声を取得し、音声認識により対象者を特定してもよい。また、対象者特定部31は、アンテナ11または通信部70を介し外部機器(対象者の通信端末など)から対象者を特定可能な情報を得ることにより対象者を特定してもよい。さらには、上述した対象者の特定方法を組み合わせて用いてもよい。対象者特定部31が対象者を特定すると、制御部30は駆動部40に、対象者の近傍までロボット1を移動させるよう指示する。
応対決定部32は、対象者に対する応対内容を決定するものである。対象者特定部31が対象者を特定すると、応対決定部32はメモリ50の対象者情報DB51を検索し、制御部30が受信した取得情報が満たす条件を特定し、当該条件に対応する対象者情報を対象者情報DB51から読み出す。次に、応対決定部32は読み出した対象者情報に該当する応対内容を、メモリ50の応対内容DB52から読み出す。例えば、対象者情報から対象者が子供であると特定できた場合、応対決定部32は、応対内容DB52に規定されている応対内容のうち、子供に人気のある人物やマスコットのキャラクタ画像100を含む応対内容をロボット1が行う応対内容として決定してもよい。このように、対象者情報に応じて応対内容を決定することにより、ロボット1は対象者の状況や属性に応じた適切かつ効率的な応対を行うことができるとともに、対象者に応対をより印象づけ、親近感を与えることができる。なお、カメラ13が対象者を撮影する場合、制御部30は対象者の顔が撮影範囲の中央に位置する撮影画像と、カメラ13の撮影角度と焦点深度とから、対象者の身長を算出し、当該身長を対象者情報として扱っても良い。
また、本実施形態では、応対決定部32は対象者に応じて応対内容を決定することとしたが、応対決定部32は対象者に関わらず一律の応対内容を行うよう決定してもよい。なおこの場合、応対決定部32およびメモリ50は必須構成ではなく、制御部30はロボット1に予め定められた一律の応対を行わせればよい。また、応対決定部32は対象者情報以外の情報に応じて応対内容を決定してもよい。例えば、カメラ13の撮影画像を解析することにより、ロボット1(および対象者)周辺の混雑具合を特定して、当該混雑具合に応じて最適な応対内容を決定してもよい。また、制御部30は、マイク14を介して対象者に所望の応対内容を音声入力させ、当該音声を解析する(音声認識する)ことにより、対象者が所望する応対内容を特定してもよい。そして、応対決定部32は特定した(所望の)応対内容と同一または最も近い応対内容を応対内容DB52から読み出し、ロボット1が行う応対内容と決定してもよい。
表示制御部33(同期表示制御部)は、応対決定部32が決定した応対内容を示す画像をディスプレイ17に表示させるものである。より具体的には、表示制御部33は、上記応対内容を示すキャラクタ画像100をディスプレイ17に表示させる。換言すると、表示制御部33はキャラクタ画像100に含まれるキャラクタに応答を行わせる。
駆動部40は、ロボット1の姿勢保持および移動を統括する。駆動部40は、制御部30から対象者の位置を通知されると、当該位置の近傍まで移動するように車輪21を駆動させる。また、駆動部40は後述するジャイロセンサ44などの情報からロボット1の傾きを特定し、ロボット1が所定の姿勢を保つように姿勢制御を行う。以下、図3を用いて駆動部40についてより詳細に説明する。
≪駆動部40の詳細構成≫
図3は、駆動部40の詳細な構成を示すブロック図である。駆動部40は図示の通り、ジャイロセンサ44と、姿勢制御部45と、姿勢制御用アクチュエータ43と、モータ41と、エンコーダ42と、走行制御部46と、車輪21とを含む。
図3は、駆動部40の詳細な構成を示すブロック図である。駆動部40は図示の通り、ジャイロセンサ44と、姿勢制御部45と、姿勢制御用アクチュエータ43と、モータ41と、エンコーダ42と、走行制御部46と、車輪21とを含む。
ジャイロセンサ44は、ロボット1の傾きを検出し、当該ロボット1の傾きを示す情報を姿勢制御部45および走行制御部46に送信する。姿勢制御部45は、ジャイロセンサ44から受信した上記情報に応じてロボット1の姿勢を制御する。姿勢制御用アクチュエータ43は、姿勢制御部45の制御に従ってロボット1の姿勢を変えるものである。例えば、姿勢制御用アクチュエータ43は、倒立振子の原理によりロボット1の傾きが補正されるように車輪21を回転させる。
エンコーダ42は、モータ41の駆動状況から、ロボット1の走行方向、走行量、走行の角度を検出する。エンコーダ42が検出した走行方向、走行量、走行の角度を示す情報は走行制御部46に送信される。走行制御部46は、エンコーダ42およびジャイロセンサ44の検出した情報に応じてロボット1の移動(走行)を制御する。より具体的には、走行制御部46は対象者の近傍までロボット1が移動するように移動方向および移動距離を決定し、当該移動方向および移動距離でロボット1が移動するようにモータ41を制御する。モータ41は、走行制御部46の制御に従って駆動し、車輪21を回転させることによりロボット1を走行させる。なお、モータ41はロボット1の車輪21毎に設けられていてもよいし、車輪21全ての駆動機構としてモータ41を1つ設けていてもよい。車輪21はロボット1を移動させるものである。
なお、姿勢制御部45はジャイロセンサ44の検出した情報以外の情報も考慮して姿勢制御を行ってもよい。例えば、姿勢制御部45は各種センサ12の検出した情報またはカメラ13の撮影画像から、ロボット1の傾きを特定してもよい。また、走行制御部46は、エンコーダ42およびジャイロセンサ44の検出した情報以外の情報も考慮して移動制御を行ってもよい。例えば、走行制御部46はGPS受信機60が測位するロボット1の現在位置と、アンテナ11を介し制御部30が受信した対象者の位置情報とを比較照合した結果から移動方向および移動距離を決定し、当該移動方向および移動距離でロボット1が移動するようモータ41を制御してもよい。また、走行制御部46はカメラ13の撮影画像からロボット1の現在位置またはロボット1と対象者との位置関係を特定し、特定結果を利用して移動方向および移動距離を決定してもよい。
なお、台車ユニット20は少なくとも駆動部40を備えていればよく、制御部30、メモリ50、GPS受信機60、および通信部70はパネルユニット10に配置されていてもよい。
≪応対の具体例≫
次に、ロボット1が対象者を特定し、一連の応対を行うまでの処理を、具体例を挙げて説明する。まず始めに、ロボット1がイベント会場で、来場した対象者に応対を行う場合について説明する。なお、上記イベントは入場にイベントチケットが必要であり、対象者は、当該イベントに入場するため、上記イベントチケットを電子チケットとして発行するイベント専用アプリケーション(専用アプリ)を自己の通信端末にインストールしているものとする。
次に、ロボット1が対象者を特定し、一連の応対を行うまでの処理を、具体例を挙げて説明する。まず始めに、ロボット1がイベント会場で、来場した対象者に応対を行う場合について説明する。なお、上記イベントは入場にイベントチケットが必要であり、対象者は、当該イベントに入場するため、上記イベントチケットを電子チケットとして発行するイベント専用アプリケーション(専用アプリ)を自己の通信端末にインストールしているものとする。
対象者はイベント会場への入場の際、自己の通信端末の専用アプリを起動させ、当該専用アプリを介しイベントチケットを取得する。そして、対象者はロボット1にイベント内容の説明などの応対を受けたい場合、当該イベントチケットの情報(チケット番号や、対象者の会員番号など)を、専用アプリを用いてロボット1に送信する。なおこのとき、専用アプリは通信端末のGPS受信機能などを用いて対象者の位置を特定し、通信端末の位置情報もロボット1に送信する。ロボット1の制御部30は上記イベントチケットの情報を受信すると、通信部70を介しイベントの情報を格納しているイベントサーバにアクセスして、当該イベントの詳細情報や、イベント会場の地図データなどを取得する。また、制御部30は上記位置情報の示す位置の近傍までロボット1を移動させるよう、駆動部40に指示する。駆動部40は制御部30の指示を受け、ロボット1を対象者(対象者の通信端末)の近傍まで移動させる。
移動が完了すると、制御部30はイベントの開催場所および開催時間などのイベント内容を、キャラクタ画像100(および音声)を用いて対象者に説明する。なお、キャラクタ画像100を用いた説明のために対象者特定部31が行う対象者の特定、および応対決定部32が行う応対内容の決定は、上記イベントチケットの情報を制御部30が受信してからロボット1の移動が完了するまでの間に行われればよい。また、対象者が移動中である場合、ロボット1は対象者とともに移動しながら説明(応対)を行ってもよい。また、ロボット1は対象者が移動を始めた場合、説明する内容を対象者の通信端末に送信してもよい。
なお、ロボット1は、対象者の方からロボット1に近づいてくるまで待機していてもよい。この場合、制御部30は対象者が所定の位置に来たことを人感センサ(反射型の光学式センサなど)などが検知した場合にカメラ13に対象者を撮影させ、当該撮影画像から対象者の特定および応対内容の決定を行えばよい。もしくは、ディスプレイ17に応対の一覧を表示しておき、対象者からの指示入力があった場合、当該指示に対応する応対を行ってもよい。または、マイク14およびスピーカ15を用いた音声対話によりユーザの所望する応対を特定してもよい。
ところで、ロボット1は、カメラ13にてキャラクタ画像100の背景として表示する画像(背景画像)を撮影し、当該背景画像にキャラクタ画像100を重畳させた合成画像を表示させてもよい。以下、本実施形態に係るロボット1の変形例について、図4を参照して説明する。
図4は、ロボット1のディスプレイ17に表示する画像の一変形例を示す図である。図示の通り、本変形例におけるロボット1はカメラ13を必須構成として備えている。本変形例において、カメラ13は、ディスプレイ17の表示面の向きと反対の向きの画像を少なくとも撮影する。換言すると、カメラ13は、対象者がロボット1(ディスプレイ17)を見たときに、ディスプレイ17の背に隠れ見えなくなる背景を撮影する。以降、カメラ13が撮影した画像を背景画像と称する。カメラ13は撮影した背景画像を制御部30の表示制御部33に送信する。表示制御部33(合成画像表示制御部)は、受信した背景画像にメモリ50から読み出したキャラクタ画像100を重畳した合成画像を、ディスプレイ17に表示させる。
なお、カメラ13の配置は必ずしも図示の通りでなくともよい。しかしながら、対象者がロボット1(パネルユニット10)を見たときに、キャラクタ画像100の背景画像と周囲の(実際の)背景とのずれは少ない方が良い。ゆえに、カメラ13は、実際の背景とのずれがより少ない背景画像を撮影できる位置に配置されることが望ましい。また、ディスプレイ17として透明ディスプレイを用い、キャラクタ画像100として背景を透過した画像を用いてもよい。この場合、上述した変形例と同様の作用および効果を得ることができる。
〔実施形態2〕
なお、本発明に係るロボットは、ディスプレイ17を複数のディスプレイに分割して備えるとともに、当該複数のディスプレイのうちいずれか二つを接続する可動部を少なくとも1つ備えていてもよい。そして、複数のディスプレイの表示面全体でキャラクタ画像100が表示されるように、複数のディスプレイにそれぞれキャラクタ画像100の一部を同期表示させ、当該同期表示に合わせて可動部を動作させてもよい。以下、本発明の第2実施形態について、図5に基づいて説明する。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
なお、本発明に係るロボットは、ディスプレイ17を複数のディスプレイに分割して備えるとともに、当該複数のディスプレイのうちいずれか二つを接続する可動部を少なくとも1つ備えていてもよい。そして、複数のディスプレイの表示面全体でキャラクタ画像100が表示されるように、複数のディスプレイにそれぞれキャラクタ画像100の一部を同期表示させ、当該同期表示に合わせて可動部を動作させてもよい。以下、本発明の第2実施形態について、図5に基づいて説明する。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
図5は、本実施形態に係るロボット2の外観の一例を示す図である。図示の通り、ロボット2は、ディスプレイ17がディスプレイ17A、17B、17Cに分割されている点、ならびに、ディスプレイ17Aと、ディスプレイ17Bおよび17Cとの間にそれぞれ可動部αが設けられている点でロボット1と異なる。
可動部αはディスプレイ同士を接続する部材であり、動作することで両ディスプレイの接続角度を調節可能な可動部材である。可動部αはサーボモータなどのモータを含んでおり、制御部30の制御に従ってサーボモータを駆動させることにより動作する。
制御部30の表示制御部33は、応対決定部32にて応対内容、すなわち表示するキャラクタ画像100を決定すると、ディスプレイ17A(胴体部分のディスプレイ)に表示した画像とディスプレイ17Bおよび17C(腕部分のディスプレイ)に表示した画像とが繋がっているように見えるように、各ディスプレイに画像を同期表示させる。加えて、制御部30は上記同期表示と連動して可動部αのモータを制御し、ディスプレイ17Aと、ディスプレイ17Bおよび17Cとの角度をそれぞれ調節する。これにより、複数のディスプレイ全体で共調してキャラクタ画像100を表現することができる。なお、制御部30は可動部αの角度を調節するだけでなく、可動部αを動かし続けることで、キャラクタ画像100の動きを表現してもよい。制御部30が可動部を動作させることにより、キャラクタ画像100が静止画像である場合でも、動きのある応対を実現することができる。したがって、ロボット1は対象者に応対をより印象づけることができる。
〔実施形態3〕
また、本発明に係るロボットは、対象者に対し行った応対の内容(応対内容)を管理サーバに送信することにより応対内容を記録してもよい。さらに、本発明に係るロボットは、キャラクタ画像での応対の後、対象者から、監視者による対応を所望する旨の指示入力があった場合、監視者端末に当該指示を通知し、監視者による対応を録画(または撮影)した動画(または画像)をディスプレイ17に表示してもよい。以下、本発明の第3実施形態について、図6〜図7に基づいて説明する。図6は、本実施形態に係る応対システム500の概要を示す図である。応対システム500は図示の通り、管理サーバ3と、監視者端末4と、ロボット1とを含む。
また、本発明に係るロボットは、対象者に対し行った応対の内容(応対内容)を管理サーバに送信することにより応対内容を記録してもよい。さらに、本発明に係るロボットは、キャラクタ画像での応対の後、対象者から、監視者による対応を所望する旨の指示入力があった場合、監視者端末に当該指示を通知し、監視者による対応を録画(または撮影)した動画(または画像)をディスプレイ17に表示してもよい。以下、本発明の第3実施形態について、図6〜図7に基づいて説明する。図6は、本実施形態に係る応対システム500の概要を示す図である。応対システム500は図示の通り、管理サーバ3と、監視者端末4と、ロボット1とを含む。
管理サーバ3は、ロボット1からキャラクタ画像100を用いた応対内容(キャラクタの応対内容)を受信し記録する。また、管理サーバ3は後述する監視者による応対内容を監視者端末4から受信し記録する。なお、管理サーバ3は、応対内容を記録する際に、併せて応対内容の受信時間および送信元などの情報を記録してもよい。監視者端末4は、ロボット1の応対を監視している監視者4Aの使用する端末である。監視者端末は監視者4Aを撮影するためのカメラ(図示せず)を備えている。監視者端末はロボット1から監視者応対の要求を通知された場合、監視者4Aの画像(監視者4Aが対象者に向けて応対している画像または動画)を撮影し、撮影画像をロボット1に送信する。
本実施形態に係るロボット1は、実施形態1および2にて説明した(キャラクタ画像100による)応対を対象者に行った後、制御部30から管理サーバ3へと応対内容を送信する。また、ロボット1の制御部30は、キャラクタ画像100による応対を行った後に対象者から、監視者による応対(監視者応対)を所望する旨の指示入力(例えば、タッチパネル18に対する入力操作、またはマイク14で取得した音声)を受けた場合、監視者応対の要求があったことを監視者端末4に通知する。さらに、制御部30は上記通知を送信した後監視者端末4から監視者応対の画像を受信し、表示制御部33にて当該画像をディスプレイ17に表示させる。
次に、図7を参照して、本実施形態に係る応対システム500の処理の流れについて説明する。図7は、応対システム500におけるロボット1、管理サーバ3、および監視者端末4の処理の流れを示すシーケンス図である。
ロボット1は、実施形態1にて説明したように、対象者の通信端末などから対象者の情報を受信すると、制御部30の対象者特定部31にて対象者を特定する(S100)。そして、制御部30は当該対象者の近傍にロボット1を移動させるよう駆動部40に指示し、駆動部40は当該指示に従い、ロボット1を対象者の近傍に移動させる(S102)。次に、制御部30は上述したように、キャラクタ画像100を用いて対象者に応対する(S104)。応対後、制御部30は通信部70を介し、応対内容を管理サーバ3に送信する。管理サーバ3は応対内容を受信し記録する(S106)。このように、キャラクタ画像100を用いた応対を行った後、ロボット1の制御部30は応対の対象者から監視者の応対を要求されたか(監視者応対を要求する指示入力があったか)否かを確認する(S108)。なお、上記要求は、キャラクタ画像100を用いた応対の終了後、ロボット1にて任意に定められた時間が経過するまでの間受け付けられればよい。
対象者から監視者応対が要求された場合(S108でYES)、制御部30は監視者端末4に対し、監視者応対が要求された旨を通知する(S110)。監視者端末4は上記通知を受信すると(S112)、監視者4Aに対し監視者応対を撮影する旨を通知し、監視者4Aに、監視者応対の撮影操作を行うよう促す。監視者4Aが当該操作を行うと、監視者端末4は監視者応対を撮影し(S114)、撮影画像(静止画または動画)をロボット1に送信する(S116)。ロボット1の制御部30の表示制御部33は上記撮影画像を受信すると、上記撮影画像をディスプレイ17に表示させることにより、監視者応対を対象者に示す(S118)。これに対し、対象者から監視者応対が要求されなかった場合(S108でNO)、ロボット1はS110およびS118の処理を行わない。
一方、監視者応対の撮影画像を送信した(S116)監視者端末4は、当該撮影画像を管理サーバ3に送信する(S120)。管理サーバ3は監視者応対の撮影画像を記録する(S122)。
以上の処理によると、ロボット1の行った、キャラクタ画像100を用いた応対の内容と、監視者端末4が撮影した監視者応対の撮影画像との両方が管理サーバ3に記録される。これにより、ロボット1および監視者の行った応対の履歴を記録することができる。また、ロボット1によるキャラクタ画像100を用いた応対の後、例えば応対内容が理解できない、または応対内容が適切でない場合などに対象者が人間(監視者)による応対を要求することができる。そして、ロボット1は、監視者端末4から監視者応対の撮影画像を受信し、ディスプレイ17に表示させることができる。換言すると、ロボット1は、キャラクタによる応対と、監視者による応対とを切替えて表示することができるという利点を持つ。
〔変形例〕
なお、上述した実施形態1の変形例の構成は、実施形態2および3の構成と組み合わせて実現してもよい。
なお、上述した実施形態1の変形例の構成は、実施形態2および3の構成と組み合わせて実現してもよい。
また、上記各実施形態および変形例では、ロボット1または2はキャラクタ画像100または200を表示することとしたが、ロボット1または2はキャラクタ画像100または200ではなく、カメラ13で撮影した対象者の略全身の画像をディスプレイ17に表示させてもよい。例えば、ロボット1または2によりバーチャルフィッティングを提供する場合、ロボット1または2は対象者の近傍まで移動した後、カメラ13で対象者の略全身の画像を撮影する。撮影画像は制御部30に送信され、制御部30の表示制御部33は当該撮影画像から対象者が写っている部分を切り出し、ディスプレイ17に表示させる。
さらに、ディスプレイ17に対象者の画像を表示した状態で、対象者がロボット1または2に対し、試着したい商品を指定する指示を行った場合、制御部30は当該指示を受けて、上記商品の画像をメモリ50または通信部70を介し外部サーバなどから入手し、表示制御部33にて上記対象者の画像に上記商品の画像を重畳して表示させる。これにより、ロボット1または2は、対象者が所望した商品を試着した場合の画像を表示することができる。
〔ソフトウェアによる実現例〕
制御部30の制御ブロック(特に対象者特定部31、応対決定部32、および表示制御部33)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
制御部30の制御ブロック(特に対象者特定部31、応対決定部32、および表示制御部33)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、制御部30は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係るロボット(ロボット1または2)は、対象者の近傍まで移動して当該対象者に応対するロボットであって、上記対象者に上記応対を示すキャラクタの外形に類似した形状を有しており、上記キャラクタの略全身の画像(キャラクタ画像100または200)を表示するディスプレイ(ディスプレイ17)を備えることを特徴としている。
本発明の態様1に係るロボット(ロボット1または2)は、対象者の近傍まで移動して当該対象者に応対するロボットであって、上記対象者に上記応対を示すキャラクタの外形に類似した形状を有しており、上記キャラクタの略全身の画像(キャラクタ画像100または200)を表示するディスプレイ(ディスプレイ17)を備えることを特徴としている。
上記の構成によると、ロボットは応対の対象者の近傍に移動する。ここで「近傍」とは、ロボットが行う応対を上記対象者が認識可能な距離である。ロボットには、表示するキャラクタの外形に類似の形状を有するディスプレイが備えられており、当該キャラクタの略全身の画像を表示することにより上記対象者に応対を行う。
このように、キャラクタの略全身の画像で応対することにより、対象者に、その場に実在しているキャラクタが応対しているような臨場感および親近感を与えることができる。さらに、ディスプレイがキャラクタの輪郭に類似した形状をしているので、上記対象者に、ディスプレイを見ているだけという機械的な印象を与えにくく、応対またはキャラクタ自体に対する臨場感および親近感を、さらに与えることができる。
また換言すると、上記ディスプレイは、一般的な四角形のディスプレイ(キャラクタの略全身の画像を表示可能な四角形のディスプレイ)から、キャラクタの画像の表示に不要な部分を除いた形状をしているといえる。ゆえに、上記ディスプレイは一般的な四角形のディスプレイに比べて総面積が少ない。そのため、対象者がディスプレイの大きさにより受ける威圧感を減少させることができ、対象者にさらに親近感を与えることができる。
本発明の態様2に係るロボットは、上記態様1において、上記キャラクタは人物であり、上記ディスプレイは当該人物の実物大の略全身の画像を表示することを特徴としている。
上記の構成によると、ディスプレイは実物大の人物の映像を表示する。したがって、ロボットは対象者に、実在する上記人物に応対を受けたように感じさせることができる。結果、ロボットは対象者に、応対またはキャラクタ自体に対する臨場感および親近感を、さらに与えることができる。
本発明の態様3に係るロボットは、上記態様1または2において、上記ディスプレイは、上記キャラクタのジェスチャを示す動画を表示することを特徴としている。
上記の構成によると、ロボットは対象者への応対として、ディスプレイにキャラクタのジェスチャを示す動画を表示する。これにより、ロボットは対象者に、キャラクタが身振り手振りのジェスチャで応対しているような印象を与えることができる。したがって、ロボットは対象者に、応対またはキャラクタ自体に対する臨場感および親近感を、さらに与えることができる。
本発明の態様4に係るロボットは、上記態様1〜3のいずれか一態様において、少なくとも上記ディスプレイの表示面の向きと反対の向きの画像を背景画像として撮影するカメラ(カメラ13)と、上記カメラの撮影した上記背景画像に上記キャラクタの画像を重畳させた合成画像を上記ディスプレイに表示させる合成画像表示制御部(表示制御部33)と、を備えることを特徴としている。
上記の構成によると、カメラは表示面と反対の方向、つまり表示面を正面から見た場合に、ディスプレイの背に隠れ見えなくなる背景の画像を背景画像として撮影する。そして、表示制御部は当該背景画像にキャラクタの画像を重畳しディスプレイに表示させる。これにより、対象者などがディスプレイの表示面を見たときに、キャラクタが背景と溶け込み、あたかもその場にいるように見えるようにすることができる。したがって、ロボットは対象者に、応対またはキャラクタ自体に対する臨場感および親近感を、さらに与えることができる。
本発明の態様5に係るロボットは、上記態様1〜4のいずれか一態様において、上記ディスプレイは複数のディスプレイ(ディスプレイ17A〜17C)に分割されており、上記複数のディスプレイのうちいずれか二つのディスプレイを接続する少なくとも一つの可動部(可動部α)と、上記可動部を動作させることにより上記二つのディスプレイの接続角度を調節する動作制御部(制御部30)と、上記複数のディスプレイの表示面全体で上記キャラクタの略全身の画像が表示されるように、上記複数のディスプレイに上記略全身の画像の少なくとも一部を同期表示させる同期表示制御部(表示制御部33)と、を備え、上記動作制御部は、上記同期表示制御部の上記同期表示に応じて上記可動部を動作させることを特徴としている。
上記の構成によると、同期表示制御部がキャラクタの略全身の画像を同期表示させるのに応じて、上記動作制御部は可動部を動作させる。これにより、複数のディスプレイ全体としての形状を、上記略全身の画像の表示に適した形状とすることができる。また、上記動作制御部が可動部を動作させることにより、上記略全身の画像が静止画像である場合でも、動きのある応対を実現することができる。したがって、ロボットは対象者に応対をより印象づけることができる。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
本発明は、人物に応対するロボットに利用することができる。
1、2 ロボット、3 管理サーバ、4 監視者端末、13 カメラ 17 ディスプレイ、30 制御部(動作制御部)、31 対象者特定部、32 応対決定部、33 表示制御部(合成画像表示制御部、同期表示制御部)、40 駆動部
Claims (5)
- 対象者の近傍まで移動して当該対象者に応対するロボットであって、
上記対象者に上記応対を示すキャラクタの外形に類似した形状を有しており、上記キャラクタの略全身の画像を表示するディスプレイを備えることを特徴とするロボット。 - 上記キャラクタは人物であり、上記ディスプレイは当該人物の実物大の略全身の画像を表示することを特徴とする、請求項1に記載のロボット。
- 上記ディスプレイは、上記キャラクタのジェスチャを示す動画を表示することを特徴とする、請求項1または2に記載のロボット。
- 少なくとも上記ディスプレイの表示面の向きと反対の向きの画像を背景画像として撮影するカメラと、
上記カメラの撮影した上記背景画像に上記キャラクタの画像を重畳させた合成画像を上記ディスプレイに表示させる合成画像表示制御部と、を備えることを特徴とする、請求項1〜3のいずれか1項に記載のロボット。 - 上記ディスプレイは複数のディスプレイに分割されており、
上記複数のディスプレイのうちいずれか二つのディスプレイを接続する少なくとも一つの可動部と、
上記可動部を動作させることにより上記二つのディスプレイの接続角度を調節する動作制御部と、
上記複数のディスプレイの表示面全体で上記キャラクタの略全身の画像が表示されるように、上記複数のディスプレイに上記略全身の画像の少なくとも一部を同期表示させる同期表示制御部と、を備え、
上記動作制御部は、上記同期表示制御部の上記同期表示に応じて上記可動部を動作させることを特徴とする、請求項1〜4のいずれか1項に記載のロボット。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015124986A JP2017007033A (ja) | 2015-06-22 | 2015-06-22 | ロボット |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015124986A JP2017007033A (ja) | 2015-06-22 | 2015-06-22 | ロボット |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2017007033A true JP2017007033A (ja) | 2017-01-12 |
Family
ID=57760452
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015124986A Pending JP2017007033A (ja) | 2015-06-22 | 2015-06-22 | ロボット |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2017007033A (ja) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101920620B1 (ko) * | 2018-02-06 | 2018-11-21 | (주)원익로보틱스 | 정보 제공용 로봇 및 이를 이용한 정보 제공 방법 |
| JP2020182093A (ja) * | 2019-04-24 | 2020-11-05 | セコム株式会社 | 監視表示装置 |
| JP2020181348A (ja) * | 2019-04-24 | 2020-11-05 | セコム株式会社 | 警備システム及び監視表示装置 |
| JPWO2020250434A1 (ja) * | 2019-06-14 | 2020-12-17 | ||
| JP2021013159A (ja) * | 2019-07-03 | 2021-02-04 | 株式会社リコー | 情報処理装置、テレプレゼンスロボット、拠点制御システム、遠隔制御システム、情報処理方法およびプログラム |
| JP2022111128A (ja) * | 2019-04-24 | 2022-07-29 | セコム株式会社 | 警備システム及び監視表示装置 |
| CN115118894A (zh) * | 2021-03-22 | 2022-09-27 | 丰田自动车株式会社 | 图像处理装置、远程临场系统、图像处理方法以及程序 |
| KR102511034B1 (ko) * | 2021-10-19 | 2023-03-17 | 옥재윤 | 인공지능 기반의 서비스 로봇 |
Citations (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03296016A (ja) * | 1990-04-16 | 1991-12-26 | Sony Corp | 表示装置 |
| JPH1195703A (ja) * | 1997-09-20 | 1999-04-09 | Sefutekku Kk | 工事現場表示装置 |
| JP2005172879A (ja) * | 2003-12-08 | 2005-06-30 | Oki Electric Ind Co Ltd | 広告案内ロボット及びロボットの広告案内表示方法 |
| JP2006043780A (ja) * | 2004-07-30 | 2006-02-16 | Shinshu Univ | 曲面顔画像表示を用いたコミュニケーションロボット |
| US20080029418A1 (en) * | 2006-07-11 | 2008-02-07 | Mattel, Inc. | Interactive Display Packaging For A Toy Figure |
| JP2008149442A (ja) * | 2006-12-14 | 2008-07-03 | Ind Technol Res Inst | 表面に情報表示および相互作用機能を備える可動装置 |
| US20100175496A1 (en) * | 2009-01-14 | 2010-07-15 | Samsung Electronics Co., Ltd. | Robot |
| KR20110004015A (ko) * | 2009-07-07 | 2011-01-13 | 송세경 | 식당의 고객 서비스 및 계산 가능한 지능형 주행로봇 |
| JP3168253U (ja) * | 2011-03-24 | 2011-06-02 | ブレーンコンピューター株式会社 | 受付案内装置 |
| JP2011150221A (ja) * | 2010-01-25 | 2011-08-04 | Seiko Epson Corp | 映像出力装置搭載機器、映像出力装置の投影方法 |
| JP2013200854A (ja) * | 2012-02-22 | 2013-10-03 | Nikon Corp | 電子機器、およびプログラム |
| JP2013205518A (ja) * | 2012-03-27 | 2013-10-07 | Sega Corp | 映像表示装置 |
| JP2014035541A (ja) * | 2012-08-10 | 2014-02-24 | Casio Comput Co Ltd | コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム |
| JP2014182332A (ja) * | 2013-03-21 | 2014-09-29 | Casio Comput Co Ltd | サイネージ装置 |
| US20150062117A1 (en) * | 2013-08-30 | 2015-03-05 | Qualcomm Incorporated | System and method for determining the extent of a plane in an augmented reality environment |
-
2015
- 2015-06-22 JP JP2015124986A patent/JP2017007033A/ja active Pending
Patent Citations (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03296016A (ja) * | 1990-04-16 | 1991-12-26 | Sony Corp | 表示装置 |
| JPH1195703A (ja) * | 1997-09-20 | 1999-04-09 | Sefutekku Kk | 工事現場表示装置 |
| JP2005172879A (ja) * | 2003-12-08 | 2005-06-30 | Oki Electric Ind Co Ltd | 広告案内ロボット及びロボットの広告案内表示方法 |
| JP2006043780A (ja) * | 2004-07-30 | 2006-02-16 | Shinshu Univ | 曲面顔画像表示を用いたコミュニケーションロボット |
| US20080029418A1 (en) * | 2006-07-11 | 2008-02-07 | Mattel, Inc. | Interactive Display Packaging For A Toy Figure |
| JP2008149442A (ja) * | 2006-12-14 | 2008-07-03 | Ind Technol Res Inst | 表面に情報表示および相互作用機能を備える可動装置 |
| US20100175496A1 (en) * | 2009-01-14 | 2010-07-15 | Samsung Electronics Co., Ltd. | Robot |
| KR20110004015A (ko) * | 2009-07-07 | 2011-01-13 | 송세경 | 식당의 고객 서비스 및 계산 가능한 지능형 주행로봇 |
| JP2011150221A (ja) * | 2010-01-25 | 2011-08-04 | Seiko Epson Corp | 映像出力装置搭載機器、映像出力装置の投影方法 |
| JP3168253U (ja) * | 2011-03-24 | 2011-06-02 | ブレーンコンピューター株式会社 | 受付案内装置 |
| JP2013200854A (ja) * | 2012-02-22 | 2013-10-03 | Nikon Corp | 電子機器、およびプログラム |
| JP2013205518A (ja) * | 2012-03-27 | 2013-10-07 | Sega Corp | 映像表示装置 |
| JP2014035541A (ja) * | 2012-08-10 | 2014-02-24 | Casio Comput Co Ltd | コンテンツ再生制御装置、コンテンツ再生制御方法及びプログラム |
| JP2014182332A (ja) * | 2013-03-21 | 2014-09-29 | Casio Comput Co Ltd | サイネージ装置 |
| US20150062117A1 (en) * | 2013-08-30 | 2015-03-05 | Qualcomm Incorporated | System and method for determining the extent of a plane in an augmented reality environment |
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101920620B1 (ko) * | 2018-02-06 | 2018-11-21 | (주)원익로보틱스 | 정보 제공용 로봇 및 이를 이용한 정보 제공 방법 |
| WO2019156280A1 (ko) * | 2018-02-06 | 2019-08-15 | (주)원익로보틱스 | 정보 제공용 로봇 및 이를 이용한 정보 제공 방법 |
| JP2022111128A (ja) * | 2019-04-24 | 2022-07-29 | セコム株式会社 | 警備システム及び監視表示装置 |
| JP2020181348A (ja) * | 2019-04-24 | 2020-11-05 | セコム株式会社 | 警備システム及び監視表示装置 |
| JP2020182093A (ja) * | 2019-04-24 | 2020-11-05 | セコム株式会社 | 監視表示装置 |
| JP7308068B2 (ja) | 2019-04-24 | 2023-07-13 | セコム株式会社 | 警備システム及び監視表示装置 |
| JP7334054B2 (ja) | 2019-04-24 | 2023-08-28 | セコム株式会社 | 監視表示装置 |
| JPWO2020250434A1 (ja) * | 2019-06-14 | 2020-12-17 | ||
| JP7317395B2 (ja) | 2019-06-14 | 2023-07-31 | 株式会社ロボ・ガレージ | 薄型携帯通信端末およびその制御方法並びに制御プログラム |
| JP2021013159A (ja) * | 2019-07-03 | 2021-02-04 | 株式会社リコー | 情報処理装置、テレプレゼンスロボット、拠点制御システム、遠隔制御システム、情報処理方法およびプログラム |
| JP7532941B2 (ja) | 2019-07-03 | 2024-08-14 | 株式会社リコー | 情報処理装置、テレプレゼンスロボット、拠点制御システム、遠隔制御システム、情報処理方法およびプログラム |
| CN115118894A (zh) * | 2021-03-22 | 2022-09-27 | 丰田自动车株式会社 | 图像处理装置、远程临场系统、图像处理方法以及程序 |
| KR102511034B1 (ko) * | 2021-10-19 | 2023-03-17 | 옥재윤 | 인공지능 기반의 서비스 로봇 |
| WO2023068737A1 (ko) * | 2021-10-19 | 2023-04-27 | 옥재윤 | 인공지능 기반의 서비스 로봇 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2017007033A (ja) | ロボット | |
| US11892851B2 (en) | System and methods for tagging accessibility features with a motorized mobile system | |
| US9796093B2 (en) | Customer service robot and related systems and methods | |
| US10024667B2 (en) | Wearable earpiece for providing social and environmental awareness | |
| US9316502B2 (en) | Intelligent mobility aid device and method of navigating and providing assistance to a user thereof | |
| US9922236B2 (en) | Wearable eyeglasses for providing social and environmental awareness | |
| US10024678B2 (en) | Wearable clip for providing social and environmental awareness | |
| KR102597216B1 (ko) | 공항용 안내 로봇 및 그의 동작 방법 | |
| US10248856B2 (en) | Smart necklace with stereo vision and onboard processing | |
| US20200366816A1 (en) | System and methods involving edge camera assemblies in handheld devices | |
| CN103459099A (zh) | 与一个可移动的远程机器人相互交流 | |
| WO2018121283A1 (zh) | 服务提供方法及装置、移动服务设备及存储介质 | |
| JP6150429B2 (ja) | ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法 | |
| WO2016031105A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| JP6844135B2 (ja) | 移動ロボットおよび移動制御システム | |
| US12393205B2 (en) | System and method for navigation support for a motorized mobile system | |
| KR20170066054A (ko) | 오디오 제공 방법 및 그 장치 | |
| KR20180040907A (ko) | 공항 로봇 | |
| US11027430B2 (en) | Systems and methods for latency compensation in robotic teleoperation | |
| JP2017170568A (ja) | サービス提供ロボットシステム | |
| US11240482B2 (en) | Information processing device, information processing method, and computer program | |
| JP2022182122A (ja) | 避難誘導システム、避難誘導装置および避難誘導プログラム | |
| WO2017008749A1 (zh) | 一种具备隐藏视像屏及多种传感器的耳机 | |
| JP7585946B2 (ja) | 遠隔ロボットシステム及び遠隔ロボットシステムの制御方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180323 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190220 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190226 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191112 |