[go: up one dir, main page]

JP2008137127A - ロボットの制御方法 - Google Patents

ロボットの制御方法 Download PDF

Info

Publication number
JP2008137127A
JP2008137127A JP2006327258A JP2006327258A JP2008137127A JP 2008137127 A JP2008137127 A JP 2008137127A JP 2006327258 A JP2006327258 A JP 2006327258A JP 2006327258 A JP2006327258 A JP 2006327258A JP 2008137127 A JP2008137127 A JP 2008137127A
Authority
JP
Japan
Prior art keywords
robot
human
contact
predetermined
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006327258A
Other languages
English (en)
Inventor
Kenji Sugihara
健治 杉原
Masao Koden
政男 向殿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006327258A priority Critical patent/JP2008137127A/ja
Publication of JP2008137127A publication Critical patent/JP2008137127A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】人間の居住環境や作業環境で十分に安心して使用できる汎用性の高いロボットを提供する。
【解決手段】自律制御型ロボットにおける動作の制御方法であって、自律制御型ロボットの動作により自律制御型ロボットが人間と接触するか否かを予測し(ステップS69)、人間と接触すると予測された場合に(ステップS69のYES)、人間の急所に自律制御型ロボットが接触しないように、自律制御型ロボットの動作を制限する(ステップS76)。
【選択図】図9

Description

本発明は、ロボットの制御方法に関し、特に自律制御型ロボットの動作を制御する方法に関する。
電気的あるいは磁気的な作用を用いて人間と似たような動作を行う装置としてロボットがある。このようなロボットは、人間の代わりに作業を行う、又は人間の作業を補助するために利用されることが多い。従って、人間の居住環境や作業環境で使用されることが多く、このような環境においても人間に危害を与えず、安心して使用できるロボットの実現が望まれている。
このような要望を受けて、最近では、周囲の環境に応じて自主的に自己の行動を制御する自律制御型ロボットが提案されている(例えば、特許文献1参照)。特許文献1に記載の脚式移動ロボットは、機械的な可動部とこれに接触する部位とに設けられた挟み込み検出部を備え、可動部とこれに接触する部位との間に人間の手等が挟み込まれたことを検出する。そして、挟み込みを検出した場合には、挟み込みの回避動作又は解除動作を行う。
特開2004−174644号公報
ところで、従来の自律制御型ロボットは、特許文献1に記載の脚式移動ロボットのように、異常が発生してからそれを検出して異常を取り除く対応を行うため、ロボットによる事故の被害を小さくすることができる。しかしながら、これは事後的に事故に対応するものであり、事故の発生を容認するものである。また、このロボットでは人間の目を突く等の一瞬で人間に大きな被害を与える事故には対応することが困難である。従って、従来の自律制御型ロボットでは、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現することはできない。
ここで、上記問題を解決する自律制御型ロボットとして、一定の距離以上は人間に近付かないロボットが考えられる。このロボットを用いれば、ロボットによる事故の発生を未然に防ぐことができる。しかしながら、このロボットではその汎用性が低くなってしまうため、ロボットの利用分野が限られてしまう。例えば、介護の分野では人間とロボットとの接触が必須となるため、対応することができない。従って、このロボットでも上記問題を解決することができない。
そこで、本発明は、かかる問題点に鑑み、人間の居住環境や作業環境で十分に安心して使用できる汎用性の高いロボットを提供することを目的とする。
上記目的を達成するために、本発明のロボットの制御方法は、ロボットにおける動作の制御方法であって、前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、前記予測ステップにおいて接触すると予測された場合に、前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する制限ステップとを含むことを特徴とする。ここで、前記ロボットの制御方法は、さらに、人間の急所及び人間の形状を示す人間の画像を格納する画像格納ステップと、前記接触する人間の形状を認識し、前記認識された人間の形状及び前記画像から前記人間の急所を特定する急所特定ステップとを含み、前記制限ステップにおいて、特定された前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限してもよい。
これによって、人間との接触を事前に予測し、接触する場合には人間の急所と接触しないようにロボットの動作が制限される。従って、大きな事故の発生を予測し、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。
また、本発明は、ロボットにおける動作の制御方法であって、前記ロボットと人間との距離を測定する測定ステップと、前記距離が所定の距離より短い場合に、前記人間に警告を発する警告ステップとを含むことを特徴とするロボットの制御方法とすることもできる。ここで、前記警告ステップにおいて、前記距離が所定の距離より短い場合に、前記ロボットが備える表示部に所定の画像を表示してもよいし、前記ロボットの制御方法は、さらに、前記距離が所定の距離より短い場合に、前記ロボットの動作速度を遅くする、又は前記ロボットの動作を停止する制限ステップを含んでもよい。
これによって、人間との距離が接触する可能性のある距離である場合に、人間に対してロボットが接触する可能性があるという警告を発することができる。従って、人間が外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態でロボットと接触することが無くなる。その結果、大きな事故の発生を未然に防ぐことができ、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。
また、本発明は、ロボットにおける動作の制御方法であって、前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、前記予測ステップにおいて接触すると予測された場合に、所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含むことを特徴とするロボットの制御方法とすることもできる。ここで、前記ロボットの制御方法は、さらに、人間の部位の位置及び人間の形状を示す人間の画像と、前記人間の部位及び前記所定の接触角度が関連付けられた角度テーブルとを格納する角度テーブル格納ステップと、前記接触する人間の形状及びロボットに接触する部分を認識し、前記認識された人間の形状及びロボットに接触する部分と前記画像とから前記ロボットに接触する前記人間の部位を特定する部位特定ステップと、前記制限ステップにおいて、特定された前記人間の部位に前記角度テーブルで関連付けられた所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限してもよい。
これによって、人間との接触を事前に予測し、接触する場合には人間に大きな被害を与える危険な角度で人間と接触しないようにロボットの動作を制限することができる。従って、大きな事故の発生を予測し、大きな事故の発生を未然に防ぐことができる。その結果、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。
また、本発明は、ロボットにおける動作の制御方法であって、前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、前記予測ステップにおいて接触すると予測された場合に、所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含むことを特徴とするロボットの制御方法とすることもできる。ここで、前記ロボットの制御方法は、さらに、人間の部位の位置及び人間の形状を示す人間の画像と、前記人間の部位及び前記所定の接触速度が関連付けられた接触速度テーブルとを格納する接触速度テーブル格納ステップと、前記接触する人間の形状及びロボットに接触する部分を認識し、前記認識された人間の形状及びロボットに接触する部分と前記画像とから前記ロボットに接触する前記人間の部位を特定する部位特定ステップと、前記制限ステップにおいて、特定された前記人間の部位に前記接触速度テーブルで関連付けられた所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限してもよい。
これによって、人間との接触を事前に予測し、接触する場合には人間に大きな被害を与える危険な速度で人間と接触しないようにロボットの動作を制限することができる。従って、大きな事故の発生を予測し、大きな事故の発生を未然に防ぐことができる。その結果、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。
また、本発明は、ロボットにおける動作の制御方法であって、前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、前記予測ステップにおいて接触すると予測された場合に、前記人間の所定の部位の状態を認識する状態認識ステップと、前記状態認識ステップにおいて認識された前記所定の部位の状態に基づいて前記ロボットの動作を制限する制限ステップとを含むことを特徴とするロボットの制御方法とすることもできる。ここで、前記状態認識ステップでは、前記人間の顔の向き又は前記人間の肩の上下動を認識し、前記制限ステップでは、前記人間の顔の向き又は前記人間の肩の上下動の認識結果に基づいて前記ロボットの動作を制限してもよい。
これによって、人間との接触を事前に予測し、接触する場合には外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態にある人間と接触しないようにロボットの動作を制限することができる。従って、大きな事故の発生を予測し、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。
なお、本発明は、このようなロボットの制御方法として実現することができるだけでなく、その方法により動作が制御されるロボット及びそのロボットのためのプログラム、そのプログラムを格納する記憶媒体としても実現することができる。
本発明によれば、人間の居住環境や作業環境で十分に安心して使用できる汎用性の高いロボットを実現できる。
以下、本発明の実施の形態における自律制御型ロボットについて、図面を参照しながら説明する。
図1(a)は本実施の形態の自律制御型ロボットの正面図であり、図1(b)は同ロボットの側面図である。
このロボットは、周囲の環境に応じて自主的に動作を制御する2足歩行型のロボットであり、胴ユニット100、頭部ユニット110と、右腕ユニット120、左腕ユニット130、右脚ユニット140及び左脚ユニット150から構成される。
頭部ユニット110は、胴ユニット100の上部に連結される。
右腕ユニット120は、右上腕部120a、右前腕部120b及び右手首部120cから構成され、胴ユニット100の右側部に連結される。左腕ユニット130は、左上腕部130a、左前腕部130b及び左手首部130cから構成され、胴ユニット100の左側部に連結される。
右脚ユニット140は、右大腿部140a、右下腿部140b及び右足首部140cから構成され、胴ユニット100の下部右側に連結される。左脚ユニット150は、左大腿部150a、左下腿部150b及び左足首部150cから構成され、胴ユニット100の下部左側に連結される。
図2は、自律制御型ロボットの駆動構造を模式的に示す図である。
頭部ユニット110は、モータM1及びM2をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。頭部ユニット110には、ロボットの周囲を撮像するCCDあるいはMOS型のカメラ210及び220と、CRT(Cathode-Ray Tube)やLCD(Liquid Crystal Display)等の表示部230とが配設されている。表示部230は、距離が所定の距離より短くなる場合に画像を変更し、人間に警告を発する。
右上腕部120aは、モータM3及びM4をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。右前腕部120bは、モータM5及びM6をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。右手首部120cは、モータM7を駆動することにより、1つの軸の回りに回転させることができるようにされている。
左上腕部130aは、モータM8及びM9をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。左前腕部130bは、モータM10及びM11をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。左手首部130cは、モータM12を駆動することにより、1つの軸の回りに回転させることができるようにされている。
胴ユニット100は、モータM13及びM14をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。胴ユニット100には、モータM1〜24並びにカメラ210及び220に接続された、モータM1〜24、表示部230、並びにカメラ210及び220の駆動を制御する制御部200が配設されている。
右大腿部140aは、モータM15及びM16をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。右下腿部140bは、モータM17及びM18をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。右足首部140cは、モータM19を駆動することにより、1つの軸の回りに回転させることができるようにされている。
左大腿部150aは、モータM20及びM21をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。左下腿部150bは、モータM22及びM23をそれぞれ駆動することにより、直交する2つの軸の回りに独立に回転させることができるようにされている。左足首部150cは、モータM24を駆動することにより、1つの軸の回りに回転させることができるようにされている。
図3は、自律制御型ロボットの構成を示す機能ブロック図である。
このロボットは、制御部200、機構部300、記憶部320、人間認識部350、メモリ部360、予測部370、測定部380及び状態認識部390を備える。
機構部300は、モータM1〜24、表示部230並びにカメラ210及び220等を含む機構部品の集合である。
制御部200は、記憶部320からメモリ部360に動作プログラム320aをロードして実行し、その実行結果に従って機構部300を制御する。
記憶部320は、ハードディスクやメモリ等であり、記憶部320には、動作プログラム320a、基準画像データ320b、角度テーブル320c、虚実判定テーブル320d、距離テーブル320e及び接触速度テーブル320f等が格納される。
基準画像データ320bは、図4に示されるように、人間の3次元形状、人間の急所(図4における斜線部)の位置及び人間の部位の位置を示す人間の3次元画像である。このとき、人間の急所としては、例えば、喉、みぞおち、金的、人中及び鼻等の正中線(体の中心線)にある部位や、こめかみ、目等が挙げられる。
角度テーブル320cは、図5に示されるように、図4で示された人間の部位とそれとロボットの危険な接触角度とが関連付けられたテーブルである。このとき、危険の接触角度は、ロボットが人間に接触する場合に許容される接触角度、つまり人間に大きな被害を与えない接触角度であり、人間の部位毎で異なる。例えば、みぞおちを下方からアバラ骨の中に突き込むように突き上げると人間に大きな被害が与えられる。従って、「みぞおち」には、「足下から頭に向かう線に対して0〜90°の接触角度」が関連付けられている。
虚実判定テーブル320dは、図6に示されるように、図4で示された人間の部位とその部位の所定の状態とが関連付けられたテーブルである。このとき、部位の所定の状態は、人間が外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態にあることを示す状態である。すなわち、人間は息を吸っている状態において息を吐いている状態と比べてより無防備であり、この状態でロボットが接触すると人間は大きな被害を受ける。従って、図6のテーブルでは、「肩」に「上方に向かって動く状態」が関連付けられる。また、人間は不意打ちを受けると大きな被害を受ける。従って、図6のテーブルでは、「顔」に「ロボットを向いている状態」が関連付けられる。
距離テーブル320eは、図7に示されるように、人間及びロボットの間の距離、表示部230の画像内容、及びロボットの動作速度が関連付けられたテーブルである。このテーブルでは、人間及びロボットのいずれかが互いの距離を縮める動作をしなければロボット及び人間の動作により互いが接触しない距離、例えば人間及びロボットの間の距離が1m〜2mのときには、表示部230に黄色の画像を表示させ、ロボットの動作速度を0.1m/secにすることが示されている。また、人間及びロボットのいずれかが互いの距離を縮める動作をしなくてもロボット及び人間の動作により互いが接触する距離、例えば、人間及びロボットの間の距離が1.0m以下のときには、表示部230に赤色の画像を表示させ、ロボットの動作速度を0.01m/secにすることが示されている。
接触速度テーブル320fは、図8に示されるように、図4で示された人間の部位とそれとロボットの危険な接触速度とが関連付けられたテーブルである。危険な接触速度は、ロボットが人間に接触する場合に許容される接触速度、つまり人間に大きな被害を与えない接触速度であり、人間の部位毎で異なる。例えば、「顔」には、「0.0001m/sec」の接触速度が関連付けられている。
人間認識部350は、ロボットから所定の距離内に存在する人間をカメラ210及び220により取得された画像に基づいて認識し、カメラ210及び220により取得された2つの画像からステレオマッチング法等を使って人間の3次元画像を生成する。さらに、人間認識部350は、生成された3次元画像を使って認識された人間のロボットと接触する部分の位置を認識する。
メモリ部360は、制御部200、人間認識部350、予測部370、測定部380及び状態認識部390等による作業領域を提供するRAM(Random Access Memory)等である。
予測部370は、人間認識部350で生成された3次元画像に基づいて、人間認識部350で認識された人間とロボットとがロボットの動作により接触するか否かを予測する。
測定部380は、人間認識部350で認識された人間とロボットとの間の距離を人間認識部350で生成された3次元画像に基づいて測定する。
状態認識部390は、人間認識部350により生成された3次元画像を基準画像データ320bとパターンマッチングし、人間の部位の状態を認識する。
次に、上記構成を有する自律制御型ロボットの動作について説明する。図9は、同ロボットの動作を示すフローチャートである。
まず、制御部200は、人間認識部350に、ロボットから所定の距離内に存在する人間を認識させ、さらに認識された人間の3次元画像を生成させる(ステップS60)。この3次元画像により、認識された人間の位置及び形状が特定される。所定の距離は、カメラ210及び220の性能に依存して異なり、例えば10mとされる。
次に、制御部200は、測定部380により、認識された人間とロボットとの距離を測定させる(ステップS61)。
次に、制御部200は、測定された距離が人間と接触する危険な距離であるか否かを判定する(ステップS62)。具体的には、測定された距離が距離テーブル320eに示される1.0m以下の距離であるか否かを判定する。
次に、測定された距離が危険な距離で無いと判定された場合(ステップS62でNO)、制御部200は、測定された距離が人間と接触する可能性の低い安全な距離であるか否かを判定する(ステップS63)。具体的には、測定された距離が距離テーブル320eに示される2m以上の距離であるか否かを判定する。
次に、測定された距離が安全な距離であると判定された場合(ステップS63でYES)、制御部200は、距離テーブル320eに従って表示部230に青色の画像を表示させる(ステップS64)。
次に、測定された距離が安全な距離で無いと判定された場合(ステップS63でNO)、制御部200は、距離テーブル320eに従って表示部230に黄色の画像を表示して人間に警告を発すると共に(ステップS65)、ロボットの動作速度を0.1m/secの低速に変化させる(ステップS66)。
次に、測定された距離が危険な距離であると判定された場合(ステップS62でYES)、制御部200は、距離テーブル320eに従って表示部230に赤色の画像を表示して人間に警告を発すると共に(ステップS67)、ロボットの動作速度を0.01m/secの低速に変化させる(ステップS68)。
次に、制御部200は、予測部370により、認識された人間とロボットとがロボットの動作により接触するか否かを予測させる(ステップS69)。
次に、人間と接触すると予測された場合(ステップS69でYES)、制御部200は、人間認識部350により、人間のロボットと接触する部分の位置を認識させる。その後、制御部200は、人間認識部350により生成された3次元画像、基準画像データ320b、及び認識された人間のロボットと接触する部分の位置から人間のロボットと接触する部位を特定する(ステップS70)。具体的には、人間認識部350により生成された3次元画像を基準画像データ320bとパターンマッチングし、人間のロボットと接触する部分が人間のどの部位に当たるかを特定する。
次に、制御部200は、状態認識部390により、特定された部位の状態を認識させる(ステップS71)。例えば、認識された人間の顔の向き又は肩の動きを認識させる。
次に、制御部200は、認識された人間の姿勢や状態が不安定であるか否かを判定する(ステップS72)。具体的には、特定された部位の状態のいずれかが虚実判定テーブル320dに示される所定の状態であるか否かを判定する。例えば、肩の動きが上方に向かう動きであるか否かを判定したり、顔の向きがロボットを向いているか否かを判定したりする。
次に、認識された人間の姿勢や状態が不安定であると判定された場合(ステップS72でYES)、制御部200は、認識された人間から離れる動作をロボットに行わせる(ステップS73)。
次に、認識された人間の姿勢や状態が不安定で無いと判定された場合(ステップS72でNO)、制御部200は、認識された人間の急所の位置を特定する。具体的には、人間認識部350により生成された3次元画像を基準画像データ320bとパターンマッチングし、認識された人間の急所の位置を特定する(ステップS74)。
次に、制御部200は、人間の急所と接触するか否かを判定する(ステップS75)。具体的には、特定された人間の急所の位置が人間認識部350により認識された人間のロボットと接触する部分の位置と一致するか否かを判定する。
次に、人間の急所と接触する場合(ステップS75のYES)、制御部200は、急所への接触が行われず、人間の急所以外の部分にロボットが接触するようにロボットの動作を制限する(ステップS76)。
次に、制御部200は、認識された人間のロボットとの接触角度を特定する(ステップS77)。
次に、制御部200は、特定された接触角度がロボットに接触する人間の部位に対して危険な角度であるか否かを判定する(ステップS78)。具体的には、人間のロボットと接触する部位に角度テーブル320cで関連付けられた危険な接触角度が、特定された接触角度と一致するか否かを判定する。例えば、接触する人間の部位として目が特定され、接触角度として20°が特定された場合、この20°が角度テーブル320cで目と関連付けられている90°と異なるため、接触角度は危険なもので無いと判定される。
次に、特定された接触角度が危険な角度であると判定された場合(ステップS78でYES)、制御部200は、危険な角度での接触が行われないように、ロボットの人間との接触角度を変更させる(ステップS79)。
次に、制御部200は、認識された人間のロボットとの接触速度を特定する(ステップS80)。
次に、制御部200は、特定された接触速度がロボットに接触する人間の部位に対して危険な速度であるか否かを判定する(ステップS81)。具体的には、人間のロボットと接触する部位に接触速度テーブル320fで関連付けられた安全な接触速度が、特定された接触速度よりも遅いか否かを判定する。
次に、特定された接触速度が危険な速度であると判定された場合(ステップS81でYES)、制御部200は、危険な速度で人間と接触しないように、ロボットに接触する人間の部位に接触速度テーブル320fで関連付けられた接触速度に徐々に変化させる(ステップS82)。このとき、速度の変化率は、接触速度判定時におけるロボットの動作速度とロボット及び人間の距離とに応じて変更され、動作速度が比較的速いとき又は人間との距離が比較的離れているときには速度の変化率は大きくされ、逆に動作速度が比較的遅いとき又は人間との距離が比較的近いときには速度の変化率は小さくされる。
以上のように本実施の形態の自律制御型ロボットによれば、人間が外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態にあるかを判定し、該当する場合には人間と接触しないように制御される。従って、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。
また、本実施の形態の自律制御型ロボットによれば、人間との距離が接触する可能性のある距離である場合に表示部230の画像を変更し、人間に対してロボットが接触する可能性があるという警告を発する。従って、人間が外部からの接触に対して無防備である、あるいはこちらを認識していない等の状態でロボットと接触することが無くなる。その結果、大きな事故の発生を未然に防ぐことができ、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。
また、本実施の形態の自律制御型ロボットによれば、接触する人間の部分が急所であるかを判定し、該当する場合には急所と接触しないように接触する部分を変更する。従って、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。
また、本実施の形態の自律制御型ロボットによれば、人間との接触角度が人間に大きな被害を与える危険な角度であるかを判定し、該当する場合には人間との接触角度を変更する。従って、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。
また、本実施の形態の自律制御型ロボットによれば、人間との接触速度が人間に大きな被害を与える危険な速度であるかを判定し、該当する場合には人間との接触速度を変化させる。従って、大きな事故の発生を未然に防ぐことができるので、人間の居住環境や作業環境で十分に安心して使用できるロボットを実現できる。また、接触により人間に大きな被害を与えることが無くなるので、人間と近い距離で使用することができ、汎用性の高いロボットを実現できる。
以上、本発明の自律制御型ロボットについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の要旨を逸脱しない範囲内で当業者が思いつく各種変形を施したものも本発明の範囲内に含まれる。
例えば、人間との距離が危険な距離である場合に表示部230の画像を変更し、人間に対してロボットが接触する可能性があるという警告を発するとした。しかし、人間に対して警告を発することができればこれに限られず、ロボットが音声出力部を備え、音声の出力内容を距離に応じて変更することにより人間に対してロボットが接触する可能性があるという警告を発してもよい。ここで、表示部及び音声出力部は、本発明の警告手段の一例である。
また、人間のロボットと接触する部分が人間の急所である場合には、制御部200は、人間の急所以外の部分にロボットが接触するようにロボットの動作を制限するとした。しかし、人間のロボットと接触する部分が人間の急所であるかを判定した後に行われる接触角度及び接触速度の判定により、危険な角度及び速度での人間との接触が回避されるため、このような動作の制限は行われなくてもよい。ただし、この場合には、人間に大きな被害を与えないために、ロボットの動作速度を所定の速度に落とす等の他の動作制限がロボットに加えられる。
また、認識された人間の姿勢や状態が不安定である場合、制御部200は、認識された人間から離れる動作をロボットに行わせるとした。しかし、ロボットの動作を制限するものであればこれに限られず、認識された人間の姿勢や状態を不安定で無い状態にする動作をロボットに行わせてもよい。例えば、人間の顔がロボットを向いていないと判定された場合には、制御部200は、人間の顔の正面に移動する動作をロボットに行わせてもよい。
また、測定された距離が危険な距離であると判定された場合、ロボットの動作速度を0.01m/secの低速に変化させるとした。しかし、ロボットの動作を制限するものであればこれに限られず、ロボットの動作を停止させてもよい。
また、人間との接触角度が危険な角度であると判定された場合、ロボットの人間との接触角度を変更するとした。しかし、ロボットの動作を制限するものであればこれに限られず、ロボットの動作を停止させてもよい。
また、人間との接触速度が危険な速度であると判定された場合、接触速度を変化させるとした。しかし、ロボットの動作を制限するものであればこれに限られず、ロボットの動作を停止させてもよい。
また、上記実施の形態において、ロボットとして自律制御型ロボットを例示したが、動作が制御可能なロボットであればこれに限られない。
本発明は、ロボットの制御方法に利用でき、特に自律制御型ロボットの動作の制御方法等に利用することができる。
(a)本発明の実施の形態の自律制御型ロボットの正面図である。(b)同ロボットの側面図である。 同ロボットの駆動構造を模式的に示す図である。 同ロボットの構成を示す機能ブロック図である。 基準画像データを示す図である。 角度テーブルを示す図である。 虚実判定テーブルを示す図である。 距離テーブルを示す図である。 接触速度テーブルを示す図である。 同ロボットの動作を示すフローチャートである。
符号の説明
100 胴ユニット
110 頭部ユニット
120 右腕ユニット
120a 右上腕部
120b 右前腕部
120c 右手首部
130 左腕ユニット
130a 左上腕部
130b 左前腕部
130c 左手首部
140 右脚ユニット
140a 右大腿部
140b 右下腿部
140c 右足首部
150 左脚ユニット
150a 左大腿部
150b 左下腿部
150c 左足首部
200 制御部
210、220 カメラ
230 表示部
300 機構部
320 記憶部
320a 動作プログラム
320b 基準画像データ
320c 角度テーブル
320d 虚実判定テーブル
320e 距離テーブル
320f 接触速度テーブル
350 人間認識部
360 メモリ部
370 予測部
380 測定部
390 状態認識部

Claims (21)

  1. ロボットにおける動作の制御方法であって、
    前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
    前記予測ステップにおいて接触すると予測された場合に、前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する制限ステップとを含む
    ことを特徴とするロボットの制御方法。
  2. 前記ロボットの制御方法は、さらに、
    人間の急所及び人間の形状を示す人間の画像を格納する画像格納ステップと、
    前記接触する人間の形状を認識し、前記認識された人間の形状及び前記画像から前記人間の急所を特定する急所特定ステップとを含み、
    前記制限ステップにおいて、特定された前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する
    ことを特徴とする請求項1記載のロボットの制御方法。
  3. ロボットにおける動作の制御方法であって、
    前記ロボットと人間との距離を測定する測定ステップと、
    前記距離が所定の距離より短い場合に、前記人間に警告を発する警告ステップとを含む
    ことを特徴とするロボットの制御方法。
  4. 前記警告ステップにおいて、前記距離が所定の距離より短い場合に、前記ロボットが備える表示部に所定の画像を表示する
    ことを特徴とする請求項3記載のロボットの制御方法。
  5. 前記ロボットの制御方法は、さらに、前記距離が所定の距離より短い場合に、前記ロボットの動作速度を遅くする、又は前記ロボットの動作を停止する制限ステップを含む
    ことを特徴とする請求項3記載のロボットの制御方法。
  6. ロボットにおける動作の制御方法であって、
    前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
    前記予測ステップにおいて接触すると予測された場合に、所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含む
    ことを特徴とするロボットの制御方法。
  7. 前記ロボットの制御方法は、さらに、
    人間の部位の位置及び人間の形状を示す人間の画像と、前記人間の部位及び前記所定の接触角度が関連付けられた角度テーブルとを格納する角度テーブル格納ステップと、
    前記接触する人間の形状及びロボットに接触する部分を認識し、前記認識された人間の形状及びロボットに接触する部分と前記画像とから前記ロボットに接触する前記人間の部位を特定する部位特定ステップと、
    前記制限ステップにおいて、特定された前記人間の部位に前記角度テーブルで関連付けられた所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する
    ことを特徴とする請求項5記載のロボットの制御方法。
  8. ロボットにおける動作の制御方法であって、
    前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
    前記予測ステップにおいて接触すると予測された場合に、所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含む
    ことを特徴とするロボットの制御方法。
  9. 前記ロボットの制御方法は、さらに、
    人間の部位の位置及び人間の形状を示す人間の画像と、前記人間の部位及び前記所定の接触速度が関連付けられた接触速度テーブルとを格納する接触速度テーブル格納ステップと、
    前記接触する人間の形状及びロボットに接触する部分を認識し、前記認識された人間の形状及びロボットに接触する部分と前記画像とから前記ロボットに接触する前記人間の部位を特定する部位特定ステップと、
    前記制限ステップにおいて、特定された前記人間の部位に前記接触速度テーブルで関連付けられた所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する
    ことを特徴とする請求項8記載のロボットの制御方法。
  10. ロボットにおける動作の制御方法であって、
    前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
    前記予測ステップにおいて接触すると予測された場合に、前記人間の所定の部位の状態を認識する状態認識ステップと、
    前記状態認識ステップにおいて認識された前記所定の部位の状態に基づいて前記ロボットの動作を制限する制限ステップとを含む
    ことを特徴とするロボットの制御方法。
  11. 前記状態認識ステップでは、前記人間の顔の向き又は前記人間の肩の上下動を認識し、
    前記制限ステップでは、前記人間の顔の向き又は前記人間の肩の上下動の認識結果に基づいて前記ロボットの動作を制限する
    ことを特徴とする請求項10記載のロボットの制御方法。
  12. ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測手段と、
    前記予測手段により接触すると予測された場合に、前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する制限手段とを備える
    ことを特徴とするロボット。
  13. ロボットと人間との距離を測定する測定手段と、
    前記距離が所定の距離より短い場合に、前記人間に警告を発する警告手段とを備える
    ことを特徴とするロボット。
  14. ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測手段と、
    前記予測手段により接触すると予測された場合に、所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限手段とを備える
    ことを特徴とするロボット。
  15. ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測手段と、
    前記予測手段により接触すると予測された場合に、所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限手段とを備える
    ことを特徴とするロボット。
  16. ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測手段と、
    前記予測手段により接触すると予測された場合に、前記人間の所定の部位の状態を認識する状態認識手段と、
    前記状態認識手段により認識された前記所定の部位の状態に基づいて前記ロボットの動作を制限する制限手段とを備える
    ことを特徴とするロボット。
  17. ロボットのためのプログラムであって、
    ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
    前記予測ステップにおいて接触すると予測された場合に、前記人間の急所に前記ロボットが接触しないように、前記ロボットの動作を制限する制限ステップとをロボット内のコンピュータに実行させることを特徴とするプログラム。
  18. ロボットのためのプログラムであって、
    前記ロボットと人間との距離を測定する測定ステップと、
    前記距離が所定の距離より短い場合に、前記人間に警告を発する警告ステップとをロボット内のコンピュータに実行させることを特徴とするプログラム。
  19. ロボットのためのプログラムであって、
    前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
    前記予測ステップにおいて接触すると予測された場合に、所定の接触角度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとをロボット内のコンピュータに実行させることを特徴とするプログラム。
  20. ロボットのためのプログラムであって、
    前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
    前記予測ステップにおいて接触すると予測された場合に、所定の接触速度より大きな速度で前記ロボットが前記人間に接触しないように、前記ロボットの動作を制限する制限ステップとを含むロボット内のコンピュータに実行させることを特徴とするプログラム。
  21. ロボットのためのプログラムであって、
    前記ロボットの動作により前記ロボットが人間と接触するか否かを予測する予測ステップと、
    前記予測ステップにおいて接触すると予測された場合に、前記人間の所定の部位の状態を認識する状態認識ステップと、
    前記状態認識ステップにおいて認識された前記所定の部位の状態に基づいて前記ロボットの動作を制限する制限ステップとをロボット内のコンピュータに実行させることを特徴とするプログラム。
JP2006327258A 2006-12-04 2006-12-04 ロボットの制御方法 Pending JP2008137127A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006327258A JP2008137127A (ja) 2006-12-04 2006-12-04 ロボットの制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006327258A JP2008137127A (ja) 2006-12-04 2006-12-04 ロボットの制御方法

Publications (1)

Publication Number Publication Date
JP2008137127A true JP2008137127A (ja) 2008-06-19

Family

ID=39599121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006327258A Pending JP2008137127A (ja) 2006-12-04 2006-12-04 ロボットの制御方法

Country Status (1)

Country Link
JP (1) JP2008137127A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010004744A1 (ja) * 2008-07-09 2010-01-14 パナソニック株式会社 経路危険性評価装置
WO2012039280A1 (ja) * 2010-09-21 2012-03-29 トヨタ自動車株式会社 移動体
JP2012200818A (ja) * 2011-03-25 2012-10-22 Advanced Telecommunication Research Institute International 歩行者の軌跡を予測して自己の回避行動を決定するロボット
JP2015526309A (ja) * 2012-08-31 2015-09-10 リシンク ロボティクス インコーポレイテッド 安全ロボット動作のためのシステムおよび方法
JP2016196069A (ja) * 2015-04-03 2016-11-24 三菱電機株式会社 産業用ロボットの回避軌道生成装置および回避軌道生成方法
JP2016209991A (ja) * 2015-05-01 2016-12-15 キヤノン株式会社 ロボットの制御装置、制御方法およびシステム
JP2019501460A (ja) * 2016-10-14 2019-01-17 平安科技(深▲せん▼)有限公司 ガイドロボット及びその移動領域キャリブレーション方法、コンピュータ読み取り可能な記憶媒体
JPWO2021261394A1 (ja) * 2020-06-25 2021-12-30
JP7098080B1 (ja) * 2021-09-08 2022-07-08 三菱電機株式会社 ロボット制御装置
WO2025223640A1 (en) * 2024-04-23 2025-10-30 Abb Schweiz Ag Method for configuring at least a safety parameter for a safety zone for a robot device

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101959653B (zh) * 2008-07-09 2012-10-24 松下电器产业株式会社 路径危险性评价装置
WO2010004744A1 (ja) * 2008-07-09 2010-01-14 パナソニック株式会社 経路危険性評価装置
US7844398B2 (en) 2008-07-09 2010-11-30 Panasonic Corporation Path risk evaluating apparatus
JPWO2010004744A1 (ja) * 2008-07-09 2011-12-22 パナソニック株式会社 経路危険性評価装置、経路危険性評価方法及びプログラム
JP4495252B2 (ja) * 2008-07-09 2010-06-30 パナソニック株式会社 経路危険性評価装置、経路危険性評価方法及びプログラム
CN103119529B (zh) * 2010-09-21 2016-05-25 丰田自动车株式会社 移动体
DE112011103155T5 (de) 2010-09-21 2013-07-18 Toyota Jidosha Kabushiki Kaisha Beweglicher Körper
WO2012039280A1 (ja) * 2010-09-21 2012-03-29 トヨタ自動車株式会社 移動体
JPWO2012039280A1 (ja) * 2010-09-21 2014-02-03 トヨタ自動車株式会社 移動体
US9075416B2 (en) 2010-09-21 2015-07-07 Toyota Jidosha Kabushiki Kaisha Mobile body
CN103119529A (zh) * 2010-09-21 2013-05-22 丰田自动车株式会社 移动体
JP2012200818A (ja) * 2011-03-25 2012-10-22 Advanced Telecommunication Research Institute International 歩行者の軌跡を予測して自己の回避行動を決定するロボット
JP2015526309A (ja) * 2012-08-31 2015-09-10 リシンク ロボティクス インコーポレイテッド 安全ロボット動作のためのシステムおよび方法
JP2016196069A (ja) * 2015-04-03 2016-11-24 三菱電機株式会社 産業用ロボットの回避軌道生成装置および回避軌道生成方法
JP2016209991A (ja) * 2015-05-01 2016-12-15 キヤノン株式会社 ロボットの制御装置、制御方法およびシステム
JP2019501460A (ja) * 2016-10-14 2019-01-17 平安科技(深▲せん▼)有限公司 ガイドロボット及びその移動領域キャリブレーション方法、コンピュータ読み取り可能な記憶媒体
KR20190022433A (ko) * 2016-10-14 2019-03-06 핑안 테크놀로지 (션젼) 컴퍼니 리미티드 가이드 로봇 및 이의 이동 영역 캘리브레이션 방법, 컴퓨터 판독 가능한 저장매체
KR102173609B1 (ko) * 2016-10-14 2020-11-04 핑안 테크놀로지 (션젼) 컴퍼니 리미티드 가이드 로봇 및 이의 이동 영역 캘리브레이션 방법, 컴퓨터 판독 가능한 저장매체
US11009889B2 (en) 2016-10-14 2021-05-18 Ping An Technology (Shenzhen) Co., Ltd. Guide robot and method of calibrating moving region thereof, and computer readable storage medium
DE112021003388T5 (de) 2020-06-25 2023-04-20 Fanuc Corporation Roboter-steuervorrichtung
WO2021261394A1 (ja) * 2020-06-25 2021-12-30 ファナック株式会社 ロボット制御装置
JPWO2021261394A1 (ja) * 2020-06-25 2021-12-30
JP7414993B2 (ja) 2020-06-25 2024-01-16 ファナック株式会社 ロボット制御装置
US12403595B2 (en) 2020-06-25 2025-09-02 Fanuc Corporation Robot control device
JP7098080B1 (ja) * 2021-09-08 2022-07-08 三菱電機株式会社 ロボット制御装置
WO2023037443A1 (ja) * 2021-09-08 2023-03-16 三菱電機株式会社 ロボット制御装置、学習装置および推論装置
CN117377561A (zh) * 2021-09-08 2024-01-09 三菱电机株式会社 机器人控制装置、学习装置及推断装置
DE112021007561T5 (de) 2021-09-08 2024-05-02 Mitsubishi Electric Corporation Robotersteuerung, Lernvorrichtung und Inferenzvorrichtung
US12017372B2 (en) 2021-09-08 2024-06-25 Mitsubishi Electric Corporation Robot control device
CN117377561B (zh) * 2021-09-08 2025-01-10 三菱电机株式会社 机器人控制装置
WO2025223640A1 (en) * 2024-04-23 2025-10-30 Abb Schweiz Ag Method for configuring at least a safety parameter for a safety zone for a robot device

Similar Documents

Publication Publication Date Title
Halme et al. Review of vision-based safety systems for human-robot collaboration
Kumar et al. Survey of human–robot collaboration in industrial settings: Awareness, intelligence, and compliance
De Luca et al. Integrated control for pHRI: Collision avoidance, detection, reaction and collaboration
US20160260027A1 (en) Robot controlling apparatus and robot controlling method
Escobedo et al. Contact anticipation for physical human–robot interaction with robotic manipulators using onboard proximity sensors
Wong et al. Vision-and tactile-based continuous multimodal intention and attention recognition for safer physical human–robot interaction
JP2008137127A (ja) ロボットの制御方法
Chance et al. An assistive robot to support dressing-strategies for planning and error handling
JP7052203B2 (ja) 安全制御装置、安全制御方法およびプログラム
JP2008188722A (ja) ロボット制御装置
CN104428107A (zh) 机器人布置和用于控制机器人的方法
CN107803847A (zh) 人机协调型机器人
JP2019518616A (ja) 1または複数の協働ロボットの運動を制御するための方法およびデバイス
CN110948468A (zh) 机器人的控制方法和控制装置
JP7156397B2 (ja) 制御装置
JP2011042011A (ja) ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボット
KR20190079322A (ko) 로봇 제어 시스템
JP2018062026A (ja) ロボットの速度や加速度を制限する機能を備えたロボット制御装置
JP2016209991A (ja) ロボットの制御装置、制御方法およびシステム
Zhang et al. A human-robot dynamic fusion safety algorithm for collaborative operations of cobots
CN110874078A (zh) 人机协作机器人系统
JP2019198907A (ja) ロボットシステム
CN116806184A (zh) 机器人的机械阻抗控制方法、控制系统及机器人
Wang et al. Safety strategy in the smart manufacturing system: A human robot collaboration case study
Matsumoto et al. The essential components of human-friendly robot systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110705