[go: up one dir, main page]

JP6528641B2 - 自己位置推定方法 - Google Patents

自己位置推定方法 Download PDF

Info

Publication number
JP6528641B2
JP6528641B2 JP2015209844A JP2015209844A JP6528641B2 JP 6528641 B2 JP6528641 B2 JP 6528641B2 JP 2015209844 A JP2015209844 A JP 2015209844A JP 2015209844 A JP2015209844 A JP 2015209844A JP 6528641 B2 JP6528641 B2 JP 6528641B2
Authority
JP
Japan
Prior art keywords
distance
dimensional points
dimensional
feature amount
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015209844A
Other languages
English (en)
Other versions
JP2017083230A (ja
Inventor
優人 森
優人 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015209844A priority Critical patent/JP6528641B2/ja
Publication of JP2017083230A publication Critical patent/JP2017083230A/ja
Application granted granted Critical
Publication of JP6528641B2 publication Critical patent/JP6528641B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、自己位置推定方法に関し、特に、三次元点群をマッチングすることで自己位置を推定する技術に関する。
移動体の自己位置推定(SLAM:Simultaneous Localization And Mapping)には、距離センサを用いた技術が数多く提案されている(例えば、特許文献1)。しかし、距離センサは、一般的に、距離センサからの距離が離れるに従って、測定距離の誤差が大きくなる、ノイズが乗りやすくなる、といった問題がある。
特開2010−238217号公報
このような問題に対処する方法として、距離センサの出力として得られる距離データを用いて、環境地図に対して移動体の位置合わせを行って自己位置を推定するときに、その距離データのうち、ある一定距離以上のデータを破棄し、残りのデータを用いて位置合わせを行う方法が考えら得る。しかし、この方法では、距離センサに近い位置に幾何学的特長がない状況においては、位置合わせの精度が低下してしまうという問題がある。
例えばICP(Iterative Closest Point)による位置合わせでは、データ上に特徴的な形状が存在することが重要である。例えば、図8に示すように、幾何学的特長がない平面形状を示すデータ同士では、移動体を正しい位置に合わせることができているか否かを判別することができない。それに対して、幾何学的特長がある形状(例えば凸部分がある形状)を示すデータ同士では、凸が重なる状態が正しく位置合わせができている状態として判別することができる。
このように、距離センサによって得られる距離データにおいて、一定距離以上のデータの精度が低いといっても、上述の点について考慮なくデータを破棄してしまうと、位置合わせの精度が低下し、自己位置の推定の精度が低下してしまうという問題がある。
本発明は、自己位置の推定の精度を向上することができる自己位置推定方法を提供するものである。
本発明の態様に係る自己位置推定方法は、距離センサによって周辺を観測することで、周辺表面を示す複数の三次元点を取得し、前記距離センサ又は他のセンサによる周辺の観測結果に基づいて、前記複数の三次元点の特徴量を算出し、前記複数の三次元点のうち、前記距離センサからの距離が所定の距離閾値未満である複数の三次元点と、前記距離センサからの距離が前記距離閾値以上であっても前記特徴量が特徴量閾値以上である複数の三次元点が所定数以上となる距離区間に含まれる複数の三次元点とを抽出し、前記抽出した複数の三次元点と、環境地図が示す複数の三次元点又は面とをマッチングすることで自己位置を推定するものである。
すなわち、近い位置にある三次元点の他に、遠い位置にある幾何学的特徴がある三次元点もマッチングに利用する三次元点として採用するようにしている。これによれば、距離センサに近い位置に幾何学的特徴がなく、遠い位置にある三次元点に測定誤差やノイズがある場合であっても、自己位置の推定の精度を向上することができる。
上述した本発明の態様によれば、自己位置の推定の精度を向上することができる自己位置推定方法を提供することができる。
実施の形態1に係るロボットの外部構成を示す図である。 実施の形態1に係るロボットの内部構成を示す図である。 実施の形態1に係るロボットのマッチングに利用する三次元点の判定方法を示す図である。 実施の形態2に係るロボットのマッチングに利用する三次元点の判定方法を示す図である。 実施の形態3に係るロボットのマッチングに利用する三次元点の判定方法を示す図である。 実施の形態4に係るロボットの内部構成を示す図である。 実施の形態5に係るロボットの内部構成を示す図である。 実施の形態で解決する課題を説明するための図である。
以下に図面を参照しながら、本発明の好適な実施の形態について説明する。以下の実施の形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、それに限定されるものではない。また、以下の記載及び図面では、説明の明確化のため、当業者にとって自明な事項等については、適宜、省略及び簡略化がなされている。
<発明の実施の形態1>
まず、図1を参照して、本実施の形態1に係るロボット1の外部構成について説明する。
ロボット1は、本体10と、移動台車20と、頭部30と、アーム40とを有している。ロボット1は、例えば、家庭内において人が行う作業を、人に代わり実行するための生活支援ロボットである。ロボット1は、例えば、任意の場所に移動し、物を拾い人に届ける、窓を開ける等の作業を実行する。
移動台車20は、その上方で本体10を支持するように、その上部が本体10の下部に連結されている。移動台車20は、その下部に設けられた車輪(図示せず)を駆動することでロボット1を移動させる。
頭部30は、本体10の上方で本体10に支持されるように、本体10の上部に連結されている。頭部30は、その前方を距離センサ31によって観測可能となるように、その前部に距離センサ31が取り付けられている。距離センサ31は、ロボット1の周辺を観測し、観測した周辺の各物体における各点までの距離を示す距離データを生成するセンサである。
アーム40は、本体10の前方に突出するように、本体10の前部に接続されている。アーム40は、多関節のアームである。アーム40は、その先端部に、任意の物体を把持できるハンドを有している。これにより、ロボット1は、アーム40の各関節の角度を調整することで、ハンドを所望の位置に移動させ、その位置に存在する物体をハンドで把持することができる。
距離センサ31は、ロボット1の周辺を観測し、ロボット1(距離センサ31)から、観測した周辺の各物体における各点までの距離を示す距離データを生成するセンサである。距離センサ31は、距離データとして、距離画像(ポイントクラウド)を示す距離画像データを生成する。すなわち、距離データは、ロボット1(距離センサ31)に対する周辺の各物体表面の点群を三次元で示す。以下、この点を「三次元点」とも呼ぶ。
距離センサ31は、単体で構成されるセンサであってもよく、システムで構成されるセンサであってもよい。単体で構成されるセンサには、例えば、Kinect(登録商標)又はVelodyne社のLiDAR等がある。また、システムで構成されるセンサには、例えば、ステレオカメラ又は搖動機構付LRF(Laser Range Finder)等がある。
上述した構成により、ロボット1は、センサ31によってロボット1の周辺を観測し、観測結果に基づいて、障害物となる物体を避けて移動する。
続いて、図2を参照して、本実施の形態1に係るロボット1の内部構成について説明する。
図2に示すように、ロボット1は、制御部11と、アクチュエータ21a、21bと、車輪22a、22bと、距離センサ31とを有する。制御部11は、本体10に含まれる。アクチュエータ21a、21b及び車輪22a、22bは、移動台車20に含まれる。距離センサ31は、頭部30に含まれる。
制御部11は、ロボット1を統括的に制御する。制御部11は、CPU(Central Processing Unit)及び記憶部を有しており(図示せず)、そのCPUが記憶部に格納されたプログラムを実行することで、制御部11としての各種処理を実現する。すなわち、このプログラムは、制御部11が有するCPUに制御部11としての各所処理を実行させるためのコードを含んでいる。ここで、記憶部は、上記プログラムや、その他の制御部11が使用する各種情報が格納される。記憶部は、上記プログラムや各種情報を格納可能な記憶装置の少なくとも1つを含む。記憶装置として、例えば、メモリ及びハードディスク等の少なくとも1つを任意に使用してよい。
制御部11は、距離センサ31から出力された距離データを取得し、取得した距離データに基づいて、障害物となる物体を避けて移動する移動経路を算出し、算出した移動経路をロボット1が移動するように、アクチュエータ21a、21bを制御する。
アクチュエータ21a、21bのそれぞれは、ロボット1の車輪22a、22bのそれぞれを駆動する。アクチュエータ21aは、制御部11からの制御によって駆動され、車輪22aを回転させる。アクチュエータ21bは、制御部11からの制御によって駆動され、車輪22bを回転させる。車輪22a及び車輪22bは、上述した移動台車20の下部に取り付けられた車輪に該当する。
ここで、制御部11は、勾配計算部12と、利用判定部13と、マッチング処理部14として機能する。
勾配計算部12は、距離センサ31から取得した距離データが示す複数の三次元点のそれぞれについて、その三次元点の特徴量として、特定の方向に隣接する他の三次元点までの距離に対する、その三次元点までの距離の勾配を算出する。なお、ここでの距離とは、距離センサ31によって観測した、上記ロボット1(距離センサ31)から三次元点までの距離である。
利用判定部13は、勾配計算部12が計算した複数の三次元点のそれぞれの勾配の値に基づいて、その複数の三次元点の中から、環境地図とのマッチングに利用する複数の三次元点を判定する。ここで、環境地図とは、ロボット1の移動範囲内における各物体表面の三次元点群を地図として示す情報である。この環境地図は、予め用意された地図であってもよく、例えばSLAM等の手法によって適宜更新される地図であってもよい。
マッチング処理部14は、距離センサ31から取得した距離データが示す複数の三次元点のうち、利用判定部13がマッチングに利用すると判定した複数の三次元点と、環境地図が示す複数の三次元点とをマッチングすることで、自己位置(ロボット1の位置)を推定する。なお、マッチングの手法としては、例えば、ICPによる収束演算を利用する。このICPの手法として、Point−to−Plane又はPoint−to−Point等の手法を利用してよい。よって、Point−to−Planeを利用する場合には、環境地図は、ロボット1の移動範囲内における各物体表面の面を地図として示す情報となる。
よって、制御部10は、マッチング処理部14による自己位置の推定結果に基づいて、障害物となる物体を避けて移動する移動経路を算出する。
続いて、図3を参照して、本実施の形態1に係る利用判定部13におけるマッチングに利用する三次元点の判定方法について説明する。
まず、上述したように、距離センサ31は、距離センサ31(ロボット1)からの距離が近い場合には、測定距離の誤差も少なく、ノイズも少ない。よって、利用判定部13は、図3に示すように、距離センサ31(ロボット1)からの距離が所定の距離閾値未満である複数の三次元点は、マッチングに利用する三次元点として判定する。
一方で、図8を参照して説明したように、幾何学的特徴がある三次元点群は、ロボット1の位置合わせが正しく行われていることを判別しやすい。そのため、利用判定部13は、図3に示すように、距離が距離閾値以上であっても、所定の単位距離当たりにおける、特徴量(勾配の値)が所定の特徴量閾値以上となる三次元点の数が特徴数閾値以上となる区間(距離センサ31からの距離方向の区間)に含まれる複数の三次元点も、マッチングに利用する三次元点として判定する。なお、この特徴数閾値は、予め定められた値であってもよく、距離データが示す複数の三次元点数の所定割合として利用判定部13によって算出される値であってもよい。
以上に説明したように、本実施の形態1では、距離センサによって周辺を観測することで、周辺表面を示す複数の三次元点を取得し、距離センサ又は他のセンサによる周辺の観測結果に基づいて、複数の三次元点の特徴量を算出し、複数の三次元点のうち、距離センサからの距離が所定の距離閾値未満である複数の三次元点と、距離センサからの距離が距離閾値以上であっても特徴量が特徴量閾値以上である複数の三次元点が所定数以上となる距離区間に含まれる複数の三次元点とを抽出し、抽出した複数の三次元点と、環境地図が示す複数の三次元点又は面とをマッチングすることで自己位置を推定するようにしている。
すなわち、近い位置にある三次元点の他に、遠い位置にある幾何学的特徴がある三次元点もマッチングに利用する三次元点として採用するようにしている。これによれば、距離センサ31(ロボット1)に近い位置に幾何学的特徴がなく、遠い位置にある三次元点に測定誤差やノイズがある場合であっても、自己位置の推定の精度を向上することができる。
<発明の実施の形態2>
続いて、実施の形態2について説明する。以下の説明では、実施の形態1と同様の内容については、同一の符号を付す等して、適宜その説明を省略する。本実施の形態2に係るロボット1の外部構成及び内部構成については、実施の形態1に係るロボット1の外部構成及び内部構成と同様であるため、説明を省略する。
本実施の形態2は、実施の形態1と比較して、利用判定部13によるマッチングに利用する三次元点の判定方法が異なる。図4を参照して、本実施の形態2に係る利用判定部13におけるマッチングに利用する三次元点の判定方法について説明する。
本実施の形態2に係る利用判定部13は、図4に示すように、距離センサ31から取得した距離データが示す複数の三次元点のうち、特徴量(勾配の値)が所定の特徴量閾値以上である三次元点と、その三次元点を中心とした判定距離内に含まれる複数の三次元点とを、マッチングに利用する三次元点として決定する。ここで、上述の判定距離は、所定の値であってもよく、中心となる三次元点の特徴量(勾配の値)に比例するように利用判定部13が決定してもよい。より具体的には、三次元点を中心とした判定距離内に含まれる複数の三次元点とは、その三次元点を中心として、上記判定距離を半径とした球に含まれる複数の三次元点となる。
ここで、上述の実施の形態2に係る判定方法は、実施の形態1に係る判定方法と組み合わせて利用するようにしてもよい。すなわち、利用判定部13は、距離が所定の距離閾値未満である複数の三次元点と、距離が距離閾値以上であっても特徴量が特徴量閾値(第1の特徴量閾値)以上である複数の三次元点が所定数以上となる距離区間に含まれる複数の三次元点との中から、上述の特徴量(勾配の値)が所定の特徴量閾値(第2の特徴量閾値)以上である三次元点を判定するようにしてもよい。
言い換えると、利用判定部13は、距離が所定の距離閾値未満である複数の三次元点以外、かつ、距離が距離閾値以上であっても特徴量が特徴量閾値(第1の特徴量閾値)以上である複数の三次元点が所定数以上となる距離区間に含まれる複数の三次元点以外となる三次元点は、上述の特徴量(勾配の値)が所定の特徴量閾値(第2の特徴量閾値)以上である三次元点を判定する対象から除外してもよい。
なお、上述の第1の特徴量閾値と、上述の第2の特徴量閾値とは、同一の値であってもよく、異なる値であってもよい。
以上に説明したように、本実施の形態2では、複数の三次元点のうち、特徴量(勾配の値)が所定の特徴量閾値以上である三次元点と、その三次元点を中心とした判定距離内に含まれる複数の三次元点とを抽出し、抽出した複数の三次元点と、環境地図が示す複数の三次元点とをマッチングすることで自己位置を推定するようにしている。
すなわち、幾何学的特徴がある三次元点をマッチングに利用する三次元点として採用するようにしている。これによれば、自己位置の推定の精度を向上することができる。
<発明の実施の形態3>
続いて、実施の形態3について説明する。以下の説明では、実施の形態1と同様の内容については、同一の符号を付す等して、適宜その説明を省略する。本実施の形態3に係るロボット1の外部構成及び内部構成については、実施の形態1に係るロボット1の外部構成及び内部構成と同様であるため、説明を省略する。
本実施の形態3は、実施の形態1と比較して、利用判定部13によるマッチングに利用する三次元点の判定方法、及び、マッチング処理部14の処理内容が異なる。図4を参照して、本実施の形態3に係る利用判定部13によるマッチングに利用する三次元点の判定方法、及び、マッチング処理部14の処理内容について説明する。
本実施の形態3に係る利用判定部13は、距離センサ31から取得した距離データが示す複数の三次元点を、マッチングに利用する三次元点として決定する。また、利用判定部13は、図4に示すように、複数の三次元点のそれぞれについて、その三次元点が含まれる所定の単位距離当たりにおける、特徴量(勾配の値)が所定の特徴量閾値以上となる三次元点の数に比例する重み係数を算出する。
本実施の形態3に係るマッチング処理部14は、利用判定部13が算出した重み係数に基づいて、重み係数が大きい三次元点はマッチングにおいて位置合わせが強く行われ、重み係数が小さい三次元点はマッチングにおいて位置合わせが弱く行われるように、マッチングを行う。言い換えると、マッチング処理部14は、三次元点の重み係数が大きくなるにしたがって、その三次元点と、環境地図においてその三次元点に対応する三次元点とを、より近くに位置合わせするように、ロボット1の位置合わせを行う。
これは、例えば、ICPによる収束演算において、距離データの各三次元点と、環境地図の各三次元点との距離の2乗和を最小化する計算の際に算出する三次元点間の誤差に重み係数を乗算することで実現する。よって、特徴量(勾配の値)が所定の特徴量閾値以上となる三次元点の数が0となる単位距離に含まれる三次元点については、重み係数も0となり、位置合わせに全く利用されなくなる。
ここで、上述の実施の形態3に係る判定方法は、実施の形態1に係る判定方法と組み合わせて利用するようにしてもよい。すなわち、利用判定部13は、距離が所定の距離閾値未満である複数の三次元点と、距離が距離閾値以上であっても特徴量が特徴量閾値以上である複数の三次元点が所定数以上となる距離区間に含まれる複数の三次元点とを、マッチングに利用する三次元点として決定し、その三次元点のみについて重み係数を算出するようにしてもよい。
以上に説明したように、本実施の形態3では、複数の三次元点のそれぞれについて、その三次元点が含まれる所定の単位距離当たりにおける、特徴量が所定の特徴量閾値以上となる三次元点の数に比例する重み係数を算出するようにしている。そして、三次元点の重み係数が大きくなるにしたがって、その三次元点と、環境地図においてその三次元点に対応する三次元点とを、より近くに位置合わせするように、複数の三次元点と、環境地図が示す複数の三次元点とをマッチングすることで自己位置を推定するようにしている。
すなわち、幾何学的特徴がある三次元点について位置合わせが強く行われるように、マッチングを行っている。これによれば、自己位置の推定の精度を向上することができる。
<発明の実施の形態4>
続いて、実施の形態4について説明する。以下の説明では、実施の形態1と同様の内容については、同一の符号を付す等して、適宜その説明を省略する。
続いて、図6を参照して、本実施の形態4に係るロボット1の内部構成について説明する。
図6に示すように、本実施の形態4に係るロボット1は、さらに、画像センサ32を有する。また、本実施の形態4に係るロボット1は、実施の形態1に係るロボット1と比較して、勾配計算部12に代えて、勾配計算部15と、センサ間対応付け部16とを有する。画像センサ32は、頭部30に含まれる。また、制御部11が、勾配計算部15及びセンサ間対応付け部16として機能する。
なお、画像センサ32は、ロボット1の頭部30において、距離センサ31と同様の位置に取り付けられることになるため、本実施の形態4に係るロボット1の外部構成については、図示しての説明は省略する。
画像センサ32は、ロボット1の周辺を観測(撮像)し、観測(撮像)した周辺の画像を示す画像データを生成するセンサである。画像センサ32は、例えば、単眼カメラである。
勾配計算部15は、画像センサ32から生成された画像データが示す画像における複数の画素のそれぞれについて、その画素の特徴量として、その画素と、特定の方向に隣接する他の画素との間の画素値の勾配を算出する。
センサ間対応付け部16は、距離センサ31から取得した距離データが示す複数の三次元点のそれぞれについて、その三次元点の特徴量として、勾配計算部15が算出した特徴量(勾配の値)のうち、その三次元点に対応する画素の特徴量を取得する。これは、複数の三次元点について、距離データにおける三次元点と、この三次元点と同位置の画素とを対応付けた情報を制御部11の記憶部に予め格納しておき、センサ間対応付け部16が、その情報に基づいて実施すればよい。
以降の処理については、三次元点の特徴量として、距離の勾配の値に代えて、画素値の勾配の値を利用すること以外は、実施の形態1と同様であるため、説明を省略する。
以上に説明したように、三次元点の特徴量として、距離の勾配の値に代えて、画素値の勾配の値を利用することもできる。
<発明の実施の形態5>
続いて、実施の形態5について説明する。以下の説明では、実施の形態4と同様の内容については、同一の符号を付す等して、適宜その説明を省略する。本実施の形態5に係るロボット1の外部構成については、実施の形態5に係るロボット1の外部構成と同様であるため、説明を省略する。
続いて、図7を参照して、本実施の形態5に係るロボット1の内部構成について説明する。
図7に示すように、本実施の形態5に係るロボット1は、実施の形態4に係るロボット1と比較して、勾配計算部15に代えて、画像特徴抽出部17を有する。制御部11が、画像特徴抽出部17として機能する。
画像特徴抽出部17は、画像センサ32から生成された画像データが示す画像における複数の画素のそれぞれについて、その画素の特徴量として、Color−SIFT特徴量などの既知の画像特徴量のうち、任意の画像特徴量を算出する。
以降の処理については、三次元点の特徴量として、画素値の勾配の値に代えて、任意の画素特徴量を利用すること以外は、実施の形態4と同様であるため、説明を省略する。
以上に説明したように、三次元点の特徴量として、画素値の勾配の値に代えて、任意の画素特徴量を利用することもできる。
なお、本発明は上記の実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
1 ロボット
10 本体
11 制御部
12、15 勾配計算部
13 利用判定部
14 マッチング処理部
16 センサ間対応付け部
17 画像特徴抽出部
20 移動台車
21a、21b アクチュエータ
22a、22b 車輪
30 頭部
31 距離センサ
32 画像センサ
40 アーム

Claims (1)

  1. 距離センサによって周辺を観測することで、周辺表面を示す複数の三次元点を取得し、
    前記距離センサ又は他のセンサによる周辺の観測結果に基づいて、前記複数の三次元点の特徴量を算出し、
    前記複数の三次元点のうち、前記距離センサからの距離が所定の距離閾値未満である複数の三次元点と、前記距離センサからの距離が前記距離閾値以上であっても前記特徴量が第1の特徴量閾値以上である複数の三次元点が所定数以上となる距離区間に含まれる複数の三次元点とを抽出し、
    さらに、前記抽出した複数の三次元点の中から、前記特徴量が第2の特徴量閾値以上である複数の三次元点を抽出し、
    前記第2の特徴量閾値に基づき前記抽出した複数の三次元点及びそのそれぞれを中心とした所定判定距離内に含まれる複数の三次元点と、環境地図が示す複数の三次元点又は面とをマッチングすることで自己位置を推定する
    自己位置推定方法。
JP2015209844A 2015-10-26 2015-10-26 自己位置推定方法 Expired - Fee Related JP6528641B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015209844A JP6528641B2 (ja) 2015-10-26 2015-10-26 自己位置推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015209844A JP6528641B2 (ja) 2015-10-26 2015-10-26 自己位置推定方法

Publications (2)

Publication Number Publication Date
JP2017083230A JP2017083230A (ja) 2017-05-18
JP6528641B2 true JP6528641B2 (ja) 2019-06-12

Family

ID=58712875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015209844A Expired - Fee Related JP6528641B2 (ja) 2015-10-26 2015-10-26 自己位置推定方法

Country Status (1)

Country Link
JP (1) JP6528641B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12265396B2 (en) 2019-03-13 2025-04-01 Chiba Institute Of Technology Information processing device and mobile robot
US12146747B2 (en) 2020-03-13 2024-11-19 Chiba Institute Of Technology Self-localization device
JP7555072B2 (ja) * 2020-12-16 2024-09-24 株式会社豊田自動織機 自己位置推定装置、及び移動体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112006003363B4 (de) * 2005-12-16 2016-05-04 Ihi Corporation Verfahren und Vorrichtung zur Identifizierung der Eigenposition, und Verfahren und Vorrichtung zur Messung einer dreidimensionalen Gestalt
JP2008250906A (ja) * 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd 移動ロボット、自己位置補正方法および自己位置補正プログラム
JP5068840B2 (ja) * 2010-03-30 2012-11-07 富士ソフト株式会社 ロボットのプログラム及び情報処理装置のプログラム
JP5821275B2 (ja) * 2011-05-20 2015-11-24 マツダ株式会社 移動体位置検出装置
FR2977023B1 (fr) * 2011-06-24 2014-02-21 Univ Angers Generation de donnees de carte
JP5838901B2 (ja) * 2012-04-25 2016-01-06 トヨタ自動車株式会社 物体識別装置及び物体識別方法
JP6424822B2 (ja) * 2013-08-29 2018-11-21 日本電気株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP2017083230A (ja) 2017-05-18

Similar Documents

Publication Publication Date Title
US12393196B2 (en) Systems and methods for training a robot to autonomously travel a route
CN111788041B (zh) 由机器人基于使用(一个或多个)机器学习模型确定的抓取策略对物体的抓取
US10127677B1 (en) Using observations from one or more robots to generate a spatio-temporal model that defines pose values for a plurality of objects in an environment
US9244463B2 (en) Automated guided vehicle and method of operating an automated guided vehicle
KR101739996B1 (ko) 이동 로봇 및 이동 로봇의 위치 인식 및 지도 작성 방법
JP4495252B2 (ja) 経路危険性評価装置、経路危険性評価方法及びプログラム
JP5803367B2 (ja) 自己位置推定装置、自己位置推定方法およびプログラム
JP6032163B2 (ja) 三次元物体認識装置、三次元物体認識方法、及び移動体
US10102629B1 (en) Defining and/or applying a planar model for object detection and/or pose estimation
US11852484B2 (en) Method for determining the orientation of a robot, orientation determination apparatus of a robot, and robot
KR101423139B1 (ko) 3차원 직선을 이용하여 위치를 인식하고 지도를 생성하는 방법 및 그 방법에 따른 이동체
CN110355774A (zh) 手控制装置及手控制系统
JP2018501973A5 (ja)
US20190184569A1 (en) Robot based on artificial intelligence, and control method thereof
US11097414B1 (en) Monitoring of surface touch points for precision cleaning
CN111061215B (zh) 控制机器人脱困的方法、装置、机器人
JP6528641B2 (ja) 自己位置推定方法
JP2010288112A (ja) 自己位置推定装置及び自己位置推定方法
US10232519B2 (en) Robot and method of controlling the same
JP5803769B2 (ja) 移動ロボット
JP6270334B2 (ja) ロボット制御装置及び方法
CN111971149A (zh) 记录介质、信息处理设备和信息处理方法
CN115235470A (zh) 一种基于视觉检测的农业机器人定位导航方法及系统
JP2022011821A (ja) 情報処理装置、情報処理方法、移動ロボット
JP2016081159A (ja) 移動体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190429

R151 Written notification of patent or utility model registration

Ref document number: 6528641

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees