JP6937995B2 - 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法 - Google Patents
物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法 Download PDFInfo
- Publication number
- JP6937995B2 JP6937995B2 JP2018072896A JP2018072896A JP6937995B2 JP 6937995 B2 JP6937995 B2 JP 6937995B2 JP 2018072896 A JP2018072896 A JP 2018072896A JP 2018072896 A JP2018072896 A JP 2018072896A JP 6937995 B2 JP6937995 B2 JP 6937995B2
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- work
- unit
- recognition result
- reliability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/34—Sorting according to other particular properties
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/243—Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
- G06V20/647—Three-dimensional objects by matching two-dimensional images to three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Geometry (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Description
まず、図1を用いて、本開示の一例が適用される場面の一例について説明する。図1は、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100の適用場面の一例を模式的に示す平面図である。本実施形態に係るワークピッキング装置100は、例えば収納容器6等の供給装置内にばら積みされた複数のワーク5を、その収納容器6から取り出して適宜のトレー等(図示せず)へ移設し、整列させて配置する。また、図1の例では、ワークピッキング装置100は、センサ1、ハンド2、ロボット3、及び、制御装置4を備える。
ワーク5に位置姿勢認識に先立って作成されたワーク5の3次元形状を表す3次元モデルデータ(3次元CADモデルデータ)を取得する。また、その3次元モデルデータを用いて、後記の位置姿勢認識処理で使用可能な適宜のテンプレートやモデルパターンを必要に応じて作成する。
(1)の処理で取得又は作成した3次元モデルデータ等と、センサ1の計測データとを、所定の認識パラメータを用いて照合する3次元マッチングを行い、ワーク5の位置姿勢(例えば、そのワーク5の3次元座標及び3次元軸まわりの回転角度)を認識する。また、各ワーク5の位置姿勢認識結果として、例えば、各ワーク5について認識された位置姿勢を2次元投影した2次元画像に、3次元マッチングにおいてワーク5の特徴点や特徴部位として検出された例えば輪郭線(エッジに該当する線分)等を識別可能に表示した画像を出力する。
(2)の処理で得たワーク5の位置姿勢認識結果における3次元モデルデータと計測データとの類似度として、ワーク5の位置姿勢認識の際に実施した3次元マッチングにおける合致度である類似スコアを、所定の算出パラメータを用いて算出する。
(2)の処理で得たワーク5の位置姿勢認識結果におけるワーク5の3次元形状の特徴を示す指標を算出する。ここで、ワーク5の3次元形状の特徴を示す「指標」としては、例えば、以下に示す特徴量、即ち位置姿勢認識結果から把握されるワーク5の3次元形状の多様性を示す物理量が挙げられる。但し、「指標」はこれらに限定されない。また、以下の各指標に示す値自体ではなく、その値に適宜の補正演算を施したものを「指標」としてもよい。
(指標2)ワーク5の位置姿勢認識結果において検出される各面について量子化された法線方向の頻度分布における最頻値又はその逆数であり、最頻度が小さいほど(その逆数が大きいほど)好ましい。
(指標3)ワーク5の位置姿勢認識結果において検出される各面について量子化された法線方向(頻度がゼロのものを除く)の頻度分布における分散であり、小さい方が好ましい。
(指標4)ワーク5の位置姿勢認識結果において算出されるワーク5の表面積であり、大きいほど好ましい。
(指標5)ワーク5の位置姿勢認識結果において検出される輪郭線(エッジに該当する線分)の数であり、多いほど好ましい。
(指標6)ワーク5の位置姿勢認識結果において検出される輪郭線(エッジに該当する線分)の長さであり、長いほど好ましい。
(指標7)ワーク5の位置姿勢認識結果における輝度分布の分散であり、大きいほど好ましい。
(指標8)ワーク5の位置姿勢認識結果における距離分布の分散であり、大きいほど好ましい。
(3)の処理で得た類似スコアと(4)の処理で得た信頼度とを用い、例えば両者を適宜の演算によって組み合わせることにより、(2)の処理で得たワーク5の位置姿勢認識結果の良否を示す統合スコアを算出する。
(5)の処理で得た統合スコアに基づいて、例えば、検出された各ワーク5についての位置姿勢認識結果の統合スコアを所定の閾値(判定値)と比較し、その閾値以上の統合スコアが得られた位置姿勢認識結果のワーク5を、ハンド2による把持対象のワーク5として決定する。
(5)の処理で得た統合スコアに基づいて、例えば、検出された各ワーク5についての位置姿勢認識結果の統合スコアを所定の閾値(判定値)と比較し、その閾値以上の統合スコアを有する位置姿勢認識結果が得られなかった場合に、計測条件を変更する。
(5)の処理で把持対象として決定されたワーク5について、(2)の処理で得たそのワーク5の位置姿勢認識結果に基づいて、ハンド2がそのワーク5を把持する際のハンド2の把持姿勢を、所定の算出パラメータを用いて算出する。
ハンド2の初期姿勢(初期位置)と、(8)の処理で得たワーク5を把持する際のハンド2の把持姿勢の算出結果に基づいて、ロボット3によりハンド2を初期姿勢から把持姿勢まで移動する経路を、所定の算出パラメータを用いて算出する。
ワーク5の3次元位置情報を含む計測データを取得する際の計測条件に基づいてセンサ1の動作を制御し、算出された把持姿勢に基づいてハンド2の動作を制御し、算出された経路に基づいてロボット3の動作を制御する。
[ハードウェア構成]
次に、図2を用いて、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100のハードウェア構成の一例について説明する。図2は、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100のハードウェアの構成の一例を模式的に示す平面図である。
次に、図3を用いて、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100の機能構成の一例を説明する。図3は、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100の機能構成の一例を模式的に示す平面図である。
次いで、図4を用いて、ワークピッキング装置100の動作の一例について説明する。図4は、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100における処理手順の一例を示すフローチャートであり、物体認識処理装置を用いた物体認識処理方法の一例、及び、ワークピッキング装置100を用いたワークピッキング方法における処理手順の一例を示すフローチャートでもある。なお、以下で説明する処理手順は一例に過ぎず、各処理は、本開示の技術思想の範囲内において可能な限り変更されてよい。また、以下で説明する処理手順は、実施形態や各構成例に応じて、適宜、ステップの省略、置換、及び追加が可能である。
まず、ワークピッキング装置100のユーザは、ワークピッキング装置100を起動し、各種プログラム(演算プログラム、制御プログラム等)を実行させる。それから、制御装置4における制御演算部41は、以下の処理手順に従って、センサ1、ハンド2、及びロボット3のそれぞれの動作を制御し、且つ、制御装置4における各機能部による演算処理を行う。また、本実施形態では、以下の各ステップにおける処理に先立って、個々のステップで必要となる計測条件、認識パラメータ、及び種々の算出パラメータの初期値セットを、記憶部43から読み出し、センサ制御部510、位置姿勢認識部420、把持姿勢算出部480、及び経路算出部490に適宜保持しておく。但し、かかる計測条件や種々のパラメータの読み出しは、各ステップの処理前であれば適宜のタイミングで行うことができる。
ステップS1では、モデルデータ取得部410は、予め作成されたワーク5の3次元形状を表す3次元モデルデータ(3次元CADモデルデータ)、3次元マッチングで使用可能なテンプレートやモデルパターンを取得し、それらを記憶部43に記憶する。このとおり、ステップS1が前記適用例における「(1)モデルデータ取得処理」に相当する。
ステップS2では、センサ制御部510は、センサ1を作動させ、計測条件の初期値セットを用いて、ワーク5を計測し、ワーク5の3次元位置情報を含む計測データを取得する。計測条件としては、例えば、露光時間、照明照度、及び計測位置(例えば、ワーク5に対するセンサ1の相対的な3次元位置又は姿勢(光軸の向き))の他、適用される計測方式において設定される各種条件が挙げられる。そして、センサ1は、ワーク5の計測データとして、例えば3次元点群データ(ポイントクラウドデータ)や距離画像等に加え、必要に応じて例えば輝度画像等を制御装置4へ出力する。このとおり、ステップS2は前記適用例における「(10)各種制御処理」に相当する。
ステップS3では、位置姿勢認識部420は、ワーク5の計測データからワーク5の3次元形状を示す特徴点を抽出し、ワーク5の3次元モデルデータにおいて対応する特徴点又は特徴パターンと、所定の探索領域において照合する3次元マッチングを行い、ワーク5の位置姿勢の認識パラメータの初期値セットを用いて、個々のワーク5の位置姿勢を認識する。位置姿勢の出力データとして、例えば、ワーク5の3次元座標(x,y,z)及び3次元軸まわりの回転角度(rx,ry,rz)が挙げられる。また、位置姿勢認識部420は、必要に応じて位置姿勢が検出されたワーク5の数を算出し、それらの認識結果及び算出結果を記憶部43に記憶する。ワーク5の位置姿勢の認識パラメータとしては、例えば、位置姿勢認識におけるワーク5の検出に関する閾値等が挙げられ、より具体的には、ワーク5の3次元モデルデータとワーク5の計測データとの3次元マッチングの閾値等を例示することができる。さらに、位置姿勢認識部420は、検出された各ワーク5の位置姿勢認識結果として、例えば図5に示す画像及びその描画データを出力し、それらを記憶部43に記憶する。
ステップS4では、類似スコア算出部430は、ワーク51〜55の位置姿勢認識結果A〜Eにおける3次元モデルデータと計測データとの類似度として、ステップS3で実施した3次元マッチングにおける合致度である類似スコアSを、所定の算出パラメータの初期値セットを用いて算出する。ここで、類似スコアSは、例えば0〜100の範囲内の値で表され、類似スコアS=0が最も低い合致度に相当し、類似スコアS=100が最も高い合致度に相当する。
ステップS5では、信頼度算出部440は、図5に示す各ワーク51〜55の位置姿勢認識結果A〜Eにおける3次元形状の特徴を示す指標D1を算出する。ここでは、信頼度算出部440は、まず、ワーク51〜55の位置姿勢認識結果A〜Eのそれぞれにおいて検出される面を特定する。次に、特定した各面の法線ベクトル(法線方向を示す)を求め、さらに、その法線方向を量子化する。そして、ワーク51〜55の位置姿勢認識結果A〜Eのそれぞれについて、量子化された法線方向の頻度分布における最頻値を算出する。そして、得られたその最頻値の逆数(最頻値に逆数演算子による補正を施した値)を、最終的に指標D1として算定する。このとおり、本ステップで算出する指標D1は、前記適用例における指標2(ワーク5の位置姿勢認識結果において検出される各面について量子化された法線方向の頻度分布における最頻値又はその逆数)に該当する。
ステップS6では、信頼度算出部440は、図5に示す各ワーク51〜55の位置姿勢認識結果A〜Eにおける3次元形状の特徴を示す指標D2として、認識された各ワーク51〜55の表面積を算出する。例えば、センサ1から出力された3次元点群データ、又は、それに対応する2次元画像において、図5に表示された各ワーク51〜55の位置姿勢認識結果A〜Eにおける平面領域(ワーク51〜55の実際の形状領域ではない。)の周縁を画定する輪郭線の2次元座標を特定し、その2次元座標から算出される面積を各ワーク51〜55の位置姿勢認識結果A〜Eにおける表面積とすることができる。
ステップS7では、信頼度算出部440は、得られた指標D1,D2を用いて、ワーク51〜55の位置姿勢認識結果A〜Eの類似スコアの信頼度Rを算出する。ここでは、例えば、指標D1,D2のうち何れかをそのまま信頼度Rとしてもよく、或いは、指標D1,D2の重要度又は優先度に応じて重み付けするといった適宜の補正を施したものを信頼度Rとしてもよい。また、指標D1,D2、又は、各指標D1,D2に重み付け等の適宜の補正を施したものを、乗算等の適宜の演算によって組み合わせたものを信頼度Rとすることができる。
ステップS8では、統合スコア算出部450は、得られた類似スコアSと信頼度Rとを、乗算等の適宜の演算によって組み合わせたものを、統合スコアSTとして算出する。より具体的には、統合スコアST=類似スコアS×信頼度Rとすると、ワーク51〜55の位置姿勢認識結果A〜Eにおける統合スコアSTとして、それぞれ、「100」、「133」、「80」、「167」、及び「100」が算出される。こうして得られたワーク51〜55の位置姿勢認識結果A〜Eにおける統合スコアSTの算出結果の一例を図6の表にまとめて示す。このとおり、ステップS8は前記適用例における「(5)統合スコア算出処理」に相当する。
分岐処理であるステップS9では、例えば、把持物体決定部460は、得られた統合スコアSTが予め設定された閾値(例えば、「90」、「100」、「110」等)以上であるか否かを判定する。統合スコアSTがその閾値以上である場合には、後述するステップS10以降の処理へ移行し、統合スコアSTがその閾値未満である場合には、後述するステップS20以降の処理へ移行する。
ステップS9において、統合スコアSTが閾値以上であると判定された場合(ステップS9において「Yes」の場合)、ステップS10では、把持物体決定部460は、その閾値以上の統合スコアSTが得られた位置姿勢認識結果のワーク5を選定する。例えば、統合スコアSTが高い順に、又は、任意の順に、ハンド2が把持する対象のワーク5を決定する。具体的には、その閾値が「90」であり、図6に示す統合スコアSTが得られた場合、把持物体決定部460は、統合スコアSTがそれ以上であるワーク51,52,54を選定し、統合スコアSTが高いその順に把持対象として決定することができる(この場合、例えば、直近に把持する対象は、統合スコアSTが「167」と最も高いワーク54となる。)。このとおり、ステップS9,S10が前記適用例における「(6)把持物体決定処理」に相当する。
ステップS11では、把持姿勢算出部480は、把持対象として決定されたワーク5を把持する際のハンド2の把持姿勢の算出パラメータの初期値セットを用いて、且つ、ステップS3で認識されたそのワーク5の位置姿勢に基づいて、ハンド2によるそのワーク5の把持姿勢を算出する。ハンド2によるワーク5の把持姿勢の算出パラメータとしては、例えば、把持姿勢算出における閾値等が挙げられる。なお、本ステップでは、直近の把持対象であるワーク5(例えばワーク54)の把持姿勢のみ算出してもよいし、ステップS10で把持対象として決定されたワーク5(例えばワーク51,52,54)の把持姿勢を全て算出しておいてもよい。このとおり、ステップS11は前記適用例における「(8)把持姿勢算出処理」に相当する。
ステップS40では、経路算出部490は、ハンド2の初期姿勢から把持姿勢へ移動する経路の算出パラメータの初期値セットを用いて、ハンド2を、その初期姿勢から、ステップS11で算出された把持姿勢まで移動する経路を算出する。ハンド2の初期姿勢から把持姿勢へ移動する経路の算出パラメータとしては、例えば、ワーク5や収納容器6に対するハンド2の干渉判定の閾値等が挙げられる。このとおり、ステップS12は前記適用例における「(9)経路算出処理」に相当する。
そして、ステップ13では、ロボット制御部530は、ステップS12で算出された把持対象のワーク5への経路に基づいて、ロボット3を作動させ、ハンド2を、そのワーク5についてステップS11で算出された把持姿勢まで移動する。それから、ハンド制御部520は、その把持姿勢に基づいて、ハンド2を作動させ、把持対象のワーク5を把持する。さらに、ロボット制御部530及びハンド制御部520は、把持したワーク5を収納容器6から取り出し、適宜のトレー等へ移設し、整列させて配置する。このとおり、ステップS13も前記適用例における「(10)各種制御処理」に相当する。
一方、ステップS9において、統合スコアSTが閾値未満であると判定された場合(ステップS9において「No」の場合)、分岐ステップであるステップS20では、例えば、計測条件変更部460は、類似スコアSの信頼度R又は統合スコアSTが、先のステップS7で一旦算出された信頼度R又は統合スコアSTよりも高くなり得るワーク5の位置姿勢があるか否かを判定する。
一方、ステップS20において、より高い信頼度R又は統合スコアSTが得られるワーク5の位置姿勢があると判定された場合(ステップS20において「Yes」の場合)、分岐ステップであるステップ21では、例えば、計測条件変更部460は、最も高い信頼度R又は統合スコアSTが得られるワーク5の最適な位置姿勢を、センサ1によって計測することができる計測条件(例えば、センサ1の位置姿勢)があるか否かを判定する。
他方、ステップS21において、ワーク5の目的の位置姿勢をセンサ1によって計測することができると判定された場合(ステップS21において「Yes」の場合)、ステップS22では、計測条件変更部460は、センサ1によるワーク5の計測条件の初期値セットを、ワーク5のその目的の位置姿勢が得られるセンサ1の位置姿勢を含むセットへ変更する。
以上のとおり、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100、及び、それらを用いた方法の一例によれば、まず、ワーク5の位置姿勢を認識する際に、3次元モデルデータとワーク5の計測データとの3次元マッチングにおける類似スコアSを算出する。また、かかる類似スコアSのみではなく、位置姿勢認識結果におけるワーク5の3次元形状の特徴に着目し、かかる特徴を表す指標D1,D2を算出し、さらに、それらの指標D1,D2から類似スコアSの信頼度Rを算出する。そして、類似スコアSのみではなく、類似スコアSとその信頼度Rとを組み合わせて得られる統合スコアSTを用いることにより、ワーク5の位置姿勢認識結果の良否(認識精度)を判別することができる。
以上、本開示の一例としての実施形態について詳細に説明してきたが、前述した説明はあらゆる点において本開示の一例を示すに過ぎず、本開示の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもなく、例えば、以下に示すような変更が可能である。なお、以下の説明においては、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、説明を適宜省略した。また、上記実施形態及び以下の各変形例は、適宜組み合わせて構成することが可能である。
図8(A)は、第1変形例に係る物体認識処理装置を備えるワークピッキング装置200の適用場面の一例を模式的に示す平面図であり、図8(B)は、第1変形例に係るワークピッキング装置200に備わる物体認識処理装置によるワーク56,57(何れもワーク5に該当し、この例では、それらの3次元形状は全て同じであるとする。)の位置姿勢認識結果の一例を模式的に示す平面図である。
上記実施形態では、指標D1,D2の少なくとも何れかを用いたが、それに加えて、又は、それに代えて、前記適用例における指標1,3,5,6,7,8の少なくとも何れかを用いてもよい。
以上説明した実施形態及び変形例は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態及び変形例が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態及び変形例で示した構成同士を部分的に置換し又は組み合わせることも可能である。
物体(5)の3次元形状を表す3次元モデルデータを取得するモデルデータ取得部(410)と、
前記物体(5)の3次元位置情報を含む計測データを取得する計測部(1)と、
前記3次元モデルデータと前記計測データとに基づいて、前記物体(5)の位置姿勢を認識する位置姿勢認識部(420)と、
前記物体(5)の位置姿勢認識結果における前記3次元モデルデータと前記計測データとの類似度を示す類似スコア(S)を算出する類似スコア算出部(430)と、
前記物体(5)の位置姿勢認識結果における該物体(5)の3次元形状の特徴を示す指標(D1,D2)を算出し、該指標(D1,D2)に基づいて前記類似スコア(S)の信頼度(R)を算出する信頼度算出部(440)と、
前記類似スコア(S)と前記信頼度(R)とに基づいて、前記物体(5)の位置姿勢認識結果の良否を示す統合スコア(ST)を算出する統合スコア算出部(450)と、
を備える物体認識処理装置。
前記物体(5)の3次元形状の特徴は、前記物体(5)の位置姿勢認識結果から把握される、前記物体(5)の3次元形状の多様性を示す物理量である、
付記1の物体認識処理装置。
前記信頼度算出部(440)は、前記物体(5)の位置姿勢認識結果における面の数を、前記指標(D1,D2)として算出する、
付記1又は2の物体認識処理装置。
前記信頼度算出部(440)は、前記物体(5)の位置姿勢認識結果における各面の法線方向を量子化し、当該量子化された前記法線方向の頻度分布における最頻値、又は、分散を、前記指標(D1,D2)として算出する、
付記1乃至3の何れかの物体認識処理装置。
前記信頼度算出部(440)は、前記物体(5)の位置姿勢認識結果における表面積を、前記指標(D1,D2)として算出する、
付記1乃至4の何れかの物体認識処理装置。
前記信頼度算出部(440)は、前記物体(5)の位置姿勢認識結果における輪郭線の数、又は、長さを、前記指標(D1,D2)として算出する、
付記1乃至5の何れかの物体認識処理装置。
前記信頼度算出部(440)は、前記物体(5)の位置姿勢認識結果における輝度分布における分散、又は、前記物体(5)の位置姿勢認識結果における距離分布における分散を表す値を、前記指標(D1,D2)として算出する、
付記1乃至6の何れかの物体認識処理装置。
前記信頼度算出部(440)は、前記指標(D1,D2)に重み付けを行い、該重み付けした指標(D1,D2)に基づいて、前記類似スコア(S)の信頼度(R)を算出する、
付記1乃至7の何れかの物体認識処理装置。
前記信頼度算出部(440)は、前記物体(5)の異なる位置姿勢毎に前記指標(D1,D2)又は前記信頼度(R)を予め算出しておき、前記物体(5)の位置姿勢認識結果に対応する前記指標(D1,D2)又は前記信頼度(R)を選定する、
付記1乃至8の何れかの物体認識処理装置。
モデルデータ取得部(410)と、計測部(1)と、位置姿勢認識部(420)と、類似スコア算出部(430)と、信頼度算出部(440)と、統合スコア算出部(450)とを備える物体認識処理装置を用いた物体認識処理方法であって、
前記モデルデータ取得部(410)が、物体(5)の3次元形状を表す3次元モデルデータを取得するステップと、
前記計測部(1)が、前記物体(5)の3次元位置情報を含む計測データを取得するステップと、
前記位置姿勢認識部(420)が、前記3次元モデルデータと前記計測データとに基づいて、前記物体(5)の位置姿勢を認識するステップと、
前記類似スコア算出部(430)が、前記物体(5)の位置姿勢認識結果における前記3次元モデルデータと前記計測データとの類似度を示す類似スコア(S)を算出するステップと、
前記信頼度算出部(440)が、前記物体(5)の位置姿勢認識結果における該物体(5)の3次元形状の特徴を示す指標(D1,D2)を算出し、該指標(D1,D2)に基づいて前記類似スコア(S)の信頼度(R)を算出するステップと、
前記統合スコア算出部(450)が、前記類似スコア(S)と前記信頼度(R)とに基づいて、前記物体(5)の位置姿勢認識結果の良否を示す統合スコア(ST)を算出するステップと、
を含む、
物体認識処理方法。
物体(5)を把持して取り出すための物体ピッキング装置(100,200)であって、
付記1乃至9の何れかの物体認識処理装置と、
前記物体(5)を把持するハンド(2)と、
前記ハンド(2)を移動するロボット(3)と、
前記物体認識処理装置、前記ハンド(2)、及び前記ロボット(3)を制御する制御装置(4)と、
を備え、
前記制御装置(4)は、前記物体認識処理装置によって算出された前記統合スコア(ST)に基づいて、前記ハンド(2)が把持する前記物体(5)を決定する把持物体(5)決定部、前記ハンド(2)が前記物体(5)を把持する際の前記ハンド(2)の把持姿勢を算出する把持姿勢算出部(480)、及び、前記ロボット(3)により前記ハンド(2)を前記把持姿勢へ移動する経路を算出する経路算出部(490)を有する、
物体ピッキング装置(100,200)。
前記制御装置(4)は、前記物体認識処理装置によって算出された前記統合スコア(ST)に基づいて、前記計測データを取得する際の計測条件を変更する計測条件変更部(470)を有し、
前記物体認識処理装置の前記計測部(1)は、変更後の前記計測条件に基づいて、前記物体(5)の3次元位置情報を含む計測データを再取得し、
前記物体認識処理装置の前記位置姿勢認識部(420)は、前記3次元モデルデータと再取得された前記計測データとに基づいて、前記物体(5)の位置姿勢を再認識する、
付記11の物体ピッキング装置(100,200)。
前記計測条件変更部(470)は、前記計測条件として、前記計測部(1)の位置姿勢を変更する、
付記12の物体ピッキング装置(100,200)。
前記パラメータ変更部(470)は、前記3次元モデルデータ、再認識前の前記物体(5)の位置姿勢認識結果、及び、前記計測データの再取得前の前記計測部(1)の位置姿勢に基づいて、変更するべき前記計測部(1)の位置姿勢を算出する、
付記13の物体ピッキング装置(100,200)。
付記1乃至9の何れかの物体認識処理装置と、ハンド(2)と、ロボット(3)と、制御装置(4)とを備える物体ピッキング装置(100,200)を用い、物体(5)を把持して取り出すための物体ピッキング方法であって、
前記物体認識処理装置が、前記物体(5)の位置姿勢認識結果における良否を示す統合スコア(ST)を算出する算出ステップと
前記ハンド(2)が、前記物体(5)を把持する把持ステップと、
前記ロボット(3)が、前記ハンド(2)を移動する移動ステップと、
前記制御装置(4)が、前記物体認識処理装置、前記ハンド(2)、及び前記ロボット(3)を制御する制御ステップと、
を含み、
前記制御ステップは、前記統合スコア(ST)に基づいて、前記ハンド(2)が把持する前記物体(5)を決定する把持物体決定ステップ、前記ハンド(2)が前記物体(5)を把持する際の前記ハンド(2)の把持姿勢を算出する把持姿勢算出ステップ、及び、前記ロボット(3)により前記ハンド(2)を前記把持姿勢へ移動する経路を算出する経路算出ステップを有する、
物体ピッキング方法。
Claims (13)
- 物体の3次元形状を表す3次元モデルデータを取得するモデルデータ取得部と、
前記物体の3次元位置情報を含む計測データを取得する計測部と、
前記3次元モデルデータと前記計測データとに基づいて、前記物体の位置姿勢を認識する位置姿勢認識部と、
前記物体の位置姿勢認識結果における輪郭線と前記物体の実際の輪郭線との合致度の高低に基づいて、前記3次元モデルデータと前記計測データとの類似度を示す類似スコアを算出する類似スコア算出部と、
前記物体の位置姿勢認識結果における各面の法線方向を量子化し、当該量子化された前記法線方向の頻度分布における最頻値、又は、分散を、該物体の3次元形状の特徴を示す指標として算出し、該指標の値をそのまま、又は、該指標に補正演算を施した値を前記類似スコアの信頼度として算出する信頼度算出部と、
前記類似スコアと前記信頼度とを演算によって組み合わせた値を、前記物体の位置姿勢認識結果の良否を示す統合スコアとして算出する統合スコア算出部と、
を備える物体認識処理装置。 - 前記信頼度算出部は、前記物体の位置姿勢認識結果における面の数を、前記指標として算出する、
請求項1記載の物体認識処理装置。 - 前記信頼度算出部は、前記物体の位置姿勢認識結果における表面積を、前記指標として算出する、
請求項1又は2記載の物体認識処理装置。 - 前記信頼度算出部は、前記物体の位置姿勢認識結果における輪郭線の数、又は、長さを、前記指標として算出する、
請求項1乃至3の何れか1項記載の物体認識処理装置。 - 前記信頼度算出部は、前記物体の位置姿勢認識結果における輝度分布における分散、又は、前記物体の位置姿勢認識結果における距離分布における分散を表す値を、前記指標として算出する、
請求項1乃至4の何れか1項記載の物体認識処理装置。 - 前記信頼度算出部は、前記指標に前記補正演算としての重み付けを行い、該重み付けした指標の値を前記類似スコアの信頼度として算出する、
請求項1乃至5の何れか1項記載の物体認識処理装置。 - 前記信頼度算出部は、前記物体の異なる位置姿勢毎に前記指標又は前記信頼度を予め算出しておき、前記物体の位置姿勢認識結果に対応する前記指標又は前記信頼度を選定する、
請求項1乃至6の何れか1項記載の物体認識処理装置。 - モデルデータ取得部と、計測部と、位置姿勢認識部と、類似スコア算出部と、信頼度算出部と、統合スコア算出部とを備える物体認識処理装置を用いた物体認識処理方法であって、
前記モデルデータ取得部が、物体の3次元形状を表す3次元モデルデータを取得するステップと、
前記計測部が、前記物体の3次元位置情報を含む計測データを取得するステップと、
前記位置姿勢認識部が、前記3次元モデルデータと前記計測データとに基づいて、前記物体の位置姿勢を認識するステップと、
前記類似スコア算出部が、前記物体の位置姿勢認識結果における輪郭線と前記物体の実際の輪郭線との合致度の高低に基づいて、前記3次元モデルデータと前記計測データとの類似度を示す類似スコアを算出するステップと、
前記信頼度算出部が、前記物体の位置姿勢認識結果における各面の法線方向を量子化し、当該量子化された前記法線方向の頻度分布における最頻値、又は、分散を、該物体の3次元形状の特徴を示す指標として算出し、該指標の値をそのまま、又は、該指標に補正演算を施した値を前記類似スコアの信頼度として算出するステップと、
前記統合スコア算出部が、前記類似スコアと前記信頼度とを演算によって組み合わせた値を、前記物体の位置姿勢認識結果の良否を示す統合スコアとして算出するステップと、
を含む、
物体認識処理方法。 - 物体を把持して取り出すための物体ピッキング装置であって、
請求項1乃至7の何れか1項記載の物体認識処理装置と、
前記物体を把持するハンドと、
前記ハンドを移動するロボットと、
前記物体認識処理装置、前記ハンド、及び前記ロボットを制御する制御装置と、
を備え、
前記制御装置は、前記物体認識処理装置によって算出された前記統合スコアに基づいて、前記ハンドが把持する前記物体を決定する把持物体決定部、前記ハンドが前記物体を把持する際の前記ハンドの把持姿勢を算出する把持姿勢算出部、及び、前記ロボットにより前記ハンドを前記把持姿勢へ移動する経路を算出する経路算出部を有する、
物体ピッキング装置。 - 前記制御装置は、前記物体認識処理装置によって算出された前記統合スコアに基づいて、前記計測データを取得する際の計測条件を変更する計測条件変更部を有し、
前記物体認識処理装置の前記計測部は、変更後の前記計測条件に基づいて、前記物体の3次元位置情報を含む計測データを再取得し、
前記物体認識処理装置の前記位置姿勢認識部は、前記3次元モデルデータと再取得された前記計測データとに基づいて、前記物体の位置姿勢を再認識する、
請求項9記載の物体ピッキング装置。 - 前記計測条件変更部は、前記計測条件として、前記計測部の位置姿勢を変更する、
請求項10記載の物体ピッキング装置。 - 前記計測条件変更部は、前記3次元モデルデータ、再認識前の前記物体の位置姿勢認識結果、及び、前記計測データの再取得前の前記計測部の位置姿勢に基づいて、変更するべき前記計測部の位置姿勢を算出する、
請求項11記載の物体ピッキング装置。 - 請求項1乃至7の何れか1項記載の物体認識処理装置と、ハンドと、ロボットと、制御装置とを備える物体ピッキング装置を用い、物体を把持して取り出すための物体ピッキング方法であって、
前記物体認識処理装置が、前記物体の位置姿勢認識結果における良否を示す統合スコアを算出する算出ステップと
前記ハンドが、前記物体を把持する把持ステップと、
前記ロボットが、前記ハンドを移動する移動ステップと、
前記制御装置が、前記物体認識処理装置、前記ハンド、及び前記ロボットを制御する制御ステップと、
を含み、
前記制御ステップは、前記統合スコアに基づいて、前記ハンドが把持する前記物体を決定する把持物体決定ステップ、前記ハンドが前記物体を把持する際の前記ハンドの把持姿勢を算出する把持姿勢算出ステップ、及び、前記ロボットにより前記ハンドを前記把持姿勢へ移動する経路を算出する経路算出ステップを有する、
物体ピッキング方法。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018072896A JP6937995B2 (ja) | 2018-04-05 | 2018-04-05 | 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法 |
| CN201910179773.3A CN110348279B (zh) | 2018-04-05 | 2019-03-11 | 物体识别处理装置和方法、以及物体拣选装置和方法 |
| EP19164284.2A EP3550470B1 (en) | 2018-04-05 | 2019-03-21 | Object recognition processing apparatus and method, and object picking apparatus and method |
| US16/362,085 US11511421B2 (en) | 2018-04-05 | 2019-03-22 | Object recognition processing apparatus and method, and object picking apparatus and method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018072896A JP6937995B2 (ja) | 2018-04-05 | 2018-04-05 | 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019185239A JP2019185239A (ja) | 2019-10-24 |
| JP6937995B2 true JP6937995B2 (ja) | 2021-09-22 |
Family
ID=65904167
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018072896A Active JP6937995B2 (ja) | 2018-04-05 | 2018-04-05 | 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11511421B2 (ja) |
| EP (1) | EP3550470B1 (ja) |
| JP (1) | JP6937995B2 (ja) |
| CN (1) | CN110348279B (ja) |
Families Citing this family (37)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6879238B2 (ja) * | 2018-03-13 | 2021-06-02 | オムロン株式会社 | ワークピッキング装置及びワークピッキング方法 |
| US10769472B2 (en) * | 2018-03-28 | 2020-09-08 | Wipro Limited | Method and system counting plurality of objects placed in a region |
| JP6740288B2 (ja) * | 2018-07-13 | 2020-08-12 | ファナック株式会社 | 物体検査装置、物体検査システム、及び検査位置を調整する方法 |
| JP6856590B2 (ja) * | 2018-08-31 | 2021-04-07 | ファナック株式会社 | センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム |
| US10977480B2 (en) * | 2019-03-27 | 2021-04-13 | Mitsubishi Electric Research Laboratories, Inc. | Detection, tracking and 3D modeling of objects with sparse RGB-D SLAM and interactive perception |
| EP4001831A4 (en) * | 2019-07-18 | 2022-09-28 | Mitsubishi Electric Corporation | INSPECTION DEVICE, INSPECTION PROCEDURE AND PROGRAM |
| WO2021025955A1 (en) * | 2019-08-02 | 2021-02-11 | Dextrous Robotics, Inc. | Systems and methods for robotic control under contact |
| JP7331934B2 (ja) * | 2019-09-18 | 2023-08-23 | 日本電信電話株式会社 | 線路図作成装置、線路図作成方法及び線路図作成プログラム |
| CN111027589B (zh) * | 2019-11-07 | 2023-04-18 | 成都傅立叶电子科技有限公司 | 一种多分制目标检测算法评价系统及方法 |
| WO2021097487A1 (en) | 2019-11-12 | 2021-05-20 | Bright Machines, Inc. | A software defined manufacturing/assembly system |
| CN111210294A (zh) * | 2019-11-28 | 2020-05-29 | 海尔卡奥斯物联生态科技有限公司 | 一种大规模定制系统 |
| US11103998B2 (en) * | 2019-12-12 | 2021-08-31 | Mujin, Inc. | Method and computing system for performing motion planning based on image information generated by a camera |
| US12097627B2 (en) | 2020-01-23 | 2024-09-24 | Omron Corporation | Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system |
| JP7454132B2 (ja) * | 2020-01-23 | 2024-03-22 | オムロン株式会社 | ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム |
| DE112021002043T5 (de) * | 2020-04-02 | 2023-04-13 | Fanuc Corporation | Vorrichtung zum Korrigieren einer Robotereinlernposition, Einlernvorrichtung, Robotersystem, Einlernpositions-Korrekturverfahren und Computerprogramm |
| CN111906782B (zh) * | 2020-07-08 | 2021-07-13 | 西安交通大学 | 一种基于三维视觉的智能机器人抓取方法 |
| CN111804605B (zh) * | 2020-07-13 | 2021-03-19 | 东莞市恒明机器人自动化有限公司 | 一种注塑机自动装箱单元 |
| CN112171657B (zh) * | 2020-08-07 | 2023-06-27 | 天津大学 | 基于单目视觉的大尺寸长方体构件抓取装置及方法 |
| US12204314B2 (en) | 2020-11-10 | 2025-01-21 | Bright Machines, Inc. | Method and apparatus for improved auto-calibration of a robotic cell |
| CN112720464B (zh) * | 2020-12-09 | 2022-04-19 | 深圳先进技术研究院 | 基于机器人系统的目标拾取方法、电子设备、存储介质 |
| JP6917096B1 (ja) * | 2020-12-25 | 2021-08-11 | リンクウィズ株式会社 | 情報処理方法、情報処理システム、プログラム |
| JP7654982B2 (ja) * | 2021-01-22 | 2025-04-02 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置及び情報処理プログラム |
| JP7533265B2 (ja) * | 2021-02-12 | 2024-08-14 | オムロン株式会社 | 支援システム、画像処理装置、支援方法およびプログラム |
| JP7570944B2 (ja) * | 2021-02-22 | 2024-10-22 | 株式会社東芝 | 計測システム及び計測プログラム |
| CN112907583B (zh) * | 2021-03-29 | 2023-04-07 | 苏州科达科技股份有限公司 | 目标对象姿态选择方法、图像评分方法及模型训练方法 |
| JP2022174815A (ja) * | 2021-05-12 | 2022-11-25 | 東京ロボティクス株式会社 | 情報処理装置、システム、方法及びプログラム |
| JP7725246B2 (ja) * | 2021-06-04 | 2025-08-19 | 株式会社東芝 | ハンドリングシステム、搬送システム、制御装置、プログラム、およびハンドリング方法 |
| CA3226486A1 (en) | 2021-07-16 | 2023-01-19 | Bright Machines, Inc. | Method and apparatus for vision-based tool localization |
| US20230044420A1 (en) * | 2021-08-09 | 2023-02-09 | Mujin, Inc. | Systems and methods for object detection |
| WO2023017740A1 (ja) * | 2021-08-13 | 2023-02-16 | 国立大学法人 東京大学 | 情報処理装置、プログラム及びパターンコード |
| CN116175541B (zh) * | 2021-11-28 | 2023-11-10 | 梅卡曼德(北京)机器人科技有限公司 | 抓取控制方法、装置、电子设备和存储介质 |
| JP7715999B2 (ja) * | 2022-02-23 | 2025-07-31 | 株式会社デンソーウェーブ | 物体認識システムおよび物体認識方法 |
| CN114637845B (zh) * | 2022-03-11 | 2023-04-14 | 上海弘玑信息技术有限公司 | 模型测试方法、装置、设备和存储介质 |
| WO2023205176A1 (en) * | 2022-04-18 | 2023-10-26 | Dextrous Robotics, Inc. | System and/or method for grasping objects |
| CN118946438A (zh) * | 2022-06-16 | 2024-11-12 | 发那科株式会社 | 工件取出系统 |
| JPWO2024042619A1 (ja) * | 2022-08-23 | 2024-02-29 | ||
| JP2024158428A (ja) * | 2023-04-27 | 2024-11-08 | パナソニックIpマネジメント株式会社 | 画像処理方法および画像処理装置 |
Family Cites Families (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20020036617A1 (en) * | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
| JP3859371B2 (ja) * | 1998-09-25 | 2006-12-20 | 松下電工株式会社 | ピッキング装置 |
| WO2000057129A1 (en) * | 1999-03-19 | 2000-09-28 | Matsushita Electric Works, Ltd. | Three-dimensional object recognition method and pin picking system using the method |
| JP4900204B2 (ja) * | 2007-11-22 | 2012-03-21 | 株式会社Ihi | 物体認識方法 |
| JP2009289046A (ja) * | 2008-05-29 | 2009-12-10 | Olympus Corp | 3次元データを用いた作業支援装置及び方法 |
| JP5588196B2 (ja) * | 2010-02-25 | 2014-09-10 | キヤノン株式会社 | 認識装置及びその制御方法、コンピュータプログラム |
| JP5612916B2 (ja) * | 2010-06-18 | 2014-10-22 | キヤノン株式会社 | 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム |
| JP5627325B2 (ja) * | 2010-07-23 | 2014-11-19 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
| JP6041710B2 (ja) * | 2013-03-06 | 2016-12-14 | 本田技研工業株式会社 | 画像認識方法 |
| JP6198104B2 (ja) | 2013-03-15 | 2017-09-20 | 株式会社三次元メディア | 3次元物体認識装置及び3次元物体認識方法 |
| JP6415026B2 (ja) * | 2013-06-28 | 2018-10-31 | キヤノン株式会社 | 干渉判定装置、干渉判定方法、コンピュータプログラム |
| JP6245880B2 (ja) * | 2013-07-31 | 2017-12-13 | キヤノン株式会社 | 情報処理装置および情報処理手法、プログラム |
| JP6429450B2 (ja) * | 2013-10-31 | 2018-11-28 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
| JP6529302B2 (ja) * | 2015-03-24 | 2019-06-12 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
| JP6117901B1 (ja) * | 2015-11-30 | 2017-04-19 | ファナック株式会社 | 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム |
| JP6614611B2 (ja) * | 2016-02-29 | 2019-12-04 | Kddi株式会社 | 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法 |
| JP6672958B2 (ja) | 2016-03-31 | 2020-03-25 | 日本電気株式会社 | 作業逸脱防止装置、作業逸脱防止システム、作業逸脱防止方法及びプログラム。 |
| JP6724499B2 (ja) * | 2016-04-05 | 2020-07-15 | 株式会社リコー | 物体把持装置及び把持制御プログラム |
-
2018
- 2018-04-05 JP JP2018072896A patent/JP6937995B2/ja active Active
-
2019
- 2019-03-11 CN CN201910179773.3A patent/CN110348279B/zh active Active
- 2019-03-21 EP EP19164284.2A patent/EP3550470B1/en active Active
- 2019-03-22 US US16/362,085 patent/US11511421B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| EP3550470A1 (en) | 2019-10-09 |
| US20190308320A1 (en) | 2019-10-10 |
| US11511421B2 (en) | 2022-11-29 |
| JP2019185239A (ja) | 2019-10-24 |
| CN110348279A (zh) | 2019-10-18 |
| EP3550470B1 (en) | 2023-09-27 |
| CN110348279B (zh) | 2023-06-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6937995B2 (ja) | 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法 | |
| JP6879238B2 (ja) | ワークピッキング装置及びワークピッキング方法 | |
| JP6117901B1 (ja) | 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム | |
| JP6348097B2 (ja) | ワーク位置姿勢算出装置およびハンドリングシステム | |
| JP6594129B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
| JP5561384B2 (ja) | 認識プログラム評価装置および認識プログラム評価方法 | |
| US11426876B2 (en) | Information processing apparatus, information processing method, and program | |
| US20100161125A1 (en) | Work apparatus and calibration method for the same | |
| CN105091885B (zh) | 机器人及自身位置推定方法 | |
| JP6703812B2 (ja) | 3次元物体検査装置 | |
| JP2012125886A (ja) | 物体把持装置、物体把持装置の制御方法、およびプログラム | |
| JP2015090560A (ja) | 画像処理装置、画像処理方法 | |
| JP2018136896A (ja) | 情報処理装置、システム、情報処理方法、および物品の製造方法 | |
| CN109983299A (zh) | 工业机器人的测量系统和方法 | |
| JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
| WO2018135326A1 (ja) | 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法 | |
| JP2019098409A (ja) | ロボットシステムおよびキャリブレーション方法 | |
| JP2017207385A (ja) | 3次元認識装置、3次元認識方法、及び3次元認識プログラム | |
| JP7533265B2 (ja) | 支援システム、画像処理装置、支援方法およびプログラム | |
| JP7299442B1 (ja) | 制御装置、3次元位置計測システム、及びプログラム | |
| EP3563983B1 (en) | Method of, as well as a system for, performing a welding step on a work piece | |
| CN120751604A (zh) | 单双面翻板机的翻转对位控制方法及系统 | |
| JP2025023471A (ja) | ワークの数量を推定する方法、部品供給システム、及び、ロボットシステム | |
| JP2021077290A (ja) | 情報処理装置、情報処理方法、プログラム、システム及び物品の製造方法 | |
| JP2021012628A (ja) | 位置姿勢推定装置及び位置姿勢推定方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200310 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210414 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210423 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210616 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210802 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210815 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6937995 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |