[go: up one dir, main page]

JP6937995B2 - 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法 - Google Patents

物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法 Download PDF

Info

Publication number
JP6937995B2
JP6937995B2 JP2018072896A JP2018072896A JP6937995B2 JP 6937995 B2 JP6937995 B2 JP 6937995B2 JP 2018072896 A JP2018072896 A JP 2018072896A JP 2018072896 A JP2018072896 A JP 2018072896A JP 6937995 B2 JP6937995 B2 JP 6937995B2
Authority
JP
Japan
Prior art keywords
orientation
work
unit
recognition result
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018072896A
Other languages
English (en)
Other versions
JP2019185239A (ja
Inventor
嘉典 小西
嘉典 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018072896A priority Critical patent/JP6937995B2/ja
Priority to CN201910179773.3A priority patent/CN110348279B/zh
Priority to EP19164284.2A priority patent/EP3550470B1/en
Priority to US16/362,085 priority patent/US11511421B2/en
Publication of JP2019185239A publication Critical patent/JP2019185239A/ja
Application granted granted Critical
Publication of JP6937995B2 publication Critical patent/JP6937995B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/243Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法に関する。
FA(Factory Automation)における検査や生産ラインにおいて、ばら積みされた部品(ワーク)等の物体をロボットによって1つずつ取り出す装置(いわゆるばら積みピッキング装置)が知られている。かかる装置では、例えば、ばら積みされたワークを3次元計測し、得られた計測結果とワークの3次元モデルデータとを照合することによって、個別のワークの3次元位置姿勢を認識する。このような物体(認識対象物)の3次元位置姿勢を認識する手法として、例えば特許文献1には、3次元計測手段により得られた画像から認識対象物の輪郭(エッジ)及び表面形状を抽出し、それらを3次元モデルデータにおけるエッジ及び表面形状と照合することにより、認識対象物の位置姿勢を評価する装置及び方法が記載されている。
特許第6198104号公報
ところで、従来の物体の位置姿勢認識手法においては、その位置姿勢認識結果の良否を判断するために、例えば3次元モデルデータと物体の計測データとの3次元マッチングにおける類似度(類似スコア)が用いられることが一般的である。上記特許文献1における表面形状の認識の程度を示す「点群評価値」も、かかる類似スコアの一例に相当する。例えば、類似度が所定の閾値より高ければ位置姿勢認識結果は正しいと判断し、類似度が所定の閾値より低ければ位置姿勢認識結果は誤りだと判定する。
しかし、認識対象物である物体の形状や物体が載置されている状態によっては、3次元マッチングの結果として高い類似スコアが得られた場合であっても、実際には認識に失敗していたり、認識されてはいるものの、その認識精度が低かったりするといった問題が生じていた。しかも、そのように言わば信頼度に劣る類似スコアに起因する低い精度の認識結果が得られても、類似スコアを用いた認識結果が正しいのか誤りなのかを判別することは困難であった。
また、物体の位置姿勢の認識精度を改善するべく、上記特許文献1に記載されているような輪郭(エッジ)の認識の程度を示す「輪郭評価値」を併用することも想定され得る。しかし、物体の輪郭を認識するために用いられる例えば輝度画像は、撮像時の照明や影の影響を受け易い傾向にある。従って、輪郭評価値を用いたとしても、物体の撮像状況によっては、認識精度を向上させることはできない。また、信頼度に劣る輪郭評価値に起因する低い精度の認識結果が得られても、類似スコアと輪郭表価値を併用した認識結果が正しいのか誤りなのかを判別することは依然として困難である。
そして、そのように類似スコアが高いにも拘わらず精度が低い認識結果に基づいて物体のピッキングを試行した場合、その物体を把持することができず、結果として、安定した良好なピッキング操作を行うことができないという課題があった。
そこで、本発明は、一側面では、かかる事情を鑑みてなされたものであり、ワーク等の物体の3次元位置姿勢の認識において、信頼度に劣る類似スコアに起因する精度が低い位置姿勢認識結果を判別することが可能であり、その結果、安定した良好なピッキング操作の実現に資することができる物体認識処理技術、及びそれを用いた物体ピッキング技術を提供することを目的とする。
本発明は、上述した課題を解決するために、以下の構成を採用する。
〔1〕本開示に係る物体認識処理装置の一例は、物体の3次元形状を表す3次元モデルデータを取得するモデルデータ取得部と、前記物体の3次元位置情報を含む計測データを取得する計測部と、前記3次元モデルデータと前記計測データとに基づいて、前記物体の位置姿勢を認識する位置姿勢認識部と、前記物体の位置姿勢認識結果における前記3次元モデルデータと前記計測データとの類似度(合致度)を示す類似スコアを算出する類似スコア算出部と、前記物体の位置姿勢認識結果における該物体の3次元形状の特徴を示す指標を算出し、該指標に基づいて前記類似スコアの信頼度を算出する信頼度算出部と、前記類似スコアと前記信頼度とに基づいて、前記物体の位置姿勢認識結果の良否を示す統合スコアを算出する統合スコア算出部とを備える。
なお、類似スコアの「信頼度」を算出するための「指標」の種類は、単一であっても複数であってもよい。その際、単一の「指標」を用いる場合、その「指標」自体を「信頼度」としてもよいし、その「指標」に適宜の補正を施したものを「信頼度」としてもよい。また、複数の「指標」から「信頼度」を算出する場合、それらの複数の「指標」を組み合わせる演算としては、特に制限されず、例えば乗算や除算等を挙げることができ、また、個々の「指標」に適宜の補正を施したものを組み合わせてもよい。さらに、「統合スコア」を算出するための「類似スコア」とその「信頼度」を組み合わせる演算も、特に制限されず、例えば乗算や除算等を挙げることができる。
当該構成では、認識対象である物体の3次元モデルデータと物体の3次元位置情報を含む計測データとに基づいて、例えば両者の3次元マッチングにより、物体の位置姿勢を認識し、その位置姿勢認識結果における両者の類似スコアを算出する。また、位置姿勢認識結果における物体の3次元形状の特徴を示す指標を算出し、さらに、その指標に基づいて、類似スコアの当否を示す信頼度を算出する。そして、類似スコアと信頼度を統合することにより、位置姿勢認識結果の良否を示す統合スコアを算出するので、例えば、その統合スコアと所定の閾値とを比較することにより、類似スコアが高いにも拘わらず精度が低い位置姿勢認識結果を判別することができる。
これにより、例えば、ロボットとハンド等を用いて物体をピッキングする際に、位置姿勢認識結果における統合スコアが高い、すなわち、位置姿勢の認識精度が高い物体を把持対象として選定することができる。また、十分に高い統合スコアが得られない場合、すなわち、位置姿勢の認識精度が十分に高い物体を選定することができない場合には、例えば計測条件(撮像条件)や位置認識における物体の検出条件等を適宜変更した上で、計測データの再取得と位置姿勢の再認識を行うことが可能となる。その結果、例えば類似スコアのみに基づいて物体の位置姿勢認識結果の良否を判断してピッキングを行う場合に比して、良好且つ安定したピッキング操作を行い得る。
このとおり、当該構成によれば、物体の位置姿勢認識結果における類似スコアだけでは把握することができない物体の3次元形状の特徴に着目し、かかる3次元形状の特徴の程度(多さ)を測る指標に基づいて、類似スコアの当否を示す信頼度を算出し、それを類似スコアと組み合わせて統合スコアとして数値化することにより、位置姿勢認識結果の良否の判別精度を向上することが可能となる。
〔2〕上記構成において、前記物体の3次元形状の特徴は、例えば、前記物体の位置姿勢認識結果から把握される、前記物体の3次元形状の多様性を示す物理量である。
当該構成では、位置姿勢認識結果に反映された物体の3次元形状の多様性(換言すれば3次元形状の豊富さ)を示す物理量を、その位置姿勢認識結果に基づいて、上記指標として算出することができるので、物体の3次元形状の特徴を数値化して評価し易くなる。
〔3〕上記構成において、前記信頼度算出部は、前記物体の位置姿勢認識結果における面の数を、前記指標として算出してもよい。
当該構成では、物体の位置姿勢認識結果において検出される面の数が、その位置姿勢認識結果における物体の3次元形状の多様性や豊富さを反映するので、それを指標とすることにより、類似スコアの信頼度及び統合スコアの算出精度を向上させることができる。
〔4〕上記構成において、前記信頼度算出部は、前記物体の位置姿勢認識結果において検出される各面の法線方向を量子化し、当該量子化された前記法線方向の頻度分布における最頻値、又は、分散を、前記指標として算出してもよい。なお、法線方向の量子化方法は、特に制限されず、例えば、計測部の光軸(視点を通る軸)に直交する平面上の有限領域を複数のセグメントに分割し、各セグメントに適宜の番号を付し(ナンバリング)、各面の法線ベクトルをその平面上の有限領域に2次元投影したときに、各法線ベクトルが属するセグメントの番号をその法線ベクトルの向き(すなわち法線方向)に関連付ける(マッピング)といった方法を例示することができる。
当該構成では、物体の位置姿勢認識結果において検出される各面について量子化された法線方向の頻度分布における最頻値(その逆数でも実質的に同等である。)、又は、分散が、その位置姿勢認識結果において検出される面の分布を表す。よって、量子化された法線方向の頻度分布における最頻値、又は、分散は、その位置姿勢認識結果における物体の3次元形状の多様性や豊富さを反映するので、それらを指標とすることにより、類似スコアの信頼度及び統合スコアの算出精度を向上させることができる。
〔5〕上記構成において、前記信頼度算出部は、前記物体の位置姿勢認識結果における表面積を、前記指標として算出してもよい。
当該構成では、物体の位置姿勢認識結果において算出される物体の表面積が、その位置姿勢認識結果における物体の3次元形状の多様性や豊富さを反映するので、それを指標とすることにより、類似スコアの信頼度及び統合スコアの算出精度を向上させることができる。
〔6〕上記構成において、前記信頼度算出部は、前記物体の位置姿勢認識結果における輪郭線(エッジに該当する線分)の数、又は、長さ(各線分の合計長さ)を、前記指標として算出してもよい。
当該構成では、物体の位置姿勢認識結果において検出される輪郭線の数、又は、算出されるその輪郭線の長さが、その位置姿勢認識結果における物体の3次元形状の多様性や豊富さを反映するので、それらを指標とすることにより、類似スコアの信頼度及び統合スコアの算出精度を向上させることができる。
〔7〕上記構成において、前記信頼度算出部は、前記物体の位置姿勢認識結果における輝度分布の分散、又は、前記物体の位置姿勢認識結果における距離分布の分散を、前記指標として算出してもよい。
当該構成では、物体の位置姿勢認識結果において算出される輝度分布における分散、又は、物体の位置姿勢認識結果において算出される距離分布を表す値が、その位置姿勢認識結果における物体の3次元形状の多様性や豊富さを反映するので、それらを指標とすることにより、類似スコアの信頼度及び統合スコアの算出精度を向上させることができる。
〔8〕上記構成において、前記信頼度算出部は、前記指標に重み付けを行い、該重み付けした指標に基づいて、前記類似スコアの信頼度を算出してもよい。
当該構成では、指標に適宜の重み付けを行う補正を実施することにより、その指標の重要度を加味して類似スコアの信頼度を算出することができるので、類似スコアの信頼度及び統合スコアの算出精度を更に向上させることができる。
〔9〕上記構成において、前記信頼度算出部は、前記物体の異なる位置姿勢毎に前記指標又は前記信頼度を予め算出しておき、前記物体の位置姿勢認識結果に対応する前記指標又は前記信頼度を選定してもよい。
当該構成でも、物体の位置姿勢認識結果に対応したその物体の3次元形状の特徴を示す指標、又は、類似スコアについての信頼度を選定し、それらに基づいて統合スコアを算出することができるので、類似スコアが高いにも拘わらず精度が低い位置姿勢認識結果を判別することができる。
〔10〕本開示に係る物体認識処理方法の一例は、モデルデータ取得部と、計測部と、位置姿勢認識部と、類似スコア算出部と、信頼度算出部と、統合スコア算出部とを備える本開示に係る物体認識処理装置の一例を用いて有効に実施し得る方法であり、以下の各ステップを含む。すなわち、当該方法は、前記モデルデータ取得部が、物体の3次元形状を表す3次元モデルデータを取得するステップと、前記計測部が、前記物体の3次元位置情報を含む計測データを取得するステップと、前記位置姿勢認識部が、前記3次元モデルデータと前記計測データとに基づいて、前記物体の位置姿勢を認識するステップと、前記類似スコア算出部が、前記物体の位置姿勢認識結果における前記3次元モデルデータと前記計測データとの類似度を示す類似スコアを算出するステップと、前記信頼度算出部が、前記物体の位置姿勢認識結果における該物体の3次元形状の特徴を示す指標を算出し、該指標に基づいて前記類似スコアの信頼度を算出するステップと、前記統合スコア算出部が、前記類似スコアと前記信頼度とに基づいて、前記物体の位置姿勢認識結果の良否を示す統合スコアを算出するステップとを含む。
〔11〕本開示に係る物体ピッキング装置の一例は、物体を把持して取り出すための装置であって、本開示に係る物体認識処理装置の一例と、前記物体を把持するハンドと、前記ハンドを移動するロボットと、前記物体認識処理装置、前記ハンド、及び前記ロボットを制御する制御装置とを備える。そして、前記制御装置は、前記物体認識処理装置によって算出された前記統合スコアに基づいて、前記ハンドが把持する前記物体を決定する把持物体決定部、前記ハンドが前記物体を把持する際の前記ハンドの把持姿勢を算出する把持姿勢算出部、及び、前記ロボットにより前記ハンドを前記把持姿勢へ移動する経路を算出する経路算出部を有する。なお、計測部は、固定されていてもよいし、移動可能に設置されていてもよく、後者の場合、計測部自体が駆動機構を有していてもよいし、計測部が例えばロボットに取り付けられていてもよい。
当該構成では、本開示に係る物体認識処理装置によって算出された統合スコアに基づいて、ピッキングにおける把持対象の物体を決定、例えば、位置姿勢認識結果における統合スコアが高い(すなわち、位置姿勢の認識精度が高い)物体を把持対象として選定する。よって、例えば類似スコアのみに基づいて物体の位置姿勢認識結果の良否を判断してピッキングを行う手法に比して、良好且つ安定したピッキング操作を実現することができる。
〔12〕上記構成において、前記制御装置は、前記物体認識処理装置によって算出された前記統合スコアに基づいて、前記計測データを取得する際の計測条件を変更する計測条件変更部を有し、前記物体認識処理装置の前記計測部は、変更後の前記計測条件に基づいて、前記物体の3次元位置情報を含む計測データを再取得し、前記物体認識処理装置の前記位置姿勢認識部は、前記3次元モデルデータと再取得された前記計測データとに基づいて、前記物体の位置姿勢を再認識するように構成してもよい。
なお、このとき、最適化された計測条件へ変更することができない場合、例えば、計測部が物体又はその周辺の物体と物理的に干渉してしまうような場合には、そのような干渉等が生じるか否かを判定した上で、次に最適な計測条件への変更を行うようにすることもできる。
当該構成では、本開示に係る物体認識処理装置によって算出された統合スコアに基づいて、例えば、統合スコアが十分に高い(すなわち、認識精度が十分に高い)位置姿勢認識結果が得られなかった場合に、計測条件を変更した上で、物体の3次元位置情報を含む計測データの再取得、及び、物体の位置姿勢の再認識を行う。これにより、十分に高い統合スコアを有する位置姿勢認識結果が得られてから、ピッキングにおける把持対象の物体を決定することができる。従って、例えば類似スコアのみに基づいて物体の位置認識結果の良否を判断し、計測データの再取得や位置姿勢の再認識を行わずにピッキングを行う手法に比して、更に良好且つ安定したピッキング操作を実現することができる。
〔13〕上記構成において、前記計測条件変更部は、前記計測条件として、前記計測部の位置姿勢を変更するようにしてもよい。
当該構成では、物体の3次元位置情報を含む計測データの再取得において、計測部の位置姿勢を変更することにより、物体に対する計測部の視点を変更することができる。その結果、物体の載置状態を変更することなく、その物体を計測する際の視野を種々変更することができるので、3次元形状の特徴の多様性が増大するような物体の位置姿勢を選択することにより、位置姿勢認識の精度を更に向上させることができる。
〔14〕上記構成において、前記計測条件変更部は、前記3次元モデルデータ、再認識前の前記物体の位置姿勢認識結果、及び、前記計測データの再取得前の前記計測部の位置姿勢に基づいて、変更するべき前記計測部の位置姿勢を算出してもよい。
当該構成では、再認識前の物体の位置姿勢認識結果、及び、計測データの再取得前の計測部の位置姿勢が判明しているので、物体の3次元モデルデータを用いることにより、計測部の位置姿勢を種々変化させて計測データを再取得したときの物体の位置姿勢認識結果を予測することができる。また、得られた物体の種々の位置姿勢の予測認識結果について、先に述べた類似スコアの信頼度又は統合スコアを算出することにより、それらの予測認識結果の良否を推定することもできる。従って、物体の位置姿勢の予測認識結果のなかから、最適な又は良好な位置姿勢を選定し、その状態の物体の計測データを取得することが可能な計測部の位置姿勢を、変更するべき計測条件とすることができる。
〔15〕本開示に係る物体ピッキング方法の一例は、本開示に係る物体ピッキング装置の一例を用いて有効に実施し得る方法であり、以下の各ステップを含む。すなわち、当該方法は、本開示に係る物体認識処理装置の一例と、ハンドと、ロボットと、制御装置とを備える物体ピッキング装置を用い、物体を把持して取り出すための方法であって、前記物体認識処理装置が、前記物体の位置姿勢認識結果における良否を示す統合スコアを算出する算出ステップと、前記ハンドが、前記物体を把持する把持ステップと、前記ロボットが、前記ハンドを移動する移動ステップと、前記制御装置が、前記物体認識処理装置、前記ハンド、及び前記ロボットを制御する制御ステップとを含む。そして、前記制御ステップは、前記統合スコアに基づいて、前記ハンドが把持する前記物体を決定する把持物体決定ステップ、前記ハンドが前記物体を把持する際の前記ハンドの把持姿勢を算出する把持姿勢算出ステップ、及び、前記ロボットにより前記ハンドを前記把持姿勢へ移動する経路を算出する経路算出ステップを有する。
なお、本開示において、「部」及び「装置」とは、単に物理的手段を意味するものではなく、その「部」及び「装置」が有する機能をソフトウェアによって実現する構成も含む。また、1つの「部」及び「装置」が有する機能が2つ以上の物理的手段や装置によって実現されてもよく、或いは、2つ以上の「部」及び「装置」の機能が1つの物理的手段や装置によって実現されてもよい。さらに、「部」及び「装置」とは、例えば「手段」及び「システム」と言い換えることも可能な概念である。
本発明によれば、ワーク等の物体の3次元位置姿勢の認識において、信頼度に劣る類似スコアに起因する精度が低い認識結果を判別することが可能であり、これにより、良好且つ安定したピッキング操作の実現に資することができる。
実施形態に係る物体認識処理装置を備える物体ピッキング装置の適用場面の一例を模式的に示す平面図である。 実施形態に係る物体認識処理装置を備える物体ピッキング装置のハードウェアの構成の一例を模式的に示す平面図である。 実施形態に係る物体認識処理装置を備える物体ピッキング装置の機能構成の一例を模式的に示す平面図である。 実施形態に係る物体認識処理装置を備える物体ピッキング装置における処理手順の一例を示すフローチャートである。 実施形態に係る物体ピッキング装置に備わる物体認識処理装置による物体の位置姿勢認識結果の一例を模式的に示す平面図である。 図5に示す物体の位置姿勢認識結果における類似スコア、指標、信頼度、及び統合スコアの算出結果の一覧を示す表である。 図5に示す物体の位置姿勢認識結果において特定された面の法線方向の頻度分布を模式的に示すグラフである。 図5に示す物体の位置姿勢認識結果において特定された面の法線方向の頻度分布を模式的に示すグラフである。 図5に示す物体の位置姿勢認識結果において特定された面の法線方向の頻度分布を模式的に示すグラフである。 図5に示す物体の位置姿勢認識結果において特定された面の法線方向の頻度分布を模式的に示すグラフである。 (A)は、第1変形例に係る物体認識処理装置を備える物体ピッキング装置の適用場面の一例を模式的に示す平面図であり、(B)は、第1変形例に係る物体ピッキング装置に備わる物体認識処理装置による物体の位置姿勢認識結果の一例を模式的に示す平面図である。 図8(B)に示す位置姿勢認識結果における類似スコア、指標、信頼度、及び統合スコアの算出結果の一覧を示す表である。 (A)は、第1変形例に係る物体認識処理装置を備える物体ピッキング装置の適用場面の他の一例を模式的に示す平面図であり、(B)は、第1変形例に係る物体ピッキング装置に備わる物体認識処理装置による物体の位置姿勢認識結果の他の一例を模式的に示す平面図である。 図10(B)に示す位置姿勢認識結果における類似スコア、指標、信頼度、及び統合スコアの算出結果の一覧を示す表である。
以下、本開示の一例に係る実施の形態(以下「実施形態」とも表記する。)について、図面を参照して説明する。但し、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図ではない。すなわち、本開示の一例は、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付しており、図面は模式的なものであって、必ずしも実際の寸法や比率等とは一致しない。さらに、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。
§1 適用例
まず、図1を用いて、本開示の一例が適用される場面の一例について説明する。図1は、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100の適用場面の一例を模式的に示す平面図である。本実施形態に係るワークピッキング装置100は、例えば収納容器6等の供給装置内にばら積みされた複数のワーク5を、その収納容器6から取り出して適宜のトレー等(図示せず)へ移設し、整列させて配置する。また、図1の例では、ワークピッキング装置100は、センサ1、ハンド2、ロボット3、及び、制御装置4を備える。
このとおり、センサ1は、本発明に係る「物体認識処理装置」における「計測部」の一例に相当し、ハンド2、ロボット3、及び制御装置4は、本発明に係る「物体ピッキング装置」における「ハンド」、「ロボット」、及び「制御装置」のそれぞれの一例に相当する。また、ワーク5は、本発明に係る「物体認識処理装置」の認識対象である「物体」の一例に相当し、且つ、本発明に係る「物体ピッキング装置」のピッキング対象である「物体」の一例に相当する。さらに、ワークピッキング装置100は、本発明に係る「物体ピッキング装置」の一例に相当する。
センサ1は、ワーク5の3次元位置情報を含む計測データを取得する距離センサであり、例えば一般的な光学センサが搭載されたカメラ装置を含んで構成されており、ワーク5を所定の視野角で且つ所定の計測条件で撮像する。
ここで、ワーク5の計測方式としては、特に制限されず、例えば、光の直進性を用いる種々のアクティブ計測方式(例えば、三角測距を基本原理とする空間コード化パターン投影方式、時間コード化パターン投影方式、モアレトポグラフィ方式等)、光の直進性を用いる種々のパッシブ計測方式(例えば、三角測距を基本原理とするステレオカメラ方式、視体積交差方式、因子分解方式等、同軸測距を基本原理とするDepth from focusing方式等)、及び、光の速度を用いる種々のアクティブ計測方式(例えば、同時測距を基本原理とする光時間差(TOF)測定方式、レーザースキャン方式等)を適宜選択して用いることができる。
ワーク5の計測データとしては、それらの種々の計測方式で取得される画像データ(例えば3次元点群データや距離画像等)、また、ワーク5の3次元モデルデータと照合することが可能な適宜のデータ等を例示できる。なお、ワーク5の3次元モデルデータとしては、例えば、3次元座標データ、その3次元座標データをワーク5の種々の異なる位置姿勢に対応して2次元投影した2次元座標データ、その他適宜のテンプレートやパターンに対応するデータ等が挙げられる。
また、センサ1は、必要に応じて、適宜の計測光(例えば、アクティブ方式で用いられるパターン光やスキャン光等)を含むいわゆる3D用照明や、通常の照明であるいわゆる2D用照明をワーク5へ投射するプロジェクタ(図示せず)を有していてもよい。かかるプロジェクタの構成も特に制限されず、例えば、パターン光を投射するものの場合、レーザ光源、パターンマスク、及びレンズを備える構成を例示することができる。レーザ光源から出射された光は、所定のパターンが形成されたパターンマスクによって所定のパターンを有する計測光(パターン光)に変換され、レンズを介してワーク5へ投射される。
ハンド2は、個々のワーク5を掴み且つ離す動作が可能な把持機構を有する。ロボット3は、そのアームの先端部にハンド2が設けられており、ハンド2を収納容器6内のワーク5の把持位置に移動し、且つ、ワーク5を把持したハンド2をその把持位置から上述したトレー等に移動するための駆動機構を有する。制御装置4は、センサ1、ハンド2、及びロボット3のそれぞれに接続されており、センサ1によるワーク5の計測処理、ハンド2によるワーク5の把持処理、ロボット3の駆動処理の他、ワークピッキング装置100において必要とされる種々の動作や演算に関する処理を制御する。より具体的には、制御装置4は、センサ1の制御の他、以下の(1)乃至(10)に示す各処理を行う。
(1)モデルデータ取得処理
ワーク5に位置姿勢認識に先立って作成されたワーク5の3次元形状を表す3次元モデルデータ(3次元CADモデルデータ)を取得する。また、その3次元モデルデータを用いて、後記の位置姿勢認識処理で使用可能な適宜のテンプレートやモデルパターンを必要に応じて作成する。
(2)位置姿勢認識処理
(1)の処理で取得又は作成した3次元モデルデータ等と、センサ1の計測データとを、所定の認識パラメータを用いて照合する3次元マッチングを行い、ワーク5の位置姿勢(例えば、そのワーク5の3次元座標及び3次元軸まわりの回転角度)を認識する。また、各ワーク5の位置姿勢認識結果として、例えば、各ワーク5について認識された位置姿勢を2次元投影した2次元画像に、3次元マッチングにおいてワーク5の特徴点や特徴部位として検出された例えば輪郭線(エッジに該当する線分)等を識別可能に表示した画像を出力する。
(3)類似スコア算出処理
(2)の処理で得たワーク5の位置姿勢認識結果における3次元モデルデータと計測データとの類似度として、ワーク5の位置姿勢認識の際に実施した3次元マッチングにおける合致度である類似スコアを、所定の算出パラメータを用いて算出する。
(4)信頼度算出処理
(2)の処理で得たワーク5の位置姿勢認識結果におけるワーク5の3次元形状の特徴を示す指標を算出する。ここで、ワーク5の3次元形状の特徴を示す「指標」としては、例えば、以下に示す特徴量、即ち位置姿勢認識結果から把握されるワーク5の3次元形状の多様性を示す物理量が挙げられる。但し、「指標」はこれらに限定されない。また、以下の各指標に示す値自体ではなく、その値に適宜の補正演算を施したものを「指標」としてもよい。
(指標1)ワーク5の位置姿勢認識結果において検出される面(先に例示した輪郭線によって画定された弁別可能な平面領域)の数であり、多いほど好ましい。
(指標2)ワーク5の位置姿勢認識結果において検出される各面について量子化された法線方向の頻度分布における最頻値又はその逆数であり、最頻度が小さいほど(その逆数が大きいほど)好ましい。
(指標3)ワーク5の位置姿勢認識結果において検出される各面について量子化された法線方向(頻度がゼロのものを除く)の頻度分布における分散であり、小さい方が好ましい。
(指標4)ワーク5の位置姿勢認識結果において算出されるワーク5の表面積であり、大きいほど好ましい。
(指標5)ワーク5の位置姿勢認識結果において検出される輪郭線(エッジに該当する線分)の数であり、多いほど好ましい。
(指標6)ワーク5の位置姿勢認識結果において検出される輪郭線(エッジに該当する線分)の長さであり、長いほど好ましい。
(指標7)ワーク5の位置姿勢認識結果における輝度分布の分散であり、大きいほど好ましい。
(指標8)ワーク5の位置姿勢認識結果における距離分布の分散であり、大きいほど好ましい。
また、ワーク5の3次元形状の特徴を示すこれらの指標を用い、(3)の処理で得た類似スコアについて、その信頼度を算出する。より具体的には、例えば、上記各指標のうち何れかのものを用いる場合、その単一の指標自体、又は、その単一の指標に適宜の補正(重み付け等)を施したものを、類似スコアの信頼度とすることができる。また、例えば、上記各指標のうち複数のものを用いる場合、それらの複数の指標、又は、各指標に適宜の補正を施したものを、適宜の演算によって組み合わせることにより、類似スコアの信頼度を算出することができる。
(5)統合スコア算出処理
(3)の処理で得た類似スコアと(4)の処理で得た信頼度とを用い、例えば両者を適宜の演算によって組み合わせることにより、(2)の処理で得たワーク5の位置姿勢認識結果の良否を示す統合スコアを算出する。
(6)把持物体決定処理
(5)の処理で得た統合スコアに基づいて、例えば、検出された各ワーク5についての位置姿勢認識結果の統合スコアを所定の閾値(判定値)と比較し、その閾値以上の統合スコアが得られた位置姿勢認識結果のワーク5を、ハンド2による把持対象のワーク5として決定する。
(7)計測条件変更処理
(5)の処理で得た統合スコアに基づいて、例えば、検出された各ワーク5についての位置姿勢認識結果の統合スコアを所定の閾値(判定値)と比較し、その閾値以上の統合スコアを有する位置姿勢認識結果が得られなかった場合に、計測条件を変更する。
(8)把持姿勢算出処理
(5)の処理で把持対象として決定されたワーク5について、(2)の処理で得たそのワーク5の位置姿勢認識結果に基づいて、ハンド2がそのワーク5を把持する際のハンド2の把持姿勢を、所定の算出パラメータを用いて算出する。
(9)経路算出処理
ハンド2の初期姿勢(初期位置)と、(8)の処理で得たワーク5を把持する際のハンド2の把持姿勢の算出結果に基づいて、ロボット3によりハンド2を初期姿勢から把持姿勢まで移動する経路を、所定の算出パラメータを用いて算出する。
(10)各種制御処理
ワーク5の3次元位置情報を含む計測データを取得する際の計測条件に基づいてセンサ1の動作を制御し、算出された把持姿勢に基づいてハンド2の動作を制御し、算出された経路に基づいてロボット3の動作を制御する。
以上のとおり、制御装置4は、本発明に係る「物体認識処理装置」における「モデルデータ取得部」、「位置姿勢認識部」、「類似スコア算出部」、「信頼度算出部」、及び「統合スコア算出部」のそれぞれの一例に相当し、この点において、センサ1及び制御装置4は、本発明に係る「物体認識処理装置」の一例に相当する。また、制御装置4は、本発明に係る「物体ピッキング装置」における「把持物体決定部」、「計測条件変更部」、「把持姿勢算出部」、及び「経路算出部」のそれぞれの一例にも相当する。
以上のことから、本実施形態の物体認識処理装置を備えるワークピッキング装置100によれば、従来の物体認識処理手法において課題であったワーク5の位置姿勢認識結果の良否を判別することが困難であり、その結果、ワーク5の把持に失敗してしまう場合が生じ得るという問題を解消し、安定した良好なピッキング操作を実現することが可能となる。
すなわち、従来の物体認識処理手法では、位置姿勢認識における3次元マッチングの結果として高い類似スコアが得られているにも拘わらず、実際には認識に失敗していたり、認識精度が低かったりするといった事態が生じてしまうことがあった。そして、そのような事態を把握しないまま、ワーク5のピッキングを試行すると、その物体を把持することができないことがあった。これに対し、本実施形態の物体認識処理装置を備えるワークピッキング装置100によれば、3次元マッチングにおける類似スコアだけでなく、ワーク5に位置姿勢認識結果における3次元形状の多様性に着目した指標を用いて、類似スコアの信頼度ひいては統合スコアを算出する。そして、その統合スコアに基づいて、ワーク5の位置姿勢認識結果の良否を判別することができる。これにより、認識精度が高いワーク5を優先して把持対象とし、或いは、十分に精度が高い位置姿勢認識結果が得られない場合には、計測条件を変更した上でワーク5の位置姿勢の再認識を行うことができる。その結果、物体の把持及びピッキングの成功率を格段に向上させることができ、良好且つ安定したピッキング操作を実現することができる。
§2 構成例
[ハードウェア構成]
次に、図2を用いて、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100のハードウェア構成の一例について説明する。図2は、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100のハードウェアの構成の一例を模式的に示す平面図である。
図2の例でも、ワークピッキング装置100は、図1に例示したセンサ1、ハンド2、ロボット3、及び制御装置4を備える。ここで、制御装置4は、制御演算部41、通信インタフェース(I/F)部42、記憶部43、入力部44、及び出力部45を含み、各部はバスライン46を介して相互に通信可能に接続され得る。
制御演算部41は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御及び各種演算を行う。
通信I/F部42は、例えば、有線又は無線により他の構成要素である「部」及び「装置」と通信するための通信モジュールである。通信I/F部42が通信に用いる通信方式は任意であり、例えば、LAN(Local Area Network)やUSB(Universal Serial Bus)等が挙げられ、バスライン46と同等の適宜の通信線を適用することもできる。センサ1、ハンド2、及びロボット3ともに、通信I/F部42を介して、制御演算部41等と通信可能に設けることが可能である。
記憶部43は、例えばハード・ディスク・ドライブ(HDD)、ソリッド・ステート・ドライブ(SSD)等の補助記憶装置であり、制御演算部41で実行される各種プログラム(前記(1)乃至(9)に示す各種処理を実行するための演算プログラム、並びに、前記(10)に示すセンサ1、ハンド2、及びロボット3のそれぞれの動作の制御処理を行うための制御プログラム等)、センサ1から出力される計測データ、計測条件、認識パラメータ、及び種々の算出パラメータを含むデータベース、各種演算結果及び算出結果のデータ、ワーク5の位置姿勢認識結果に関するデータ、ワーク5のピッキング状況やピッキング記録に関するデータ等に加え、ワーク5の3次元モデルデータ等を記憶する。このとおり、記憶部43に記憶された演算プログラム及び制御プログラムが制御演算部41で実行されることにより、後述する機能構成例における各種処理機能が実現される。
入力部44は、ワークピッキング装置100を利用するユーザからの各種入力操作を受け付けるためのインタフェースデバイスであり、例えば、マウス、キーボード、タッチパネル、音声マイク等で実現し得る。出力部45は、ワークピッキング装置100を利用するユーザ等へ、各種情報を、その表示、音声出力、印刷出力等により報知するためのインタフェースデバイスであり、例えば、ディスプレイ、スピーカ、プリンタ等で実現し得る。
[機能構成]
次に、図3を用いて、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100の機能構成の一例を説明する。図3は、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100の機能構成の一例を模式的に示す平面図である。
図2に示すワークピッキング装置100の制御演算部41は、記憶部43に記憶された各種プログラム(制御プログラム及び演算プログラム等)をRAMに展開する。そして、制御演算部41は、RAMに展開された各種プログラムをCPUにより解釈及び実行して、各構成要素を制御する。これにより、図3に例示の如く、本実施形態に係るワークピッキング装置100は、前記(1)乃至(9)に示す各処理をそれぞれ実行するモデルデータ取得部410、位置姿勢認識部420、類似スコア算出部430、信頼度算出部440、統合スコア算出部450、把持物体決定部460、計測条件変更部470、把持姿勢算出部480、及び経路算出部490、並びに、前記(10)に示す制御処理を実行するセンサ制御部510、ハンド制御部520、及びロボット制御部530を有する制御装置4を備える構成を実現し得る。
なお、本実施形態では、ワークピッキング装置100に備わる制御装置4で実現される各機能が汎用のCPUによって実現される例について説明したが、以上の機能の一部又は全部が、1又は複数の専用のプロセッサによって実現されてもよい。また、ワークピッキング装置100に備わる制御装置4の機能構成は、実施形態や構成例に応じて、適宜、機能の省略、置換、及び追加が行われてももちろんよい。また、「制御装置」とは、一般的な情報処理装置(例えば、コンピュータ、ワークステーション等)と解することができる。
§3 動作例
次いで、図4を用いて、ワークピッキング装置100の動作の一例について説明する。図4は、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100における処理手順の一例を示すフローチャートであり、物体認識処理装置を用いた物体認識処理方法の一例、及び、ワークピッキング装置100を用いたワークピッキング方法における処理手順の一例を示すフローチャートでもある。なお、以下で説明する処理手順は一例に過ぎず、各処理は、本開示の技術思想の範囲内において可能な限り変更されてよい。また、以下で説明する処理手順は、実施形態や各構成例に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(起動)
まず、ワークピッキング装置100のユーザは、ワークピッキング装置100を起動し、各種プログラム(演算プログラム、制御プログラム等)を実行させる。それから、制御装置4における制御演算部41は、以下の処理手順に従って、センサ1、ハンド2、及びロボット3のそれぞれの動作を制御し、且つ、制御装置4における各機能部による演算処理を行う。また、本実施形態では、以下の各ステップにおける処理に先立って、個々のステップで必要となる計測条件、認識パラメータ、及び種々の算出パラメータの初期値セットを、記憶部43から読み出し、センサ制御部510、位置姿勢認識部420、把持姿勢算出部480、及び経路算出部490に適宜保持しておく。但し、かかる計測条件や種々のパラメータの読み出しは、各ステップの処理前であれば適宜のタイミングで行うことができる。
(ステップS1)
ステップS1では、モデルデータ取得部410は、予め作成されたワーク5の3次元形状を表す3次元モデルデータ(3次元CADモデルデータ)、3次元マッチングで使用可能なテンプレートやモデルパターンを取得し、それらを記憶部43に記憶する。このとおり、ステップS1が前記適用例における「(1)モデルデータ取得処理」に相当する。
(ステップS2)
ステップS2では、センサ制御部510は、センサ1を作動させ、計測条件の初期値セットを用いて、ワーク5を計測し、ワーク5の3次元位置情報を含む計測データを取得する。計測条件としては、例えば、露光時間、照明照度、及び計測位置(例えば、ワーク5に対するセンサ1の相対的な3次元位置又は姿勢(光軸の向き))の他、適用される計測方式において設定される各種条件が挙げられる。そして、センサ1は、ワーク5の計測データとして、例えば3次元点群データ(ポイントクラウドデータ)や距離画像等に加え、必要に応じて例えば輝度画像等を制御装置4へ出力する。このとおり、ステップS2は前記適用例における「(10)各種制御処理」に相当する。
(ステップS3)
ステップS3では、位置姿勢認識部420は、ワーク5の計測データからワーク5の3次元形状を示す特徴点を抽出し、ワーク5の3次元モデルデータにおいて対応する特徴点又は特徴パターンと、所定の探索領域において照合する3次元マッチングを行い、ワーク5の位置姿勢の認識パラメータの初期値セットを用いて、個々のワーク5の位置姿勢を認識する。位置姿勢の出力データとして、例えば、ワーク5の3次元座標(x,y,z)及び3次元軸まわりの回転角度(rx,ry,rz)が挙げられる。また、位置姿勢認識部420は、必要に応じて位置姿勢が検出されたワーク5の数を算出し、それらの認識結果及び算出結果を記憶部43に記憶する。ワーク5の位置姿勢の認識パラメータとしては、例えば、位置姿勢認識におけるワーク5の検出に関する閾値等が挙げられ、より具体的には、ワーク5の3次元モデルデータとワーク5の計測データとの3次元マッチングの閾値等を例示することができる。さらに、位置姿勢認識部420は、検出された各ワーク5の位置姿勢認識結果として、例えば図5に示す画像及びその描画データを出力し、それらを記憶部43に記憶する。
ここで、図5は、実施形態に係るワークピッキング装置100に備わる物体認識処理装置によるワーク51〜55(何れもワーク5に該当し、この例では、それらの3次元形状は全て同じであるとする。)の位置姿勢認識結果の一例を模式的に示す平面図である。図5に示す如く、ここで出力される位置姿勢認識結果は、例えば、各ワーク51〜55について認識された位置姿勢を2次元投影した2次元画像に、3次元マッチングにおいてワーク51〜55の特徴点や特徴部位として検出された例えば輪郭線(エッジに該当する線分であり、図5において太い実線で示す線分)を識別可能に表示した画像である。なお、この例におけるワーク51〜55のそれぞれの位置姿勢認識結果を便宜的に符号A〜Eで表し、図5においては、ワーク51〜55の各表示領域に、それぞれに対応する位置姿勢認識結果の符号A〜Eを付記した。このとおり、ステップS3は前記適用例における「(2)位置姿勢認識処理」に相当する。
(ステップS4)
ステップS4では、類似スコア算出部430は、ワーク51〜55の位置姿勢認識結果A〜Eにおける3次元モデルデータと計測データとの類似度として、ステップS3で実施した3次元マッチングにおける合致度である類似スコアSを、所定の算出パラメータの初期値セットを用いて算出する。ここで、類似スコアSは、例えば0〜100の範囲内の値で表され、類似スコアS=0が最も低い合致度に相当し、類似スコアS=100が最も高い合致度に相当する。
すなわち、図5に表示されたワーク51〜55のうち、ワーク51〜54は、それらの手前に他のワークが重なっておらず、それぞれの位置姿勢の全体が視認可能な状態にある。よって、ワーク51〜54では、それらの形状全体の周縁及び面の境界に相当する輪郭(エッジ)が全て認識されており、また、認識結果の輪郭線(太い実直線)は、各ワーク51〜54の実際の輪郭と合致している。その結果、図5に示すワーク51〜54の位置姿勢認識結果A〜Dにおける類似スコアSは、何れも高く、例えば「100」と算出される。
一方、図5に表示されたワーク51〜55のうち、ワーク55は、その手前に他のワーク52〜54が重なっており、その位置姿勢の一部だけが認識可能な状態にある。よって、ワーク55では、その形状の周縁に相当する輪郭(エッジ)のうち、他のワーク52〜54で隠れていない部分のみが認識されており、その認識結果の輪郭線(太い実直線)は、ワーク55の見えている部分の実際の輪郭と合致している。その結果、図5に示すワーク55の位置姿勢認識結果Eにおける類似スコアSは、他のワーク51〜54の類似スコアSよりも少し低く、例えば「70」と算出される。
こうして得られたワーク51〜55の位置姿勢認識結果A〜Eにおける類似スコアSの算出結果の一例を図6の表にまとめて示す。このとおり、ステップS4は前記適用例における「(3)類似スコア算出処理」に相当する。
(ステップS5)
ステップS5では、信頼度算出部440は、図5に示す各ワーク51〜55の位置姿勢認識結果A〜Eにおける3次元形状の特徴を示す指標D1を算出する。ここでは、信頼度算出部440は、まず、ワーク51〜55の位置姿勢認識結果A〜Eのそれぞれにおいて検出される面を特定する。次に、特定した各面の法線ベクトル(法線方向を示す)を求め、さらに、その法線方向を量子化する。そして、ワーク51〜55の位置姿勢認識結果A〜Eのそれぞれについて、量子化された法線方向の頻度分布における最頻値を算出する。そして、得られたその最頻値の逆数(最頻値に逆数演算子による補正を施した値)を、最終的に指標D1として算定する。このとおり、本ステップで算出する指標D1は、前記適用例における指標2(ワーク5の位置姿勢認識結果において検出される各面について量子化された法線方向の頻度分布における最頻値又はその逆数)に該当する。
より具体的には、図5に示されているとおり、位置姿勢認識結果A〜Eのワーク51〜55において特定される面(認識結果の輪郭線によって画定された弁別可能な平面領域)の数は、それぞれ、1面(51a)、2面(52a,52b)、2面(53a,53b)、3面(54a,54b,54c)、及び1面(55a)である。そして、それらの各面の向きに対応する法線ベクトルを、センサ1から出力された3次元点群データ等に基づいて公知の任意の手法により算出する。さらに、得られた各法線ベクトルに基づいて、公知の又は所定の手法(例えば、本出願人による特願2017−182517号に記載された法線方向の量子化方法を好ましい一例として挙げることができる。特に特願2017−182517号の図4及びその説明を参照されたい。)を用いて各面の法線方向を量子化する。
こうして図5に示す各ワーク51〜55に対して得られた量子化後の法線方向の頻度分布の一例を、図7A〜図7Dに示す。図7A(グラフ(A))は、ワーク51,55における量子化された法線方向の頻度分布を示し、図7B〜図7D(グラフ(B)〜(D))は、それぞれワーク52〜54における量子化された法線方向の頻度分布を示す。なお、図7A〜図7Dは、法線ベクトルを10種類の方向に量子化したときの結果であり、横軸は、法線方向に対応する量子化番号を示し縦軸は、各法線方向の頻度を示す。なお、ここでは、各ワークについて法線方向の頻度の合計が「1」となるように正規化したときの各法線方向の頻度(正規化値)を示す。
より具体的には、図7Aのとおり、ワーク51,55の位置姿勢認識結果A,Eは、量子化された方向が「1」であり正規化された頻度が「1.0」である1つの法線方向(それぞれ面51a,55aに対応)からなる頻度分布を示す。また、図7Bのとおり、ワーク52の位置姿勢認識結果Bは、量子化された方向が「2」であり正規化された頻度が「0.75」である法線方向(面52aに対応)と、量子化された方向が「8」であり正規化された頻度が「0.25」である法線方向(面52bに対応)とからなる頻度分布を示す。
一方、図7Cのとおり、ワーク53の位置姿勢認識結果Cは、量子化された方向が「3」であり正規化された頻度が「0.75」である法線方向(面53aに対応)と、量子化された方向が「9」であり正規化された頻度が「0.25」である法線方向(面53bに対応)とからなる頻度分布を示す。また、図7Dのとおり、ワーク54の位置姿勢認識結果Eは、量子化された方向が「4」であり正規化された頻度が「0.6」である法線方向(面54aに対応)と、量子化された方向が「6」であり正規化された頻度が「0.2」である法線方向(面54bに対応)と、量子化された方向が「10」であり正規化された頻度が「0.2」である法線方向(面54cに対応)からなる頻度分布を示す。
かかる図7A〜図7Dに示す量子化された法線方向の頻度分布より、ワーク51〜55の位置姿勢認識結果A〜Eにおける法線方向の最頻値は、それぞれ、「1.0」(面51a)、「0.75」(面52a)、「0.75」(面53a)、「0.60」(面54a)、及び「1.0」(面55a)となる。そして、それらの逆数を求めることにより、ワーク51〜55の位置姿勢認識結果A〜Eにおける指標D1として、それぞれ、「1.0」(面51a)、「1.33」(面52a)、「1.33」(面53a)、「1.67」(面54a)、及び「1.0」(面55a)が算定される。こうして得られたワーク51〜55の位置姿勢認識結果A〜Eにおける指標D1の算出結果の一例を図6の表にまとめて示す。
(ステップS6)
ステップS6では、信頼度算出部440は、図5に示す各ワーク51〜55の位置姿勢認識結果A〜Eにおける3次元形状の特徴を示す指標D2として、認識された各ワーク51〜55の表面積を算出する。例えば、センサ1から出力された3次元点群データ、又は、それに対応する2次元画像において、図5に表示された各ワーク51〜55の位置姿勢認識結果A〜Eにおける平面領域(ワーク51〜55の実際の形状領域ではない。)の周縁を画定する輪郭線の2次元座標を特定し、その2次元座標から算出される面積を各ワーク51〜55の位置姿勢認識結果A〜Eにおける表面積とすることができる。
或いは、ステップS5においてワーク51〜55のそれぞれに対して特定された面毎の面積を同様に算出し、各ワーク51〜55についてそれらの面積の合計値を位置姿勢認識結果A〜Eにおける表面積とすることもできる。さらに、得られたワーク51〜55の位置姿勢認識結果A〜Eにおける表面積は、絶対値をそのまま用いてもよく、或いは、特定のワーク5の表面積を基準とした相対値(すなわち正規化した値)としてもよい。このとおり、本ステップで算出する指標D2は、前記適用例における指標4(ワーク5の位置姿勢認識結果において算出されるワーク5の表面積)に該当する。
より具体的には、図5に示すワーク51〜55の表面積を算出し、さらに、ワーク51の表面積を「1.0」とした場合の相対値を概算すると、ワーク51〜55の位置姿勢認識結果A〜Eにおける指標D1として、それぞれ、「1.0」、「1.0」、「0.6」、「1.0」、及び「1.0」が算出される。こうして得られたワーク51〜55の位置姿勢認識結果A〜Eにおける指標D2の算出結果の一例を図6の表にまとめて示す。
(ステップS7)
ステップS7では、信頼度算出部440は、得られた指標D1,D2を用いて、ワーク51〜55の位置姿勢認識結果A〜Eの類似スコアの信頼度Rを算出する。ここでは、例えば、指標D1,D2のうち何れかをそのまま信頼度Rとしてもよく、或いは、指標D1,D2の重要度又は優先度に応じて重み付けするといった適宜の補正を施したものを信頼度Rとしてもよい。また、指標D1,D2、又は、各指標D1,D2に重み付け等の適宜の補正を施したものを、乗算等の適宜の演算によって組み合わせたものを信頼度Rとすることができる。
より具体的には、信頼度R=指標D1×指標D2とすると、ワーク51〜55の位置姿勢認識結果A〜Eにおける類似スコアSの信頼度Rとして、それぞれ、「1.00」、「1.33」、「0.80」、「1.67」、及び「1.00」が算出される。こうして得られたワーク51〜55の位置姿勢認識結果A〜Eにおける類似スコアSの信頼度Rの算出結果の一例を図6の表にまとめて示す。このとおり、ステップS5〜S7が前記適用例における「(4)信頼度算出処理」に相当する。
(ステップS8)
ステップS8では、統合スコア算出部450は、得られた類似スコアSと信頼度Rとを、乗算等の適宜の演算によって組み合わせたものを、統合スコアSTとして算出する。より具体的には、統合スコアST=類似スコアS×信頼度Rとすると、ワーク51〜55の位置姿勢認識結果A〜Eにおける統合スコアSTとして、それぞれ、「100」、「133」、「80」、「167」、及び「100」が算出される。こうして得られたワーク51〜55の位置姿勢認識結果A〜Eにおける統合スコアSTの算出結果の一例を図6の表にまとめて示す。このとおり、ステップS8は前記適用例における「(5)統合スコア算出処理」に相当する。
(ステップS9)
分岐処理であるステップS9では、例えば、把持物体決定部460は、得られた統合スコアSTが予め設定された閾値(例えば、「90」、「100」、「110」等)以上であるか否かを判定する。統合スコアSTがその閾値以上である場合には、後述するステップS10以降の処理へ移行し、統合スコアSTがその閾値未満である場合には、後述するステップS20以降の処理へ移行する。
(ステップS10)
ステップS9において、統合スコアSTが閾値以上であると判定された場合(ステップS9において「Yes」の場合)、ステップS10では、把持物体決定部460は、その閾値以上の統合スコアSTが得られた位置姿勢認識結果のワーク5を選定する。例えば、統合スコアSTが高い順に、又は、任意の順に、ハンド2が把持する対象のワーク5を決定する。具体的には、その閾値が「90」であり、図6に示す統合スコアSTが得られた場合、把持物体決定部460は、統合スコアSTがそれ以上であるワーク51,52,54を選定し、統合スコアSTが高いその順に把持対象として決定することができる(この場合、例えば、直近に把持する対象は、統合スコアSTが「167」と最も高いワーク54となる。)。このとおり、ステップS9,S10が前記適用例における「(6)把持物体決定処理」に相当する。
(ステップS11)
ステップS11では、把持姿勢算出部480は、把持対象として決定されたワーク5を把持する際のハンド2の把持姿勢の算出パラメータの初期値セットを用いて、且つ、ステップS3で認識されたそのワーク5の位置姿勢に基づいて、ハンド2によるそのワーク5の把持姿勢を算出する。ハンド2によるワーク5の把持姿勢の算出パラメータとしては、例えば、把持姿勢算出における閾値等が挙げられる。なお、本ステップでは、直近の把持対象であるワーク5(例えばワーク54)の把持姿勢のみ算出してもよいし、ステップS10で把持対象として決定されたワーク5(例えばワーク51,52,54)の把持姿勢を全て算出しておいてもよい。このとおり、ステップS11は前記適用例における「(8)把持姿勢算出処理」に相当する。
(ステップS12)
ステップS40では、経路算出部490は、ハンド2の初期姿勢から把持姿勢へ移動する経路の算出パラメータの初期値セットを用いて、ハンド2を、その初期姿勢から、ステップS11で算出された把持姿勢まで移動する経路を算出する。ハンド2の初期姿勢から把持姿勢へ移動する経路の算出パラメータとしては、例えば、ワーク5や収納容器6に対するハンド2の干渉判定の閾値等が挙げられる。このとおり、ステップS12は前記適用例における「(9)経路算出処理」に相当する。
(ステップS13)
そして、ステップ13では、ロボット制御部530は、ステップS12で算出された把持対象のワーク5への経路に基づいて、ロボット3を作動させ、ハンド2を、そのワーク5についてステップS11で算出された把持姿勢まで移動する。それから、ハンド制御部520は、その把持姿勢に基づいて、ハンド2を作動させ、把持対象のワーク5を把持する。さらに、ロボット制御部530及びハンド制御部520は、把持したワーク5を収納容器6から取り出し、適宜のトレー等へ移設し、整列させて配置する。このとおり、ステップS13も前記適用例における「(10)各種制御処理」に相当する。
ステップS13を実行した後、処理をステップS9へ戻入し、把持対象として決定された統合スコアSTが高い他のワーク5がある場合には、ステップS10〜S13の処理を繰り返し実施する。
(ステップS20)
一方、ステップS9において、統合スコアSTが閾値未満であると判定された場合(ステップS9において「No」の場合)、分岐ステップであるステップS20では、例えば、計測条件変更部460は、類似スコアSの信頼度R又は統合スコアSTが、先のステップS7で一旦算出された信頼度R又は統合スコアSTよりも高くなり得るワーク5の位置姿勢があるか否かを判定する。
例えば、先のステップS3でワーク5の位置姿勢認識結果が得られており、また、先のステップS2でセンサ1の位置姿勢(例えばセンサ1の駆動機構のエンコーダのデータ等から取得可能)が判明していれば、先のステップS1で取得したワーク5の3次元モデルデータを用いることにより、センサ1の位置姿勢を種々変化させて計測したときのワーク5の位置姿勢認識結果を予測する。また、得られたワーク5の種々の位置姿勢の予測認識結果について、ステップS4〜S8で行った各処理を実行して、それらの予測認識結果における類似スコアSの信頼度R及び統合スコアSTの予測値を算出する。そして、こうして得られた類似スコアSの信頼度R及び統合スコアSTの予測値を、既に得られている値と比較し、より高い信頼度R又は統合スコアSTが得られるワーク5の位置姿勢があるか否かを判定する。ここで、より高い信頼度R又は統合スコアSTが得られるワーク5の位置姿勢がないと判定された場合(ステップS20において「No」の場合)には、処理を終了する。
(ステップS21)
一方、ステップS20において、より高い信頼度R又は統合スコアSTが得られるワーク5の位置姿勢があると判定された場合(ステップS20において「Yes」の場合)、分岐ステップであるステップ21では、例えば、計測条件変更部460は、最も高い信頼度R又は統合スコアSTが得られるワーク5の最適な位置姿勢を、センサ1によって計測することができる計測条件(例えば、センサ1の位置姿勢)があるか否かを判定する。
一般に、ワーク5は収納容器6等に収容され、或いは、支持台上にばら積み状態で載置されているので、ワーク5の目的の位置姿勢を実現するには、ワーク5を移動するよりも、センサ1の位置姿勢といった計測条件を変更する方が有用である。但し、例えばセンサ1の位置姿勢を変更する場合、センサ1やセンサ1の駆動機構が、ワーク5やその周辺にある物体と物理的に干渉してしまう可能性がある。そうすると、実際には、センサ1を目的の位置姿勢へ移動することができず、ワーク5の目的の位置姿勢をセンサ1によって計測することができない。従って、そのようにワーク5の目的の位置姿勢をセンサ1によって計測することができないと判定された場合(ステップS21において「No」の場合)、処理をステップS20へ戻入し、次に最適なワーク5の位置姿勢の有無の判定、及び、ステップS21における計測条件の有無の判定を繰り返し実施する。
ここで、センサ1及びその駆動機構について、それらの目的の位置姿勢を算出する方法及び手順は、特に制限されず、例えば、以下の方法及び手順を挙げることができる。すなわち、まず、センサ1に対して行うべき姿勢変換は、例えば、センサ1とワーク5との間の距離が変わらない場合、ワーク5の現在の位置姿勢から目的の位置姿勢への姿勢変換(行列)の符号を、x−y軸周りに反転させることにより得ることができる。さらに、センサ1を目的の位置姿勢へ移動するためのセンサ1の駆動機構(センサ1がロボット3に取り付けられている場合にはロボット3)の姿勢変換は、センサ1の座標系と駆動機構の座標系との対応関係を事前に較正(キャリブレーション)しておくことにより計算することができる。
(ステップS22)
他方、ステップS21において、ワーク5の目的の位置姿勢をセンサ1によって計測することができると判定された場合(ステップS21において「Yes」の場合)、ステップS22では、計測条件変更部460は、センサ1によるワーク5の計測条件の初期値セットを、ワーク5のその目的の位置姿勢が得られるセンサ1の位置姿勢を含むセットへ変更する。
ステップS22を実行した後、処理をステップS2へ戻入し、センサ制御部510(センサ1がロボット3に取り付けられている場合には、加えてロボット制御部530)は、新たに設定された変更後の計測条件に基づいて、センサ1の位置姿勢を変更し、その状態のセンサ1によりワーク5の3次元位置情報を含む計測データを再取得し、ステップS3以降の処理を繰り返して実施する。
§4 作用・効果
以上のとおり、本実施形態に係る物体認識処理装置を備えるワークピッキング装置100、及び、それらを用いた方法の一例によれば、まず、ワーク5の位置姿勢を認識する際に、3次元モデルデータとワーク5の計測データとの3次元マッチングにおける類似スコアSを算出する。また、かかる類似スコアSのみではなく、位置姿勢認識結果におけるワーク5の3次元形状の特徴に着目し、かかる特徴を表す指標D1,D2を算出し、さらに、それらの指標D1,D2から類似スコアSの信頼度Rを算出する。そして、類似スコアSのみではなく、類似スコアSとその信頼度Rとを組み合わせて得られる統合スコアSTを用いることにより、ワーク5の位置姿勢認識結果の良否(認識精度)を判別することができる。
例えば、図5及び図6に示すワーク51〜55の位置姿勢認識結果A〜Eでは、図5に示すとおり、ワーク51〜54の各位置姿勢が互いに異なるにも拘わらず、類似スコアSは全て高い同じ値(「100」)であるため、類似スコアSのみでは、かかるワーク51〜54の位置姿勢の相違を把握することができない。
これに対し、類似スコアSが同値であるワーク51〜54の位置姿勢認識結果A〜Dに対し、本実施形態によって指標D1,D2から算出された類似スコアSの信頼度Rは「0.80」〜「1.67」の範囲内の異なる値である。その結果、類似スコアSと信頼度Rから算出された統合スコアSTは「80」〜「167」の範囲内の異なる値となるから、図5に示すようなワーク51〜54の位置姿勢の相違を十分に把握し、それらの位置姿勢認識結果A〜Eの良否及び優劣を正確に判別することができる。
また、ワーク55の手前にはワーク52〜54が重なっており、このままの状態のワーク55をハンド2で把持できる可能性は低いが、ワーク55の類似スコアSは「70」であって、ワーク51〜54の類似スコアSの「100」に比して低いものの、両者の差異は然程大きくない。これに対し、ワーク55の位置姿勢認識結果Eにおける統合スコアSTは類似スコアSと同値(「70」)であるものの、統合スコアSTの最大値(ワーク54の位置姿勢認識結果Dにおける「167」)との差異は極めて大きくなる。従って、把持対象を決定するための統合スコアSTの閾値を適切に設定することにより、ワーク55の把持可能性をより確実に見極めることができる。
さらに、本発明者の知見によれば、図5に示すワーク51の位置姿勢の如く平面しか見えていない位置姿勢の場合、特にその平面方向(x−y方向)の認識精度が悪化し易い傾向にある(後述する第1変形例も参照されたい。)。これに対し、本実施形態では、指標D1として、位置姿勢認識結果A〜Eにおけるワーク51〜55の輪郭線で画定される面を検出し、そうして特定された各面について量子化された法線方向の頻度分布を求め、ワーク51〜55について得られた法線方向の頻度分布における最頻値(図7A〜図7D参照)の逆数を算出する。すなわち、指標D1は、ワーク5の面の向きの数を数値化した値であり、ワーク5の3次元形状の多様性(豊富さ)が高く反映された指標といえる。すなわち、図5に示すとおり、ワーク51〜55の見えている面の数が多いほど3次元形状の多様性に富んでおり、図6に示すとおり、それに応じた指標D1が算出される。よって、指標D1を用いることにより、類似スコアSの信頼度R及び統合スコアSTの算出精度を向上させることができ、その結果、ワーク51〜55における位置姿勢の相違の把握、及び、位置姿勢認識結果A〜Eの良否及び優劣の判別をより正確に行うことができる。
またさらに、本実施形態では、指標D2として、位置姿勢認識結果A〜Eにおけるワーク51〜55の表面積を算出する。ここで、かかる表面積が大きいほど、3次元マッチングにおいて照合されたワーク51〜55における特徴点が多くなるので、位置姿勢認識結果A〜Eにおける表面積が大きいワーク5の位置姿勢の方が、表面積が小さいワーク5の位置姿勢よりも、ワーク5の3次元形状に関する情報をより多く含み得る。よって、指標D2もまた、ワーク5の3次元形状の多様性(豊富さ)が高く反映された指標といえる。そして、図5に示すワーク51〜55の表面積に応じた指標D2が、図6に示すとおり算出される。よって、指標D2を用いることにより、類似スコアSの信頼度R及び統合スコアSTの算出精度を向上させることができ、その結果、ワーク51〜55における位置姿勢の相違の把握、及び、位置姿勢認識結果A〜Eの良否及び優劣の判別を、更に正確に行うことができる。
そして、本実施形態では、ワーク5の位置姿勢認識結果A〜Eにおける統合スコアSTを所定の閾値と比較し、例えばその閾値以上である統合スコアSTを示す位置姿勢認識結果のワーク5(すなわち、位置姿勢の認識精度が高いワーク5)を、ハンド2による把持対象として決定する。従って、類似スコアSのみに基づいてワーク5の位置姿勢認識結果の良否を判断してピッキングを行う従来に比して、良好且つ安定したピッキング操作を実現することができる。
また、本実施形態では、閾値以上の統合スコアSTを示すワーク5の位置姿勢認識結果が得られなかった場合に、計測条件を変更してワーク5の3次元位置情報を含む計測データを再取得し、その結果に基づいて、ワーク5の位置姿勢を再認識する。よって、一旦認識したワーク5の位置姿勢の精度が悪く、そのワーク5を把持対象とすることができなかった場合でも、位置姿勢の認識精度を高めることができる。これにより、確実に把持できるワーク5の数を増大させる(すなわち把持成功率を高める)ことが可能となるので、更に良好且つ安定したピッキング操作を実現することができる。
しかも、その際、ワーク5の位置姿勢認識結果における類似スコアSの信頼度R又は統合スコアSTが、計測データの再取得及び再認識前よりも改善され得るワーク5の位置姿勢を把握し、さらに、そのワーク5の位置姿勢の実現可能性をも判定した上で、センサ1の計測条件を変更する。従って、位置姿勢の認識精度をより高め、且つ、ハンド2によるワーク5の把持可能性を更に高めることができるので、更に一層良好且つ安定したピッキング操作を実現することができる。
§5 変形例
以上、本開示の一例としての実施形態について詳細に説明してきたが、前述した説明はあらゆる点において本開示の一例を示すに過ぎず、本開示の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもなく、例えば、以下に示すような変更が可能である。なお、以下の説明においては、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、説明を適宜省略した。また、上記実施形態及び以下の各変形例は、適宜組み合わせて構成することが可能である。
<5.1:第1変形例>
図8(A)は、第1変形例に係る物体認識処理装置を備えるワークピッキング装置200の適用場面の一例を模式的に示す平面図であり、図8(B)は、第1変形例に係るワークピッキング装置200に備わる物体認識処理装置によるワーク56,57(何れもワーク5に該当し、この例では、それらの3次元形状は全て同じであるとする。)の位置姿勢認識結果の一例を模式的に示す平面図である。
図8(A)に示す如く、第1変形例に係るワークピッキング装置200は、センサ1がロボット3のアーム先端部に取り付けられていること以外は、図1に示すワークピッキング装置100と同等に構成されたものである(制御装置4を図示せず。)。このとおり、ワークピッキング装置200も、本発明に係る「物体ピッキング装置」の一例に相当する。
また、図8(B)に示す位置姿勢認識結果は、図5と同様に、例えば、各ワーク56,57について認識された位置姿勢を2次元投影した2次元画像に、3次元マッチングにおいてワーク56,57の特徴点や特徴部位として検出された例えば輪郭線(エッジに該当する線分であり、図8(B)において太い実線で示す線分)を識別可能に表示した画像である。なお、図8(B)においても、図5と同様に、ワーク56,57の各表示領域に、それぞれに対応する位置姿勢認識結果の符号F,Gを付記した。また、これらのワーク56,57の位置姿勢認識結果F,Gに対して算出した類似スコアS、指標D1,D2、信頼度R、及び統合スコアSTを、図9の表にまとめて示す。
図8(B)に示す位置姿勢認識結果F,Gにおけるワーク56,57の位置姿勢は、何れも平面しか見えていない位置姿勢の一例であり、前述の如く、このような平面のみの位置姿勢の場合、その平面方向(x−y方向)の認識精度が悪化し易い傾向にある。かかる状況は、例えば、矩形状をなすワーク5のピッキングが進行していき、収納容器6内に残存するワーク5が少なくなり、収納容器6の底面にワーク5が平らに置かれ、その状態を収納容器6の底面のほぼ真上からセンサ1によって計測した場合に生じ得る。
図8(B)に示すワーク56では、認識結果である輪郭線で囲まれた範囲の大きさ(面積)がワーク56の外形領域の面積とほぼ同等であるが、位置が若干ずれてしまっており、この点において、平面方向(x−y方向)の認識精度が悪いものの、図9のとおり、類似スコアは「80」と算出されている。また、ワーク57では、認識結果である輪郭線で囲まれた範囲の大きさ(面積)がワーク56の外形領域の面積と全く異なっており、この点において、平面方向(x−y方向)の認識精度が悪いものの、輪郭線の位置自体はワーク57の外形領域に合致又はその範囲内に含まれているため、類似スコアは「100」と算出されている。
この場合、図8(B)からは一見して、ワーク56の位置姿勢認識結果Fの方がワーク57の位置姿勢認識結果Gよりも良いと判断し得るが、もし仮にこれらの良否を類似スコアSのみで判別したとすると、結果は逆になってしまう。さらに、例えば類似スコアSの閾値を、先の実施形態における統合スコアSTの閾値と同じ「90」とすると、ワーク56は把持対象にならない一方で、ワーク57が把持対象と判定されてしまうおそれがある。しかし、実際のワーク56の外形範囲と大きく異なる位置姿勢認識結果Gに基づいて、ワーク57の把持を試行したとしても、把持できない可能性が高いといえる。
これに対し、第1変形例では、上記実施形態と同様に、ワーク56,57の位置姿勢認識結果F,Gの良否の判別は、統合スコアSTに基づいて行う(図4におけるステップS9)。例えば、統合スコアSTの閾値を上記実施形態と同じ「90」とすると、位置姿勢認識結果F,Gの何れの統合スコアSTも閾値未満となる。よって、図8(B)に示す状況では、図4に示すフローチャートに従って、ステップS20以降の処理により、計測条件を変更してワーク56,57の計測データを再取得し、さらに、位置姿勢の再認識を行う。
ここで、図10(A)は、第1変形例に係る物体認識処理装置を備えるワークピッキング装置200の適用場面の他の一例を模式的に示す平面図であり、計測条件であるセンサ1の位置姿勢を変更して、ワーク56,57の計測データを再取得している状態を示す図である。また、図10(B)は、第1変形例に係るワークピッキング装置200に備わる物体認識処理装置によるワーク56,57の位置姿勢認識結果の他の一例を模式的に示す平面図である。なお、図10(B)においても、図8(B)と同様に、ワーク56,57の各表示領域に、それぞれに対応する位置姿勢認識結果の符号H,Iを付記した。また、これらのワーク56,57の位置姿勢認識結果H,Iに対して算出した類似スコアS、指標D1,D2、信頼度R、及び統合スコアSTを、図11の表にまとめて示す。
図10(A)に示すとおり、ロボット3のアームは図8(A)に示す状態よりもアーム前方に延びており、また、ロボット3のアーム先端部の角度がアーム台側に傾くように変更されており、その結果、アーム先端部に取り付けられたセンサ1の位置姿勢(視点)が、ワーク56,57をやや斜め上方から覗くように変更されている。かかる位置姿勢のセンサ1で再取得された計測データに基づくワーク56,57の位置姿勢の再認識結果H,Iは、図10(B)及び図11の表に示す如く、何れも良好であり、例えば類似スコアSも統合スコアSTも、図9の表に示す最初の結果よりも格段に改善されている。
以上のことから、かかる第1変形例によれば、上記実施形態と同様に、一旦認識したワーク5の位置姿勢の認識精度が悪く、そのワーク5を把持対象とすることができなかった場合でも、その位置姿勢の認識精度を高めることができる。これにより、確実に把持できるワーク5の数を増大させる(すなわち把持成功率を高める)ことが可能となるので、良好且つ安定したピッキング操作を実現することができる。
<5.2:第2変形例>
上記実施形態では、指標D1,D2の少なくとも何れかを用いたが、それに加えて、又は、それに代えて、前記適用例における指標1,3,5,6,7,8の少なくとも何れかを用いてもよい。
§6 付記
以上説明した実施形態及び変形例は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態及び変形例が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態及び変形例で示した構成同士を部分的に置換し又は組み合わせることも可能である。
(付記1)
物体(5)の3次元形状を表す3次元モデルデータを取得するモデルデータ取得部(410)と、
前記物体(5)の3次元位置情報を含む計測データを取得する計測部(1)と、
前記3次元モデルデータと前記計測データとに基づいて、前記物体(5)の位置姿勢を認識する位置姿勢認識部(420)と、
前記物体(5)の位置姿勢認識結果における前記3次元モデルデータと前記計測データとの類似度を示す類似スコア(S)を算出する類似スコア算出部(430)と、
前記物体(5)の位置姿勢認識結果における該物体(5)の3次元形状の特徴を示す指標(D1,D2)を算出し、該指標(D1,D2)に基づいて前記類似スコア(S)の信頼度(R)を算出する信頼度算出部(440)と、
前記類似スコア(S)と前記信頼度(R)とに基づいて、前記物体(5)の位置姿勢認識結果の良否を示す統合スコア(ST)を算出する統合スコア算出部(450)と、
を備える物体認識処理装置。
(付記2)
前記物体(5)の3次元形状の特徴は、前記物体(5)の位置姿勢認識結果から把握される、前記物体(5)の3次元形状の多様性を示す物理量である、
付記1の物体認識処理装置。
(付記3)
前記信頼度算出部(440)は、前記物体(5)の位置姿勢認識結果における面の数を、前記指標(D1,D2)として算出する、
付記1又は2の物体認識処理装置。
(付記4)
前記信頼度算出部(440)は、前記物体(5)の位置姿勢認識結果における各面の法線方向を量子化し、当該量子化された前記法線方向の頻度分布における最頻値、又は、分散を、前記指標(D1,D2)として算出する、
付記1乃至3の何れかの物体認識処理装置。
(付記5)
前記信頼度算出部(440)は、前記物体(5)の位置姿勢認識結果における表面積を、前記指標(D1,D2)として算出する、
付記1乃至4の何れかの物体認識処理装置。
(付記6)
前記信頼度算出部(440)は、前記物体(5)の位置姿勢認識結果における輪郭線の数、又は、長さを、前記指標(D1,D2)として算出する、
付記1乃至5の何れかの物体認識処理装置。
(付記7)
前記信頼度算出部(440)は、前記物体(5)の位置姿勢認識結果における輝度分布における分散、又は、前記物体(5)の位置姿勢認識結果における距離分布における分散を表す値を、前記指標(D1,D2)として算出する、
付記1乃至6の何れかの物体認識処理装置。
(付記8)
前記信頼度算出部(440)は、前記指標(D1,D2)に重み付けを行い、該重み付けした指標(D1,D2)に基づいて、前記類似スコア(S)の信頼度(R)を算出する、
付記1乃至7の何れかの物体認識処理装置。
(付記9)
前記信頼度算出部(440)は、前記物体(5)の異なる位置姿勢毎に前記指標(D1,D2)又は前記信頼度(R)を予め算出しておき、前記物体(5)の位置姿勢認識結果に対応する前記指標(D1,D2)又は前記信頼度(R)を選定する、
付記1乃至8の何れかの物体認識処理装置。
(付記10)
モデルデータ取得部(410)と、計測部(1)と、位置姿勢認識部(420)と、類似スコア算出部(430)と、信頼度算出部(440)と、統合スコア算出部(450)とを備える物体認識処理装置を用いた物体認識処理方法であって、
前記モデルデータ取得部(410)が、物体(5)の3次元形状を表す3次元モデルデータを取得するステップと、
前記計測部(1)が、前記物体(5)の3次元位置情報を含む計測データを取得するステップと、
前記位置姿勢認識部(420)が、前記3次元モデルデータと前記計測データとに基づいて、前記物体(5)の位置姿勢を認識するステップと、
前記類似スコア算出部(430)が、前記物体(5)の位置姿勢認識結果における前記3次元モデルデータと前記計測データとの類似度を示す類似スコア(S)を算出するステップと、
前記信頼度算出部(440)が、前記物体(5)の位置姿勢認識結果における該物体(5)の3次元形状の特徴を示す指標(D1,D2)を算出し、該指標(D1,D2)に基づいて前記類似スコア(S)の信頼度(R)を算出するステップと、
前記統合スコア算出部(450)が、前記類似スコア(S)と前記信頼度(R)とに基づいて、前記物体(5)の位置姿勢認識結果の良否を示す統合スコア(ST)を算出するステップと、
を含む、
物体認識処理方法。
(付記11)
物体(5)を把持して取り出すための物体ピッキング装置(100,200)であって、
付記1乃至9の何れかの物体認識処理装置と、
前記物体(5)を把持するハンド(2)と、
前記ハンド(2)を移動するロボット(3)と、
前記物体認識処理装置、前記ハンド(2)、及び前記ロボット(3)を制御する制御装置(4)と、
を備え、
前記制御装置(4)は、前記物体認識処理装置によって算出された前記統合スコア(ST)に基づいて、前記ハンド(2)が把持する前記物体(5)を決定する把持物体(5)決定部、前記ハンド(2)が前記物体(5)を把持する際の前記ハンド(2)の把持姿勢を算出する把持姿勢算出部(480)、及び、前記ロボット(3)により前記ハンド(2)を前記把持姿勢へ移動する経路を算出する経路算出部(490)を有する、
物体ピッキング装置(100,200)。
(付記12)
前記制御装置(4)は、前記物体認識処理装置によって算出された前記統合スコア(ST)に基づいて、前記計測データを取得する際の計測条件を変更する計測条件変更部(470)を有し、
前記物体認識処理装置の前記計測部(1)は、変更後の前記計測条件に基づいて、前記物体(5)の3次元位置情報を含む計測データを再取得し、
前記物体認識処理装置の前記位置姿勢認識部(420)は、前記3次元モデルデータと再取得された前記計測データとに基づいて、前記物体(5)の位置姿勢を再認識する、
付記11の物体ピッキング装置(100,200)。
(付記13)
前記計測条件変更部(470)は、前記計測条件として、前記計測部(1)の位置姿勢を変更する、
付記12の物体ピッキング装置(100,200)。
(付記14)
前記パラメータ変更部(470)は、前記3次元モデルデータ、再認識前の前記物体(5)の位置姿勢認識結果、及び、前記計測データの再取得前の前記計測部(1)の位置姿勢に基づいて、変更するべき前記計測部(1)の位置姿勢を算出する、
付記13の物体ピッキング装置(100,200)。
(付記15)
付記1乃至9の何れかの物体認識処理装置と、ハンド(2)と、ロボット(3)と、制御装置(4)とを備える物体ピッキング装置(100,200)を用い、物体(5)を把持して取り出すための物体ピッキング方法であって、
前記物体認識処理装置が、前記物体(5)の位置姿勢認識結果における良否を示す統合スコア(ST)を算出する算出ステップと
前記ハンド(2)が、前記物体(5)を把持する把持ステップと、
前記ロボット(3)が、前記ハンド(2)を移動する移動ステップと、
前記制御装置(4)が、前記物体認識処理装置、前記ハンド(2)、及び前記ロボット(3)を制御する制御ステップと、
を含み、
前記制御ステップは、前記統合スコア(ST)に基づいて、前記ハンド(2)が把持する前記物体(5)を決定する把持物体決定ステップ、前記ハンド(2)が前記物体(5)を把持する際の前記ハンド(2)の把持姿勢を算出する把持姿勢算出ステップ、及び、前記ロボット(3)により前記ハンド(2)を前記把持姿勢へ移動する経路を算出する経路算出ステップを有する、
物体ピッキング方法。
1…センサ、2…ハンド、3…ロボット、4…制御装置、5…ワーク、6…収納容器、41…制御演算部、42…通信インタフェース(I/F)部、43…記憶部、44…入力部、45…出力部、46…バスライン、51〜57…ワーク、51a,52a,52b,53a,53b,54a,54b,54c,55a…面、100,200…ワークピッキング装置、410…モデルデータ取得部、420…位置姿勢認識部、430…類似スコア算出部、440…信頼度算出部、450…統合スコア算出部、460…把持物体決定部、470…計測条件変更部、480…把持姿勢算出部、490…経路算出部、510…センサ制御部、520…ハンド制御部、530…ロボット制御部。

Claims (13)

  1. 物体の3次元形状を表す3次元モデルデータを取得するモデルデータ取得部と、
    前記物体の3次元位置情報を含む計測データを取得する計測部と、
    前記3次元モデルデータと前記計測データとに基づいて、前記物体の位置姿勢を認識する位置姿勢認識部と、
    前記物体の位置姿勢認識結果における輪郭線と前記物体の実際の輪郭線との合致度の高低に基づいて、前記3次元モデルデータと前記計測データとの類似度を示す類似スコアを算出する類似スコア算出部と、
    前記物体の位置姿勢認識結果における各面の法線方向を量子化し、当該量子化された前記法線方向の頻度分布における最頻値、又は、分散を、該物体の3次元形状の特徴を示す指標として算出し、該指標の値をそのまま、又は、該指標に補正演算を施した値を前記類似スコアの信頼度として算出する信頼度算出部と、
    前記類似スコアと前記信頼度とを演算によって組み合わせた値を、前記物体の位置姿勢認識結果の良否を示す統合スコアとして算出する統合スコア算出部と、
    を備える物体認識処理装置。
  2. 前記信頼度算出部は、前記物体の位置姿勢認識結果における面の数を、前記指標として算出する、
    請求項1記載の物体認識処理装置。
  3. 前記信頼度算出部は、前記物体の位置姿勢認識結果における表面積を、前記指標として算出する、
    請求項1又は2記載の物体認識処理装置。
  4. 前記信頼度算出部は、前記物体の位置姿勢認識結果における輪郭線の数、又は、長さを、前記指標として算出する、
    請求項1乃至の何れか1項記載の物体認識処理装置。
  5. 前記信頼度算出部は、前記物体の位置姿勢認識結果における輝度分布における分散、又は、前記物体の位置姿勢認識結果における距離分布における分散を表す値を、前記指標として算出する、
    請求項1乃至の何れか1項記載の物体認識処理装置。
  6. 前記信頼度算出部は、前記指標に前記補正演算としての重み付けを行い、該重み付けした指標の値を前記類似スコアの信頼度として算出する、
    請求項1乃至の何れか1項記載の物体認識処理装置。
  7. 前記信頼度算出部は、前記物体の異なる位置姿勢毎に前記指標又は前記信頼度を予め算出しておき、前記物体の位置姿勢認識結果に対応する前記指標又は前記信頼度を選定する、
    請求項1乃至の何れか1項記載の物体認識処理装置。
  8. モデルデータ取得部と、計測部と、位置姿勢認識部と、類似スコア算出部と、信頼度算出部と、統合スコア算出部とを備える物体認識処理装置を用いた物体認識処理方法であって、
    前記モデルデータ取得部が、物体の3次元形状を表す3次元モデルデータを取得するステップと、
    前記計測部が、前記物体の3次元位置情報を含む計測データを取得するステップと、
    前記位置姿勢認識部が、前記3次元モデルデータと前記計測データとに基づいて、前記物体の位置姿勢を認識するステップと、
    前記類似スコア算出部が、前記物体の位置姿勢認識結果における輪郭線と前記物体の実際の輪郭線との合致度の高低に基づいて、前記3次元モデルデータと前記計測データとの類似度を示す類似スコアを算出するステップと、
    前記信頼度算出部が、前記物体の位置姿勢認識結果における各面の法線方向を量子化し、当該量子化された前記法線方向の頻度分布における最頻値、又は、分散を、該物体の3次元形状の特徴を示す指標として算出し、該指標の値をそのまま、又は、該指標に補正演算を施した値を前記類似スコアの信頼度として算出するステップと、
    前記統合スコア算出部が、前記類似スコアと前記信頼度とを演算によって組み合わせた値を、前記物体の位置姿勢認識結果の良否を示す統合スコアとして算出するステップと、
    を含む、
    物体認識処理方法。
  9. 物体を把持して取り出すための物体ピッキング装置であって、
    請求項1乃至の何れか1項記載の物体認識処理装置と、
    前記物体を把持するハンドと、
    前記ハンドを移動するロボットと、
    前記物体認識処理装置、前記ハンド、及び前記ロボットを制御する制御装置と、
    を備え、
    前記制御装置は、前記物体認識処理装置によって算出された前記統合スコアに基づいて、前記ハンドが把持する前記物体を決定する把持物体決定部、前記ハンドが前記物体を把持する際の前記ハンドの把持姿勢を算出する把持姿勢算出部、及び、前記ロボットにより前記ハンドを前記把持姿勢へ移動する経路を算出する経路算出部を有する、
    物体ピッキング装置。
  10. 前記制御装置は、前記物体認識処理装置によって算出された前記統合スコアに基づいて、前記計測データを取得する際の計測条件を変更する計測条件変更部を有し、
    前記物体認識処理装置の前記計測部は、変更後の前記計測条件に基づいて、前記物体の3次元位置情報を含む計測データを再取得し、
    前記物体認識処理装置の前記位置姿勢認識部は、前記3次元モデルデータと再取得された前記計測データとに基づいて、前記物体の位置姿勢を再認識する、
    請求項記載の物体ピッキング装置。
  11. 前記計測条件変更部は、前記計測条件として、前記計測部の位置姿勢を変更する、
    請求項10記載の物体ピッキング装置。
  12. 前記計測条件変更部は、前記3次元モデルデータ、再認識前の前記物体の位置姿勢認識結果、及び、前記計測データの再取得前の前記計測部の位置姿勢に基づいて、変更するべき前記計測部の位置姿勢を算出する、
    請求項11記載の物体ピッキング装置。
  13. 請求項1乃至の何れか1項記載の物体認識処理装置と、ハンドと、ロボットと、制御装置とを備える物体ピッキング装置を用い、物体を把持して取り出すための物体ピッキング方法であって、
    前記物体認識処理装置が、前記物体の位置姿勢認識結果における良否を示す統合スコアを算出する算出ステップと
    前記ハンドが、前記物体を把持する把持ステップと、
    前記ロボットが、前記ハンドを移動する移動ステップと、
    前記制御装置が、前記物体認識処理装置、前記ハンド、及び前記ロボットを制御する制御ステップと、
    を含み、
    前記制御ステップは、前記統合スコアに基づいて、前記ハンドが把持する前記物体を決定する把持物体決定ステップ、前記ハンドが前記物体を把持する際の前記ハンドの把持姿勢を算出する把持姿勢算出ステップ、及び、前記ロボットにより前記ハンドを前記把持姿勢へ移動する経路を算出する経路算出ステップを有する、
    物体ピッキング方法。
JP2018072896A 2018-04-05 2018-04-05 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法 Active JP6937995B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018072896A JP6937995B2 (ja) 2018-04-05 2018-04-05 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法
CN201910179773.3A CN110348279B (zh) 2018-04-05 2019-03-11 物体识别处理装置和方法、以及物体拣选装置和方法
EP19164284.2A EP3550470B1 (en) 2018-04-05 2019-03-21 Object recognition processing apparatus and method, and object picking apparatus and method
US16/362,085 US11511421B2 (en) 2018-04-05 2019-03-22 Object recognition processing apparatus and method, and object picking apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018072896A JP6937995B2 (ja) 2018-04-05 2018-04-05 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法

Publications (2)

Publication Number Publication Date
JP2019185239A JP2019185239A (ja) 2019-10-24
JP6937995B2 true JP6937995B2 (ja) 2021-09-22

Family

ID=65904167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018072896A Active JP6937995B2 (ja) 2018-04-05 2018-04-05 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法

Country Status (4)

Country Link
US (1) US11511421B2 (ja)
EP (1) EP3550470B1 (ja)
JP (1) JP6937995B2 (ja)
CN (1) CN110348279B (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
US10769472B2 (en) * 2018-03-28 2020-09-08 Wipro Limited Method and system counting plurality of objects placed in a region
JP6740288B2 (ja) * 2018-07-13 2020-08-12 ファナック株式会社 物体検査装置、物体検査システム、及び検査位置を調整する方法
JP6856590B2 (ja) * 2018-08-31 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム
US10977480B2 (en) * 2019-03-27 2021-04-13 Mitsubishi Electric Research Laboratories, Inc. Detection, tracking and 3D modeling of objects with sparse RGB-D SLAM and interactive perception
EP4001831A4 (en) * 2019-07-18 2022-09-28 Mitsubishi Electric Corporation INSPECTION DEVICE, INSPECTION PROCEDURE AND PROGRAM
WO2021025955A1 (en) * 2019-08-02 2021-02-11 Dextrous Robotics, Inc. Systems and methods for robotic control under contact
JP7331934B2 (ja) * 2019-09-18 2023-08-23 日本電信電話株式会社 線路図作成装置、線路図作成方法及び線路図作成プログラム
CN111027589B (zh) * 2019-11-07 2023-04-18 成都傅立叶电子科技有限公司 一种多分制目标检测算法评价系统及方法
WO2021097487A1 (en) 2019-11-12 2021-05-20 Bright Machines, Inc. A software defined manufacturing/assembly system
CN111210294A (zh) * 2019-11-28 2020-05-29 海尔卡奥斯物联生态科技有限公司 一种大规模定制系统
US11103998B2 (en) * 2019-12-12 2021-08-31 Mujin, Inc. Method and computing system for performing motion planning based on image information generated by a camera
US12097627B2 (en) 2020-01-23 2024-09-24 Omron Corporation Control apparatus for robotic system, control method for robotic system, computer-readable storage medium storing a computer control program, and robotic system
JP7454132B2 (ja) * 2020-01-23 2024-03-22 オムロン株式会社 ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
DE112021002043T5 (de) * 2020-04-02 2023-04-13 Fanuc Corporation Vorrichtung zum Korrigieren einer Robotereinlernposition, Einlernvorrichtung, Robotersystem, Einlernpositions-Korrekturverfahren und Computerprogramm
CN111906782B (zh) * 2020-07-08 2021-07-13 西安交通大学 一种基于三维视觉的智能机器人抓取方法
CN111804605B (zh) * 2020-07-13 2021-03-19 东莞市恒明机器人自动化有限公司 一种注塑机自动装箱单元
CN112171657B (zh) * 2020-08-07 2023-06-27 天津大学 基于单目视觉的大尺寸长方体构件抓取装置及方法
US12204314B2 (en) 2020-11-10 2025-01-21 Bright Machines, Inc. Method and apparatus for improved auto-calibration of a robotic cell
CN112720464B (zh) * 2020-12-09 2022-04-19 深圳先进技术研究院 基于机器人系统的目标拾取方法、电子设备、存储介质
JP6917096B1 (ja) * 2020-12-25 2021-08-11 リンクウィズ株式会社 情報処理方法、情報処理システム、プログラム
JP7654982B2 (ja) * 2021-01-22 2025-04-02 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
JP7533265B2 (ja) * 2021-02-12 2024-08-14 オムロン株式会社 支援システム、画像処理装置、支援方法およびプログラム
JP7570944B2 (ja) * 2021-02-22 2024-10-22 株式会社東芝 計測システム及び計測プログラム
CN112907583B (zh) * 2021-03-29 2023-04-07 苏州科达科技股份有限公司 目标对象姿态选择方法、图像评分方法及模型训练方法
JP2022174815A (ja) * 2021-05-12 2022-11-25 東京ロボティクス株式会社 情報処理装置、システム、方法及びプログラム
JP7725246B2 (ja) * 2021-06-04 2025-08-19 株式会社東芝 ハンドリングシステム、搬送システム、制御装置、プログラム、およびハンドリング方法
CA3226486A1 (en) 2021-07-16 2023-01-19 Bright Machines, Inc. Method and apparatus for vision-based tool localization
US20230044420A1 (en) * 2021-08-09 2023-02-09 Mujin, Inc. Systems and methods for object detection
WO2023017740A1 (ja) * 2021-08-13 2023-02-16 国立大学法人 東京大学 情報処理装置、プログラム及びパターンコード
CN116175541B (zh) * 2021-11-28 2023-11-10 梅卡曼德(北京)机器人科技有限公司 抓取控制方法、装置、电子设备和存储介质
JP7715999B2 (ja) * 2022-02-23 2025-07-31 株式会社デンソーウェーブ 物体認識システムおよび物体認識方法
CN114637845B (zh) * 2022-03-11 2023-04-14 上海弘玑信息技术有限公司 模型测试方法、装置、设备和存储介质
WO2023205176A1 (en) * 2022-04-18 2023-10-26 Dextrous Robotics, Inc. System and/or method for grasping objects
CN118946438A (zh) * 2022-06-16 2024-11-12 发那科株式会社 工件取出系统
JPWO2024042619A1 (ja) * 2022-08-23 2024-02-29
JP2024158428A (ja) * 2023-04-27 2024-11-08 パナソニックIpマネジメント株式会社 画像処理方法および画像処理装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
JP3859371B2 (ja) * 1998-09-25 2006-12-20 松下電工株式会社 ピッキング装置
WO2000057129A1 (en) * 1999-03-19 2000-09-28 Matsushita Electric Works, Ltd. Three-dimensional object recognition method and pin picking system using the method
JP4900204B2 (ja) * 2007-11-22 2012-03-21 株式会社Ihi 物体認識方法
JP2009289046A (ja) * 2008-05-29 2009-12-10 Olympus Corp 3次元データを用いた作業支援装置及び方法
JP5588196B2 (ja) * 2010-02-25 2014-09-10 キヤノン株式会社 認識装置及びその制御方法、コンピュータプログラム
JP5612916B2 (ja) * 2010-06-18 2014-10-22 キヤノン株式会社 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
JP5627325B2 (ja) * 2010-07-23 2014-11-19 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP6041710B2 (ja) * 2013-03-06 2016-12-14 本田技研工業株式会社 画像認識方法
JP6198104B2 (ja) 2013-03-15 2017-09-20 株式会社三次元メディア 3次元物体認識装置及び3次元物体認識方法
JP6415026B2 (ja) * 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
JP6245880B2 (ja) * 2013-07-31 2017-12-13 キヤノン株式会社 情報処理装置および情報処理手法、プログラム
JP6429450B2 (ja) * 2013-10-31 2018-11-28 キヤノン株式会社 情報処理装置、情報処理方法
JP6529302B2 (ja) * 2015-03-24 2019-06-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6117901B1 (ja) * 2015-11-30 2017-04-19 ファナック株式会社 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
JP6614611B2 (ja) * 2016-02-29 2019-12-04 Kddi株式会社 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法
JP6672958B2 (ja) 2016-03-31 2020-03-25 日本電気株式会社 作業逸脱防止装置、作業逸脱防止システム、作業逸脱防止方法及びプログラム。
JP6724499B2 (ja) * 2016-04-05 2020-07-15 株式会社リコー 物体把持装置及び把持制御プログラム

Also Published As

Publication number Publication date
EP3550470A1 (en) 2019-10-09
US20190308320A1 (en) 2019-10-10
US11511421B2 (en) 2022-11-29
JP2019185239A (ja) 2019-10-24
CN110348279A (zh) 2019-10-18
EP3550470B1 (en) 2023-09-27
CN110348279B (zh) 2023-06-02

Similar Documents

Publication Publication Date Title
JP6937995B2 (ja) 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法
JP6879238B2 (ja) ワークピッキング装置及びワークピッキング方法
JP6117901B1 (ja) 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
JP6348097B2 (ja) ワーク位置姿勢算出装置およびハンドリングシステム
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
JP5561384B2 (ja) 認識プログラム評価装置および認識プログラム評価方法
US11426876B2 (en) Information processing apparatus, information processing method, and program
US20100161125A1 (en) Work apparatus and calibration method for the same
CN105091885B (zh) 机器人及自身位置推定方法
JP6703812B2 (ja) 3次元物体検査装置
JP2012125886A (ja) 物体把持装置、物体把持装置の制御方法、およびプログラム
JP2015090560A (ja) 画像処理装置、画像処理方法
JP2018136896A (ja) 情報処理装置、システム、情報処理方法、および物品の製造方法
CN109983299A (zh) 工业机器人的测量系统和方法
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
WO2018135326A1 (ja) 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法
JP2019098409A (ja) ロボットシステムおよびキャリブレーション方法
JP2017207385A (ja) 3次元認識装置、3次元認識方法、及び3次元認識プログラム
JP7533265B2 (ja) 支援システム、画像処理装置、支援方法およびプログラム
JP7299442B1 (ja) 制御装置、3次元位置計測システム、及びプログラム
EP3563983B1 (en) Method of, as well as a system for, performing a welding step on a work piece
CN120751604A (zh) 单双面翻板机的翻转对位控制方法及系统
JP2025023471A (ja) ワークの数量を推定する方法、部品供給システム、及び、ロボットシステム
JP2021077290A (ja) 情報処理装置、情報処理方法、プログラム、システム及び物品の製造方法
JP2021012628A (ja) 位置姿勢推定装置及び位置姿勢推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210815

R150 Certificate of patent or registration of utility model

Ref document number: 6937995

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150