[go: up one dir, main page]

JP6810087B2 - 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法 - Google Patents

機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法 Download PDF

Info

Publication number
JP6810087B2
JP6810087B2 JP2018065093A JP2018065093A JP6810087B2 JP 6810087 B2 JP6810087 B2 JP 6810087B2 JP 2018065093 A JP2018065093 A JP 2018065093A JP 2018065093 A JP2018065093 A JP 2018065093A JP 6810087 B2 JP6810087 B2 JP 6810087B2
Authority
JP
Japan
Prior art keywords
robot
machine learning
work
movement
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018065093A
Other languages
English (en)
Other versions
JP2019171540A (ja
Inventor
文和 藁科
文和 藁科
悠太郎 高橋
悠太郎 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2018065093A priority Critical patent/JP6810087B2/ja
Priority to DE102019002065.0A priority patent/DE102019002065B4/de
Priority to US16/361,207 priority patent/US11253999B2/en
Priority to CN201910237675.0A priority patent/CN110315505B/zh
Publication of JP2019171540A publication Critical patent/JP2019171540A/ja
Application granted granted Critical
Publication of JP6810087B2 publication Critical patent/JP6810087B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with leader teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39393Camera detects projected image, compare with reference image, position end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40499Reinforcement learning algorithm

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Description

本発明は、機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法に関する。
ロボットに所定の作業を行わせるロボットシステムにおいて、ロボットに設けたカメラで撮影した画像を利用するビジュアルフィードバックという方法が知られている(例えば、特許文献1〜4)。ビジュアルフィードバックを利用することで、より短時間で補正動作を使ったロボットシステムをセットアップすることができる。
しかしながら、短時間でセットアップが可能である反面、いくつかの問題点がある。例えば、第1に、予め作業の対象とするワークに関して、目標マークや特徴点を用意しなければならないという問題がある。第2に、撮像した画像からその目標マークや特徴点を検出するための検出アルゴリズムが必要であるという問題がある。第3に、用意された目標マークや特徴点を安定して検出するための設定のノウハウが不可欠であるという問題がある。これらの点から、ビジュアルフィードバックを利用する作業者に対する負担は未だに大きいものとなっている。
特開2003−211381号公報 特開平09−076185号公報 特開2010−188432号公報 特開2003−305676号公報
従来のビジュアルフィードバックを利用したロボットシステムを利用した場合、予め作業の対象とするワークに関して、目標マークや特徴点を用意しなければならず、作業者に対する負担が大きいという問題があった。
本開示の一実施形態に係る機械学習装置は、視覚センサによって任意の位置で撮像されたワークの画像、及び当該画像を目標画像に近づけるように計算した任意の位置からのロボットのアーム先端部の移動量を状態変数として観測する状態観測部と、目標画像を判定データとして取得する判定データ取得部と、状態変数及び判定データの組合せによって構成される訓練データセットに従って、アーム先端部またはワークを任意の位置から目標位置に移動させるためのアーム先端部の移動量を学習する学習部と、を備える。ここで、目標位置とは、視覚センサが、ワークと所定の相対的位置関係となる位置であり、目標画像とは、アーム先端部またはワークが目標位置に配置されたときに視覚センサによって撮像されたワークの画像である。
本開示の一実施形態に係る機械学習方法は、視覚センサが、ワークと所定の相対的位置関係となる位置を目標位置として記憶し、ロボットのアーム先端部またはワークが目標位置に配置されたときに視覚センサによって撮像されたワークの画像を目標画像として記憶し、任意の位置で撮像されたワークの画像、及び当該画像を目標画像に近づけるように計算した任意の位置からのアーム先端部の移動量を状態変数として観測し、目標画像を記憶した目標画像記憶部から目標画像を判定データとして取得し、状態変数及び判定データの組合せによって構成される訓練データセットに従って、アーム先端部またはワークを任意の位置から目標位置に移動させるための移動量を学習する。
一実施例に係る機械学習装置及び機械学習方法によれば、ワークを撮像した画像を利用しながらロボットを用いてワークに対して所定の作業を実行する前に、予め目標マークや特徴点を用意する必要がなく、作業者に対する負担を軽減することができる。
実施例に係る機械学習装置を備えたロボットビジョンシステムの構成図である。 実施例に係る機械学習装置を備えたロボットビジョンシステムのブロック図である。 実施例に係る機械学習装置を備えたロボットビジョンシステムの詳細なブロック図である。 実施例に係る機械学習装置のブロック図である。 実施例に係る機械学習方法の実行手順を説明するためのフローチャートである。 ニューロンのモデルを示す模式図である。 3層のニューラルネットワークモデルを示す模式図である。 実施例に係る機械学習方法により学習を行った後に、作業を実行する手順を説明するためのフローチャートである。
以下、図面を参照して、実施例に係る機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法について説明する。ただし、本発明の技術的範囲はそれらの実施の形態には限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。
まず、実施例に係る機械学習装置を備えたロボットビジョンシステムについて説明する。図1に実施例に係る機械学習装置を備えたロボットビジョンシステム1000の構成図を示し、図2にロボットビジョンシステム1000のブロック図を示す。ロボットビジョンシステム1000は、ロボット制御装置20と、アーム先端部11に装着された装置を用いてワーク13(作業対象物)に対して作業を行うロボット10と、ロボット10のアーム先端部11に装着され、ワーク13を撮像する視覚センサ12と、を備えている。
ロボット10は、例えば6軸の多関節ロボットであり、作業台40の上部に配置されたワーク13に対して所定の作業を行う。例えば、ワーク13を把持する作業であれば、アーム先端部11にハンドを用いることができる。ただし、このような例には限られず、アーム先端部11は、溶着や研磨等の他の作業を行うツールであってもよい。アーム先端部11は水平方向だけでなく垂直方向にも動作させることができ、垂直方向に延びた軸を中心に回転させることもできる。このようにアーム先端部11を動かすことにより、アーム先端部11に設けた視覚センサ12の画像を調整することができる。
図1に示すようにロボット10のアーム先端部11には視覚センサ12を設けることができる。あるいは、視覚センサ12を外部に固定して設けるようにしてもよい。どちらの場合も、視覚センサ12によってワーク13が撮像され、両者の相対的な位置関係が目標とする位置関係となるようにアーム先端部11を移動させる。視覚センサ12は2次元のカメラでもよいし、3次元のセンサ(例えば、レンジセンサなど)でもよい。図1には、視覚センサ12を1台設置した例を示したが、視覚センサは複数でもよい。例えば、視覚センサは、2次元のカメラ2台を用いて校正されたステレオカメラでもよい。
また、視覚センサ12をロボット10の外部に固定する場合においても、アーム先端部11を垂直方向に延びた軸を中心に回転させるようにしてもよい。このようにすることにより、視覚センサ12によって撮像したワーク13の画像を調整することができる。
視覚センサ12は作業台40の上部に載置されたワーク13を撮像する。撮像した画像は表示装置500に表示される。例えば、視覚センサ12によりワーク13を撮像した場合、表示装置500にはワークの画像513が表示される。
ここで、ワーク13に対して所定の作業を実行するうえで基準となるワークの位置を「基準位置」とする。例えば、作業台40の上部の平面の中央部を基準位置とすることができる。
視覚センサ12が、ワーク13と所定の相対的位置関係となるときのロボット10のアーム先端部11の位置を「目標位置」とする。例えば、アーム先端部11としてハンドを用いてワーク13を把持する作業を行う場合、アーム先端部11がワーク13を確実に把持することができるような位置を目標位置とするようにしてもよい。
図3に、実施例に係る機械学習装置を備えたロボットビジョンシステムの詳細なブロック図を示す。ロボットビジョンシステム1000は、ロボット10と、アーム先端部11であるハンドと、視覚センサ12と、ロボット制御装置20と、を備えている。ロボット制御装置20は、目標画像記憶部22と、ロボット制御部23と、機械学習装置100と、を備えている。さらに、ロボット制御装置20は、目標位置記憶部21と、移動量算出部5と、を備えるようにしてもよい。
目標位置記憶部21は、上述した目標位置を記憶する。目標画像記憶部22は、目標画像を記憶する。ここで、「目標画像」とは、アーム先端部11が目標位置に配置されたときに視覚センサ12によって撮像されたワーク13の画像である。目標位置記憶部21及び目標画像記憶部22には、RAM等のメモリを用いることができる。
移動量算出部5は、視覚センサ12によって撮像されたワーク13の画像を目標画像に近づけるようにアーム先端部11の移動量を計算する。移動量算出部5は、コンピュータ(CPU:Central Processing Unit)においてソフトウェアまたはファームウェアにより実現される。
ロボット制御部23は、決定された動作指令に従ってロボット10を制御する。動作指令の例として、ロボット10が所定の動作を実行するためのトルク指令等が挙げられる。ロボット制御部23は、コンピュータにおいてソフトウェアまたはファームウェアにより実現される。
次に、実施例に係る機械学習装置について説明する。図4に、実施例に係る機械学習装置のブロック図を示す。機械学習装置100は、状態観測部1と、判定データ取得部2と、学習部3と、を備えている。機械学習装置100は、ロボット制御装置20を構成するコンピュータのソフトウェアにより実現される。
状態観測部1は、任意の位置で視覚センサ12によって撮像されたワーク13の画像、及び当該画像を目標画像に近づけるように計算した任意の位置からのアーム先端部11の移動量を状態変数として観測する。
判定データ取得部2は、目標画像記憶部22から目標画像を判定データとして取得する。
学習部3は、状態変数及び判定データの組合せによって構成される訓練データセットに従って、アーム先端部11を任意の位置から目標位置に移動させるための移動量を学習する。視覚センサ12をロボット10の外部に固定した場合には、視覚センサ12と撮像されるワーク13の相対的な位置関係が、目標とする位置関係になるような位置(目標位置)にワーク13を移動させるための、アーム先端部11の移動量を学習する。
図2に示した例では、1台のロボット10から取得した訓練データセットに従って移動量を計算する例を示したが、このような例には限られない。即ち、機械学習装置100は、学習部3が、複数のロボットに関して取得される訓練データセットに従って、移動量を学習するように構成されるようにしてもよい。
図2に示すように、学習部3は、移動後のロボットのアーム先端部11の位置と目標位置に基づいて報酬を計算する報酬計算部31と、報酬に基づいて、現在の状態変数からアーム先端部11の移動量を推測するための関数を更新する関数更新部32と、を備えることが好ましい。関数更新部32は、後述するように、いわゆるQ学習を用いて強化学習を行うことが好ましい。あるいは、所定の位置に配置した視覚センサ12が撮像したワーク13の画像と、所定の位置から目標位置へのアーム先端部11の移動量のデータ集合をラベルとして後述する教師あり学習を行うようにしてもよい。教師あり学習を行うことにより、基準位置で目標画像と目標位置を記憶した後、適当な位置に移動して、その移動量とその位置での画像を取得し、そのセットを複数用意することで画像の変化と移動量の関係を学習することができ、大量の学習データセットを自動的に取得することができる。
視覚センサ12が撮像したワーク13の画像が目標画像に近づくようにしてアーム先端部11を移動させ、移動後のロボット10の位置が、目標位置に近いほど高い報酬を与えるようにしてもよい。
学習部3は、状態変数及び報酬に基づいて、アーム先端部11の移動量に対応する行動価値テーブルを更新することが好ましい。学習部3は、状態観測部1で観測された状態変数を多層構造で演算し、行動の価値を判断するための行動価値テーブルをリアルタイムで更新することが好ましい。ここで、状態変数を多層構造で演算する方法として、例えば、図7に示すような多層ニューラルネットワークを用いることができる。
学習部3は、ロボットと同一構成の他のロボットの状態変数と報酬に基づいて、当該他のロボットのアーム先端部の移動量に対応する価値関数を更新するようにしてもよい。図2に示した例では、自己の機械学習装置の学習部で更新された価値関数を用いて自己の価値関数を更新する例を示したが、このような例には限られない。即ち、自己の機械学習装置とは別の他の機械学習装置の学習部で更新された価値関数を用いて自己の価値関数を更新するようにしてもよい。例えば、複数のロボット制御装置間でデータをやり取りするデータ交換部をさらに有し、他のロボット制御装置の機械学習装置での学習内容を自身の機械学習装置での学習に活用するようにしてもよい。
学習部3は、現在の状態変数及び判定データの組合せによって構成される追加の訓練データセットに従って、ロボット10のアーム先端部11の移動量を再学習して更新するように構成されるようにしてもよい。
機械学習装置100は、学習部3が訓練データセットに従って学習した結果に基づいて、ロボット10に対する動作指令を決定する意思決定部4をさらに備えることが好ましい。意思決定部4は、アーム先端部11の移動後の位置で撮像したワーク13の画像を状態変数とし、目標画像を判定データとして、視覚センサ12に写るワーク13の画像を目標画像に近づけるロボット10のアーム先端部11の移動量(行動データ)を算出する。例えば、意思決定部4は、任意の位置に配置されたロボット10のアーム先端部11に設けられた視覚センサ12によって撮像されたワーク13の画像を目標画像に近づけるようにアーム先端部11の移動量を計算する。
次に、実施例に係る機械学習方法について、図5に示したフローチャートを用いて説明する。まず、ステップS101において、目標位置記憶部21が、視覚センサ12が基準位置に置かれたワーク13と所定の相対的位置関係となるときのロボット10のアーム先端部11の位置を目標位置として記憶する。
次に、ステップS102において、目標画像記憶部22が、目標位置に配置されたアーム先端部11に設けられた視覚センサ12によって撮像された、基準位置に置かれたワーク13の画像を目標画像として記憶する。
次に、ステップS103において、状態観測部1が、任意の位置に配置された視覚センサ12によって撮像されたワーク13の画像、及び当該画像を目標画像に近づけるように計算した任意の位置からのアーム先端部11の移動量を状態変数として観測する。
次に、ステップS104において、目標画像を記憶した目標画像記憶部22から目標画像を判定データとして取得する。
次に、ステップS105において、状態変数及び判定データの組合せによって構成される訓練データセットに従って、アーム先端部11を任意の位置から目標位置に移動させるための移動量を学習する。
次に、ステップS106において、移動後のアーム先端部11の位置と目標位置との差分が第1の閾値以下か否かを判断する。移動後のアーム先端部11の位置と目標位置との差分が第1の閾値以下の場合は、視覚センサ12とワーク13との位置関係が、目標画像を撮像した時の位置関係と同じであるとして学習を終了する。ここで、第1の閾値は、ロボット10がアーム先端部11に設けたツールを用いて、ワーク13に対して所定の作業を実行可能な範囲に設定することが好ましい。
一方、上記差分が第1の閾値を超えている場合は、ステップS103に戻ってアーム先端部の移動量の算出を繰り返し、移動後のアーム先端部11の位置と目標位置との差分が第1の閾値以下になるまで繰り返す。以上のようにして、意思決定部4は、機械学習装置100から出力されてくる移動量だけアーム先端部11を移動した後、移動後のアーム先端部11の位置と目標位置との差分が所定の閾値(第1の閾値)以下になるまで繰り返す。機械学習装置100が学習して得られた移動量だけ移動した後に、ロボット10がその位置を起点にして、所定の作業を実行する。
以上の説明においては、アーム先端部11を移動させる例について説明したが、視覚センサ12をロボット10の外部に設置した場合も同様に学習を行うことができる。視覚センサ12をロボット10の外部に設置した場合には、アーム先端部11を移動させる前に撮像された視覚センサ12とワーク13の相対的な位置関係を示す画像及び移動量を状態変数とし、目標とする視覚センサ12とワーク13の相対的な位置関係を示す画像を判定データ(目標画像)として移動量を学習することができる。
ここで、図5に示したフローチャートにおいては、移動後のアーム先端部11の位置と目標位置との差分と第1の閾値との大小関係の判断を移動の度に毎回実行する例を示したが、このような例には限られない。即ち、学習にかかる時間を短縮させるために、移動後のアーム先端部11の位置と目標位置との差分と第1の閾値との比較を行う回数を制限するようにしてもよい。回数の制限方法として、例えば、比較を行う回数を予め決めておくようにしてもよい。あるいは、所定の回数だけ移動した後のアーム先端部11の位置と目標位置との差分と閾値との比較を1回行うようにしてもよい。または、ユーザの指示に従って移動後のアーム先端部11の位置と目標位置との差分と閾値との比較を実行するようにしてもよい。
ここで、図2に示される機械学習装置100について詳細に説明する。機械学習装置100は、装置に入力されるデータの集合から、その中にある有用な規則や知識表現、判断基準などを解析により抽出し、その判断結果を出力するとともに、知識の学習を行う機能を有する。その手法は様々であるが、大別すれば「教師あり学習」、「教師なし学習」、及び「強化学習」に分けられる。さらに、これらの手法を実現するうえで、特徴量そのものの抽出を学習する、「深層学習」と呼ばれる手法がある。
「教師あり学習」とは、ある入力と結果(ラベル)のデータの組を大量に学習装置(機械学習装置)に与えることで、それらのデータセットにある特徴を学習し、入力から結果を推定するモデル、即ち、その関係性を帰納的に獲得することができる。本実施形態においては、ロボット10のアーム先端部11の移動量及びワーク13の画像等の状態観測部1での観測結果、並びに報酬計算部31での報酬に基づいて、アーム先端部11を任意の位置から目標位置に移動させるための移動量の計算に教師あり学習を用いることが出来る。上記学習は、後述のニューラルネットワークなどのアルゴリズムを用いて実現することができる。
「教師なし学習」とは、入力データのみを大量に学習装置(機械学習装置)に与えることで、入力データがどのような分布をしているか学習し、対応する教師出力データを与えなくても、入力データに対して圧縮、分類、整形などを行う装置を学習する手法である。それらのデータセットにある特徴を似た者どうしにクラスタリングすることなどができる。この結果を使って、何らかの基準を設けてそれを最適にするような出力の割り当てを行うことで、出力の予測を実現することができる。また「教師なし学習」と「教師あり学習」との中間的な問題設定として、「半教師あり学習」と呼ばれるものもあり、一部のみ入力と出力のデータの組が存在し、それ以外は入力のみのデータである場合がこれに当たる。
強化学習の問題を以下のように設定する。
・機械学習装置100は環境200の状態を観測し、行動を決定する。
・環境200は何らかの規則に従って変化し、さらに自分の行動が、環境に変化を与えることもある。
・行動するたびに報酬信号が帰ってくる。
・最大化したいのは将来にわたっての(割引)報酬の合計である。
・行動が引き起こす結果を全く知らない、または不完全にしか知らない状態から学習はスタートする。ロボット制御装置20はロボット10のアーム先端部11またはワーク13を実際に動作して初めて、その結果をデータとして得ることが出来る。つまり、試行錯誤しながら最適な行動を探索する必要がある。
・人間の動作を真似るように事前学習(前述の教師あり学習や、逆強化学習といった手法)した状態を初期状態として、良いスタート地点から学習をスタートさせることもできる。
「強化学習」とは、判定や分類だけではなく、行動を学習することにより、環境に行動が与える相互作用を踏まえて適切な行動を学習、即ち、将来的に得られる報酬を最大にするために学習する方法である。このことは、本実施形態において、未来に影響を及ぼすような行動を獲得できることを表している。例えば、Q学習の場合で説明を続けるが、それに限るものではない。
Q学習は、或る環境状態sの下で、行動aを選択する価値Q(s,a)を学習する方法である。つまり、或る状態sのとき、価値Q(s,a)の最も高い行動aを最適な行動として選択すればよい。しかし、最初は状態sと行動aとの組合せについて、価値Q(s,a)の正しい値は全く分かっていない。そこで、エージェント(行動主体)は、或る状態sの下で様々な行動aを選択し、その時の行動aに対して報酬が与えられる。それにより、エージェントはより良い行動の選択、すなわち正しい価値Q(s,a)を学習していく。
行動の結果、将来にわたって得られる報酬の合計を最大化したい。そこで、最終的に、Q(s,a)=E[Σγtt](報酬の割引期待値。γ:割引率)となるようにすることを目指す(期待値は最適な行動に従って状態変化したときについてとる。もちろん、それは分かっていないので、探索しながら学習しなければならない)。そのような価値Q(s,a)の更新式は、例えば次式により表すことができる。
ここで、stは時刻tにおける環境の状態を表し、atは時刻tにおける行動を表す。行動atにより、状態はst+1に変化する。rt+1は、その状態の変化により貰える報酬を表している。また、maxの付いた項は、状態st+1の下で、その時に分かっている最もQ値の高い行動aを選択した場合のQ値にγを乗じたものになる。γは、0<γ≦1のパラメータで、割引率と呼ばれる。αは学習係数で、0<α≦1の範囲とする。
この式は、試行atの結果帰ってきた報酬rt+1を元に、状態stにおける行動atの評価値Q(st,at)を更新する方法を表している。状態sにおける行動aの評価値Q(st,at)よりも、報酬rt+1+行動aによる次の状態における最良の行動max aの評価値Q(st+1,max at+1)の方が大きければ、Q(st,at)を大きくするし、反対に小さければ、Q(st,at)も小さくする事を示している。つまり、或る状態における或る行動の価値を、結果として即時帰ってくる報酬と、その行動による次の状態における最良の行動の価値に近付けるようにしている。
Q(s,a)の計算機上での表現方法は、全ての状態行動ペア(s,a)に対して、その値をテーブル(行動価値テーブル)として保持しておく方法と、Q(s,a)を近似するような関数を用意する方法がある。後者の方法では、前述の更新式は、確率勾配降下法などの手法で近似関数のパラメータを調整していくことで実現することが出来る。近似関数としては、後述のニューラルネットワークを用いることが出来る。
教師あり学習、教師なし学習、及び強化学習での価値関数の近似アルゴリズムとして、ニューラルネットワークを用いることができる。ニューラルネットワークは、例えば図6に示すようなニューロンのモデルを模したニューラルネットワークを実現する演算装置及びメモリ等で構成される。
図6に示すように、ニューロンは、複数の入力x(ここでは一例として、入力x1〜入力x3)に対する出力yを出力するものである。各入力x1〜x3には、この入力xに対応する重みw(w1〜w3)が掛けられる。これにより、ニューロンは、次の式により表現される出力yを出力する。なお、入力x、出力y、及び重みwは、全てベクトルである。
ここで、θはバイアスであり、fkは活性化関数である。
次に、上述したニューロンを組み合わせた3層の重みを有するニューラルネットワークについて、図7を参照して説明する。図7は、D1〜D3の3層の重みを有するニューラルネットワークを示す模式図である。
図7に示すように、ニューラルネットワークの左側から複数の入力x(ここでは一例として、入力x1〜入力x3)が入力され、右側から結果y(ここでは一例として、結果y1〜結果y3)が出力される。
具体的には、入力x1〜入力x3は、3つのニューロンN11〜N13の各々に対して対応する重みが掛けられて入力される。これらの入力に掛けられる重みは、まとめてW1と標記されている。
ニューロンN11〜N13は、それぞれ、Z11〜Z13を出力する。これらのZ11〜Z13はまとめて特徴ベクトルZ1と標記され、入力ベクトルの特徴量を抽出したベクトルとみなすことができる。この特徴ベクトルZ1は、重みW1と重みW2との間の特徴ベクトルである。
Z11〜Z13は、2つのニューロンN21,N22の各々に対して対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みは、まとめてW2と標記されている。
ニューロンN21,N22は、それぞれ、Z21,Z22を出力する。これらは、まとめて特徴ベクトルZ2と標記されている。この特徴ベクトルZ2は、重みW2と重みW3との間の特徴ベクトルである。
特徴ベクトルZ21,Z22は、3つのニューロンN31〜N33の各々に対して対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みは、まとめてW3と標記されている。
最後に、ニューロンN31〜N33は、それぞれ、結果y1〜結果y3を出力する。
ニューラルネットワークの動作には、学習モードと価値予測モードとがあり、学習モードにおいて学習データセットを用いて重みWを学習し、そのパラメータを用いて予測モードにおいてロボット10の行動判断を行う(便宜上、予測と書いたが、検出、分類、推論など多様なタスクが可能である)。
予測モードで実際にロボット10を動かして得られたデータを即時学習し、次の行動に反映させる(オンライン学習)こともできる。また、あらかじめ収集しておいたデータ群を用いてまとめた学習を行い、以降はずっとそのパラメータで検知モードを行う(バッチ学習)こともできる。その中間的な、ある程度データが溜まるたびに学習モードを挟むということも可能である。
重みW1〜W3は、誤差逆伝搬法(バックプロパゲーション)により学習可能なものである。誤差の情報は、右側から入り左側に流れる。誤差逆伝搬法は、各ニューロンについて、入力xが入力されたときの出力yと真の出力y(教師)との差分を小さくするように、それぞれの重みを調整(学習)する手法である。
このようなニューラルネットワークは、3層以上にさらに層を増やすことも可能である(深層学習と称される)。入力の特徴抽出を段階的に行い、結果を回帰する演算装置を、教師データのみから自動的に獲得することが可能である。
そこで、本実施形態の機械学習装置100は、上述のQ学習を実施すべく、図2に示されるように状態観測部1、学習部3、及び意思決定部4を備えている。但し、本発明に適用される機械学習方法は、Q学習に限定されるものではない。例えば、教師あり学習を適用する場合において、価値関数は学習モデル、報酬は誤差にそれぞれ対応する。
図2に示すように、ロボット制御装置20における状態には、行動で間接的に変化する状態と、行動で直接的に変化する状態とがある。行動で間接的に変化する状態には、ロボット10のアーム先端部11の移動量が含まれる。行動で直接的に変化する状態には、ロボット10のアーム先端部11を移動させてワーク13を撮像した画像が含まれる。
学習部3は、更新式及び報酬に基づいて、行動価値テーブルの中から現在の状態変数及び取り得る行動に対応する行動価値を更新する。
機械学習装置100がネットワークを介してロボット制御装置20に接続されるようにし、状態観測部1は、機械学習装置100が算出した移動量を、ネットワークを介して、ロボット制御装置20に渡すように構成してもよい。また、機械学習装置100は、クラウドサーバに存在することが好ましい。
以上のようにして、学習が完了した後、実際にロボット10がワーク13に対して作業を実行する。作業の実行段階では、ワーク13は基準位置とは異なる位置に置かれており、上記のようにして学習した学習器(学習制御装置)を用いることで、視覚センサ12とワーク13の相対関係が、目標位置にあるロボット10のアーム先端部11の視覚センサ12と基準位置にあるワーク13の相対関係と同じになる。なお、1回の学習で全く同じ相対関係になるとは限らないが、繰り返し行うことで近づけていくことが可能である。即ち、目標位置を記憶する目標位置記憶部21を備え、移動量の計算を繰り返し実行する際に、機械学習装置100がアーム先端部11を任意の位置から目標位置記憶部21に記憶された目標位置に移動させるための移動量を学習する。
図8に実施例に係る機械学習方法により学習を行った後に、作業を実行する手順を説明するためのフローチャートを示す。まず、ステップS201において、任意の位置に配置されたワーク13を撮像する。
次に、ステップS202において、学習モデルから、撮像したワーク13の画像を目標画像に近づける任意の位置からのアーム先端部11の移動量を算出する。
次に、ステップS203において、算出した移動量に基づいてアーム先端部11を移動させる。
次に、ステップS204において、移動後または移動中に撮像したワーク13の画像から再度アーム先端部11の移動量を算出する。
次に、ステップS205において、移動量が第2の閾値以下か否かを判断する。移動量が第2の閾値以下の場合は、視覚センサ12とワーク13との位置関係が、目標画像を撮像した時と同じになる。この場合、ステップS206において、ワーク13に対して作業を実行する。ここで、第2の閾値は、ロボット10がアーム先端部11に設けたツールを用いて、ワーク13に対して所定の作業を実行可能な範囲に設定することが好ましい。
一方、移動量が第2の閾値を超えている場合は、ステップS202に戻ってアーム先端部11の移動量の算出を繰り返し、移動量が第2の閾値以下になるまで繰り返す。このように、意思決定部4は、機械学習装置100から出力されてくる移動量だけアーム先端部11を移動した後、移動量が所定の閾値(第2の閾値)以下になるまで計算を繰り返す。
ここで、作業の実行時に使用する第2の閾値は、学習時に使用する第1の閾値と同じであるか、第1の閾値が第2の閾値より小さいことが好ましい。このように第1の閾値を第2の閾値以下とすることによって、学習によって求めた正確な移動量に基づいて所定の作業を実行することができる。
また、上記の説明においては、学習ステップと作業実行ステップを個別に行う例について説明したが、このような例には限られない。例えば、学習ステップと作業実行ステップを同時に行うようにしてもよい。作業実行ステップにおいて学習ステップも同時に行うことにより、学習ステップに要する時間を短縮することができ、学習の精度をさらに向上させることができる。
以上のようにして、実施例に係るロボットビジョンシステムによれば、モデル(画像から対象物を検出するためのモデルパターン、いわゆるテンプレートマッチングにおけるテンプレート)教示、検出アルゴリズム、あるいは特別なノウハウを必要とすることなく、目標画像を設定するだけでロボットを目標位置に移動することができる。
1 状態観測部
2 判定データ取得部
3 学習部
4 意思決定部
10 ロボット
11 アーム先端部
12 視覚センサ
13 ワーク
20 ロボット制御装置
21 目標位置記憶部
22 目標画像記憶部
23 ロボット制御部
31 報酬計算部
32 関数更新部
100 機械学習装置
1000 ロボットビジョンシステム

Claims (15)

  1. 視覚センサによって撮像されたワークの画像、及び当該画像を目標画像に近づけるように計算したロボットのアーム先端部の移動量を状態変数として観測する状態観測部と、
    前記目標画像を判定データとして取得する判定データ取得部と、
    前記状態変数及び前記判定データに基づいて、前記アーム先端部またはワークを任意の位置から目標位置に移動させるための前記アーム先端部の移動量を学習する学習部と、
    を備え
    前記学習部は、
    移動後の前記ロボットのアーム先端部またはワークの位置と前記目標位置に基づいて報酬を計算し、
    前記報酬と、前記ロボットと同一構成の他のロボットの状態変数及び報酬と、に基づいて、前記アーム先端部の移動量を学習する、
    機械学習装置。
  2. 前記学習部は、複数のロボットに関して取得される訓練データセットに従って、前記移動量を学習するように構成される、請求項1に記載の機械学習装置。
  3. 前記学習部は、前記状態変数及び前記報酬に基づいて、前記アーム先端部の移動量に対応する行動価値テーブルを更新する、請求項に記載の機械学習装置。
  4. 所定の位置に配置した前記視覚センサが撮像したワークの画像と、前記所定の位置から前記目標位置への前記アーム先端部の移動量のデータ集合をラベルとして教師あり学習を行う、請求項1に記載の機械学習装置。
  5. 前記学習部は、現在の状態変数及び前記判定データの組合せによって構成される追加の訓練データセットに従って、前記ロボットのアーム先端部の移動量を再学習して更新するように構成される、請求項1乃至のいずれか一項に記載の機械学習装置。
  6. 前記学習部が前記訓練データセットに従って学習した結果に基づいて、前記ロボットに対する動作指令を決定する意思決定部をさらに備えた、請求項2または5に記載の機械学習装置。
  7. 前記意思決定部は、前記機械学習装置から出力されてくる移動量だけ前記アーム先端部を移動した後、移動量が所定の閾値以下になるまで計算を繰り返す、請求項に記載の機械学習装置。
  8. 前記目標位置を記憶する目標位置記憶部を備え、
    前記移動量の計算を繰り返し実行する際に、前記機械学習装置が前記アーム先端部またはワークを任意の位置から前記目標位置記憶部に記憶された前記目標位置に移動させるための移動量を学習する、請求項に記載の機械学習装置。
  9. 請求項に記載の機械学習装置と、
    前記目標画像を記憶する目標画像記憶部と、
    決定された前記動作指令に従って前記ロボットを制御するロボット制御部と、
    を備えたロボット制御装置。
  10. 請求項に記載のロボット制御装置と、
    前記アーム先端部に装着された装置を用いてワークに対して作業を行うロボットと、
    前記ロボットのアーム先端部に装着され、ワークを撮像する視覚センサと、
    を備えた、ロボットビジョンシステム。
  11. 請求項に記載のロボット制御装置と、
    前記アーム先端部に装着された装置を用いてワークに対して作業を行うロボットと、
    前記ロボットの外部に固定され、ワークを撮像する視覚センサと、
    を備えた、ロボットビジョンシステム。
  12. 前記機械学習装置が学習して得られた移動量だけ移動した後に、前記ロボットがその位置を起点にして、所定の作業を実行する、請求項10または11に記載のロボットビジョンシステム。
  13. 前記機械学習装置がネットワークを介して前記ロボット制御装置に接続されており、
    前記状態観測部は、前記機械学習装置が算出した移動量を、前記ネットワークを介して前記ロボット制御装置に渡す、請求項10乃至12のいずれか一項に記載のロボットビジョンシステム。
  14. 前記機械学習装置は、クラウドサーバに存在する、請求項10乃至13のいずれか一項に記載のロボットビジョンシステム。
  15. 像されたワークの画像、及び当該画像を目標画像に近づけるように計算したロボットのアーム先端部の移動量を状態変数として観測し、
    前記目標画像を記憶した目標画像記憶部から前記目標画像を判定データとして取得し、
    前記状態変数及び前記判定データに基づいて、前記アーム先端部またはワークを任意の位置から目標位置に移動させるための移動量を学習
    移動後の前記ロボットのアーム先端部またはワークの位置と前記目標位置に基づいて報酬を計算し、
    前記報酬と、前記ロボットと同一構成の他のロボットの状態変数及び報酬と、に基づいて、前記アーム先端部の移動量を学習する、
    機械学習方法。
JP2018065093A 2018-03-29 2018-03-29 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法 Active JP6810087B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018065093A JP6810087B2 (ja) 2018-03-29 2018-03-29 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
DE102019002065.0A DE102019002065B4 (de) 2018-03-29 2019-03-22 Maschinelle Lernvorrichtung, Robotersteuervorrichtung und Robotervisionssystem, das eine maschinelle Lernvorrichtung verwendet, und maschinelles Lernverfahren
US16/361,207 US11253999B2 (en) 2018-03-29 2019-03-22 Machine learning device, robot control device and robot vision system using machine learning device, and machine learning method
CN201910237675.0A CN110315505B (zh) 2018-03-29 2019-03-27 机器学习装置及方法、机器人控制装置、机器人视觉系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018065093A JP6810087B2 (ja) 2018-03-29 2018-03-29 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法

Publications (2)

Publication Number Publication Date
JP2019171540A JP2019171540A (ja) 2019-10-10
JP6810087B2 true JP6810087B2 (ja) 2021-01-06

Family

ID=67909842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018065093A Active JP6810087B2 (ja) 2018-03-29 2018-03-29 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法

Country Status (4)

Country Link
US (1) US11253999B2 (ja)
JP (1) JP6810087B2 (ja)
CN (1) CN110315505B (ja)
DE (1) DE102019002065B4 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6810087B2 (ja) * 2018-03-29 2021-01-06 ファナック株式会社 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
JP6761194B2 (ja) * 2019-01-30 2020-09-23 株式会社安川電機 ロボットシステム、ロボット制御方法、ロボットコントローラ及びプログラム
JP7295421B2 (ja) * 2019-08-22 2023-06-21 オムロン株式会社 制御装置及び制御方法
JP7368170B2 (ja) * 2019-10-08 2023-10-24 ファナック株式会社 表面仕上げ装置
CN110968866B (zh) * 2019-11-27 2021-12-07 浙江工业大学 一种面向深度强化学习模型对抗攻击的防御方法
JP7391635B2 (ja) * 2019-11-28 2023-12-05 株式会社国際電気通信基礎技術研究所 制御システム
JP7608047B2 (ja) * 2019-12-26 2025-01-06 キヤノン株式会社 レンズ装置、撮像装置、制御方法、およびプログラム
DE102020200165B4 (de) * 2020-01-09 2022-05-19 Robert Bosch Gesellschaft mit beschränkter Haftung Robotersteuereinrichtung und Verfahren zum Steuern eines Roboters
WO2021147035A1 (en) * 2020-01-22 2021-07-29 Abb Schweiz Ag System and method for operating the robot, electronic device and computer readable medium
WO2021192327A1 (ja) * 2020-03-25 2021-09-30 三菱マテリアル株式会社 表面被覆切削工具
JP7423387B2 (ja) 2020-03-31 2024-01-29 ミネベアミツミ株式会社 較正システム、情報処理システム、ロボット制御システム、較正方法、情報処理方法、ロボット制御方法、較正プログラム、情報処理プログラム、較正装置、情報処理装置、及びロボット制御装置
US12321823B2 (en) * 2020-04-30 2025-06-03 UiPath, Inc. Machine learning model retraining pipeline for robotic process automation
DE102020113277B4 (de) 2020-05-15 2024-07-11 Gerhard Schubert Gesellschaft mit beschränkter Haftung Verfahren zum Erzeugen eines Trainingsdatensatzes zum Trainieren eines Industrieroboters, Verfahren zur Steuerung des Betriebs eines Industrieroboters und Industrieroboter
JP2023145809A (ja) * 2020-07-10 2023-10-12 株式会社Preferred Networks 強化学習装置、強化学習システム、物体操作装置、モデル生成方法及び強化学習プログラム
WO2022034840A1 (ja) * 2020-08-11 2022-02-17 ファナック株式会社 画像処理装置及びロボット制御装置
JP7547871B2 (ja) * 2020-08-31 2024-09-10 オムロン株式会社 学習装置、学習方法、学習プログラム、制御装置、制御方法、及び制御プログラム
CN112894800A (zh) * 2020-12-24 2021-06-04 苏州迈维视电子技术有限公司 一种工件抓取下料引导用方法
DE102021202759B4 (de) 2021-03-22 2024-11-07 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines maschinellen Lernmodells zum Steuern eines Roboters
DE102021204846B4 (de) 2021-05-12 2023-07-06 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Steuern einer Robotervorrichtung
CN113697479A (zh) * 2021-08-23 2021-11-26 梅卡曼德(上海)机器人科技有限公司 视觉抓取测试装置及系统
DE102022202143B4 (de) 2022-03-02 2024-05-16 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zur Steuerung eines Roboters zur Durchführung einer Aufgabe
DE102022202144B4 (de) 2022-03-02 2025-07-10 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zur Steuerung eines Roboters zur Durchführung einer Aufgabe
DE102022202145A1 (de) 2022-03-02 2023-09-07 Robert Bosch Gesellschaft mit beschränkter Haftung Roboter und Verfahren zum Steuern eines Roboters
DE102022204724B4 (de) 2022-05-13 2024-10-31 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Steuern einer Robotervorrichtung
JP7782410B2 (ja) * 2022-10-19 2025-12-09 トヨタ自動車株式会社 ロボット操縦システム、ロボット操縦方法及びプログラム
CN119748457A (zh) * 2025-01-26 2025-04-04 北京工业大学 一种装配式建筑器具的辅助安装设备及人机协同安装方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04352201A (ja) * 1991-05-30 1992-12-07 Hitachi Ltd ロボットシステムの制御方法
JP3002097B2 (ja) * 1994-08-25 2000-01-24 ファナック株式会社 ビジュアルトラッキング方法
JP3560670B2 (ja) * 1995-02-06 2004-09-02 富士通株式会社 適応的認識システム
JP3998741B2 (ja) 1995-07-12 2007-10-31 ファナック株式会社 ロボットの移動制御方法
JP2002172575A (ja) * 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
JP2003211381A (ja) 2002-01-16 2003-07-29 Denso Wave Inc ロボット制御装置
JP2003305676A (ja) 2002-04-11 2003-10-28 Denso Wave Inc 移動ロボットの制御方法及び制御装置
US9782229B2 (en) * 2007-02-16 2017-10-10 Globus Medical, Inc. Surgical robot platform
CN101396829A (zh) * 2007-09-29 2009-04-01 株式会社Ihi 机器人装置的控制方法以及机器人装置
CN102317044B (zh) * 2009-02-12 2014-03-26 三菱电机株式会社 产业用机器人系统
JP5298919B2 (ja) 2009-02-16 2013-09-25 トヨタ自動車株式会社 ロボットハンドの位置補正方法、ロボットハンド、ロボット
FI20105732A0 (fi) * 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
JP5835926B2 (ja) * 2011-04-11 2015-12-24 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
US8886359B2 (en) * 2011-05-17 2014-11-11 Fanuc Corporation Robot and spot welding robot with learning control function
US8256480B1 (en) * 2011-06-01 2012-09-04 Spm Automation (Canada) Inc. Coupling apparatus for positioning components in workpiece interior and method of using same
US9008840B1 (en) * 2013-04-19 2015-04-14 Brain Corporation Apparatus and methods for reinforcement-guided supervised learning
JP6415190B2 (ja) 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
JP6486678B2 (ja) * 2014-12-25 2019-03-20 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
JP6346128B2 (ja) * 2015-07-28 2018-06-20 ファナック株式会社 最適な操作条件を算出できる射出成形システム及び機械学習器
JP6240689B2 (ja) * 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP6055058B1 (ja) * 2015-09-30 2016-12-27 ファナック株式会社 機械学習器及び組み立て・試験器を備えた生産設備
CN105598965B (zh) * 2015-11-26 2018-03-16 哈尔滨工业大学 基于立体视觉的机器人欠驱动手自主抓取方法
EP3405910B1 (en) * 2016-03-03 2020-11-25 Google LLC Deep machine learning methods and apparatus for robotic grasping
JP6457421B2 (ja) * 2016-04-04 2019-01-23 ファナック株式会社 シミュレーション結果を利用して学習を行う機械学習装置,機械システム,製造システムおよび機械学習方法
CN115338859A (zh) 2016-09-15 2022-11-15 谷歌有限责任公司 机器人操纵的深度强化学习
JP6514166B2 (ja) * 2016-09-16 2019-05-15 ファナック株式会社 ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法
US10723022B2 (en) * 2016-09-16 2020-07-28 Carbon Robotics, Inc. System and calibration, registration, and training methods
JP6514171B2 (ja) 2016-09-27 2019-05-15 ファナック株式会社 最適な物品把持経路を学習する機械学習装置、及び機械学習方法
JP6457473B2 (ja) 2016-12-16 2019-01-23 ファナック株式会社 ロボットおよびレーザスキャナの動作を学習する機械学習装置,ロボットシステムおよび機械学習方法
JP6880982B2 (ja) * 2017-04-21 2021-06-02 セイコーエプソン株式会社 制御装置およびロボットシステム
US10751879B2 (en) * 2017-06-05 2020-08-25 Autodesk, Inc. Adapting simulation data to real-world conditions encountered by physical processes
DE102017213658A1 (de) 2017-08-07 2019-02-07 Robert Bosch Gmbh Handhabungsanordnung mit einer Handhabungseinrichtung zur Durchführung mindestens eines Arbeitsschritts sowie Verfahren und Computerprogramm
US10754308B2 (en) * 2017-11-09 2020-08-25 International Business Machines Corporation Decomposed perturbation approach using memory based learning for compliant assembly tasks
US10695911B2 (en) * 2018-01-12 2020-06-30 Futurewei Technologies, Inc. Robot navigation and object tracking
JP6873941B2 (ja) * 2018-03-02 2021-05-19 株式会社日立製作所 ロボット作業システム、及びロボット作業システムの制御方法
JP6810087B2 (ja) * 2018-03-29 2021-01-06 ファナック株式会社 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
JP7467041B2 (ja) * 2018-09-27 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
US11396101B2 (en) * 2018-11-08 2022-07-26 Kabushiki Kaisha Toshiba Operating system, control device, and computer program product

Also Published As

Publication number Publication date
DE102019002065A1 (de) 2019-10-02
US20190299405A1 (en) 2019-10-03
CN110315505B (zh) 2024-11-26
JP2019171540A (ja) 2019-10-10
US11253999B2 (en) 2022-02-22
CN110315505A (zh) 2019-10-11
DE102019002065B4 (de) 2022-10-13

Similar Documents

Publication Publication Date Title
JP6810087B2 (ja) 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
JP7491971B2 (ja) 物体把持方法、物体把持プログラム、物体把持装置、学習方法、学習プログラムおよび学習装置
US11780095B2 (en) Machine learning device, robot system, and machine learning method for learning object picking operation
JP6514166B2 (ja) ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法
US10664754B2 (en) Information processing apparatus
US10500721B2 (en) Machine learning device, laminated core manufacturing apparatus, laminated core manufacturing system, and machine learning method for learning operation for stacking core sheets
CN106393101B (zh) 机械学习装置及方法、机器人控制装置、机器人系统
JP6506245B2 (ja) 組付動作を学習する機械学習装置および部品組付システム
CN108393908B (zh) 改善工件取出动作的工件取出装置以及工件取出方法
JP6811465B2 (ja) 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム
JP2019162712A (ja) 制御装置、機械学習装置及びシステム
JP6490132B2 (ja) ロボットの制御装置、機械学習装置及び機械学習方法
JP2019136818A (ja) 制御装置及び機械学習装置
WO2023181628A1 (en) Systems and methods for flexible robotic manipulation by fast online load estimation
CN119596924B (zh) 机器人避障路径规划方法及系统、存储介质、计算机设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190808

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191120

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201210

R150 Certificate of patent or registration of utility model

Ref document number: 6810087

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150