JP7669231B2 - 実演による教示における両手検出 - Google Patents
実演による教示における両手検出 Download PDFInfo
- Publication number
- JP7669231B2 JP7669231B2 JP2021131948A JP2021131948A JP7669231B2 JP 7669231 B2 JP7669231 B2 JP 7669231B2 JP 2021131948 A JP2021131948 A JP 2021131948A JP 2021131948 A JP2021131948 A JP 2021131948A JP 7669231 B2 JP7669231 B2 JP 7669231B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- hand
- neural network
- sub
- hands
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0081—Programme-controlled manipulators with leader teach-in means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/22—Cropping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Automation & Control Theory (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Human Computer Interaction (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Fuzzy Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Manipulator (AREA)
Description
Claims (17)
- 画像内の両手検出方法であって、前記両手検出方法は、
人の左手及び右手を含む画像を提供すること、
プロセッサ及びメモリを有するコンピュータ上で実行されている第1のニューラルネットワークを使用して前記画像を分析し、前記左手及び前記右手の前記画像における識別及び位置を決定すること、
左手のサブ画像及び右手のサブ画像の各々を前記画像からトリミングして作成すること、
前記左手のサブ画像又は前記右手のサブ画像のいずれかを水平方向に反転することを含み、前記サブ画像を前記コンピュータ上で実行されている第2のニューラルネットワークに提供すること、
前記第2のニューラルネットワークによって前記サブ画像を分析して、前記左手及び右手の複数の重要点の3次元(3D)座標を決定すること、及び、
前記第2のニューラルネットワークによる前記サブ画像の分析の後、前記第2のニューラルネットワークによる分析前にサブ画像が反転された手の前記重要点の前記3D座標を水平方向に反転し、ロボット教示プログラムによって前記重要点の前記3D座標を使用してグリッパーの姿勢を定義すること、を含む方法。 - 前記画像が2次元(2D)デジタルカメラによって提供される、請求項1に記載の方法。
- 前記第1のニューラルネットワークに左手及び右手が事前に識別された複数の訓練画像を提供する訓練プロセスにおいて、前記第1のニューラルネットワークは前記左手と前記右手を区別するように訓練される、請求項1に記載の方法。
- 前記第1のニューラルネットワークは前記訓練画像を分析して、指の曲率及び相対位置を含む、左手及び右手の識別特性を特定する、請求項3に記載の方法。
- 前記サブ画像の各々は、事前定義されたマージンで前記左手又は右手を含むようにトリミングされている、請求項1に記載の方法。
- 前記左手のサブ画像又は前記右手のサブ画像のいずれかを水平方向に反転することは、前記第2のニューラルネットワークが右手の訓練画像を使用して訓練されている場合、前記左手のサブ画像を水平方向に反転すること、及び、前記第2のニューラルネットワークが左手の訓練画像を使用して訓練されている場合、前記右手のサブ画像を水平方向に反転することを含む、請求項1に記載の方法。
- 前記左手及び右手の前記複数の重要点は、親指の先端、親指の関節、指の先端、及び、指の関節を含む、請求項1に記載の方法。
- 前記重要点の前記3D座標を水平方向に反転することは、前記3D座標を前記画像内の前記重要点の位置に復元するために、垂直面に対して前記3D座標を水平方向に反転することを含む、請求項1に記載の方法。
- 前記画像は1つ又は複数の加工対象物も含み、前記グリッパーの姿勢及び加工対象物の位置並びに姿勢は前記ロボット教示プログラムによって使用されて、ロボットに対する加工対象物の掴みあげ及び配置指示を作成する、請求項1に記載の方法。
- 前記掴みあげ及び配置指示は前記コンピュータからロボットコントローラーに提供され、前記ロボットコントローラーは前記ロボットに加工対象物への操作を実行するための制御命令を提供する、請求項9に記載の方法。
- 人の実演によって操作を行うようロボットをプログラミングする方法であって、
人が両手を使用して加工対象物の操作を実演すること、
前記加工対象物に対する前記操作を実演する前記手のカメラ画像をコンピュータで分析し、前記手の重要点の3次元(3D)座標から計算されたグリッパーの姿勢を含む実演データを作成すること、ここで、前記カメラ画像内の左手と右手を識別するために使用される第1のニューラルネットワークと、前記識別された左手及び右手のサブ画像内で前記3D座標を計算するために使用される第2のニューラルネットワークとによって、前記カメラ画像から前記重要点の前記3D座標が決定され、
前記ロボットに前記加工対象物に対する前記操作を実行させるため、前記実演データに基づいてロボットの動作命令を生成すること、及び
前記ロボットによって前記加工対象物に対する前記操作を行うことを含み、
前記左手のサブ画像又は前記右手のサブ画像のいずれかが、前記第2のニューラルネットワークに提供される前に水平方向に反転され、
前記第2のニューラルネットワークによる計算の前にサブ画像が反転された手の前記重要点の前記3D座標は、前記第2のニューラルネットワークによって計算された後、水平方向に反転される、方法。 - 前記実演データは、前記操作の把持工程における、手の座標系、前記手の座標系に対応するグリッパーの座標系、並びに、加工対象物の座標系の位置及び向きを含む、請求項11に記載の方法。
- 前記第1のニューラルネットワークに左手及び右手が事前に識別された複数の訓練画像が提供される訓練プロセスにおいて、前記第1のニューラルネットワークは前記左手と前記右手を区別するように訓練される、請求項11に記載の方法。
- 前記第2のニューラルネットワークが右手の訓練画像を使用して訓練されている場合、前記左手のサブ画像及び前記左手の前記重要点の前記3D座標は水平方向に反転される、請求項11に記載の方法。
- 人の実演によってロボットが操作を行うようプログラムするために使用される、画像中の両手検出システムであって、前記両手検出システムは、
カメラと、
プロセッサ及びメモリを有し、前記カメラと通信しているコンピュータとを備え、
前記コンピュータは、
第1のニューラルネットワークを使用して人の左手及び右手を含む画像を分析し、前記左手及び前記右手の前記画像内の識別及び位置を決定すること、
左手のサブ画像及び右手のサブ画像の各々を前記画像からトリミングして作成すること、
前記左手のサブ画像又は前記右手のサブ画像のいずれかを水平方向に反転することを含み、前記コンピュータ上で実行されている第2のニューラルネットワークに前記サブ画像を提供すること、
前記第2のニューラルネットワークによって前記サブ画像を分析して、前記左手及び右手の複数の重要点の3次元(3D)座標を決定すること、及び、
前記第2のニューラルネットワークによる前記サブ画像の分析の後、前記第2のニューラルネットワークによる分析前にサブ画像が反転された手の前記重要点の前記3D座標を水平方向に反転し、前記重要点の前記3D座標を使用して、前記ロボットのプログラミングに使用されるグリッパーの姿勢を定義すること、を含む工程を実施するよう構成された、システム。 - 前記第1のニューラルネットワークに左手及び右手が事前に識別された複数の訓練画像が提供される訓練プロセスにおいて、前記左手と前記右手を区別するように前記第1のニューラルネットワークが訓練され、前記第1のニューラルネットワークは前記訓練画像を分析して、指の曲率や相対位置を含む、左手及び右手の特徴的な特性を特定する、請求項15に記載のシステム。
- 前記左手のサブ画像又は前記右手のサブ画像のいずれかを水平方向に反転することは、前記第2のニューラルネットワークが右手の訓練画像を使用して訓練されている場合、前記左手のサブ画像を水平方向に反転すること、及び、前記第2のニューラルネットワークが左手の訓練画像を使用して訓練されている場合、前記右手のサブ画像を水平方向に反転することを含む、請求項15に記載のシステム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US17/018,674 | 2020-09-11 | ||
| US17/018,674 US11712797B2 (en) | 2020-09-11 | 2020-09-11 | Dual hand detection in teaching from demonstration |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022047503A JP2022047503A (ja) | 2022-03-24 |
| JP7669231B2 true JP7669231B2 (ja) | 2025-04-28 |
Family
ID=80351657
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021131948A Active JP7669231B2 (ja) | 2020-09-11 | 2021-08-13 | 実演による教示における両手検出 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11712797B2 (ja) |
| JP (1) | JP7669231B2 (ja) |
| CN (1) | CN114179075B (ja) |
| DE (1) | DE102021120229A1 (ja) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102024105570A1 (de) * | 2024-02-28 | 2025-08-28 | Gestigon Gmbh | Schätzung einer hand-pose eines benutzers |
| CN118893636B (zh) * | 2024-10-09 | 2025-01-21 | 烟台大学 | 一种基于卷积神经网络的机器人姿态估计方法及系统 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011110620A (ja) | 2009-11-24 | 2011-06-09 | Toyota Industries Corp | ロボットの動作を制御する方法およびロボットシステム |
| JP2015044257A (ja) | 2013-08-27 | 2015-03-12 | 株式会社デンソーアイティーラボラトリ | ロボット、ロボット制御方法、及びロボット制御プログラム |
| JP2018073290A (ja) | 2016-11-02 | 2018-05-10 | パナソニックIpマネジメント株式会社 | 機器制御装置、機器制御方法、およびプログラム |
| JP2019219904A (ja) | 2018-06-20 | 2019-12-26 | ソニー株式会社 | プログラム、認識装置、及び、認識方法 |
| WO2020000096A1 (en) | 2018-06-29 | 2020-01-02 | Wrnch Inc. | Human pose analysis system and method |
| US20200026910A1 (en) | 2017-03-31 | 2020-01-23 | Beijing Sensetime Technology Development Co., Ltd. | Gesture identification, control, and neural network training methods and apparatuses, and electronic devices |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
| US8467904B2 (en) * | 2005-12-22 | 2013-06-18 | Honda Motor Co., Ltd. | Reconstruction, retargetting, tracking, and estimation of pose of articulated systems |
| US20080025475A1 (en) * | 2006-07-25 | 2008-01-31 | Synarc, Inc. | Apparatus for determining the position and orientation in medical imaging |
| US20090132088A1 (en) * | 2007-04-24 | 2009-05-21 | Tairob Ltd. | Transfer of knowledge from a human skilled worker to an expert machine - the learning process |
| US9002099B2 (en) * | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
| US9753453B2 (en) * | 2012-07-09 | 2017-09-05 | Deep Learning Robotics Ltd. | Natural machine interface system |
| US10416776B2 (en) * | 2015-09-24 | 2019-09-17 | International Business Machines Corporation | Input device interaction |
| CN110476139B (zh) * | 2017-03-28 | 2024-01-02 | 奇跃公司 | 具有关联到用户操纵的虚拟对象的空间化音频的增强现实系统 |
| AU2018306475A1 (en) * | 2017-07-25 | 2020-03-05 | Mbl Limited | Systems and methods for operations a robotic system and executing robotic interactions |
| US10573077B2 (en) * | 2018-03-02 | 2020-02-25 | The Matilda Hotel, LLC | Smart mirror for location-based augmented reality |
| US10635462B2 (en) * | 2018-05-23 | 2020-04-28 | Microsoft Technology Licensing, Llc | Skill discovery for computerized personal assistant |
| CN109299659A (zh) * | 2018-08-21 | 2019-02-01 | 中国农业大学 | 一种基于rgb相机和深度学习的人体姿态识别方法与系统 |
| US11281234B2 (en) * | 2018-12-20 | 2022-03-22 | Motorola Mobility Llc | Methods and systems for crashing unmanned aircraft |
| US12399567B2 (en) * | 2019-09-20 | 2025-08-26 | Nvidia Corporation | Vision-based teleoperation of dexterous robotic system |
| US11812116B2 (en) * | 2019-10-16 | 2023-11-07 | Charter Communications Operating, Llc | Apparatus and methods for enhanced content control, consumption and delivery in a content distribution network |
| SG10201913029SA (en) * | 2019-12-23 | 2021-04-29 | Sensetime Int Pte Ltd | Target tracking method and apparatus, electronic device, and storage medium |
| US20210201661A1 (en) * | 2019-12-31 | 2021-07-01 | Midea Group Co., Ltd. | System and Method of Hand Gesture Detection |
-
2020
- 2020-09-11 US US17/018,674 patent/US11712797B2/en active Active
-
2021
- 2021-08-04 DE DE102021120229.9A patent/DE102021120229A1/de active Pending
- 2021-08-13 JP JP2021131948A patent/JP7669231B2/ja active Active
- 2021-09-02 CN CN202111027544.3A patent/CN114179075B/zh active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011110620A (ja) | 2009-11-24 | 2011-06-09 | Toyota Industries Corp | ロボットの動作を制御する方法およびロボットシステム |
| JP2015044257A (ja) | 2013-08-27 | 2015-03-12 | 株式会社デンソーアイティーラボラトリ | ロボット、ロボット制御方法、及びロボット制御プログラム |
| JP2018073290A (ja) | 2016-11-02 | 2018-05-10 | パナソニックIpマネジメント株式会社 | 機器制御装置、機器制御方法、およびプログラム |
| US20200026910A1 (en) | 2017-03-31 | 2020-01-23 | Beijing Sensetime Technology Development Co., Ltd. | Gesture identification, control, and neural network training methods and apparatuses, and electronic devices |
| JP2019219904A (ja) | 2018-06-20 | 2019-12-26 | ソニー株式会社 | プログラム、認識装置、及び、認識方法 |
| WO2020000096A1 (en) | 2018-06-29 | 2020-01-02 | Wrnch Inc. | Human pose analysis system and method |
Also Published As
| Publication number | Publication date |
|---|---|
| CN114179075A (zh) | 2022-03-15 |
| US11712797B2 (en) | 2023-08-01 |
| US20220080580A1 (en) | 2022-03-17 |
| CN114179075B (zh) | 2025-08-01 |
| JP2022047503A (ja) | 2022-03-24 |
| DE102021120229A1 (de) | 2022-03-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7728099B2 (ja) | 人間の実演によるロボット教示 | |
| US12179350B2 (en) | Dual arm robot teaching from dual hand human demonstration | |
| Kofman et al. | Teleoperation of a robot manipulator using a vision-based human-robot interface | |
| Ferreira et al. | Stereo-based real-time 6-DoF work tool tracking for robot programing by demonstration | |
| US20180117766A1 (en) | Device, method, program and recording medium, for simulation of article arraying operation performed by robot | |
| US12172303B2 (en) | Robot teaching by demonstration with visual servoing | |
| JP2013043271A (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
| WO2016151668A1 (ja) | ティーチング装置及び制御情報の生成方法 | |
| CN114670189B (zh) | 存储介质、以及生成机器人的控制程序的方法及系统 | |
| TW201914782A (zh) | 把持位置姿勢教導裝置、把持位置姿勢教導方法及機器人系統 | |
| CN110405775A (zh) | 一种基于增强现实技术的机器人示教系统及方法 | |
| JP2023059837A (ja) | 人間のデモンストレーションによるロボットプログラム作成方法 | |
| JP7669231B2 (ja) | 実演による教示における両手検出 | |
| Skoglund et al. | Programming by demonstration of pick-and-place tasks for industrial manipulators using task primitives | |
| JP2008168372A (ja) | ロボット装置及び形状認識方法 | |
| CN115194774A (zh) | 一种基于多目视觉的双机械臂抓握系统控制方法 | |
| JP2023059863A (ja) | 人の両手の実演による双腕ロボットの教示 | |
| Lopez et al. | Taichi algorithm: Human-like arm data generation applied on non-anthropomorphic robotic manipulators for demonstration | |
| Lathuiliere et al. | Visual hand posture tracking in a gripper guiding application | |
| CN119501951A (zh) | 一种基于视觉感知的夹持机械臂及其控制方法 | |
| WO2016151667A1 (ja) | ティーチング装置及び制御情報の生成方法 | |
| Infantino et al. | Visual control of a robotic hand | |
| Kamiya et al. | Learning from Human Hand Demonstration for Wire Harness Grasping | |
| Santos et al. | Shadow Dexterous Hand: Optimizing Pick-and-Place with Depth Cameras | |
| Phan et al. | Robotic Manipulation via the Assisted 3D Point Cloud of an Object in the Bin-Picking Application |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240806 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250115 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250121 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250319 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250401 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250416 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7669231 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |