[go: up one dir, main page]

WO2019240330A1 - Image-based strength prediction system and method therefor - Google Patents

Image-based strength prediction system and method therefor Download PDF

Info

Publication number
WO2019240330A1
WO2019240330A1 PCT/KR2018/011808 KR2018011808W WO2019240330A1 WO 2019240330 A1 WO2019240330 A1 WO 2019240330A1 KR 2018011808 W KR2018011808 W KR 2018011808W WO 2019240330 A1 WO2019240330 A1 WO 2019240330A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot arm
motion information
force
time series
interaction force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2018/011808
Other languages
French (fr)
Korean (ko)
Inventor
임수철
황원준
신호철
이동한
고대관
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ajou University Industry Academic Cooperation Foundation
Industry Academic Cooperation Foundation of Dongguk University
Original Assignee
Ajou University Industry Academic Cooperation Foundation
Industry Academic Cooperation Foundation of Dongguk University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ajou University Industry Academic Cooperation Foundation, Industry Academic Cooperation Foundation of Dongguk University filed Critical Ajou University Industry Academic Cooperation Foundation
Publication of WO2019240330A1 publication Critical patent/WO2019240330A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J18/00Arms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01LMEASURING FORCE, STRESS, TORQUE, WORK, MECHANICAL POWER, MECHANICAL EFFICIENCY, OR FLUID PRESSURE
    • G01L11/00Measuring steady or quasi-steady pressure of a fluid or a fluent solid material by means not provided for in group G01L7/00 or G01L9/00
    • G01L11/02Measuring steady or quasi-steady pressure of a fluid or a fluent solid material by means not provided for in group G01L7/00 or G01L9/00 by optical means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Definitions

  • the interaction time and the object of the robot arm predicted by inputting the time series motion information of the robot and the actual images to the deep learning algorithm of the neural network structure It can be learned by comparing the physical properties of the object and the interaction force of the robot arm measured using the sensor and the physical properties of the object.
  • Deep learning algorithm of the robot arm force prediction method the process of extracting the region associated with the operation of the robot from the actual images using the CNN (Convolutional Neural Network) that the actual images are input ; Calculating class scores of the time series motion information of the robot using a first FC (fully-connected) layer to which the time series motion information of the robot is input; Inputting the extracted region and class scores of the time series motion information into a recurrent neural network (RNN) to learn a relationship between the area that changes over time and the time series motion information; And calculating class scores of the learning result as a second FC layer into which the learning result of the RNN is input, and predicting interaction force of the robot arm corresponding to the time series motion information and the actual image and physical property values of the object.
  • the correlation between the actual images and time series motion information of the robot and the interaction force of the robot arm may be learned.
  • Time series operation information of the force prediction method of the robot arm changes over time, the robot arm It may include at least one of a change in the position and a change in the operation of the robot arm.
  • the force predicting unit of the force learning device of the robotic arm generates a virtual image representing a change in motion information over time based on the time series motion information in a graph form, thereby generating the first cone ball of the CNN.
  • a virtual image representing a change in motion information over time based on the time series motion information in a graph form, thereby generating the first cone ball of the CNN.
  • the real images output from the convolutional layer are matched using the unified layer, the matched information is classified through the FC layer, and the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical property values of the object. It can be predicted.
  • Figure 7 is an example of the interaction force prediction process of the robot arm according to an embodiment of the present invention.
  • the force predictor 230 may input the actual images 511 accumulated over time to the second convolutional layer 510 which is different from the first convolutional layer.
  • the force predictor 230 classifies the matched information through the FC layer 540 to predict the interaction force of the robot arm and the physical property of the object corresponding to the real time image. have.
  • the force predictor 630 may predict the interaction force of the robot arm based on the actual images and the time series motion information.
  • the force predictor 630 may store the actual images, time series motion information, and the object in the database 120 in which the learning result of the correlation between the actual images, time series motion information, physical properties of the object, and the interaction force of the robot arm is stored. By applying the properties, we can predict the interaction force of the robot arm.
  • the present invention can predict the interaction force of the robot arm using the actual image, so if an error occurs in the sensor, the interaction between the interaction force of the robot arm measured by the sensor and the robot arm predicted using the actual image By comparing the working force, it is possible to determine whether the sensor is abnormal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

An image-based strength prediction system and a method therefor are disclosed. The method for predicting strength of a robot arm of the image-based strength prediction system may comprise the steps of: acquiring real images generated by continuously photographing a motion of a robot arm interacting with an object; acquiring time-series motion information related to a change in the motion of the robot arm over time; and predicting an interaction strength of the robot arm on the basis of the real images and the time-series motion information.

Description

영상 기반 힘 예측 시스템 및 그 방법Image-based Force Prediction System and Method

본 발명은 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측하는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for predicting the interaction force of a robotic arm using an image.

로봇 팔의 상호 작용 힘(Interaction force)은 오브젝트에 가하는 로봇 팔의 힘 및 오브젝트의 물성치에 의하여 로봇 팔에 피드백되는 힘을 포함하고 있으므로, 사용자가 오브젝트와 상호 작용하는 경우, 촉각을 통하여 느끼는 힘과 유사하다. 따라서, 로봇의 팔을 정밀하게 제어하기 위해서는 로봇 팔의 상호 작용 힘을 측정할 필요가 있다. The interaction force of the robot arm includes the force of the robot arm applied to the object and the force fed back to the robot arm by the property of the object. Therefore, when the user interacts with the object, similar. Therefore, in order to precisely control the arm of the robot, it is necessary to measure the interaction force of the robot arm.

종래의 로봇 팔의 상호 작용 힘을 측정하는 장치는 로봇에 부착한 힘 센서, 또는 토크 센서를 이용하여 로봇 팔의 상호 작용 힘을 측정하였다. 그러나, 힘 센서, 및 토크 센서는 고가의 장치여서 로봇 팔의 가격 상승 요인이 된다는 문제가 있었다. The conventional apparatus for measuring the interaction force of the robot arm measured the interaction force of the robot arm by using a force sensor or a torque sensor attached to the robot. However, there has been a problem that the force sensor and the torque sensor are expensive devices, which contributes to the price increase of the robot arm.

또한, 로봇 팔의 구조와 크기에 따라서는 힘 센서, 또는 토크 센서를 부착하기 어려운 경우가 발생한다는 한계도 있었다.In addition, depending on the structure and size of the robot arm, there is a limit that it is difficult to attach a force sensor or a torque sensor.

그리고, 힘 센서, 또는 토크 센서는 로봇 팔이 오브젝트와 접촉한 후에 로봇 팔의 상호 작용 힘을 측정하므로, 오브젝트의 강도가 약한 경우, 로봇 팔이 오브젝트와 접촉한 후 힘 센서, 또는 토크 센서가 로봇 팔의 상호 작용 힘을 측정하기 전에 오브젝트가 파손될 가능성도 있었다.And, the force sensor or torque sensor measures the interaction force of the robot arm after the robot arm contacts the object, so if the strength of the object is weak, the force sensor, or the torque sensor, after the robot arm contacts the object, It was also possible that the object would break before the arm's interaction force was measured.

따라서, 센서 없이 로봇 팔이 오브젝트와 접촉 전에 오브젝트와 상호 작용할 로봇 팔의 상호작용 힘을 측정, 또는 예측하는 방법이 필요한 실정이다.Therefore, there is a need for a method of measuring or predicting the interaction force of the robot arm that will interact with the object before the robot arm contacts the object without a sensor.

본 발명은 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하고, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보를 학습 결과에 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘을 예측하는 시스템 및 방법을 제공할 수 있다.The present invention is to study the correlation between the real image and time series motion information, the physical properties of the object and the interaction force of the robot arm, and the real time image of the robot motion, and apply the real time image and time series motion information to the learning results Thereby, it is possible to provide a system and method for predicting the interaction force of a robotic arm without a sensor for measuring the interaction force of the robotic arm.

그리고, 본 발명은 예측한 로봇 팔의 상호 작용 힘에 따라 로봇 팔을 제어하는 사용자에게 피드백을 제공함으로써, 복잡한 센서 네트워크를 구성하지 않고도 카메라만 이용하여 사용자에게 물리적 감각을 재현하는 장치 및 방법을 제공할 수 있다.In addition, the present invention provides an apparatus and method for reproducing a physical sense to a user using only a camera without constructing a complex sensor network by providing feedback to a user who controls the robot arm according to the predicted interaction force of the robot arm. can do.

또한, 본 발명은 실제 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서에 오류가 발생한 경우, 센서로 측정한 로봇 팔의 상호 작용 힘과 실제 영상을 이용하여 예측한 로봇 팔의 상호 작용 힘을 비교하여 센서의 이상 유무를 판단할 수 있는 장치 및 방법을 제공할 수 있다.In addition, the present invention can predict the interaction force of the robot arm using the actual image, so if an error occurs in the sensor, the interaction between the interaction force of the robot arm measured by the sensor and the robot arm predicted using the actual image It is possible to provide an apparatus and a method capable of determining the abnormality of the sensor by comparing the action force.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법은 오브젝트와 상호 작용하는 로봇 팔의 동작을 연속으로 촬영하여 생성한 실제 영상들을 획득하는 단계; 시간의 경과에 따른 상기 로봇 팔의 동작 변화와 관련된 시계열 동작 정보를 획득하는 단계; 및 상기 실제 영상들과 상기 시계열 동작 정보에 기초하여 상기 로봇 팔의 상호 작용 힘을 예측하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of predicting a force of a robot arm, the method comprising: obtaining real images generated by continuously photographing an operation of a robot arm interacting with an object; Obtaining time series motion information related to a change in motion of the robot arm over time; And predicting an interaction force of the robot arm based on the actual images and the time series motion information.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 예측하는 단계는, 상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측할 수 있다.Predicting the force prediction method of the robot arm according to an embodiment of the present invention, the learning results of the correlation between the actual image, the time series motion information, the physical properties of the object and the interaction force of the robot arm is stored The interaction force of the robot arm may be predicted by applying the real images, the time series motion information, and the physical properties of the object to a database.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 상관 관계는, 상기 로봇의 시계열 동작 정보와 상기 실제 영상들을 신경망 구조의 딥러닝 알고리즘에 입력하여 예측된 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 비교하여 학습될 수 있다.Correlation of the force prediction method of the robot arm according to an embodiment of the present invention, the interaction time and the object of the robot arm predicted by inputting the time series motion information of the robot and the actual images to the deep learning algorithm of the neural network structure It can be learned by comparing the physical properties of the object and the interaction force of the robot arm measured using the sensor and the physical properties of the object.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 딥러닝 알고리즘은, 상기 실제 영상들이 입력되는 CNN(Convolutional Neural Network)를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 과정; 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 과정; 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN(Recurrent Neural Network)에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 과정; 및 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.Deep learning algorithm of the robot arm force prediction method according to an embodiment of the present invention, the process of extracting the region associated with the operation of the robot from the actual images using the CNN (Convolutional Neural Network) that the actual images are input ; Calculating class scores of the time series motion information of the robot using a first FC (fully-connected) layer to which the time series motion information of the robot is input; Inputting the extracted region and class scores of the time series motion information into a recurrent neural network (RNN) to learn a relationship between the area that changes over time and the time series motion information; And calculating class scores of the learning result as a second FC layer into which the learning result of the RNN is input, and predicting interaction force of the robot arm corresponding to the time series motion information and the actual image and physical property values of the object. The correlation between the actual images and time series motion information of the robot and the interaction force of the robot arm may be learned.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 딥러닝 알고리즘은, 상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN(Convolutional Neural Network)의 제1 콘볼루션 계층(convolutional layer)에 입력하는 과정; 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 과정; 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 과정; 및 정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.The deep learning algorithm of the robot arm force prediction method according to an embodiment of the present invention generates a virtual image representing a change in motion information in a graph form based on the time series motion information and generates a CNN (Convolutional Neural). Inputting to a first convolutional layer of a network; Inputting the real images accumulated over time into a second convolution layer different from the first convolution layer; Matching the virtual image output from the first convolutional layer and the actual image output from the second convolutional layer using a pooling layer; And classifying the matched information through a fully connected layer to predict the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical property of the object. The correlation between time series motion information of the robot and the interaction force of the robot arm may be learned.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법의 시계열 동작 정보는, 시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함할 수 있다.Time series operation information of the force prediction method of the robot arm according to an embodiment of the present invention, the change in the power used by the motor of the robot arm to perform the operation of the robot arm changes over time, the robot arm It may include at least one of a change in the position and a change in the operation of the robot arm.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 방법은 상기 오브젝트의 물성치(material property)와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 단계; 및 상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 단계를 더 포함할 수 있다.According to an aspect of the present invention, a method of predicting a force of a robot arm includes predicting haptic sensing information by using a material property of the object and an estimated interaction force of the robot arm; And providing feedback to the user of the robot arm according to the haptic sensing information.

본 발명의 일실시예에 따른 로봇 팔의 힘 학습 방법은 오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 상기 로봇 팔의 동작과 관련된 시계열 동작 정보를 획득하는 단계; 상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계; 및 예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of learning a force of a robot arm, the method comprising: obtaining real images generated by photographing an operation of a robot arm related to an object and time series motion information related to the operation of the robot arm; Inputting the real images and the time series motion information into a deep learning algorithm to predict the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical properties of the object; And comparing the predicted interaction force of the robot arm and the physical property of the object with the interaction force of the robot arm measured using a sensor and the physical property of the object. The method may include learning correlations between interaction forces of the robotic arms.

본 발명의 일실시예에 따른 로봇 팔의 힘 학습 방법의 로봇 팔의 상호 작용 힘을 예측하는 단계는, 상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 단계; 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 단계; 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 단계; 및 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계를 포함할 수 있다.Predicting the interaction force of the robot arm in the force learning method of the robot arm according to an embodiment of the present invention, using the CNN to input the actual image is extracted an area related to the operation of the robot from the actual image Doing; Calculating class scores of time-series motion information of the robot using a first fully connected layer (FC) to which time-series motion information of the robot is input; Inputting the extracted region and class scores of the time series operation information into an RNN to learn a relationship between the area that changes over time and the time series operation information; And calculating class scores of the learning result as a second FC layer into which the learning result of the RNN is input, and predicting interaction force of the robot arm corresponding to the time series motion information and the actual image and physical property values of the object. It may include.

본 발명의 일실시예에 따른 로봇 팔의 힘 학습 방법의 로봇 팔의 상호 작용 힘을 예측하는 단계는, 상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하는 단계; 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 단계; 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 단계; 및 정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계를 포함할 수 있다.Predicting the interaction force of the robot arm in the force learning method of the robot arm according to an embodiment of the present invention, the virtual image showing a change in the motion information over time based on the time series motion information in the form of a graph Generating and inputting to the first convolutional layer of the CNN; Inputting the actual images accumulated over time to a second convolution layer different from the first convolution layer; Matching the virtual images output from the first convolutional layer with the actual images output from the second convolutional layer using a pooling layer; And classifying the matched information through a fully connected layer to predict the interaction force of the robot arm corresponding to the time series motion information and the actual image and the physical property of the object.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 장치는 오브젝트와 상호 작용하는 로봇 팔의 동작을 연속으로 촬영하여 생성한 실제 영상들을 획득하는 영상 획득부; 시간의 경과에 따른 상기 로봇 팔의 동작 변화와 관련된 시계열 동작 정보를 획득하는 동작 정보 획득부; 및 상기 실제 영상들과 상기 시계열 동작 정보에 기초하여 상기 로봇 팔의 상호 작용 힘을 예측하는 힘 예측부를 포함할 수 있다.An apparatus for predicting a force of a robot arm according to an embodiment of the present invention includes an image acquisition unit for acquiring real images generated by continuously photographing an operation of a robot arm interacting with an object; A motion information acquisition unit for obtaining time series motion information related to a motion change of the robot arm over time; And a force estimator for predicting the interaction force of the robot arm based on the actual images and the time series motion information.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 장치의 힘 예측부는, 상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측할 수 있다.The force predicting unit of the force predicting device of the robot arm according to an embodiment of the present invention, the database storing the learning results of the correlation between the actual image, the time series motion information, the physical properties of the object and the interaction force of the robot arm The interaction force of the robot arm may be predicted by applying the actual images, the time series motion information, and the physical properties of the object.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 장치의 시계열 동작 정보는, 시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함할 수 있다.Time series operation information of the force prediction device of the robot arm according to an embodiment of the present invention, the change in power used by the motor of the robot arm to perform the operation of the robot arm that changes over time, the robot arm It may include at least one of a change in the position and a change in the operation of the robot arm.

본 발명의 일실시예에 따른 로봇 팔의 힘 예측 장치는 상기 오브젝트의 물성치와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 햅틱 센싱 정보 예측부; 및 상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 피드백부를 더 포함할 수 있다.According to an aspect of the present invention, there is provided an apparatus for predicting force of a robot arm, comprising: a haptic sensing information predictor for predicting haptic sensing information by using the physical force of the object and the predicted interaction force of the robot arm; And a feedback unit configured to provide feedback to the user of the robot arm according to the haptic sensing information.

본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치는 오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 상기 로봇 팔의 동작과 관련된 시계열 동작 정보를 획득하는 통신기; 상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 힘 예측부; 및 예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상관 관계 학습부를 포함할 수 있다.According to an aspect of the present invention, there is provided a force learning apparatus for a robotic arm, including: a communicator configured to obtain actual images generated by photographing an operation of a robot arm related to an object and time series motion information related to the operation of the robot arm; A force estimator for inputting the real images and the time series motion information into a deep learning algorithm to predict the interaction force of the robot arm and the physical properties of the object corresponding to the time series motion information and the real image; And comparing the predicted interaction force of the robot arm and the physical property of the object with the interaction force of the robot arm measured using a sensor and the physical property of the object. And, it may include a correlation learning unit for learning the correlation between the interaction force of the robot arm.

본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치의 힘 예측부는, 상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하고, 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하며, 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하고, 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측할 수 있다.The force predicting unit of the force learning device of the robot arm according to an embodiment of the present invention extracts an area related to the motion of the robot from the real images by using the CNN to which the real images are input, and time-series motion information of the robot. Calculates class scores of the time series motion information of the robot by using the first FC layer inputted, inputs the extracted region and class scores of the time series motion information to RNN, and changes the area and time series Learn the relationship between the motion information, calculate the class scores of the learning result to the second FC layer into which the learning result of the RNN is input, and the interaction force of the robot arm corresponding to the time series motion information and the actual image; The physical properties of the object can be predicted.

본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치의 힘 예측부는, 상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하고, 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하며, 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층을 이용하여 정합하고, 정합된 정보들을 FC 계층을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측할 수 있다.The force predicting unit of the force learning device of the robotic arm according to an embodiment of the present invention generates a virtual image representing a change in motion information over time based on the time series motion information in a graph form, thereby generating the first cone ball of the CNN. Inputting the real image accumulated in the solution layer as time passes, into the second convolution layer different from the first convolution layer, and outputting the virtual image and the second image output from the first convolution layer The real images output from the convolutional layer are matched using the unified layer, the matched information is classified through the FC layer, and the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical property values of the object. It can be predicted.

본 발명의 일실시예에 의하면, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하고, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보를 학습 결과에 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘을 예측할 수 있다. According to an embodiment of the present invention, the correlation between the actual image and time-series motion information, the physical properties of the object and the interaction force of the robot arm, and the real-time image and time-series motion By applying the information to the learning results, it is possible to predict the interaction force of the robot arm without a sensor for measuring the interaction force of the robot arm.

그리고, 본 발명의 일실시예에 의하면, 예측한 로봇 팔의 상호 작용 힘에 따라 로봇 팔을 제어하는 사용자에게 피드백을 제공함으로써, 복잡한 센서 네트워크를 구성하지 않고도 카메라만 이용하여 사용자에게 물리적 감각을 재현시킬 수 있다.And, according to an embodiment of the present invention, by providing feedback to the user controlling the robot arm in accordance with the predicted interaction force of the robot arm, to reproduce the physical senses to the user using only the camera without configuring a complex sensor network You can.

또한, 본 발명의 일실시예에 의하면, 실제 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서에 오류가 발생한 경우, 센서로 측정한 로봇 팔의 상호 작용 힘과 실제 영상을 이용하여 예측한 로봇 팔의 상호 작용 힘을 비교하여 센서의 이상 유무를 판단할 수 있다.In addition, according to an embodiment of the present invention, since the interaction force of the robot arm can be predicted using the actual image, when an error occurs in the sensor, the interaction force of the robot arm measured by the sensor and the actual image are used. By comparing the interaction forces of the predicted robot arms, it is possible to determine whether the sensor is abnormal.

도 1은 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템을 나타내는 도면이다. 1 is a view showing an image-based force prediction system according to an embodiment of the present invention.

도 2는 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 학습 장치의 구조를 나타내는 도면이다. 2 is a view showing the structure of the force learning device of the robot arm included in the image-based force prediction system according to an embodiment of the present invention.

도3은 본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치가 영상과 동작 정보 및 로봇 팔의 상호 작용 힘간의 상관 관계를 학습하는 과정의 일례이다.3 is an example of a process of learning the correlation between the image and motion information and the interaction force of the robot arm in the force learning device of the robot arm according to an embodiment of the present invention.

도4는 본 발명의 일실시예에 따른 CNN 및 RNN을 이용한 로봇 팔의 상호 작용 힘 예측 방법의 일례이다.Figure 4 is an example of the interaction force prediction method of the robot arm using the CNN and RNN in accordance with an embodiment of the present invention.

도5는 본 발명의 일실시예에 따른 CNN 을 이용한 로봇 팔의 상호 작용 힘 예측 방법의 일례이다.5 is an example of a method for predicting interaction force of a robot arm using a CNN according to an embodiment of the present invention.

도 6은 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 예측 장치의 구조를 나타내는 도면이다. 6 is a diagram illustrating a structure of a force predicting device of a robot arm included in an image-based force predicting system according to an embodiment of the present invention.

도 7은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 과정의 일례이다. Figure 7 is an example of the interaction force prediction process of the robot arm according to an embodiment of the present invention.

도 8은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 과정의 다른 일례이다. 8 is another example of a process of predicting the interaction force of the robot arm according to an embodiment of the present invention.

도 9는 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 학습 방법을 도시한 플로우차트이다.9 is a flowchart illustrating a method for learning the interaction force of the robot arm according to an embodiment of the present invention.

도 10은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 방법을 도시한 플로우차트이다.10 is a flowchart illustrating a method for predicting interaction force of a robot arm according to an embodiment of the present invention.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. However, various changes may be made to the embodiments so that the scope of the patent application is not limited or limited by these embodiments. It is to be understood that all changes, equivalents, and substitutes for the embodiments are included in the scope of rights.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of description and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components regardless of reference numerals will be given the same reference numerals and duplicate description thereof will be omitted. In the following description of the embodiment, when it is determined that the detailed description of the related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 학습 방법은 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 학습 장치에 의해 수행될 수 있다. 또한, 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 방법은 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 예측 장치에 의해 수행될 수 있다. The interaction force learning method of the robot arm according to an embodiment of the present invention may be performed by the force learning apparatus of the robot arm included in the image-based force prediction system. In addition, the method of predicting the interaction force of the robot arm according to an embodiment of the present invention may be performed by the apparatus for predicting the force of the robot arm included in the image-based force prediction system.

도 1은 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템을 나타내는 도면이다. 1 is a view showing an image-based force prediction system according to an embodiment of the present invention.

영상 기반 힘 예측 시스템은 도 1에 도시된 바와 같이 로봇 팔의 힘 학습 장치(110)와 데이터베이스(120) 및 로봇 팔의 힘 예측 장치(130)를 포함할 수 있다.As shown in FIG. 1, the image-based force prediction system may include a force learning device 110, a database 120, and a force prediction device 130 of the robot arm.

로봇 팔의 힘 학습 장치(110)는 오브젝트와 관련된 로봇 팔의 동작을 연속으로 촬영하여 생성한 실제 영상들과, 로봇 팔의 동작과 관련된 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다. 그리고, 로봇 팔의 힘 학습 장치(110)는 학습한 상관 관계를 데이터베이스(120)에 저장할 수 있다. 이때, 로봇 팔의 상호 작용 힘은 오브젝트를 잡는 로봇 팔의 그립력(Grip force), 오브젝트와 접촉하는 로봇 팔의 접촉력, 오브젝트를 당기는 로봇 팔의 힘(Pull force), 오브젝트를 미는 로봇 팔의 힘(Push force), 및 오브젝트를 잡거나 접촉한 로봇 팔의 힘의 방향 중 적어도 하나를 포함할 수 있다. The force learning device 110 of the robot arm is configured to continuously record the actual images generated by continuously photographing the motion of the robot arm related to the object, time series motion information related to the motion of the robot arm, the physical properties of the object, and the interaction force of the robot arm. Correlation can be learned. In addition, the force learning apparatus 110 of the robot arm may store the learned correlation in the database 120. At this time, the interaction force of the robot arm is the grip force of the robot arm holding the object, the contact force of the robot arm in contact with the object, the pull force of the robot arm pulling the object, the force of the robot arm pushing the object ( Push force), and the direction of the force of the robot arm that caught or touched the object.

이때, 오브젝트의 물성치는 오브젝트의 탄성, 강성, 밀도, 비중 중 적어도 하나를 포함할 수 있다. 또한, 시계열 동작 정보는 시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 로봇 팔의 모터가 사용하는 전력의 변화, 로봇 팔의 위치 변화 및 로봇 팔의 동작 변화 중 적어도 하나를 포함할 수 있다. 또한, 시계열 동작 정보는 실제 영상들 각각에 대응하여 생성될 수 있다. 예를 들어, 0.1초 간격으로 실제 영상을 촬영하는 경우, 로봇 팔도 0.1 초 간격으로 해당 시점의 동작 정보를 생성할 수 있다. 그리고, 로봇 팔의 힘 학습 장치(110)는 0.1초 간격으로 생성된 실제 영상의 프레임 각각에 대응하는 로봇 팔의 동작 정보를 매칭할 수 있다. In this case, the physical property value of the object may include at least one of elasticity, rigidity, density, and specific gravity of the object. In addition, the time series motion information may include at least one of a change in power used by the motor of the robot arm, a change in position of the robot arm, and a change in motion of the robot arm to perform the operation of the robot arm that changes over time. have. In addition, time series operation information may be generated corresponding to each of the actual images. For example, when the actual image is taken at 0.1 second intervals, the robot arm may also generate motion information at a corresponding time point at 0.1 second intervals. In addition, the force learning apparatus 110 of the robot arm may match the motion information of the robot arm corresponding to each frame of the actual image generated at 0.1 second intervals.

로봇 팔의 힘 학습 장치(110)가 상관 관계를 학습하기 위한 구체적인 구성 및 동작은 이하 도 2내지 도 5를 참조하여 상세히 설명한다.Specific configurations and operations for learning the correlation by the force learning device 110 of the robot arm will be described in detail with reference to FIGS. 2 to 5.

데이터베이스(120)는 로봇 팔의 힘 학습 장치(110)가 학습한 실제 영상들과, 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 저장하고 관리할 수 있다.The database 120 may store and manage correlations between actual images learned by the force learning apparatus 110 of the robot arm, time series motion information, material properties of the object, and interaction forces of the robot arm.

로봇 팔의 힘 예측 장치(130)는 오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 로봇 팔의 동작과 관련된 시계열 동작 정보, 및 오브젝트의 물성치 중 적어도 하나를 데이터베이스(120)에서 로드한 상관 관계에 적용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다.The force predicting device 130 of the robot arm includes at least one of actual images generated by photographing the motion of the robot arm related to the object, time series motion information related to the motion of the robot arm, and physical property values of the object in the database 120. It can be applied to the loaded correlation to predict the interaction force of the robot arm.

로봇 팔의 힘 예측 장치(130)가 로봇 팔의 상호 작용 힘을 예측하기 위한 구체적인 구성 및 동작은 이하 도 6 내지 도 8을 참조하여 상세히 설명한다.A detailed configuration and operation for the robot arm force predicting device 130 to predict the interaction force of the robot arm will be described in detail with reference to FIGS. 6 to 8.

영상 기반 힘 예측 시스템은 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하고, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보를 학습 결과에 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘(Interaction force)을 예측할 수 있다. 그리고, 영상 기반 힘 예측 시스템은 예측한 로봇 팔의 상호 작용 힘에 따라 로봇 팔을 제어하는 사용자에게 피드백을 제공함으로써, 복잡한 센서 네트워크를 구성하지 않고도 카메라만 이용하여 사용자에게 물리적 감각을 재현시킬 수 있다.The image-based force prediction system learns the correlation between the real image of the robot's motion and time series motion information, the property of the object and the interaction force of the robot arm, and the real image and the time series motion information of the robot motion. Applied to the results, the interaction force of the robot arm can be predicted without the sensor for measuring the interaction force of the robot arm. In addition, the image-based force prediction system provides feedback to the user who controls the robot arm according to the predicted interaction force of the robot arm, thereby reproducing the physical senses to the user using only the camera without constructing a complex sensor network. .

또한, 영상 기반 힘 예측 시스템은 실제 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서에 오류가 발생한 경우, 센서로 측정한 로봇 팔의 상호 작용 힘과 실제 영상을 이용하여 예측한 로봇 팔의 상호 작용 힘을 비교하여 센서의 이상 유무를 판단할 수 있다.In addition, the image-based force prediction system can predict the interaction force of the robot arm using the actual image, so if an error occurs in the sensor, the robot predicts the interaction force of the robot arm measured by the sensor and the actual image. By comparing the interaction forces of the arms, it is possible to determine whether the sensor is abnormal.

그리고, 영상 기반 힘 예측 시스템은 고가이고 복잡한 센서 네트워크 없이 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서를 이용한 종래의 로봇 팔의 상호 작용 힘 측정 시스템에 비하여 저가로 구현할 수 있다. 따라서, 로봇 팔의 상호 작용 힘을 측정, 또는 예측하는 시스템의 보급이 증가되도록 할 수 있다.In addition, since the image-based force prediction system can predict the interaction force of the robot arm without the expensive and complicated sensor network, the image-based force prediction system can be implemented at a lower cost than the interaction force measurement system of the conventional robot arm using the sensor. Thus, it is possible to increase the prevalence of a system for measuring or predicting the interaction force of the robotic arm.

도 2는 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 학습 장치의 구조를 나타내는 도면이다. 2 is a view showing the structure of the force learning device of the robot arm included in the image-based force prediction system according to an embodiment of the present invention.

로봇 팔의 힘 학습 장치(110)는 도 1에 도시된 바와 같이 영상 획득부(210), 동작 정보 획득부(220), 힘 예측부(230), 상관 관계 학습부(240)를 포함할 수 있다. 이때, 힘 예측부(230), 상관 관계 학습부(240)는 서로 다른 프로세스, 또는 하나의 프로세스에 포함된 프로그램을 수행하기 위한 각각의 모듈일 수 있다.The force learning apparatus 110 of the robot arm may include an image acquirer 210, an operation information acquirer 220, a force predictor 230, and a correlation learner 240 as illustrated in FIG. 1. have. In this case, the force predicting unit 230 and the correlation learning unit 240 may be different modules or modules for executing programs included in one process.

영상 획득부(210)는 학습용 로봇 팔(202)에 연동된 카메라(201)가 오브젝트와 관련된 로봇 팔(202)의 동작을 촬영하여 생성한 실제 영상을 획득할 수 있다. 이때, 영상 획득부(210)는 카메라(201)로부터 무선으로 실제 영상을 수신하는 통신기, 또는 카메라(201)로부터 실제 영상을 수신하기 위한 유선이 결합되는 포트일 수 있다.The image acquirer 210 may acquire an actual image generated by photographing the operation of the robot arm 202 related to the object by the camera 201 linked to the learning robot arm 202. In this case, the image acquisition unit 210 may be a communicator for receiving the actual image wirelessly from the camera 201, or a port to which a wire for receiving the actual image from the camera 201 is coupled.

동작 정보 획득부(220)는 로봇 팔(202)의 동작과 관련된 시계열 동작 정보를 획득할 수 있다. 이때, 동작 정보 획득부(220)는 로봇 팔(202)로부터 무선으로 동작 정보를 수신하는 통신기, 또는 로봇 팔(202)로부터 동작 정보를 수신하기 위한 유선이 결합되는 포트일 수 있다.The motion information acquisition unit 220 may obtain time series motion information related to the motion of the robot arm 202. In this case, the motion information acquisition unit 220 may be a communicator that receives the motion information from the robot arm 202 wirelessly, or a port to which a wire for receiving the motion information from the robot arm 202 is coupled.

그리고, 도 2에서는 영상 획득부(210)와 동작 정보 획득부(220)가 별개의 구성으로 기재되어 있으나, 로봇 팔의 힘 학습 장치(110)가 하나의 통신기를 이용하여 실제 영상 획득 및 동작 정보 획득을 모두 수행할 수도 있다.In addition, although the image acquisition unit 210 and the motion information acquisition unit 220 are described in separate configurations in FIG. 2, the force learning device 110 of the robot arm uses a single communicator to acquire the actual image and the motion information. All acquisitions may be performed.

힘 예측부(230)는 실제 영상들 및 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 시계열 동작 정보 및 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 예측할 수 있다. 이때, 힘 예측부(230)는 CNN(Convolutional Neural Network) 과 RNN(Recurrent Neural Network)을 이용하여 로봇 팔의 상호 작용 힘을 예측하거나, CNN만을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다. The force predictor 230 may input real images and time series motion information to a deep learning algorithm to predict interaction forces and physical property values of the robot arm corresponding to the time series motion information and the real image. At this time, the force prediction unit 230 may predict the interaction force of the robot arm using a convolutional neural network (CNN) and a recurrent neural network (RNN), or may predict the interaction force of the robot arm using only the CNN.

CNN 및 RNN을 이용하여 로봇 팔의 상호 작용 힘을 예측하는 방법은 이하 도 4를 참조하여 상세히 설명한다. 또한, CNN만을 이용하여 로봇 팔의 상호 작용 힘을 예측하는 방법은 이하 도 5를 참조하여 상세히 설명한다.A method of predicting the interaction force of the robot arm by using the CNN and the RNN will be described in detail with reference to FIG. 4. In addition, a method of predicting the interaction force of the robot arm using only the CNN will be described in detail with reference to FIG. 5.

상관 관계 학습부(240)는 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치와 힘 예측부(230)가 예측한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 비교하여 실제 영상들과 시계열 동작 정보, 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.The correlation learning unit 240 compares the interaction force of the robot arm measured by the sensor and the property of the object with the interaction force of the robot predicted by the force predictor 230 and the property of the object. And correlation between time series motion information, object properties, and interaction forces of the robot arm.

구체적으로, 상관 관계 학습부(240)는 힘 예측부(230)가 예측한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치가 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치와 동일하거나, 오차 범위 이하의 차이가 있는 경우, 힘 예측부(230)가 입력한 실제 영상들과 시계열 동작 정보와 예측한 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계가 있는 것으로 학습할 수 있다. 또한, 상관 관계 학습부(240)는 힘 예측부(230)가 예측한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치가 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치와 오차 범위를 초과하는 차이가 있는 경우, 힘 예측부(230)가 입력한 실제 영상들과 시계열 동작 정보와 예측한 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계가 없다고 판단할 수 있다. 이때, 힘 예측부(230)는 실제 영상들과 시계열 동작 정보와 상관 관계가 있는 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘이 예측될 때까지 로봇 팔의 상호 작용 힘을 예측 하는 과정을 반복 수행할 수 있다.Specifically, the correlation learning unit 240 may be equal to the physical force of the robot arm and the physical force of the object measured by the sensor using the sensor and the interaction force of the robot arm predicted by the force predictor 230 or In case there is a difference below the error range, it can be learned that there is a correlation between the actual images inputted by the force predictor 230 and the time series motion information, the property values of the predicted object, and the interaction force of the robot arm. . In addition, the correlation learning unit 240 may measure the interaction force of the robot arm and the physical property values of the object predicted by the force predictor 230 and the physical force and error range of the object and the interaction force of the robot arm measured using the sensor. If there is an excessive difference, it may be determined that there is no correlation between the actual images inputted by the force predicting unit 230, time series motion information, the predicted physical properties of the object, and the interaction force of the robot arm. At this time, the force predicting unit 230 repeatedly performs a process of predicting the interaction force of the robot arm until the physical properties of the object correlated with the actual images and time series motion information and the interaction force of the robot arm are predicted. can do.

도3은 본 발명의 일실시예에 따른 로봇 팔의 힘 학습 장치가 영상과 동작 정보 및 로봇 팔의 상호 작용 힘간의 상관 관계를 학습하는 과정의 일례이다.3 is an example of a process of learning the correlation between the image and motion information and the interaction force of the robot arm in the force learning device of the robot arm according to an embodiment of the present invention.

로봇 팔의 힘 학습 장치(110)와 연결된 로봇 팔(320), 또는 수술 로봇 집게(240)에는 로봇 팔의 상호 작용 힘을 측정하기 위한 센서가 포함될 수 있다. 예를 들어, 로봇 팔(320), 또는 수술 로봇 집게(240)는 힘(Force) 센서, 토크(Torque) 센서 및 압력 센서 중 적어도 하나를 포함할 수 있는 The robot arm 320 or the surgical robot forceps 240 connected to the force learning device 110 of the robot arm may include a sensor for measuring the interaction force of the robot arm. For example, the robot arm 320, or surgical robot forceps 240 may include at least one of a force sensor, a torque sensor and a pressure sensor.

로봇 팔(320)에 대응하는 카메라(310)는 로봇 팔(320)의 동작을 일정 시간 간격으로 촬영한 실제 영상(311)들을 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 또한, 로봇 팔(320)는 실제 영상(311)의 프레임들 각각에 대응하는 시계열 동작 정보(321)를 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 이때, 로봇 팔(320)은 센서를 이용하여 측정한 로봇 팔의 상호 작용 힘을 시계열 동작 정보(321)와 함께 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다.The camera 310 corresponding to the robot arm 320 may transmit the actual images 311 photographed at regular intervals of the operation of the robot arm 320 to the force learning apparatus 110 of the robot arm. In addition, the robot arm 320 may transmit time series operation information 321 corresponding to each of the frames of the actual image 311 to the force learning apparatus 110 of the robot arm. In this case, the robot arm 320 may transmit the interaction force of the robot arm measured using the sensor to the force learning device 110 of the robot arm together with time series operation information 321.

그리고, 로봇 팔의 힘 학습 장치(110)는 실제 영상(311)과 시계열 동작 정보(321)를 이용하여 로봇 팔(320)와 접촉하거나, 로봇 팔(320)이 잡고 있는 로봇 팔의 상호 작용 힘을 예측할 수 있다. 또한, 로봇 팔의 힘 학습 장치(110)는 실제 영상(311)을 이용하여 오브젝트의 위치 및 위치에 따른 오브젝트의 물성치를 예측할 수도 있다. 다음으로, 로봇 팔의 힘 학습 장치(110)는 예측한 로봇 팔의 상호 작용 힘을 로봇 팔(320)로부터 수신한 로봇 팔의 상호 작용 힘과 비교하여 실제 영상(411)들과 시계열 동작 정보(321), 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.In addition, the force learning device 110 of the robot arm contacts the robot arm 320 using the actual image 311 and time series motion information 321, or the interaction force of the robot arm held by the robot arm 320. Can be predicted. In addition, the force learning apparatus 110 of the robot arm may predict the physical properties of the object according to the position and position of the object using the actual image 311. Next, the force learning apparatus 110 of the robot arm compares the predicted interaction force of the robot arm with the interaction force of the robot arm received from the robot arm 320 and compares the actual images 411 with time series motion information ( 321), the correlation between the physical properties of the object and the interaction force of the robot arm can be learned.

또한, 수술 로봇 집게(240)에 대응하는 카메라(330)는 수술 로봇 집게(240)의 동작을 일정 시간 간격으로 촬영한 실제 영상(331)들을 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 또한, 수술 로봇 집게(240)는 실제 영상(313)의 프레임들 각각에 대응하는 시계열 동작 정보(341)를 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 이때, 수술 로봇 집게(240)는 센서를 이용하여 수술 로봇 집게(240)로 잡고 있는 오브젝트와 접촉한 다른 로봇 팔의 상호 작용 힘을 측정할 수 있다. 그리고, 수술 로봇 집게(240)는 측정한 로봇 팔의 상호 작용 힘을 시계열 동작 정보(341)와 함께 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다.In addition, the camera 330 corresponding to the surgical robot forceps 240 may transmit the actual image 331 of the operation of the surgical robot forceps 240 at a predetermined time interval to the force learning device 110 of the robot arm. . In addition, the surgical robot forceps 240 may transmit time series operation information 341 corresponding to each of the frames of the actual image 313 to the force learning device 110 of the robot arm. In this case, the surgical robot forceps 240 may measure the interaction force of another robot arm in contact with the object held by the surgical robot forceps 240 using a sensor. In addition, the surgical robot forceps 240 may transmit the measured interaction force of the robot arm to the force learning device 110 of the robot arm together with time series operation information 341.

그리고, 로봇 팔의 힘 학습 장치(110)는 실제 영상(331)과 시계열 동작 정보(341)를 이용하여 수술 로봇 집게(240)로 잡고 있는 오브젝트와 접촉한 다른 오브젝트의 물성치 및 다른 로봇 팔의 상호 작용 힘을 예측할 수 있다. 또한, 로봇 팔의 힘 학습 장치(110)는 실제 영상(331)을 이용하여 다른 오브젝트의 위치 및 위치에 따른 다른 오브젝트의 물성치를 예측할 수도 있다. 다음으로, 로봇 팔의 힘 학습 장치(110)는 예측한 로봇 팔의 상호 작용 힘을 수술 로봇 집게(240)로부터 수신한 로봇 팔의 상호 작용 힘과 비교하여 실제 영상(411)들과 시계열 동작 정보(321), 다른 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.In addition, the force learning device 110 of the robot arm uses the actual image 331 and time series motion information 341 to mutually interact with physical properties of other objects and other robot arms in contact with the object held by the surgical robot forceps 240. Predict the action force. In addition, the force learning apparatus 110 of the robot arm may predict the physical properties of other objects according to the positions and positions of other objects using the actual image 331. Next, the force learning apparatus 110 of the robot arm compares the predicted interaction force of the robot arm with the interaction force of the robot arm received from the surgical robot forceps 240 and the actual images 411 and time series motion information. 321, the correlation between the physical properties of other objects and the interaction force of the robot arm can be learned.

이때, 카메라(310)와 카메라(330)의 촬영 간격이 0.1초인 경우, 로봇 팔(320), 및 수술 로봇 집게(240)도 각각 0.1 초 간격으로 해당 시점의 동작 정보를 생성하여 로봇 팔의 힘 학습 장치(110)로 전송할 수 있다. 그리고, 로봇 팔의 힘 학습 장치(110)는 0.1초 간격으로 생성된 실제 영상들 각각에 대응하는 로봇 팔의 동작 정보를 매칭할 수 있다.At this time, when the shooting interval between the camera 310 and the camera 330 is 0.1 second, the robot arm 320 and the surgical robot tongs 240 also generate the motion information of the corresponding time point at 0.1 second intervals, respectively, the force of the robot arm. The transmission may be transmitted to the learning device 110. In addition, the force learning apparatus 110 of the robot arm may match the motion information of the robot arm corresponding to each of the actual images generated at 0.1 second intervals.

도4는 본 발명의 일실시예에 따른 CNN 및 RNN을 이용한 로봇 팔의 상호 작용 힘 예측 방법의 일례이다.Figure 4 is an example of the interaction force prediction method of the robot arm using the CNN and RNN in accordance with an embodiment of the present invention.

먼저, 힘 예측부(230)는 카메라 1, 카메라 2와 같은 적어도 하나의 카메라들 각각으로부터 획득한 실제 영상들이 입력되는 CNN(411)를 이용하여 실제 영상들에서 로봇의 동작과 관련된 영역을 추출할 수 있다. 예를 들어, 힘 예측부(230)는 로봇 팔을 촬영하여 생성된 실제 영상에서 로봇 팔 및 오브젝트가 포함된 영역을 로봇의 동작과 관련된 영역으로 추출함으로써, RNN(420)에서 처리할 영상과 관련된 정보의 크기를 최소화할 수 있다.First, the force estimator 230 extracts an area related to the robot operation from the actual images using the CNN 411 to which real images acquired from each of at least one camera such as camera 1 and camera 2 are input. Can be. For example, the force predictor 230 extracts a region including the robot arm and the object from the actual image generated by photographing the robot arm as an area related to the robot's motion, and thus is related to the image to be processed by the RNN 420. The size of the information can be minimized.

그리고, 하나의 로봇 팔을 2개의 카메라로 촬영한 경우, 힘 예측부(230)는 도 4에 도시된 바와 같이 카메라들 각각에 대응하는 CNN(411)에서 추출한 로봇의 동작과 관련된 영역을 제4 FC 계층(412)에서 통합하여 RNN(420)로 전달할 수 있다. 이때, 제4 FC 계층(412)은 서로 다른 영상에서 각각 추출한 로봇의 동작과 관련된 영역을 매칭하여 출력할 수 있다.In addition, when one robot arm is photographed by two cameras, the force estimator 230 displays a region related to the operation of the robot extracted by the CNN 411 corresponding to each of the cameras as illustrated in FIG. 4. Aggregated at FC layer 412 and forwarded to RNN 420. In this case, the fourth FC layer 412 may match and output regions related to the operations of the robots extracted from different images.

또한, 힘 예측부(230)는 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층(413)으로 로봇의 시계열 동작 정보를 처리하여 RNN(420)으로 전달할 수 있다. 이때, 제1 FC 계층(413)은 도 4에 도시된 바와 같이 복수의 FC 계층들로 구성될 수 있다. 그리고, 제1 FC 계층(413)은 로봇의 시계열 동작 정보를 계산하여 출력할 수 있다.In addition, the force predictor 230 may process the time series motion information of the robot to the first fully-connected (FC) layer 413 to which the time series motion information of the robot is input, and transmit the processed time series motion information to the RNN 420. In this case, the first FC layer 413 may be configured of a plurality of FC layers as shown in FIG. 4. The first FC layer 413 may calculate and output time series motion information of the robot.

그리고, 힘 예측부(230)는 실제 영상 별로, CNN(411)과 제1 FC 계층(413)으로 구성된 입력망을 생성할 수 있다. 예를 들어, 실제 영상이 N개인 경우, 힘 예측부(230)는 도 4에 도시된 바와 같이 입력망 1(410) 내지 입력망 N을 생성할 수 있다. 이때, 입력망 2 내지 입력망 N은 입력되는 실제 영상 및 실제 영상에 대응하는 동작 정보만 사이가 있고, 실제 영상 및 동작 정보를 처리하기 위한 구조는 입력망 1(410)의 CNN(411) 및 제1 FC 계층(413)과 동일할 수 있다.The force predictor 230 may generate an input network including the CNN 411 and the first FC layer 413 for each actual image. For example, when there are N actual images, the force predictor 230 may generate the input network 1 410 to the input network N as shown in FIG. 4. At this time, the input network 2 to the input network N has only the input between the actual image and the operation information corresponding to the actual image, the structure for processing the actual image and the operation information is the CNN 411 of the input network 1 (410) and It may be the same as the first FC layer 413.

다음으로, 힘 예측부(230)는 RNN(420)을 이용하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 학습할 수 있다. 예를 들어, RNN(420)는 도 4에 도시된 바와 같이 시간의 경과에 따른 복수의 입력망들로부터 각각 출력된 로봇의 동작과 관련된 영역 및 처리된 시계열 동작 정보를 복수의 계층으로 구성된 LSTM(long short term memory networks)에 입력하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 학습할 수 있다. 도 4에서는 LSTM를 사용하고 있으나, 힘 예측부(230)는 LSTM이외에도 RNN에 해당하는 다른 네트워크를 이용하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 학습할 수도 있다. Next, the force predicting unit 230 may learn the relationship between the region that changes over time and time series operation information using the RNN 420. For example, as shown in FIG. 4, the RNN 420 includes a plurality of hierarchical layers of LSTM (area) related to the operation of the robot output from the plurality of input networks and processed time series operation information. long short term memory networks) to learn the relationship between regions that change over time and time series behavior information. Although the LSTM is used in FIG. 4, the force predictor 230 may learn a relationship between a region that changes over time and time-series operation information by using another network corresponding to the RNN in addition to the LSTM.

마지막으로 힘 예측부(230)는 RNN의 학습 결과가 입력되는 제2 FC 계층(430)으로 학습 결과를 처리하여 시계열 동작 정보와 실제 영상에 대응하는 로봇 팔의 상호 작용 힘(Task1) 및 오브젝트의 물성치 (Task2)를 예측할 수 있다. 이때, 제2 FC 계층(430)은 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계들 각각의 클래스 점수들을 계산할 수 있다.Finally, the force predicting unit 230 processes the learning result to the second FC layer 430 into which the learning result of the RNN is input, and thus the interaction force (Task1) of the robot arm corresponding to the time series motion information and the actual image and the object. The property value (Task2) can be predicted. In this case, the second FC layer 430 may calculate class scores of respective relationships between a region that changes over time and time series operation information.

도5는 본 발명의 일실시예에 따른 CNN 을 이용한 로봇 팔의 상호 작용 힘 예측 방법의 일례이다.5 is an example of a method for predicting interaction force of a robot arm using a CNN according to an embodiment of the present invention.

먼저, 힘 예측부(230)는 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상(521)을 생성하여 CNN의 제1 콘볼루션 계층(520)에 입력할 수 있다. 예를 들어, 가상 영상(521)은 벡터화된 시계열 동작 정보(522,523)들 간의 공 분산 행렬(Covariance Matrix)을 영상으로 변환하여 생성될 수 있다. 이때, 제1 콘볼루션 계층(520)은 가상 영상(521)를 이용하여 시계열 동작 정보들 간의 상관 관계(Correlation) 을 분석할 수 있다. First, the force estimator 230 generates a virtual image 521 representing a change in motion information over time based on time series motion information, and inputs the virtual image 521 to the first convolutional layer 520 of the CNN. Can be. For example, the virtual image 521 may be generated by converting a covariance matrix between the vectorized time series motion information 522 and 523 into an image. In this case, the first convolutional layer 520 may analyze correlation between time series motion information using the virtual image 521.

다음으로, 힘 예측부(230)는 시간의 경과에 따라 누적된 실제 영상(511)들을 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층(510)에 입력할 수 있다. Next, the force predictor 230 may input the actual images 511 accumulated over time to the second convolutional layer 510 which is different from the first convolutional layer.

그 다음으로, 힘 예측부(230)는 제1 콘볼루션 계층(520)에서 출력된 가상 영상과 제2 콘볼루션 계층(510)에서 출력된 실제 영상들을 통합 계층(pooling layer)(530)을 이용하여 정합할 수 있다. Next, the force predictor 230 uses a pooling layer 530 to combine the virtual image output from the first convolutional layer 520 and the actual image output from the second convolutional layer 510. Can be matched.

마지막으로, 힘 예측부(230)는 정합된 정보들을 FC 계층(fully connected layer)(540)을 통해 분류하여 시계열 동작 정보 및 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 예측할 수 있다.Finally, the force predictor 230 classifies the matched information through the FC layer 540 to predict the interaction force of the robot arm and the physical property of the object corresponding to the real time image. have.

도 6은 본 발명의 일실시예에 따른 영상 기반 힘 예측 시스템에 포함된 로봇 팔의 힘 예측 장치의 구조를 나타내는 도면이다. 6 is a diagram illustrating a structure of a force predicting device of a robot arm included in an image-based force predicting system according to an embodiment of the present invention.

로봇 팔의 힘 예측 장치(130)는 도 6에 도시된 바와 같이 영상 획득부(610), 동작 정보 획득부(620), 힘 예측부(630), 햅틱 센싱 정보 예측부(640), 및 피드백부(640)를 포함할 수 있다. 이때, 힘 예측부(630), 햅틱 센싱 정보 예측부(640)는 서로 다른 프로세스, 또는 하나의 프로세스에 포함된 프로그램을 수행하기 위한 각각의 모듈일 수 있다.As shown in FIG. 6, the force predicting device 130 of the robot arm includes an image acquirer 610, a motion information acquirer 620, a force predictor 630, a haptic sensing information predictor 640, and feedback. It may include a portion 640. In this case, the force predictor 630 and the haptic sensing information predictor 640 may be different modules, or modules for executing a program included in one process.

영상 획득부(610)는 힘을 예측할 로봇 팔(602)에 연동된 카메라(601)가 오브젝트와 관련된 로봇 팔(602)의 동작을 촬영하여 생성한 실제 영상을 획득할 수 있다. 이때, 영상 획득부(610)는 카메라(601)로부터 무선으로 실제 영상을 수신하는 통신기, 또는 카메라(601)로부터 실제 영상을 수신하기 위한 유선이 결합되는 포트일 수 있다. 이때, 실제 영상에는 로봇 팔(602)의 동작에 의하여 변형된 오브젝트가 포함될 수 있다. 구체적으로, 연속된 실제 영상에는 로봇 팔(602)의 동작에 의하여 오브젝트가 변형되어 가는 과정에 포함될 수 있다.The image acquisition unit 610 may acquire an actual image generated by photographing the operation of the robot arm 602 related to the object by the camera 601 linked to the robot arm 602 to predict the force. At this time, the image acquisition unit 610 may be a communication port for receiving the actual image from the camera 601 wirelessly, or a port to which a wire for receiving the actual image from the camera 601 is coupled. In this case, the actual image may include an object deformed by the operation of the robot arm 602. In detail, the continuous real image may be included in the process of deforming the object by the operation of the robot arm 602.

동작 정보 획득부(620)는 로봇 팔(602)의 동작과 관련된 시계열 동작 정보를 획득할 수 있다. 이때, 동작 정보 획득부(220)는 로봇 팔(602)로부터 무선으로 동작 정보를 수신하는 통신기, 또는 로봇 팔(602)로부터 동작 정보를 수신하기 위한 유선이 결합되는 포트일 수 있다.The motion information acquisition unit 620 may obtain time series motion information related to the motion of the robot arm 602. In this case, the motion information acquisition unit 220 may be a communicator that receives the motion information from the robot arm 602 wirelessly, or a port to which a wire for receiving the motion information from the robot arm 602 is coupled.

그리고, 도 6에서는 영상 획득부(610)와 동작 정보 획득부(620)가 별개의 구성으로 기재되어 있으나, 로봇 팔의 힘 예측 장치(130)가 하나의 통신기를 이용하여 실제 영상 획득 및 동작 정보 획득을 모두 수행할 수도 있다.In addition, although the image acquisition unit 610 and the operation information acquisition unit 620 are described in separate configurations in FIG. 6, the robot arm force predicting device 130 uses a single communicator to acquire actual image and operation information. All acquisitions may be performed.

힘 예측부(630)는 실제 영상들과 시계열 동작 정보에 기초하여 로봇 팔의 상호 작용 힘을 예측할 수 있다. 이때, 힘 예측부(630)는 실제 영상들, 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스(120)에 실제 영상들, 시계열 동작 정보 및 오브젝트의 물성치를 적용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다.The force predictor 630 may predict the interaction force of the robot arm based on the actual images and time series motion information. At this time, the force predictor 630 may store the actual images, time series motion information, and the object in the database 120 in which the learning result of the correlation between the actual images, time series motion information, physical properties of the object, and the interaction force of the robot arm is stored. By applying the properties, we can predict the interaction force of the robot arm.

햅틱 센싱 정보 예측부(640)는 오브젝트의 물성치(material property)와 예측한 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측할 수 있다.The haptic sensing information prediction unit 640 may predict the haptic sensing information by using the material property of the object and the predicted interaction force of the robot arm.

피드백부(640)는 예측된 햅틱 센싱 정보에 따라 로봇 팔 제어기(603)에 피드백 신호를 전송하여 로봇 팔의 사용자에게 피드백을 제공할 수 있다. 이때, 피드백부(640)는 로봇 팔 제어기(603)에 무선으로 피드백 신호를 전송하는 통신기, 또는 로봇 팔 제어기(603)에 피드백 신호를 전송하기 위한 유선이 결합되는 포트일 수 있다.The feedback unit 640 may provide feedback to the robot arm user by transmitting a feedback signal to the robot arm controller 603 according to the predicted haptic sensing information. In this case, the feedback unit 640 may be a communicator for transmitting a feedback signal to the robot arm controller 603 wirelessly, or a port to which a wire for transmitting a feedback signal to the robot arm controller 603 is coupled.

로봇 팔의 힘 예측 장치(130)는 실제 영상들, 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스(120)에 실제 영상들과 시계열 동작 정보 및 오브젝트의 물성치를 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘을 예측할 수 있다The robot arm force prediction apparatus 130 stores the actual images and time series motion information and objects in a database 120 in which the learning results of the correlation between the actual images, time series motion information, physical properties of the object, and interaction forces of the robot arm are stored. By applying the properties of, we can predict the interaction force of the robot arm without the sensor to measure the interaction force of the robot arm.

도 7은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 과정의 일례이다. Figure 7 is an example of the interaction force prediction process of the robot arm according to an embodiment of the present invention.

로봇 팔의 힘 예측 장치(130)는 로봇 팔(602)에 연동된 카메라로부터 로봇 팔(602)의 동작을 촬영하여 생성된 실제 영상들(710)을 획득할 수 있다. 이때, 연속된 실제 영상들(710)은 도 7에 도시된 바와 같이 로봇 팔(602)이 오브젝트와 접촉하는 영상(711)부터 로봇 팔(602)이 접촉한 오브젝트를 잡는 영상(714)와 같이 로봇 팔(602)이 오브젝트와 상호 작용하는 과정을 순차적으로 촬영한 영상일 수 있다. 또한, 로봇 팔(602)는 로봇 팔 제어기(603)가 로봇 팔(602)에 전송한 제어 신호(706)에 따라 동작할 수 있다.The force predicting device 130 of the robot arm may obtain actual images 710 generated by photographing the operation of the robot arm 602 from a camera linked to the robot arm 602. At this time, the continuous real images 710 are as shown in the image 714 of the robot arm 602 is in contact with the object from the image 711 to the robot arm 602 as shown in FIG. The robot arm 602 may be an image of sequentially photographing a process of interacting with an object. In addition, the robot arm 602 may operate according to the control signal 706 sent by the robot arm controller 603 to the robot arm 602.

그리고, 로봇 팔의 힘 예측 장치(130)는 로봇 팔(602)로부터 로봇 팔(602)의 동작과 관련된 시계열 동작 정보(720)를 획득할 수 있다.In addition, the force predicting device 130 of the robot arm may obtain time series motion information 720 related to the motion of the robot arm 602 from the robot arm 602.

다음으로, 로봇 팔의 힘 예측 장치(130)는CNN과 FC 계층(701)을 이용하여 실제 영상들(710)과 시계열 동작 정보(720)를 전처리 할 수 있다. 이때, 로봇 팔의 힘 예측 장치(130)는CNN을 이용하여 실제 영상들(710)에서 로봇의 동작과 관련된 영역을 추출하여 RNN(702)로 전달할 수 있다. 또한, 로봇 팔의 힘 예측 장치(130)는 FC계층으로 로봇의 시계열 동작 정보를 처리하여 RNN(702)로 전달할 수 있다. Next, the force predicting device 130 of the robot arm may preprocess the real images 710 and time series motion information 720 using the CNN and the FC layer 701. In this case, the force predicting device 130 of the robot arm may extract an area related to the operation of the robot from the actual images 710 using the CNN and transmit the extracted area to the RNN 702. In addition, the force predicting device 130 of the robot arm may process the time series motion information of the robot to the FC layer and transmit the processed information to the RNN 702.

그 다음으로, 로봇 팔의 힘 예측 장치(130)는 RNN(702)을 이용하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 확인할 수 있다. 그리고, 로봇 팔의 힘 예측 장치(130)는 데이터베이스(120)에서 확인한 영역과 시계열 동작 정보들 간의 관계에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 검색할 수 있다.Subsequently, the force predicting device 130 of the robot arm may use the RNN 702 to identify a relationship between a region that changes over time and time series operation information. In addition, the force predicting device 130 of the robot arm may retrieve the interaction force of the robot arm and the physical property values of the object corresponding to the relationship between the area checked in the database 120 and the time series motion information.

다음으로, 로봇 팔의 힘 예측 장치(130)는 검색한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 힘 예측 결과(703)로 출력할 수 있다.Next, the force predicting device 130 of the robot arm may output the detected interaction force of the robot arm and the physical property of the object as the force prediction result 703.

또한, 로봇 팔의 힘 예측 장치(130)는 힘 예측 결과(703)에 따라 사용자에게 피드백할 햅틱 센싱 정보를 예측할 수 있다. 그리고, 로봇 팔의 힘 예측 장치(130)는 햅틱 센싱 정보가 포함된 피드백 신호(730)를 로봇 팔 제어기(603)로 전송할 수 있다. 이때, 로봇 팔 제어기(603)는 수신한 피드백 신호(730)에 따라 로봇 팔(602)를 제어하는 사용자에게 피드백을 제공할 수 있다.Also, the force predicting device 130 of the robot arm may predict haptic sensing information to be fed back to the user according to the force prediction result 703. In addition, the force predicting device 130 of the robot arm may transmit a feedback signal 730 including the haptic sensing information to the robot arm controller 603. In this case, the robot arm controller 603 may provide feedback to a user who controls the robot arm 602 according to the received feedback signal 730.

도 8은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 과정의 다른 일례이다. 8 is another example of a process of predicting the interaction force of the robot arm according to an embodiment of the present invention.

도 8은 로봇 팔(602)이 수술용 로봇 팔과 같이 파손 가능한 오브젝트(수술 도구, 환자의 장기)와 상호 작용하는 경우, 로봇 팔의 힘 예측 장치(130)가 오브젝트의 파손 위험을 경고하는 실시예이다.8 illustrates that when the robot arm 602 interacts with a breakable object (a surgical tool, a patient's organ), such as a surgical robot arm, the force predicting device 130 of the robot arm warns of a risk of damage to the object. Yes.

로봇 팔의 힘 예측 장치(130)는 로봇 팔(602)에 연동된 카메라로부터 로봇 팔(602)의 동작을 촬영하여 생성된 실제 영상들(810)을 획득할 수 있다. 이때, 실제 영상들(810)은 로봇 팔(602)의 동작에 의하여 오브젝트가 변형되어 가는 과정의 첫 번째 영상(811) 내지 현재 영상(814)을 포함할 수 있다. 또한, 로봇 팔(602)는 로봇 팔 제어기(603)가 로봇 팔(602)에 전송한 제어 신호(800)에 따라 동작할 수 있다.The force predicting device 130 of the robot arm may obtain actual images 810 generated by photographing the operation of the robot arm 602 from a camera linked to the robot arm 602. In this case, the actual images 810 may include a first image 811 to a current image 814 in which the object is deformed by the operation of the robot arm 602. In addition, the robot arm 602 may operate according to the control signal 800 transmitted by the robot arm controller 603 to the robot arm 602.

그리고, 로봇 팔의 힘 예측 장치(130)는 로봇 팔(602)로부터 로봇 팔(602)의 동작과 관련된 시계열 동작 정보(820)를 획득할 수 있다.In addition, the force predicting device 130 of the robot arm may obtain time series motion information 820 related to the motion of the robot arm 602 from the robot arm 602.

다음으로, 로봇 팔의 힘 예측 장치(130)는CNN과 FC 계층(801)을 이용하여 실제 영상들(810)과 시계열 동작 정보(820)를 전처리 할 수 있다. 이때, 로봇 팔의 힘 예측 장치(130)는CNN을 이용하여 실제 영상들(810)에서 로봇의 동작과 관련된 영역을 추출하여 RNN(802)로 전달할 수 있다. 또한, 로봇 팔의 힘 예측 장치(130)는 FC계층으로 로봇의 시계열 동작 정보를 처리하여 RNN(802)로 전달할 수 있다. Next, the force predicting device 130 of the robot arm may preprocess the real images 810 and the time series operation information 820 using the CNN and the FC layer 801. In this case, the force predicting device 130 of the robot arm may extract an area related to the operation of the robot from the actual images 810 using the CNN and transmit the extracted area to the RNN 802. In addition, the force predicting device 130 of the robot arm may process the time series motion information of the robot to the FC layer and transmit the processed information to the RNN 802.

그 다음으로, 로봇 팔의 힘 예측 장치(130)는 RNN(802)을 이용하여 시간의 경과에 따라 변화하는 영역과 시계열 동작 정보들 간의 관계를 확인할 수 있다. 그리고, 로봇 팔의 힘 예측 장치(130)는 데이터베이스(120)에서 확인한 영역과 시계열 동작 정보들 간의 관계에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 검색할 수 있다. 다음으로, 로봇 팔의 힘 예측 장치(130)는 검색한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 힘 예측 결과(803)로 출력할 수 있다.Subsequently, the force predicting device 130 of the robot arm may use the RNN 802 to check a relationship between a region that changes over time and time series operation information. In addition, the force predicting device 130 of the robot arm may retrieve the interaction force of the robot arm and the physical property values of the object corresponding to the relationship between the area checked in the database 120 and the time series motion information. Next, the force predicting device 130 of the robot arm may output the detected interaction force of the robot arm and the physical property of the object as the force prediction result 803.

이때, 로봇 팔의 힘 예측 장치(130)는 힘 예측 결과(803)에 포함된 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 비교하여 오브젝트의 파손 가능성을 판단할 수 있다. 그리고, 오브젝트의 파손 가능성이 임계값 이상인 경우, 로봇 팔의 힘 예측 장치(130)는 오브젝트가 파손될 가능성을 경고하는 신호(840)를 로봇 팔 제어기(603)로 전송할 수 있다. 이때, 로봇 팔 제어기(603)는 수신한 신호(840)에 따라 경고음, 또는 경고 램프를 동작하거나, 오브젝트가 파손되는 방향으로의 제어 신호(800)를 로봇 팔(602)로 전송하지 않도록 설정할 수 있다.In this case, the force predicting device 130 of the robot arm may determine the possibility of breakage of the object by comparing the interaction force of the robot arm included in the force prediction result 803 and the property values of the object. In addition, when the possibility of damage of the object is greater than or equal to a threshold value, the force predicting device 130 of the robot arm may transmit a signal 840 to the robot arm controller 603 to warn of the possibility of the object being damaged. In this case, the robot arm controller 603 may be configured not to operate a warning sound or a warning lamp according to the received signal 840 or to transmit the control signal 800 in the direction in which the object is damaged to the robot arm 602. have.

도 9는 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 학습 방법을 도시한 플로우차트이다.9 is a flowchart illustrating a method for learning the interaction force of the robot arm according to an embodiment of the present invention.

단계(910)에서 영상 획득부(210)는 학습용 로봇 팔(202)에 연동된 카메라(201)가 오브젝트와 관련된 로봇 팔(202)의 동작을 촬영하여 생성한 실제 영상을 획득할 수 있다. 이때, 동작 정보 획득부(220)는 로봇 팔(202)의 동작과 관련된 시계열 동작 정보를 획득할 수 있다. 또한, 로봇 팔의 힘 학습 장치(110)가 하나의 통신기를 이용하여 실제 영상 및 시계열 동작 정보를 모두 획득할 수도 있다.In operation 910, the image acquirer 210 may acquire an actual image generated by photographing the operation of the robot arm 202 related to the object by the camera 201 linked to the learning robot arm 202. In this case, the motion information acquisition unit 220 may obtain time series motion information related to the motion of the robot arm 202. In addition, the force learning device 110 of the robot arm may acquire both the actual image and the time series motion information by using one communicator.

단계(920)에서 힘 예측부(230)는 실제 영상들 및 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 시계열 동작 정보 및 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 예측할 수 있다. 이때, 힘 예측부(230)는 CNN 과 RNN을 이용하여 로봇 팔의 상호 작용 힘을 예측하거나, CNN만을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다. In operation 920, the force estimator 230 may input real images and time series motion information to a deep learning algorithm to predict the interaction force of the robot arm corresponding to the time series motion information and the real image and physical property values of the object. At this time, the force predicting unit 230 may predict the interaction force of the robot arm using the CNN and RNN, or may predict the interaction force of the robot arm using only the CNN.

단계(930)에서 상관 관계 학습부(240)는 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치와 힘 예측부(230)가 예측한 로봇 팔의 상호 작용 힘 및 오브젝트의 물성치를 비교하여 실제 영상들과 시계열 동작 정보, 오브젝트의 물성치 및, 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습할 수 있다.In operation 930, the correlation learning unit 240 measures the interaction force and the object property of the robot arm measured using the sensor and the interaction force and the object property value of the robot arm predicted by the force predictor 230. By comparison, the correlation between the actual images, time series motion information, the property of the object, and the interaction force of the robot arm can be learned.

도 10은 본 발명의 일실시예에 따른 로봇 팔의 상호 작용 힘 예측 방법을 도시한 플로우차트이다.10 is a flowchart illustrating a method for predicting interaction force of a robot arm according to an embodiment of the present invention.

단계(1010)에서 영상 획득부(610)는 힘을 예측할 로봇 팔(602)에 연동된 카메라(601)가 오브젝트와 관련된 로봇 팔(602)의 동작을 촬영하여 생성한 실제 영상을 획득할 수 있다. 이때, 동작 정보 획득부(620)는 로봇 팔(602)의 동작과 관련된 시계열 동작 정보를 획득할 수 있다. 또한, 로봇 팔의 힘 예측 장치(130)가 하나의 통신기를 이용하여 실제 영상 및 시계열 동작 정보를 모두 획득할 수도 있다.In operation 1010, the image acquirer 610 may acquire an actual image generated by photographing the operation of the robot arm 602 related to the object by the camera 601 linked to the robot arm 602 to predict the force. . In this case, the motion information acquisition unit 620 may obtain time series motion information related to the motion of the robot arm 602. In addition, the force predicting device 130 of the robot arm may acquire both the actual image and the time series motion information using a single communicator.

단계(1020)에서 힘 예측부(630)는 실제 영상들과 시계열 동작 정보에 기초하여 로봇 팔의 상호 작용 힘을 예측할 수 있다. 이때, 힘 예측부(630)는 실제 영상들, 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스(120)에 실제 영상들, 시계열 동작 정보 및 오브젝트의 물성치를 적용하여 로봇 팔의 상호 작용 힘을 예측할 수 있다.In operation 1020, the force predictor 630 may predict the interaction force of the robot arm based on the actual images and the time series motion information. In this case, the force predictor 630 may store the actual images, time series motion information, and the object in the database 120 in which the learning result of the correlation between the actual images, time series motion information, physical properties of the object, and the interaction force of the robot arm is stored. By applying the properties, we can predict the interaction force of the robot arm.

단계(1030)에서 햅틱 센싱 정보 예측부(640)는 오브젝트의 물성치와 단계(1020)에서 예측한 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측할 수 있다.In operation 1030, the haptic sensing information prediction unit 640 may predict the haptic sensing information by using the physical properties of the object and the interaction force of the robot arm predicted in operation 1020.

단계(1040)에서 피드백부(640)는 단계(1030)에서 예측된 햅틱 센싱 정보에 따라 로봇 팔 제어기(603)에 피드백 신호를 전송하여 로봇 팔의 사용자에게 피드백을 제공할 수 있다. In operation 1040, the feedback unit 640 may provide feedback to the robot arm controller 603 by transmitting a feedback signal to the robot arm controller 603 according to the haptic sensing information predicted in operation 1030.

본 발명은 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보, 오브젝트의 물성치 및 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하고, 로봇의 동작을 촬영한 실제 영상과 시계열 동작 정보를 학습 결과에 적용함으로써, 로봇 팔의 상호 작용 힘을 측정하기 위한 센서 없이도 로봇 팔의 상호 작용 힘을 예측할 수 있다. The present invention is to study the correlation between the real image and time series motion information, the physical properties of the object and the interaction force of the robot arm, and the real time image of the robot motion, and apply the real time image and time series motion information to the learning results Thus, the interaction force of the robot arm can be predicted without a sensor for measuring the interaction force of the robot arm.

그리고, 본 발명은 예측한 로봇 팔의 상호 작용 힘에 따라 로봇 팔을 제어하는 사용자에게 피드백을 제공함으로써, 복잡한 센서 네트워크를 구성하지 않고도 카메라만 이용하여 사용자에게 물리적 감각을 재현시킬 수 있다.In addition, the present invention provides feedback to the user who controls the robot arm according to the predicted interaction force of the robot arm, thereby reproducing the physical senses to the user using only the camera without constructing a complex sensor network.

또한, 본 발명은 실제 영상을 이용하여 로봇 팔의 상호 작용 힘을 예측할 수 있으므로, 센서에 오류가 발생한 경우, 센서로 측정한 로봇 팔의 상호 작용 힘과 실제 영상을 이용하여 예측한 로봇 팔의 상호 작용 힘을 비교하여 센서의 이상 유무를 판단할 수 있다.In addition, the present invention can predict the interaction force of the robot arm using the actual image, so if an error occurs in the sensor, the interaction between the interaction force of the robot arm measured by the sensor and the robot arm predicted using the actual image By comparing the working force, it is possible to determine whether the sensor is abnormal.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine code, such as produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. Or may be permanently or temporarily embodied in a signal wave to be transmitted. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the accompanying drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different manner than the described method, or other components. Or, even if replaced or substituted by equivalents, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the following claims.

Claims (20)

오브젝트들 간의 상호 작용을 촬영하여 생성한 실제 영상을 획득하는 단계; 및Obtaining an actual image generated by photographing interactions between objects; And 상기 실제 영상에 포함된 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형에 기초하여 상기 오브젝트들 간의 상호 작용 힘을 예측하는 단계Estimating an interaction force between the objects based on a change in position or deformation of the objects included in the real image 를 포함하는 상호 작용 힘 예측 방법.Interactive force prediction method comprising a. 제1항에 있어서, The method of claim 1, 시간의 경과에 따른 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형과 관련된 로봇 팔의 동작 정보를 획득하는 단계;Obtaining motion information of a robot arm related to a change in position of the objects or deformation of the objects over time; 를 더 포함하고,More, 상기 예측하는 단계는, The predicting step, 상기 실제 영상과 상기 동작 정보에 기초하여 상기 로봇 팔의 상호 작용 힘을 예측하는 상호 작용 힘 예측 방법.Interactive force prediction method for predicting the interaction force of the robot arm based on the actual image and the motion information. 제2항에 있어서, The method of claim 2, 상기 실제 영상들을 획득하는 단계는,Acquiring the actual images, 시간의 경과에 따른 오브젝트들 간의 상호 작용을 연속으로 촬영하여 생성한 복수의 실제 영상들을 획득하고, Acquire a plurality of real images generated by continuously photographing the interactions between the objects over time, 상기 로봇 팔의 동작 정보를 획득하는 단계는,Acquiring operation information of the robot arm, 시간의 경과에 따른 로봇 팔의 시계열 동작 정보를 획득하며, Acquire time series motion information of the robot arm over time, 상기 예측하는 단계는, The predicting step, 상기 실제 영상들과 상기 시계열 동작 정보에 기초하여 상기 로봇 팔의 상호 작용 힘을 예측하는 상호 작용 힘 예측 방법.And predicting the interaction force of the robot arm based on the actual images and the time series motion information. 제3항에 있어서, The method of claim 3, 상기 예측하는 단계는,The predicting step, 상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트들의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측하는 상호 작용 힘 예측 방법.The real images, the time series motion information, and the property values of the object are applied to a database in which a learning result of correlation between the real images, the time series motion information, the property values of the objects, and the interaction force of the robot arm is stored. Interactive force prediction method to predict the interaction force of the robot arm. 제4항에 있어서, The method of claim 4, wherein 상기 상관 관계는,The correlation is 상기 로봇의 시계열 동작 정보와 상기 실제 영상들을 신경망 구조의 딥러닝 알고리즘에 입력하여 예측된 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 비교하여 학습되는 상호 작용 힘 예측 방법.Time-series motion information of the robot and the actual images are input to a deep learning algorithm of a neural network structure to predict the interaction force of the robot arm and the interaction force of the robot arm measured using the physical properties of the object and the sensor. A method of predicting interaction forces learned by comparing property values. 제3항에 있어서, The method of claim 3, 상기 딥러닝 알고리즘은,The deep learning algorithm, 상기 실제 영상들이 입력되는 CNN(Convolutional Neural Network)를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 과정;Extracting a region related to the operation of the robot from the actual images by using a convolutional neural network (CNN) to which the actual images are input; 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 과정; Calculating class scores of the time series motion information of the robot using a first FC (fully-connected) layer to which the time series motion information of the robot is input; 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN(Recurrent Neural Network)에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 과정; 및Inputting the extracted region and class scores of the time series motion information into a recurrent neural network (RNN) to learn a relationship between the area that changes over time and the time series motion information; And 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정Calculating class scores of the learning result as a second FC layer in which the learning result of the RNN is input, and predicting interaction force of the robot arm corresponding to the time series motion information and the actual image and physical property values of the object; 을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상호 작용 힘 예측 방법.And learning a correlation between the real images and time series motion information of the robot and the interaction force of the robot arm. 제5항에 있어서, The method of claim 5, 상기 딥러닝 알고리즘은,The deep learning algorithm, 상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN(Convolutional Neural Network)의 제1 콘볼루션 계층(convolutional layer)에 입력하는 과정;Generating a virtual image representing a change in motion information over time based on the time series motion information in a graph form and inputting the virtual image to a first convolutional layer of a convolutional neural network (CNN); 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 과정;Inputting the real images accumulated over time into a second convolution layer different from the first convolution layer; 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 과정; 및Matching the virtual image output from the first convolutional layer and the actual image output from the second convolutional layer using a pooling layer; And 정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 과정Classifying the matched information through a fully connected layer to predict the interaction force of the robot arm corresponding to the time series motion information and the actual image and the physical property of the object. 을 수행하여 상기 실제 영상들 및 로봇의 시계열 동작 정보와 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상호 작용 힘 예측 방법.And learning a correlation between the real images and time series motion information of the robot and the interaction force of the robot arm. 제3항에 있어서, The method of claim 3, 상기 시계열 동작 정보는,The time series operation information, 시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함하는 상호 작용 힘 예측 방법.Predicting an interaction force including at least one of a change in power used by a motor of the robot arm, a change in position of the robot arm, and a change in motion of the robot arm to perform an operation of the robot arm that changes over time. Way. 제2항에 있어서, The method of claim 2, 상기 오브젝트의 물성치(material property)와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 단계; 및Predicting haptic sensing information using a material property of the object and the predicted interaction force of the robot arm; And 상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 단계를 더 포함하는 상호 작용 힘 예측 방법.And providing feedback to the user of the robotic arm in accordance with the haptic sensing information. 오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 상기 로봇 팔의 동작과 관련된 시계열 동작 정보를 획득하는 단계; Obtaining real images generated by photographing motions of the robot arm related to the object and time series motion information related to the motion of the robot arm; 상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계; Inputting the real images and the time series motion information into a deep learning algorithm to predict the interaction force of the robot arm corresponding to the time series motion information and the real image and the physical properties of the object; 예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 단계; 및The actual images and the time-series motion information, the physical property values of the object, and the physical force and the physical property values of the object are compared with the predicted interaction force of the robot arm and the physical property of the object measured using a sensor. Learning correlations between interaction forces of the robotic arms; And 상기 상관 관계를 데이터베이스에 저장하는 단계Storing the correlation in a database 를 포함하는 로봇 팔의 힘 학습 방법.Robot arm power learning method comprising a. 제10항에 있어서, The method of claim 10, 상기 로봇 팔의 상호 작용 힘을 예측하는 단계는,Predicting the interaction force of the robot arm, 상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하는 단계;Extracting an area related to the operation of the robot from the real images using the CNN to which the real images are input; 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC (fully-connected) 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하는 단계; Calculating class scores of time-series motion information of the robot using a first fully connected layer (FC) to which time-series motion information of the robot is input; 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하는 단계; 및Inputting the extracted region and class scores of the time series operation information into an RNN to learn a relationship between the area that changes over time and the time series operation information; And 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계Calculating class scores of the learning result with a second FC layer to which the learning result of the RNN is input, and predicting interaction time of the robot arm corresponding to the time series motion information and the actual image and physical property values of the object; 를 포함하는 로봇 팔의 힘 학습 방법.Robot arm power learning method comprising a. 제10항에 있어서, The method of claim 10, 상기 로봇 팔의 상호 작용 힘을 예측하는 단계는,Predicting the interaction force of the robot arm, 상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하는 단계;Generating a virtual image representing a change in motion information over time based on the time series motion information in a graph form and inputting the virtual image to a first convolutional layer of the CNN; 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하는 단계;Inputting the actual images accumulated over time to a second convolution layer different from the first convolution layer; 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층(pooling layer)을 이용하여 정합하는 단계; 및Matching the virtual images output from the first convolutional layer with the actual images output from the second convolutional layer using a pooling layer; And 정합된 정보들을 FC 계층(fully connected layer)을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 단계Classifying the matched information through a fully connected layer to predict the interaction force of the robot arm corresponding to the time series motion information and the actual image and the physical property of the object. 를 포함하는 로봇 팔의 힘 학습 방법.Robot arm power learning method comprising a. 오브젝트들 간의 상호 작용을 촬영하여 생성한 실제 영상을 획득하는 영상 획득부; 및An image obtaining unit obtaining an actual image generated by photographing interactions between objects; And 상기 실제 영상에 포함된 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형에 기초하여 상기 오브젝트들 간의 상호 작용 힘을 예측하는 힘 예측부A force estimator for predicting an interaction force between the objects based on a change in position of the objects or deformation of the objects included in the real image 를 포함하는 상호 작용 힘 예측 장치.Interactive force prediction device comprising a. 제13항에 있어서, The method of claim 13, 시간의 경과에 따른 상기 오브젝트들의 위치 변화 또는 상기 오브젝트들의 변형과 관련된 로봇 팔의 동작 정보를 획득하는 동작 정보 획득부;A motion information acquisition unit for acquiring motion information of a robot arm related to a change in position of the objects or deformation of the objects over time; 를 더 포함하고, More, 상기 힘 예측부는,The force predictor, 상기 실제 영상과 상기 시계열 동작 정보에 기초하여 상기 로봇 팔의 상호 작용 힘을 예측하는 상호 작용 힘 예측 장치.And an interaction force prediction device predicting the interaction force of the robot arm based on the actual image and the time series motion information. 제14항에 있어서, The method of claim 14, 상기 힘 예측부는,The force predictor, 상기 실제 영상들, 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및 상기 로봇 팔의 상호 작용 힘 간의 상관 관계의 학습 결과가 저장된 데이터베이스에 상기 실제 영상들, 상기 시계열 동작 정보 및 상기 오브젝트의 물성치를 적용하여 상기 로봇 팔의 상호 작용 힘을 예측하는 단계The real images, the time series motion information, and the property values of the object are applied to a database in which a learning result of correlation between the real images, the time series motion information, the property values of the object, and the interaction force of the robot arm is stored. Predicting the Interaction Force of the Robot Arm 를 포함하는 상호 작용 힘 예측 장치.Interactive force prediction device comprising a. 제14항에 있어서, The method of claim 14, 상기 시계열 동작 정보는,The time series operation information, 시간의 경과에 따라 변화하는 로봇 팔의 동작을 수행하기 위하여 상기 로봇 팔의 모터가 사용하는 전력의 변화, 상기 로봇 팔의 위치 변화 및 상기 로봇 팔의 동작 변화 중 적어도 하나를 포함하는 상호 작용 힘 예측 장치.Predicting an interaction force including at least one of a change in power used by a motor of the robot arm, a change in position of the robot arm, and a change in motion of the robot arm to perform an operation of the robot arm that changes over time. Device. 제14항에 있어서, The method of claim 14, 상기 오브젝트의 물성치와 예측한 상기 로봇 팔의 상호 작용 힘을 이용하여 햅틱 센싱 정보를 예측하는 햅틱 센싱 정보 예측부; 및A haptic sensing information predictor for predicting haptic sensing information using the estimated physical properties of the object and the interaction force of the robot arm; And 상기 햅틱 센싱 정보에 따라 상기 로봇 팔의 사용자에게 피드백을 제공하는 피드백부Feedback unit for providing feedback to the user of the robot arm according to the haptic sensing information 를 더 포함하는 상호 작용 힘 예측 장치.Interactive force prediction device further comprising. 오브젝트와 관련된 로봇 팔의 동작을 촬영하여 생성한 실제 영상들과, 상기 로봇 팔의 동작과 관련된 시계열 동작 정보를 획득하는 통신기; A communicator configured to acquire actual images generated by photographing the motion of the robot arm related to the object and time series motion information related to the motion of the robot arm; 상기 실제 영상들 및 상기 시계열 동작 정보를 딥러닝 알고리즘에 입력하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 힘 예측부; 및A force estimator for inputting the real images and the time series motion information into a deep learning algorithm to predict the interaction force of the robot arm and the physical properties of the object corresponding to the time series motion information and the real image; And 예측한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 센서를 사용하여 측정한 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치와 비교하여 상기 실제 영상들과 상기 시계열 동작 정보, 상기 오브젝트의 물성치 및, 상기 로봇 팔의 상호 작용 힘 간의 상관 관계를 학습하는 상관 관계 학습부The actual images and the time-series motion information, the physical property values of the object, and the physical force and the physical property values of the object are compared with the predicted interaction force of the robot arm and the physical property of the object measured using a sensor. Correlation learning unit for learning the correlation between the interaction force of the robot arm 를 포함하는 로봇 팔의 힘 학습 장치.Force learning device of the robot arm comprising a. 제18항에 있어서, The method of claim 18, 상기 힘 예측부는,The force predictor, 상기 실제 영상들이 입력되는 CNN를 이용하여 상기 실제 영상들에서 로봇의 동작과 관련된 영역을 추출하고, 상기 로봇의 시계열 동작 정보가 입력되는 제1 FC 계층을 이용하여 상기 로봇의 시계열 동작 정보의 클래스 점수들을 계산하며, 추출한 영역과 상기 시계열 동작 정보의 클래스 점수들을 RNN에 입력하여 시간의 경과에 따라 변화하는 상기 영역과 상기 시계열 동작 정보들 간의 관계를 학습하고, 상기 RNN의 학습 결과가 입력되는 제2 FC 계층으로 상기 학습 결과의 클래스 점수들을 계산하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 로봇 팔의 힘 학습 장치.Extracts an area related to the operation of the robot from the actual images by using the CNN into which the actual images are input, and uses the first FC layer to which the time-series motion information of the robot is input, and class scores of the time series operation information of the robot. Calculate a relation between the time-domain operation information and the time-domain operation information that is changed over time by inputting the extracted region and class scores of the time-series operation information to the RNN. The robot arm force learning apparatus for calculating class scores of the learning result with an FC layer to predict interaction force of the robot arm and physical properties of the object corresponding to the time series motion information and the actual image. 제18항에 있어서, The method of claim 18, 상기 힘 예측부는,The force predictor, 상기 시계열 동작 정보를 기초로 시간의 경과에 따른 동작 정보의 변화를 그래프 형태로 나타내는 가상 영상을 생성하여 CNN의 제1 콘볼루션 계층에 입력하고, 시간의 경과에 따라 누적된 상기 실제 영상들을 상기 제1 콘볼루션 계층과 서로 다른 제2 콘볼루션 계층에 입력하며, 상기 제1 콘볼루션 계층에서 출력된 가상 영상과 상기 제2 콘볼루션 계층에서 출력된 실제 영상들을 통합 계층을 이용하여 정합하고, 정합된 정보들을 FC 계층을 통해 분류하여 상기 시계열 동작 정보 및 상기 실제 영상에 대응하는 로봇 팔의 상호 작용 힘 및 상기 오브젝트의 물성치를 예측하는 로봇 팔의 힘 학습 방법.Generates a virtual image representing a change in the motion information over time based on the time series motion information in a graph form, inputs it into a first convolutional layer of the CNN, and stores the actual images accumulated over time. The first convolution layer is input to a second convolution layer different from each other, and the virtual images output from the first convolutional layer and the actual images output from the second convolutional layer are matched using an integrated layer, and matched. And classifying information through an FC layer to predict the interaction force of the robot arm corresponding to the time series motion information and the actual image and the physical property of the object.
PCT/KR2018/011808 2018-06-11 2018-10-08 Image-based strength prediction system and method therefor Ceased WO2019240330A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180066861A KR102094360B1 (en) 2018-06-11 2018-06-11 System and method for predicting force based on image
KR10-2018-0066861 2018-06-11

Publications (1)

Publication Number Publication Date
WO2019240330A1 true WO2019240330A1 (en) 2019-12-19

Family

ID=68843407

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/011808 Ceased WO2019240330A1 (en) 2018-06-11 2018-10-08 Image-based strength prediction system and method therefor

Country Status (2)

Country Link
KR (1) KR102094360B1 (en)
WO (1) WO2019240330A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112530553A (en) * 2020-12-03 2021-03-19 中国科学院深圳先进技术研究院 Method and device for estimating interaction force between soft tissue and tool
US12306611B1 (en) * 2020-12-11 2025-05-20 Amazon Technologies, Inc. Validation of a robotic manipulation event based on a classifier

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102386009B1 (en) * 2020-07-30 2022-04-13 네이버랩스 주식회사 Method for learning robot task and robot system using the same
KR102401800B1 (en) * 2021-10-28 2022-05-26 주식회사 오비고 Methods for learning and experiencing virtual object with actual feeling and devices using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008008746A (en) * 2006-06-29 2008-01-17 Univ Of Tokyo Tactile sensor using reflection image
JP2010066028A (en) * 2008-09-08 2010-03-25 Hiroshima Univ Applied force estimation apparatus and method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101199940B1 (en) * 2010-12-15 2012-11-09 전자부품연구원 Apparatus for image tracking
US9327406B1 (en) 2014-08-19 2016-05-03 Google Inc. Object segmentation based on detected object-specific visual cues
JP6522488B2 (en) 2015-07-31 2019-05-29 ファナック株式会社 Machine learning apparatus, robot system and machine learning method for learning work taking-out operation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008008746A (en) * 2006-06-29 2008-01-17 Univ Of Tokyo Tactile sensor using reflection image
JP2010066028A (en) * 2008-09-08 2010-03-25 Hiroshima Univ Applied force estimation apparatus and method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AVILES ET AL.: "A Recurrent Neural Network Approach for 3d Vision-based Force Estimation", 2014 4TH INTERNATIONAL CONFERENCE ON IMAGE PROCESSING THEORY, TOOLS AND APPLICATIONS (IPTA), 14 October 2014 (2014-10-14), pages 1 - 6, XP032716190, DOI: 10.1109/IPTA.2014.7001941 *
AVILES ET AL.: "Sensorless Force Estimation using a Neuro-Vision-Based Approa ch for Robotic-Assisted Surgery", 2015 7TH INTERNATIONAL IEEE /EMBS CONFERENCE ON NEURAL ENGINEERING (NER, 22 April 2015 (2015-04-22), pages 86 - 89, XP033166170, DOI: 10.1109/NER.2015.7146566 *
AVILES ET AL.: "V-ANFIS for Dealing with Visual Uncertainty for Force Estimat ion in Robotic Surgery", 16TH WORLD CONGRESS OF THE INTERNATIONAL FUZZY SYSTEMS ASSOCIATION (IFSA), 1 January 2015 (2015-01-01), pages 1465 - 1472, XP055664910, DOI: 10.2991/ifsa-eusflat-15.2015.208 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112530553A (en) * 2020-12-03 2021-03-19 中国科学院深圳先进技术研究院 Method and device for estimating interaction force between soft tissue and tool
US12306611B1 (en) * 2020-12-11 2025-05-20 Amazon Technologies, Inc. Validation of a robotic manipulation event based on a classifier

Also Published As

Publication number Publication date
KR102094360B1 (en) 2020-03-30
KR20190140546A (en) 2019-12-20

Similar Documents

Publication Publication Date Title
WO2019240330A1 (en) Image-based strength prediction system and method therefor
WO2019132168A1 (en) System for learning surgical image data
WO2017164478A1 (en) Method and apparatus for recognizing micro-expressions through deep learning analysis of micro-facial dynamics
WO2022059969A1 (en) Deep neural network pre-training method for electrocardiogram data classificiation
WO2017022882A1 (en) Apparatus for classifying pathological diagnosis of medical image, and pathological diagnosis system using same
WO2022265197A1 (en) Method and device for analyzing endoscopic image on basis of artificial intelligence
WO2020122432A1 (en) Electronic device, and method for displaying three-dimensional image thereof
WO2022149894A1 (en) Method for training artificial neural network providing determination result of pathological specimen, and computing system for performing same
WO2020196985A1 (en) Apparatus and method for video action recognition and action section detection
WO2021045367A1 (en) Method and computer program for determining psychological state through drawing process of counseling recipient
WO2019117563A1 (en) Integrated predictive analysis apparatus for interactive telehealth and operating method therefor
WO2022231392A1 (en) Method and device for implementing automatically evolving platform through automatic machine learning
WO2023033270A1 (en) Deep learning-based method and device for predicting analysis results
WO2023068440A1 (en) Robot hand system and method for controlling robot hand
WO2021246700A1 (en) Method and device for predicting user state
WO2017171266A1 (en) Diagnostic model generating method and diagnostic model generating apparatus therefor
WO2023182796A1 (en) Artificial intelligence device for sensing defective products on basis of product images and method therefor
WO2020050456A1 (en) Method for evaluating degree of abnormality of equipment data
WO2019164273A1 (en) Method and device for predicting surgery time on basis of surgery image
WO2020045903A1 (en) Method and device for detecting object size-independently by using cnn
WO2023132428A1 (en) Object search via re-ranking
WO2023200038A1 (en) Eye tracking system and method for monitoring golf hitting, and non-transitory computer-readable recording medium
WO2022181919A1 (en) Device and method for providing virtual reality-based operation environment
WO2019124602A1 (en) Object tracking method and devices for performing same
WO2023018299A1 (en) Arterial pressure wavelet transform-based apparatus and method for predicting hypotension, and method for training hypotension prediction model thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18922362

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18922362

Country of ref document: EP

Kind code of ref document: A1