[go: up one dir, main page]

KR20130081875A - 로봇 및 그 제어방법 - Google Patents

로봇 및 그 제어방법 Download PDF

Info

Publication number
KR20130081875A
KR20130081875A KR20120002955A KR20120002955A KR20130081875A KR 20130081875 A KR20130081875 A KR 20130081875A KR 20120002955 A KR20120002955 A KR 20120002955A KR 20120002955 A KR20120002955 A KR 20120002955A KR 20130081875 A KR20130081875 A KR 20130081875A
Authority
KR
South Korea
Prior art keywords
robot
robot hand
coordinates
virtual
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR20120002955A
Other languages
English (en)
Other versions
KR101941844B1 (ko
Inventor
김지영
이광규
권영도
노경식
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120002955A priority Critical patent/KR101941844B1/ko
Priority to CN201310008020.9A priority patent/CN103192387B/zh
Priority to US13/738,409 priority patent/US9122275B2/en
Publication of KR20130081875A publication Critical patent/KR20130081875A/ko
Application granted granted Critical
Publication of KR101941844B1 publication Critical patent/KR101941844B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39486Fingered hand, multifingered hand
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40407Master slave, master is replica of slave
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/14Arm movement, spatial
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/27Arm part

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇 핸드와 로봇 팔; 로봇 핸드가 물체를 감지할 수 있게 하는 파지 센서부; 파지 센서부로부터 획득한 파지정보로부터 로봇 핸드가 물체를 파지하였는지 여부를 판단하고, 판단 결과에 따라 물체의 움직임을 기준으로 로봇 핸드와 로봇 팔을 제어하는 물체 기반 좌표 또는 독립적으로 로봇 핸드와 로봇 팔을 제어하는 독립 좌표를 선택하고, 선택된 좌표를 기준으로 로봇 핸드 및 로봇 팔을 제어하는 파지 제어부; 물체 기반 좌표에서 가상 물체의 위치 및 방향을 계산하고, 가상 물체의 위치 및 방향 정보를 파지 제어부로 전달하는 좌표 변환부를 포함하는 로봇을 포함한다. 본 발명을 통해 사용자가 원격지의 로봇을 제어할 때, 제어장치는 물체를 파지하여 조작하는 작업을 수행하는 시점을 파악하고, 그 시점부터 사용자의 가상 물체에 대한 조작의 의도를 해석하여 그에 맞는 명령을 만들어 낼 수 있다.
그 결과, 로봇이 물체를 파지 및 조작하는 작업에서, 팔과 손을 유기적으로 움직여 작업하려는 사용자의 의도가 반영되므로, 작업의 효율을 높일 수 있다.

Description

로봇 및 그 제어방법{Robot and Control method thereof}
본 발명은 사용자의 팔과 손의 움직임을 로봇에 전달하여 작업을 수행하게 하는 로봇 및 그 제어방법에 관한 것으로서, 더욱 상세하게는 물체 기반 좌표 변환을 이용한 로봇 로봇 및 그 제어방법에 관한 것이다.
종래의 로봇 제어는 사용자의 움직임을 그대로 로봇에 재현하였다.
즉, 사용자의 팔의 움직임 정보를 로봇 팔에 전달하고, 사용자의 손의 움직임 정보를 로봇 핸드에 전달하였다.
따라서, 사용자는 로봇 팔과 로봇 핸드를 독립적으로 제어하였다.
그러나, 로봇 팔과 로봇 핸드라는 2개의 조작기(manipulator)를 각각 제어해야 하므로 작업의 효율성이 떨어지는 문제점이 존재하였다.
또한, 사용자가 파지하였다고 느끼는 물체의 위치 및 방향이 실제 로봇 핸드가 파지한 물체의 위치 및 방향과 달라질 수 있다.
그 결과, 사용자의 팔 움직임에 의한 로봇 팔의 움직임이 사용자의 손 움직임에 의한 로봇 핸드의 움직임을 방해하는 문제점이 존재한다.
본 발명의 일 측면에 따르면, 자유 공간(free space) 상에서는 로봇 팔과 로봇 핸드를 독립적으로 제어하고, 물체를 파지한 이후에는 물체 기반 좌표를 기반으로 로봇 팔과 로봇 핸드를 제어하는 로봇 및 그 제어방법을 제공한다.
본 발명의 일 측면에 따른 로봇은 로봇 핸드와 로봇 팔; 로봇 핸드가 물체를 감지할 수 있게 하는 파지 센서부; 파지 센서부로부터 획득한 파지정보로부터 로봇 핸드가 물체를 파지하였는지 여부를 판단하고, 판단 결과에 따라 물체의 움직임을 기준으로 로봇 핸드와 로봇 팔을 제어하는 물체 기반 좌표 또는 독립적으로 로봇 핸드와 로봇 팔을 제어하는 독립 좌표를 선택하고, 선택된 좌표를 기준으로 로봇 핸드 및 로봇 팔을 제어하는 파지 제어부; 물체 기반 좌표에서 가상 물체의 위치 및 방향을 계산하고, 가상 물체의 위치 및 방향 정보를 파지 제어부로 전달하는 좌표 변환부를 포함한다.
파지 제어부는 로봇 핸드가 물체를 파지하였다고 판단한 경우에 물체 기반 좌표를 적용하고, 사용자의 미세한 움직임에는 로봇이 움직이지 않게 파지상태를 유지하도록 하는 것을 포함한다.
물체 기반 좌표는 복수의 실제 손가락 끝의 위치를 계산하고, 계산된 복수의 실제 손가락 끝의 위치를 이용하여 복수의 가상 손가락 끝의 위치를 계산하고, 계산된 복수의 가상 손가락 끝의 위치를 근거로 하여 물체의 중심위치 및 물체의 방향 벡터를 구하는 것을 포함한다.
파지 제어부는 마스터 디바이스 또는 슬레이브 디바이스로부터 전달 받은 가상 물체 좌표의 상대변화가 직선 운동인지, 회전 운동인지 또는 파지 운동인지 여부를 판단하고, 직선 운동, 회전 운동, 파지 운동에 따른 직선 운동 제어명령, 회전 운동 제어명령, 파지 운동 제어명령을 하는 것을 더 포함한다.
직선 운동 제어명령은 직선 운동 중에서 물체 기반 좌표의 xy평면에서의 직선 운동인 지 여부를 판단하고, 직선 운동 중에서 물체 기반 좌표의 z축에서의 직선 운동인 경우 로봇 핸드가 물체 기반 좌표의 z축 방향의 직선 운동이 가능한 지 여부를 판단하여 로봇 팔 또는 로봇 핸드를 제어하는 명령인 것을 포함한다.
회전 운동 제어명령은 회전 운동 중에서 물체 기반 좌표의 x축 또는 y축을 중심으로 하는 회전 운동인지를 판단하고, 회전 운동 중에서 물체 기반 좌표의 z축을 중심으로 하는 회전 운동인 경우 로봇 핸드가 물체 기반 좌표의 z축을 중심으로 회전 운동이 가능한 지 여부를 판단하여 로봇 팔 또는 로봇 핸드를 제어하는 명령인 것을 포함한다.
파지 운동 제어명령은 로봇 핸드를 제어하는 명령인 것을 포함한다.
본 발명의 또 다른 측면에 따른 로봇 제어방법은 파지 센서부로부터 획득한 파지정보로부터 로봇 핸드가 물체를 파지하였는지 여부를 판단하고, 판단 결과에 따라 물체의 움직임을 기준으로 로봇 핸드와 로봇 팔을 제어하는 물체 기반 좌표 또는 독립적으로 로봇 핸드와 로봇 팔을 제어하는 독립 좌표를 선택하고, 선택된 좌표를 기준으로 로봇 핸드 및 로봇 팔을 제어하고, 물체 기반 좌표는 가상 물체의 위치 및 방향을 계산하고, 가상 물체의 위치 및 방향 정보를 파지 제어부로 전달하는 것을 포함한다.
좌표를 결정하는 것은 로봇 핸드가 물체를 파지하였다고 판단한 경우에 물체 기반 좌표를 적용하고, 사용자의 미세한 움직임에는 로봇이 움직이지 않게 파지상태를 유지하도록 하는 것을 포함한다.
물체 기반 좌표는 복수의 실제 손가락 끝의 위치를 계산하고, 계산된 복수의 실제 손가락 끝의 위치를 이용하여 복수의 가상 손가락 끝의 위치를 계산하고, 계산된 복수의 가상 손가락 끝의 위치를 근거로 하여 물체의 중심위치 및 물체의 방향 벡터를 구하는 것을 포함한다.
물체 기반 좌표를 선택하는 것은 마스터 디바이스 또는 슬레이브 디바이스로부터 전달 받은 가상 물체 좌표의 상대변화가 직선 운동인지, 회전 운동인지 또는 파지 운동인지 여부를 판단하고, 직선 운동, 회전 운동, 파지 운동에 따른 직선 운동 제어명령, 회전 운동 제어명령, 파지 운동 제어명령을 하는 것을 더 포함한다.
직선 운동 제어명령은 직선 운동 중에서 물체 기반 좌표의 xy평면에서의 직선 운동인 지 여부를 판단하고, 직선 운동 중에서 물체 기반 좌표의 z축에서의 직선 운동인 경우 로봇 핸드가 물체 기반 좌표의 z축 방향의 직선 운동이 가능한 지 여부를 판단하여 로봇 팔 또는 로봇 핸드를 제어하는 명령인 것을 포함한다.
회전 운동 제어명령은 회전 운동 중에서 물체 기반 좌표의 x축 또는 y축을 중심으로 하는 회전 운동인지를 판단하고, 회전 운동 중에서 물체 기반 좌표의 z축을 중심으로 하는 회전 운동인 경우 로봇 핸드가 물체 기반 좌표의 z축을 중심으로 회전 운동이 가능한 지 여부를 판단하여 로봇 팔 또는 로봇 핸드를 제어하는 명령인 것을 포함한다.
파지 운동 제어명령은 로봇 핸드를 제어하는 명령인 것을 포함한다.
도 1은 본 발명의 일실시예에 의한 로봇의 구성도이다.
도 2는 본 발명의 일실시예에 의한 로봇 핸드를 손바닥 측에서 본 평면도이다.
도 3은 본 발명의 일실시예에 의한 로봇의 블록도이다.
도 4는 본 발명의 일실시예에 의한 마스터 핸드에서 5개의 실제 손가락 끝을 두 개의 가상 손가락 끝으로 전환한 것을 나타내는 마스터 핸드의 사시도이다.
도 5는 본 발명의 일실시예에 의한 로봇의 물체 기반 좌표를 구하기 위한 도면이다.
도 6은 본 발명의 일실시예에 의한 로봇의 제어방법을 나타내는 흐름도이다.
도 7은 본 발명의 일실시예에 의한 로봇의 제어방법 중에서 물체 기반 좌표에서의 로봇 팔과 로봇 핸드를 제어하는 부분의 흐름도이다.
도 8은 본 발명의 일실시예에 의한 로봇 핸드에서 5개의 실제 손가락 끝을 두 개의 가상 손가락 끝으로 전환한 것을 나타내는 로봇 핸드의 사시도이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예에 대해 설명한다.
도 1은 본 발명의 일실시예에 의한 로봇의 구성도이다.
도 1에서 보는 바와 같이, 본 발명의 일실시예에 의한 로봇은 사용자가 조종하는 마스터 디바이스(110)와 원격지에서 작업을 수행하는 슬레이브 디바이스(120) 로 구성될 수 있다.
표시부(111)는 슬레이브 디바이스(120)의 카메라 센서부(125a)와 짝을 이룰 수 있다. 표시부(111)는 슬레이브 디바이스(120)의 카메라 센서부(125a)로부터 획득된 영상정보를 사용자에게 표시할 수 있다.
그리고, 마스터 핸드(112)는 슬레이브 디바이스(120)의 로봇 핸드(1)와 쌍을 이룰 수 있다. 마스터 핸드(112)는 사용자 손의 좌표 정보를 로봇 핸드(1)에 전달할 수 있다.
예를 들어, 본 발명의 일실시예에 의한 마스터 핸드(112)는 손가락의 관절 각 등을 측정하는 장갑 형태의 장치에 외골격 액추에이터(actuator) 구조물이 더해져 힘의 정보 궤환(force feedback)이 가능한 장치가 될 수 있고, 센서와 액추에이터 역할을 모두 하는 링크(link)로 이루어진 외골격 형태의 구조물이 될 수 있다.
그리고, 마스터 암(113)은 슬레이브 디바이스(120)의 로봇 팔(5)과 쌍을 이룰 수 있다. 마스터 암(113)은 사용자 팔의 좌표 정보를 로봇 팔(5)에 전달할 수 있다.
도 2는 본 발명의 일실시예에 의한 로봇 핸드를 손바닥 측에서 본 평면도이다.
도 2에 도시된 바와 같이, 본 발명의 일실시예에 의한 로봇이 적용되는 로봇 핸드(1)는 사람 손과 마찬가지로 5개의 손가락 기구(1a~1e)를 수상부(2)로부터 뻗어 설치한 구성으로 될 수 있다. 각 손가락 기구(1a~1e)는 각각 사람 손의 엄지, 검지, 중지, 약지 및 소지에 상당할 수 있다.
수상부(2)는, 손바닥 형성 부재(3) 및 손등 형성 부재(4)를 조립하여 구성될 수 있고, 이들 손바닥 형성 부재(3) 및 손등 형성 부재(4) 사이의 공간은, 손가락 기구(1a~1e)를 동작시키기 위한 구동 기구의 수용부로 될 수 있다. 수상부(2)의 일측은 로봇 팔(5)에 연결될 수 있다.
손가락 기구(1a~1e)의 각각은 3개의 마디 사이 부재(6~8)와 4개의 관절(9~12)을 포함할 수 있다. 또한, 각각의 손가락 기구는 2개 이상의 마디 부재와 3개 이상의 관절을 포함할 수 있다.
손가락 기구(1a~1e)의 관절(9~12) 중 손바닥과 연결된 관절(9)은 회전 가능하도록 설치 될 수 있다. 이 관절(9)은 회전동작에 의해 손가락 기구(1a~1e)의 좌우 벌림이 가능하다.
또한, 손가락 기구(1a~1e)의 각 관절(10~12)은, 서로 같은 방향으로 회전하도록 마련될 수 있다. 마디 사이 부재(6~8)는, 관절(10~12)의 축심 둘레로 회전 가능하게 되어 있다. 따라서, 손가락 기구(1a~1e)는, 각 관절(10~12)에서의 마디 사이 부재(6~8)의 회전동작에 의해 굽힘이 가능하게 되어 있다.
손가락 기구(1a ~1e)는 각각 전동모터 등의 구동요소와 와이어나 풀리 등의 구동력 전달기구로 굽힘동작 및 회전동작을 할 수 있다.
각 손가락 기구(1a~1e)의 각 마디 사이 부재(6~8)에는, 각각의 외주 면을 덮는 완충 부재(13~15)가 각각 장착될 수 있다.
손가락 기구(1a~1e)에는, 각각 완충 부재(13~15)를 포함하여 각 손가락 기구(1a~1e)의 표면을 덮도록 손가락용 탄성 커버 부재(16a~16e)가 삽입 이탈 가능하게 마련될 수 있다.
도 3은 본 발명의 일실시예에 의한 로봇의 블록도이다.
도 3에 도시된 바와 같이, 로봇(100)은 마스터 디바이스(110), 슬레이브 디바이스(120)를 포함할 수 있다.
마스터 디바이스(110)는 사용자 측에 구비되는 장치로서, 사용자는 마스터 디바이스(110)를 이용하여 슬레이브 디바이스(120)를 제어할 수 있다. 마스터 디바이스(110)는 표시부(111), 마스터 핸드(112), 마스터 암(113), 위치 센서부(114) 및 제1 통신부(115)를 포함할 수 있다.
표시부(111)는 로봇의 머리부에 대응될 수 있으며, 슬레이브 디바이스(120)가 인식하는 영상을 표시해 주는 장치이다.
예를 들어, 표시부(111)는 HMD(Head Mounted Display)와 같이 사용자 머리의 모션을 인식하면서 원격지의 영상을 표시해 주는 장치일 수 있다.
사용자는 로봇으로부터 획득된 영상을 기반으로 슬레이브 디바이스(120)를 제어 할 수 있다.
마스터 핸드(112)는 슬레이브 디바이스(120)의 로봇 핸드(1)에 대응되는 것으로서, 사용자 손의 움직임을 감지하는 장치이다.
예를 들어, 마스터 핸드(112)는 사용자의 손의 움직임을 감지하여 손가락의 관절 각 등을 측정한 후, 움직임에 따른 좌표정보를 생성할 수 있다.
마스터 암(113)은 슬레이브 디바이스(120)의 로봇 팔(5)에 대응되는 것으로서, 사용자의 팔의 움직임을 감지하는 장치이다.
예를 들어, 마스터 암(113)은 사용자의 팔의 움직임을 감지하여 팔의 관절 각 등을 측정한 후, 움직임에 따른 좌표정보를 생성할 수 있다.
그리고, 마스터 핸드(112)와 마스터 암(113)은 독립적으로 또는 함께 사용자의 움직임을 감지하여 마스터 핸드(112)의 좌표정보와 마스터 암(113)의 좌표정보를 슬레이브 디바이스(120)로 전달할 수 있다.
위치 센서부(114)는 사용자 측의 마스터 핸드(112)와 마스터 암(113)의 위치를 감지할 수 있다. 위치 센서부(114)는 마스터 핸드(112) 및 마스터 암(113)에 장착된 센서(예를 들면, 엔코더)를 이용하여 마스터 핸드(112) 및 마스터 암(113)의 위치를 감지하고, 그에 관한 위치정보를 파지 제어부(122) 또는 좌표 변환부(미도시)로 전달할 수 있다.
제1 통신부(115)는 슬레이브 디바이스(120)의 제2 통신부(124)와 데이터를 주고 받는 역할을 할 수 있다. 데이터 송신 및 수신 방식은 유선 또는 무선 방식일 수 있다.
슬레이브 디바이스(120)는 사용자의 제어에 의해 작동하는 로봇장치이다. 슬레이브 디바이스(120)는 제어부(121), 파지 제어부(122), 저장부(123), 제2 통신부(124), 센서부(125), 로봇 핸드(1) 및 로봇 팔(5)을 포함 할 수 있다.
제어부(121)는 마스터 디바이스(110)로부터 획득한 다수의 좌표정보에 의해 슬레이브 디바이스(120)의 동작을 제어할 수 있다. 또한 마스터 디바이스(110)와 슬레이브 디바이스(120)의 동작을 위한 전반적인 제어를 할 수 있다.
파지 제어부(122)는 기준 좌표를 전환하기 위하여 로봇 핸드(1)가 물체를 파지하였는지 여부를 판단할 수 있다. 이러한 전환 조건은 로봇 핸드(1)가 물체를 충분한 힘으로 잘 파지하였는지 여부이다. 로봇 핸드(1)의 손끝에 장착된 파지 센서부(125b)를 통해서 물체와의 접촉 또는 파지로 인한 물체와의 작용력을 분석하여 로봇 핸드(1)가 물체를 파지했는지 여부를 판단할 수 있다.
로봇 핸드(1)가 물체를 파지한 경우에는, 파지 제어부(122)는 기준 좌표를 물체 기반 좌표로 전환할 수 있다. 또한, 파지 제어부(122)는 사용자의 미세한 움직임에는 로봇 핸드(1)가 물체를 놓치지 않도록 하기 위해서 일정 강성(stiffness) 이상의 힘으로 사용자의 움직임의 재현을 막고, 로봇 핸드(1)의 파지 제어를 유지할 수 있다.
파지 제어부(122)는 물체 기반 좌표로 변환하는데 필요한 좌표 변환부(미도시)를 포함할 수 있다.
물체 기반 좌표란, 복수의 실제 손가락 끝의 위치를 계산하고, 계산된 복수의 실제 손가락 끝의 위치를 이용하여 복수의 가상 손가락 끝의 위치를 계산하고, 계산된 복수의 가상 손가락 끝의 위치를 근거로 하여 가상 물체의 중심위치 및 가상 물체의 방향백터를 구하여 정의되는 좌표를 말한다.
이때, 물체 기반 좌표는 사용자의 손과 팔의 움직임과 무관하게 가상 물체의 움직임을 기준으로 로봇을 제어하는 경우에 적용될 수 있으며, 물체를 쥐었다 폈다하는 등 물체의 움직임이 작은 경우에도 적용될 수 있다.
반면에, 파지 제어부(122)는 사용자가 물체를 놓기 위해 일정 힘을 이기고 움직여서 로봇 핸드(1)의 파지 조건이 더 이상 만족되지 않는 경우에는, 좌표를 사용자의 손과 팔의 운동을 분리하여 로봇의 손과 팔에 전달하는 독립 좌표로 전환할 수 있다.
독립 좌표는 팔을 올리는 등 로봇의 움직임이 큰 경우에 적용될 수 있다.
저장부(123)는 여러 가지 로봇 핸드(1) 및 로봇 팔(5)의 동작 형태가 저장될 수 있다. 또한, 저장부(123)는 슬레이브 디바이스(120) 및 마스터 디바이스(110)로부터 전달받은 각종 좌표 데이터들을 저장할 수 있다.
제2 통신부(124)는 마스터 디바이스(110)의 제1 통신부(115)와 데이터를 주고 받는 역할을 한다. 데이터 송신 및 수신 방식은 유선 또는 무선 방식일 수 있다.
센서부(125)는 원격지의 주변을 촬영하는 카메라 센서부(125a), 로봇 핸드(1)의 파지여부를 감지하는 파지 센서부(125b) 및 로봇 핸드(1)와 로봇 팔(5)의 위치를 감지하는 위치 센서부(125c)를 포함할 수 있다.
카메라 센서부(125a)는 원격지의 영상을 촬영하여 사용자 측의 표시부(111)에 전달할 수 있다. 카메라 센서부(125a)는 주변 영상을 촬영할 수 있는 일반적인 카메라를 포함할 수 있다.
파지 센서부(125b)는 로봇 핸드(1)가 물체를 감지할 수 있게 하고, 파지 제어부(122)로 그에 관한 파지정보를 전달할 수 있다.
예를 들면, 로봇 핸드(1)의 각 손가락 기구(1a~1e)의 끝의 위치(p1~p5)에는 로봇이 물체를 파지하였는지 여부를 감지 할 수 있는 센서(미도시)가 구비될 수 있다.
또한, 센서(미도시)는 힘 센서(force sensor) 또는 촉각 센서(tactile sensor)를 포함할 수 있다.
힘 센서는 로봇 핸드(1)의 힘을 검출할 수 있다. 힘을 전기량으로 변환하는 방식으로서, 1차 변환요소로서 탄성체의 변형을 이용하는 것과, 피측정량과 이미 알고 있는 크기의 힘을 평형시키는 것을 포함할 수 있다.
촉각 센서는 생체로부터 유추되는 피부감각과 역각(力覺)에 대하여 그 기능이나 혹은 그 일부를 공학적으로 실현한 것을 말한다. 촉각센서에는 접촉각 센서, 압각 센서, 미끄럼각 센서, 역각 센서(중량각 센서), 근접각 센서 또는 경도 센서를 포함할 수 있다.
촉각 센서는 촉각 센서 어레이(tactile sensor array)로 구현될 수 있다.
슬레이브 디바이스(120) 측의 위치 센서부(125c)는 슬레이브 디바이스(120)의 로봇 핸드(1)와 로봇 팔(5)의 위치를 감지할 수 있다. 위치 센서부(125c)는 슬레이브 디바이스(120)의 로봇 핸드(1)와 로봇 팔(5)에 장착된 센서(예를 들면, 엔코더)를 이용하여 슬레이브 디바이스(120)의 로봇 핸드(1)와 로봇 팔(5)의 위치를 감지할 수 있고, 그에 관한 위치정보를 파지 제어부(122) 또는 좌표 변환부(미도시)로 전달할 수 있다.
로봇 핸드(1)는 물체를 파지하는 동작 및 물체를 이동하는 동작을 수행할 수 있다.
로봇 팔(5)은 로봇 핸드(1)의 좌표를 변화시키기 위해 이동하는 동작을 수행할 수 있다.
로봇 팔(5)의 한 쪽 끝은 로봇 핸드(1)에 연결되어 있고 다른 쪽 끝은 로봇의 몸체에 연결된 것처럼, 사람의 팔과 유사한 구조의 로봇 팔이 될 수도 있으며, 사람의 팔과 유사하지 않는 로봇 팔이 될 수도 있다.
도 4는 본 발명의 일실시예에 의한 마스터 핸드에서 5개의 실제 손가락 끝을 두 개의 가상 손가락 끝으로 전환한 것을 나타내는 마스터 핸드의 사시도이다.
도 4에 도시된 바와 같이, 마스터 핸드(112)의 각 실제 손가락 끝의 위치를 각각 P1, P2, P3, P4 및 P5라고 한다. 그리고, 제1 가상 손가락 끝의 위치(Pv1)는 마스터 핸드(112)의 제1 실제 손가락 끝의 위치(P1)로 설정할 수 있다. 그리고, 제 2 가상 손가락 끝의 위치(Pv2)는 제2 내지 제5 실제 손가락 끝의 위치(P2 내지 P5)의 중심위치(Pv2)로 설정할 수 있다.
이때, 제1 가상 손가락 끝의 위치(Pv1)는 제1 실제 손가락 끝의 위치(P1)와 1:1 대응 한 것일 수 있다. 그리고, 제 2 가상 손가락 끝의 위치(Pv2)는 제2 내지 제5 실제 손가락 끝의 위치(P2 내지 P5)와 1:4 대응한 것일 수 있다.
그리고 나서, 제1 가상 손가락 끝의 위치(Pv1)와 제2 가상 손가락 끝의 위치(Pv2)간의 중심위치를 구할 수 있다. 이 중심위치를 가상 물체 중심위치(Pc)라고 할 수 있다.
물체 기반 좌표에서 x축 방향은 가상 물체 중심위치(Pc)를 원점으로 하고, 가상 물체 중심위치(Pc)에서 제2 가상 손가락 끝의 위치(Pv2)로 향하는 방향일 수 있다. 물체 기반 좌표에서 y축 방향은 가상 물체 중심위치(Pc)를 원점으로 하고, 제2 가상 손가락 끝의 위치(Pv2)에서 제2 실제 손가락 끝의 위치(P2)로 향하는 방향일 수 있다. 물체 기반 좌표에서 z축 방향은 가상 물체 중심위치(Pc)를 원점으로 하고, 물체 기반 좌표에서의 x축 및 y축 방향과 수직 방향이며, 마스터 핸드(112)의 손바닥에서 가상 물체 중심위치(Pc)로 향하는 방향일 수 있다.이하, x축, y축 및 z축은 물체 기반 좌표에서 x축, y축 및 z축을 의미한다.
본 발명의 일실시예에 의한 마스터 핸드(112)에서는 제2 가상 손가락 끝의 위치(Pv2)를 제2 내지 제5 실제 손가락 끝의 위치(P2 내지 P5)의 중심위치인 경우에 대해서 설명하고 있지만, 이에 한정되지 않으며, 제2 내지 제5 실제 손가락 끝의 위치(P2 내지 P5) 중 어느 한쪽으로 치우친 임의의 위치도 가능하다.
또한, 본 발명의 일실시예에 의한 마스터 핸드(112)에서는 제2 내지 제5 실제 손가락의 끝의 위치(P2 내지 P5)를 하나의 가상 손가락 끝의 위치(Pv2)로 전환한 것을 나타내고 있지만, 이에 한정되지 않으며, 적어도 하나 이상의 실제 손가락의 끝의 위치를 하나의 가상 손가락 끝의 위치(Pv2)로 전환하는 것도 가능하다.
도 5는 본 발명의 일실시예에 의한 로봇의 물체 기반 좌표를 구하기 위한 도면이다.
좌표 변환부(미도시)는 가상 물체 중심위치(Pc)를 아래의 식과 같이 구할 수 있다.
Figure pat00001
수학식 1에서, Pv1은 제1 가상 손가락 끝의 위치이고, P1은 제1 실제 손가락 끝의 위치이다.
제1 가상 손가락 끝의 위치(Pv1)는 제1 실제 손가락 끝의 위치(P1)의 좌표값을 갖는다.
Figure pat00002
수학식 2에서, Pv2는 마스터 핸드(112)의 제2 가상 손가락 끝의 위치이고, P2 내지 P5는 마스터 핸드(112)의 제2 내지 제5 실제 손가락 끝의 위치이다.
제2 가상 손가락 끝의 위치(Pv2)는 제2 내지 제5 실제 손가락 끝의 위치(P2 내지 P5)의 평균값의 좌표값을 갖는다.
Figure pat00003
수학식 3에서, Pv1 및 Pv2는 마스터 핸드(112)의 제1 및 제2 가상 손가락 끝의 위치이고, Pc는 가상 물체 중심위치이다.
가상 물체 중심위치(Pc)는 제1 가상 손가락 끝의 위치(Pv1)와 제2 가상 손가락 끝의 위치(Pv2)의 평균값의 좌표값을 갖는다.
좌표 변환부(미도시)는 가상 물체의 방향 벡터를 아래의 식과 같이 구할 수 있다.
Figure pat00004
수학식 4에서, Pv1 및 Pv2는 마스터 핸드(112)의 제1 및 제2 가상 손가락 끝의 위치이고, x1은 x축 벡터값을 구하기 위한 임시 벡터값이다.
벡터 x1는 제2 가상 손가락 끝의 위치(Pv2)에서 제1 가상 손가락 끝의 위치(Pv1)를 뺀 값을 갖는다.
Figure pat00005
수학식 5에서, x1은 x축 벡터값을 구하기 위한 임시 벡터값이고, x는 x축 벡터값이다.
단위벡터 x를 구한다.
Figure pat00006
수학식 6에서, P2는 마스터 핸드(112)의 제2 실제 손가락 끝의 위치이고, Pv2는 제2 가상 손가락 끝의 위치이고, y1은 y축 벡터값을 구하기 위한 임시 벡터값이다.
벡터 y1는 제2 실제 손가락 끝의 위치(P2)에서 제2 가상 손가락 끝의 위치(Pv2)를 뺀 값을 갖는다.
Figure pat00007
수학식 7에서, y1은 y축 벡터값을 구하기 위한 임시 벡터값이고, y는 y축 벡터값이다.
단위벡터 y를 구한다.
Figure pat00008
수학식 8에서, x는 x축 벡터값이고, y는 y축 벡터값이고, z1은 z축 벡터값을 구하기 위한 임시 벡터값이다.
벡터 z1는 벡터 x와 벡터 y의 외적 값을 갖는다.
Figure pat00009
수학식 9에서, z1은 z축 벡터값을 구하기 위한 임시 벡터값이고, z는 z축 벡터값이다.
단위벡터 z를 구한다.
Figure pat00010
수학식 10에서, x는 x축 벡터값이고, z는 z축 벡터값이고, y1은 y축 벡터값을 구하기 위한 임시 벡터값이다.
벡터 y1는 벡터 z와 벡터 x의 외적 값을 갖는다.
Figure pat00011
수학식 11에서, y1은 y축 벡터값을 구하기 위한 임시 벡터값이고, y는 y축 벡터값이다.
단위벡터 y를 구한다.
수학식 1 내지 11에서 계산된 물체 기반 좌표는 마스터 핸드(112)의 손바닥에 고정된 좌표계를 기준으로 계산된 것이다.
따라서, 고정 좌표계에 대한 마스터 핸드(112)의 손바닥 좌표(위치, 방향)를 함께 계산하면 마스터 핸드(112)가 파지한 가상 물체의 위치 및 방향을 추정할 수 있다.
위와 같이, 좌표 변환부(미도시)가 계산된 가상 물체의 상대적 변화 정보를 파지 제어부(122)에 전달하면, 파지 제어부(122)는 가상 물체의 상대적 변화량에 따라서 로봇 팔(5)의 움직임과 로봇 핸드(1)의 움직임을 판단할 수 있다.
본 발명의 일실시예에 의한 좌표 변환부(미도시)는 사용자가 조종하는 마스터 디바이스(110) 에서 가상 물체의 위치 및 방향을 구하였지만, 이에 한정되지 않고, 슬레이브 디바이스(120) 에서 가상 물체의 위치 및 방향을 구하여 그에 관한 데이터를 파지 제어부(122)로 전달 할 수도 있다.
예를 들면, 도 4에서 마스터 디바이스(110)의 마스터 핸드(112)를 슬레이브 디바이스(120)의 로봇 핸드(1)로 대체할 수 있다. 따라서, 좌표 변환부(미도시)는 로봇 핸드(1)의 실제 손가락 끝의 위치에서 가상 손가락 끝의 위치를 구하고, 가상 손가락 끝의 위치로부터 가상 물체 중심위치를 구하고, 이를 근거로 로봇 핸드(1)가 파지한 가상 물체의 위치 및 방향을 추정할 수 있다. 그리고, 좌표 변환부(미도시)는 가상 물체의 상대적 변화 정보를 파지 제어부(122)로 전달 할 수 있다.
도 6은 본 발명의 일실시예에 의한 로봇의 제어방법을 나타내는 흐름도이다.
이하에서는, 도 1 내지 도 5를 참조하여 설명한다.
파지 센서부(125b)는 로봇 핸드(1)가 물체를 감지하도록 할 수 있다.(200)
파지 제어부(122)는 파지 센서부(125b)로부터 획득된 파지정보로부터 로봇 핸드(1)가 물체를 파지하였는지 여부를 판단할 수 있다.(210)
파지 제어부(122)는 물체를 파지하지 않았다고 판단하면, 파지 제어부(122)는 로봇 핸드(1)와 로봇 팔(5)을 독립적으로 제어하는 독립 좌표로 전환할 수 있다.(220)
파지 제어부(122)는 로봇 팔(5)과 로봇 핸드(1)를 독립적으로 제어할 수 있다.(230)
즉, 파지 제어부(122)는 사용자의 팔의 좌표정보를 로봇 팔(5)에 전달할 수 있고, 사용자의 손가락의 좌표정보를 로봇 핸드(1)에 전달 할 수 있다.
파지 제어부(122)가 물체를 파지하였다고 판단하면, 파지 제어부(122)는 로봇 핸드(1)와 로봇 팔(5)을 가상 물체의 움직임을 기반으로 제어하는 물체 기반 좌표로 전환할 수 있다.(240)
즉, 파지 제어부(122) 는 물체를 파지한 이후에는 물체 기반 좌표로 로봇 팔(5)과 로봇 핸드(1)를 유기적으로 움직일 수 있다.
본 방법을 통해 사용자가 슬레이브 디바이스(120)을 제어할 때, 파지 제어부 (122)는 물체를 파지하여 조작하는 작업을 수행하는 시점을 파악할 수 있고, 그 시점부터 사용자의 가상 물체에 대한 조작의 의도를 해석하여 그에 맞는 명령을 만들어 낼 수 있다.
그 결과, 슬레이브 디바이스(120)가 물체를 파지 및 조작하는 작업에서, 팔과 손을 유기적으로 움직여 작업하려는 사용자의 의도가 반영되므로, 작업의 효율을 높일 수 있다.
기준 좌표를 물체 기반 좌표로 전환한 후, 파지 제어부(122)는 사용자의 미세한 움직임에는 로봇 핸드(1)가 물체를 놓치지 않도록 하기 위해서 일정 강성(stiffness) 이상의 힘으로 사용자의 움직임의 재현을 막고, 로봇 핸드(1)의 파지 제어를 유지할 수 있다.(250)
다만, 사용자가 물체를 놓기 위해 일정 힘을 이기고 움직여서 로봇 핸드(5)의 파지 조건이 더 이상 만족되지 않으면, 파지 제어부(122)는 좌표를 사용자의 손과 팔의 운동을 분리하여 로봇의 손과 팔에 전달하는 방식인 독립 좌표로 전환할 수 있다.
좌표 변환부(미도시)는 위치 센서부(114)로부터 전달 받은 위치 정보로부터 마스터 핸드(112)의 실제 손가락의 위치 및 가상 손가락의 위치를 계산할 수 있다. (260, 270)위치 센서부(114)는 마스터 핸드(112) 및 마스터 암(113)에 장착된 센서(예를 들면, 엔코더)로부터 마스터 핸드(112) 및 마스터 암(113)의 위치를 감지할 수 있고, 그에 관한 위치정보를 좌표변환부(122)로 전달할 수 있다.
이때, 위치 센서부(114)는 마스터 핸드(112)의 각 실제 손가락 끝의 위치 정보를 좌표 변환부(미도시)로 전달할 수 있다.
도 4에는, 마스터 핸드(112)의 제1 내지 제5 실제 손가락 끝의 위치(P1 내지 P5)가 도시되어 있다.
좌표 변환부(미도시)는 제1 가상 손가락 끝의 위치(Pv1)를 마스터 핸드(112)의 제1 실제 손가락 끝의 위치(P1)로 설정할 수 있다. 그리고, 제 2 가상 손가락 끝의 위치(Pv2)를 제2 내지 제5 가상 손가락 끝의 위치(P2 내지 P5)의 중심위치(Pv2)로 설정할 수 있다.
이때, 제1 가상 손가락 끝의 위치(Pv1)는 제1 실제 손가락 끝의 위치(P1)와 1:1 대응 한 것일 수 있다. 그리고, 제 2 가상 손가락 끝의 위치(Pv2)는 제2 내지 제5 실제 손가락 끝의 위치(P2 내지 P5)와 1:4 대응한 것일 수 있다.
그리고 나서, 좌표 변환부(미도시)는 제1 가상 손가락 끝의 위치(Pv1)와 제2 가상 손가락 끝의 위치(Pv2)간의 중심위치를 구할 수 있다. 이 중심위치를 가상 물체 중심위치(Pc)라고 할 수 있다.
본 발명의 일실시예에 의한 마스터 핸드(112)에서는 제2 가상 손가락 끝의 위치(Pv2)를 제2 내지 제5 실제 손가락 위치(P2 내지 P5)의 중심위치인 경우에 대해서 설명하고 있지만, 이에 한정되지 않으며, 제2 내지 제5 실제 손가락 위치(P2 내지 P5) 중 어느 한쪽으로 치우친 임의의 위치도 가능하다.
또한, 본 발명의 일실시예에 의한 마스터 핸드(112)에서는 제2 내지 제5 실제 손가락의 끝의 위치(P2 내지 P5)를 하나의 가상 손가락 끝의 위치(Pv2)로 전환한 것을 나타내고 있지만, 이에 한정되지 않으며, 적어도 하나 이상의 실제 손가락의 끝의 위치를 하나의 가상 손가락 끝의 위치(Pv2)로 전환하는 것도 가능하다.
그리고, 좌표 변환부(미도시)는 가상 물체의 위치 및 방향을 계산할 수 있다.(280)
가상 물체의 중심위치(Pc) 및 물체의 방향 벡터는 위의 수학식 1 내지 11과 같은 방법으로 구할 수 있다.
수학식 1 내지 11에서 계산된 가상 물체 중심위치(Pc)의 좌표는 마스터 핸드(112)의 손바닥에 고정된 좌표계를 기준으로 계산된 것이다.
따라서, 고정 좌표계에 대한 마스터 핸드(112)의 손바닥 좌표(위치, 방향)를 함께 계산하면 마스터 핸드(112)가 파지한 가상 물체의 위치 및 방향을 추정할 수 있다.
그리고, 좌표 변환부(미도시)가 가상 물체의 상대적 변화 정보를 파지 제어부(122)에 전달하면, 파지 제어부(122)는 가상 물체의 상대적 변화량에 따라서 로봇 팔(5)의 움직임과 로봇 핸드(1)의 손가락 움직임 명령을 생성할 수 있다.(290)
본 발명의 일실시예에 의한 좌표 변환부(미도시)는 사용자가 조종하는 마스터 디바이스(110)에서 가상 물체의 위치 및 방향을 구하였지만, 이에 한정되지 않고, 슬레이브 디바이스(120)에서 가상 물체의 위치 및 방향을 구하여 그에 관한 데이터를 파지 제어부(122)로 전달 할 수도 있다.
예를 들면, 도 4에서 마스터 디바이스(110)의 마스터 핸드(112)를 슬레이브 디바이스(120)의 로봇 핸드(1)로 대체할 수 있다. 따라서, 좌표 변환부(미도시)는 로봇 핸드(1)의 실제 손가락 끝의 위치에서 가상 손가락 끝의 위치를 구하고, 가상 손가락 끝의 위치로부터 가상 물체 중심위치를 구하고, 이를 근거로 로봇 핸드(1)가 파지한 가상 물체의 위치 및 방향을 추정할 수 있다. 그리고, 좌표 변환부(미도시)는 가상 물체의 상대적 변화 정보를 파지 제어부(122)로 전달 할 수 있다.
도 7은 본 발명의 일실시예에 의한 로봇의 제어방법 중에서 물체 기반 좌표에서의 로봇 팔과 로봇 핸드를 제어하는 부분의 흐름도이다.
파지 제어부(122)는 마스터 디바이스(110)로부터 전달 받은 가상 물체 좌표의 상대변화(운동)가 직선 운동인지, 회전 운동인지 또는 파지 운동인지 여부를 판단할 수 있다.(291)
이하, x축, y축 및 z축은 물체 기반 좌표에서 x축, y축 및 z축을 의미한다.
먼저, 본 발명의 일실시예에 의한 직선 운동에 대해서 설명한다.파지 제어부(122)는 가상 물체의 직선 운동 중 물체 기반 좌표의 xy평면에서의 직선 운동인지 여부를 판단할 수 있다.(292a)
도 4를 참고하면, 가상 물체의 직선 운동 중 물체 기반 좌표의 xy평면에서의 직선 운동은 로봇 핸드(1)로 재현하기 어렵다. 따라서, 가상 물체의 운동이 물체 기반 좌표의 xy평면에서의 직선 운동인 경우에는, 파지 제어부(122)는 로봇 팔(5)의 끝단 좌표계의 직선 운동으로 변환할 수 있다.(293a)
반면에 가상 물체의 운동이 물체 기반 좌표의 xy평면에서의 직선운동이 아닌 경우에는, 파지 제어부(122)는 로봇 핸드(1)가 z축 방향으로 직선운동이 가능한지 판단할 수 있다.(294a)
즉, z축 방향 직선운동의 변화율이 작은 경우 또는 로봇 핸드(1)가 z축 방향의 직선 운동을 할 수 있는 경우에는 로봇 핸드(1)의 직선 운동으로 변환할 수 있다.(295a)
예를 들어, 변화율이 작거나, 로봇 핸드(1)가 물체와의 파지 면을 유지한 채 z축 방향 직선 운동을 할 수 있는 경우이거나 또는 현재 로봇 손가락 관절 형상이 충분히 작업 공간 (workspace) 내에 존재하는 경우에는 로봇 핸드(1)의 손가락 움직임으로 변환할 수 있다.
반면에, z축 방향 직선운동의 변화율이 큰 경우 또는 로봇 핸드(1)가 z축 방향의 직선 운동을 할 수 없는 경우에는, 로봇 팔(5)의 끝단 좌표계의 직선운동으로 변환할 수 있다.(293a)
예를 들어, 변화율이 크거나, 로봇 핸드(1)가 물체와의 파지 면을 유지한 채 z축 방향으로 직선 운동을 할 수 없는 경우이거나 또는 직선 운동이 가능하더라도 현재의 관절 형상(Joint configuration)에서 더 이상 움직일 수 없는 경우에는 로봇 팔(5)의 끝단 좌표의 직선 운동으로 변환할 수 있다.
위와 같은 방법으로, 파지 제어부(122)는 파지 제어 알고리즘과 동시에 파지에 관여하고 있는 손끝의 z축 방향의 위치를 변경할 수 있다.
다음으로, 본 발명의 일실시예에 의한 회전 운동에 대해서 설명한다.
파지 제어부(122)는 가상 물체의 회전 운동이 x축 또는 y축을 중심으로 하는 회전 운동인지 여부를 판단할 수 있다.(292b)
도 4을 참고하면, 가상 물체의 회전 운동 중 x축 또는 y축을 중심으로 하는 회전 운동은 로봇 핸드(1)로 재현하기 어렵다. 따라서, 로봇 팔(5)의 끝단 좌표계의 회전 운동으로 변환할 수 있다.(293b)
반면에, 가상 물체가 x축 또는 y축을 중심으로 하는 회전 운동이 아닌 경우에는, 파지 제어부(122)는 로봇 핸드(1)가 z축을 중심으로 회전운동이 가능한지 판단할 수 있다.(294b)
만일, 로봇 핸드(1)가 z축을 중심으로 회전 운동을 할 수 있는 경우에는 로봇 핸드(1)의 회전 운동으로 변환할 수 있다.(295b)
예를 들면, 변화율이 작거나, 로봇 핸드(1)가 물체와의 파지 면을 유지한 채 z축 방향 회전 운동을 할 수 있는 경우이거나 또는 현재 로봇 손가락 관절 형상이 충분히 작업 공간 (workspace) 내에 존재하는 경우에는 로봇 핸드(1)의 손가락 움직임으로 변환할 수 있다.
반면에, 로봇 핸드(1)가 z축을 중심으로 하는 회전 운동을 할 수 없는 경우에는, 로봇 팔(1)의 끝단 좌표계의 회전 운동으로 변환할 수 있다.(293b)
예를 들면, 변화율이 크거나, 로봇 핸드(1)가 물체와의 파지 면을 유지한 채 z축 방향으로 회전 운동을 할 수 없는 경우이거나 또는 회전 운동이 가능하더라도 현재의 관절 형상(Joint configuration)에서 더 이상 움직일 수 없는 경우에는 로봇 팔(5)의 끝단 좌표계의 회전 운동으로 변환할 수 있다.
위와 같은 방법으로, 파지 제어부(122)는 파지 제어 알고리즘과 동시에 파지에 관여하고 있는 손끝의 위치가 z축을 중심으로 원주상의 운동을 하도록 할 수 있다.
다음으로, 본 발명의 일실시예에 의한 파지 운동에 대해서 설명한다.
파지 제어부(122)는 전달 받은 가상 물체 좌표계의 상대변화가 파지 운동이라고 판단한 경우, 파지 제어부(122)는 파지 제어를 실행할 수 있다.(293c)
파지 운동이란 로봇 핸드(1)의 손가락을 집게처럼 벌렸다 오므렸다 하는 동작을 포함 할 수 있다. 예를 들어, 파지 제어의 준비단계로부터 실제 물체를 파지하는 단계 사이의 동작, 파지 상태에서 물체를 놓기 위해 손을 펴는 동작 또는 물체를 더 세게 쥐려고 하는 동작을 포함 할 수 있다.
파지 제어에 대한 구체적인 설명은 이하 도 8에서 설명한다.
도 8은 본 발명의 일실시예에 의한 로봇 핸드에서 5개의 실제 손가락 끝을 두 개의 가상 손가락 끝으로 전환한 것을 나타내는 로봇 핸드의 사시도이다.
도 8에는 로봇 핸드(1)의 제1 내지 제5 실제 손가락 끝의 위치(P1', P2', P3', P4' 및 P5')가 도시되어 있다.
먼저, 제1 가상 손가락 끝의 위치(Pv1')는 제1 실제 손가락 끝의 위치(P1')로 설정할 수 있다. 그리고, 제 2 가상 손가락 끝의 위치(Pv2')는 제2 내지 제5 실제 손가락 위치(P2' 내지 P5')의 중심위치(Pv2')로 설정할 수 있다.
이때, 로봇 핸드(1)의 제1 가상 손가락 끝의 위치(Pv1')는 제1 실제 손가락 끝의 위치(P1')와 1:1 대응 할 수 있다. 그리고, 로봇 핸드(1)의 제 2 가상 손가락 끝의 위치(Pv2')는 제2 내지 제5 실제 손가락 끝의 위치(P2' 내지 P5')와 1:4 대응 할 수 있다.
그리고 나서, 로봇 핸드(1)의 제1 가상 손가락 끝의 위치(Pv1')와 제2 가상 손가락 끝의 위치(Pv2')간의 중심위치를 구할 수 있다. 이를 가상 물체 중심위치(Pc')라고 할 수 있다.
로봇 핸드(1)의 제1 가상 손가락 끝과 제2 가상 손가락 끝은 가상 물체 중심위치(Pc')를 기준으로 그 가상 물체 중심위치를 향하여 운동하게 되면서 가상물체(미도시)를 파지할 수 있다.
로봇 핸드(1)의 제1 가상 손가락의 끝 및 제2 가상 손가락의 끝이 가상 물체 중심위치(Pc')를 기준으로 그 가상 물체 중심위치(Pc')를 향하여 운동하는 경우, 제1 가상 손가락의 끝 및 제2 가상 손가락의 끝은 각각 가상 물체 중심위치(Pc')를 기준으로 제1 가상 손가락 끝의 위치(Pv1')와 제2 가상 손가락 끝의 위치(Pv2')사이의 상대적인 위치관계를 일정하게 유지한 채로 운동할 수 있다.
이와 함께, 로봇 핸드(1)의 제2 가상 손가락의 끝이 가상 물체 중심위치(Pc')를 기준으로 운동하게 되면, 제2 가상 손가락의 끝의 위치(Pv2')를 기준으로 실제 손가락 끝의 위치(P2' 내지 P5')도 그 상대적인 위치관계를 일정하게 유지하며 운동할 수 있다.
다른 예로, 파지 상태에서 물체를 놓기 위해 손을 펴는 동작 및 물체를 더 세게 쥐려고 하는 동작 역시 같은 원리로 작동할 수 있다.
본 발명의 일실시예에 의한 로봇 핸드(1)에서는 제2 가상 손가락 끝의 위치(Pv2')를 위치 제2 내지 제5 실제 손가락 끝의 위치(P2' 내지 P5')의 중심위치인 경우에 대해서 설명하고 있지만, 이에 한정되지 않으며, 제2 내지 제5 실제 손가락 끝의 위치(P2' 내지 P5') 중 어느 한쪽으로 치우친 임의의 위치도 가능하다.
또한, 본 발명의 일실시예에 의한 로봇 핸드(1)에서는 제2 내지 제5 실제 손가락의 끝의 위치(P2' 내지 P5')를 하나의 가상 손가락 끝의 위치(Pv2')로 전환한 것을 나타내고 있지만, 이에 한정되지 않으며, 적어도 하나 이상의 실제 손가락의 끝의 위치를 하나의 가상 손가락 끝의 위치(Pv2')로 전환하는 것도 가능하다.
1 : 로봇 핸드 5 : 로봇 팔
100 : 로봇 110 : 마스터 디바이스
111 : 표시부 112 : 마스터 핸드
113 : 마스터 암 114 : 위치 센서부
115 : 제1 통신부 120 : 슬레이브 디바이스
121 : 제어부 122 : 파지 제어부
123 : 저장부 124 : 제2 통신부
125 : 센서부
P1 내지 P5 : 마스터 핸드의 실제 손가락 위치
Pv1 내지 Pv2 : 마스터 핸드의 가상 손가락 위치
Pc : 마스터 핸드의 물체 중심 좌표
P1' 내지 P5' : 로봇 핸드의 실제 손가락 위치
Pv1' 내지 Pv2' : 로봇 핸드의 가상 손가락 위치
Pc' : 로봇 핸드의 물체 중심 좌표

Claims (14)

  1. 로봇 핸드와 로봇 팔;
    상기 로봇 핸드가 물체를 감지할 수 있게 하는 파지 센서부;
    상기 파지 센서부로부터 획득한 파지정보로부터 상기 로봇 핸드가 물체를 파지하였는지 여부를 판단하고, 상기 판단 결과에 따라 물체의 움직임을 기준으로 로봇 핸드와 로봇 팔을 제어하는 물체 기반 좌표 또는 독립적으로 로봇 핸드와 로봇 팔을 제어하는 독립 좌표를 선택하고, 상기 선택된 좌표를 기준으로 상기 로봇 핸드 및 로봇 팔을 제어하는 파지 제어부;
    상기 물체 기반 좌표에서 가상 물체의 위치 및 방향을 계산하고, 상기 가상 물체의 위치 및 방향 정보를 상기 파지 제어부로 전달하는 좌표 변환부를 포함하는 로봇.
  2. 제1항에 있어서,
    상기 파지 제어부는 로봇 핸드가 물체를 파지하였다고 판단한 경우에 상기 물체 기반 좌표를 적용하고, 사용자의 미세한 움직임에는 로봇이 움직이지 않게 파지상태를 유지하도록 하는 것을 포함하는 로봇.
  3. 제1항에 있어서,
    상기 물체 기반 좌표는 복수의 실제 손가락 끝의 위치를 계산하고, 상기 계산된 복수의 실제 손가락 끝의 위치를 이용하여 복수의 가상 손가락 끝의 위치를 계산하고, 상기 계산된 복수의 가상 손가락 끝의 위치를 근거로 하여 물체의 중심위치 및 물체의 방향 벡터를 구하는 것을 포함하는 로봇.
  4. 제1항에 있어서,
    상기 파지 제어부는 마스터 디바이스 또는 슬레이브 디바이스로부터 전달 받은 가상 물체 좌표의 상대변화가 직선 운동인지, 회전 운동인지 또는 파지 운동인지 여부를 판단하고, 상기 직선 운동, 회전 운동, 파지 운동에 따른 직선 운동 제어명령, 회전 운동 제어명령, 파지 운동 제어명령을 하는 것을 더 포함하는 로봇.
  5. 제4항에 있어서,
    상기 직선 운동 제어명령은 상기 직선 운동 중에서 물체 기반 좌표의 xy평면에서의 직선 운동인 지 여부를 판단하고, 상기 직선 운동 중에서 물체 기반 좌표의 z축에서의 직선 운동인 경우 상기 로봇 핸드가 물체 기반 좌표의 z축 방향의 직선 운동이 가능한 지 여부를 판단하여 상기 로봇 팔 또는 로봇 핸드를 제어하는 명령인 것을 포함하는 로봇.
  6. 제4항에 있어서,
    상기 회전 운동 제어명령은 상기 회전 운동 중에서 물체 기반 좌표의 x축 또는 y축을 중심으로 하는 회전 운동인지를 판단하고, 상기 회전 운동 중에서 물체 기반 좌표의 z축을 중심으로 하는 회전 운동인 경우 상기 로봇 핸드가 물체 기반 좌표의 z축을 중심으로 회전 운동이 가능한 지 여부를 판단하여 상기 로봇 팔 또는 로봇 핸드를 제어하는 명령인 것을 포함하는 로봇.
  7. 제4항에 있어서,
    상기 파지 운동 제어명령은 상기 로봇 핸드를 제어하는 명령인 것을 포함하는 로봇.
  8. 파지 센서부로부터 획득한 파지정보로부터 로봇 핸드가 물체를 파지하였는지 여부를 판단하고, 상기 판단 결과에 따라 물체의 움직임을 기준으로 로봇 핸드와 로봇 팔을 제어하는 물체 기반 좌표 또는 독립적으로 로봇 핸드와 로봇 팔을 제어하는 독립 좌표를 선택하고, 상기 선택된 좌표를 기준으로 상기 로봇 핸드 및 로봇 팔을 제어하고, 상기 물체 기반 좌표는 가상 물체의 위치 및 방향을 계산하고, 상기 가상 물체의 위치 및 방향 정보를 상기 파지 제어부로 전달하는 것을 포함하는 로봇 제어 방법.
  9. 제8항에 있어서,
    상기 좌표를 결정하는 것은 로봇 핸드가 물체를 파지하였다고 판단한 경우에 상기 물체 기반 좌표를 적용하고, 사용자의 미세한 움직임에는 로봇이 움직이지 않게 파지상태를 유지하도록 하는 것을 포함하는 로봇 제어방법.
  10. 제8항에 있어서,
    상기 물체 기반 좌표는 복수의 실제 손가락 끝의 위치를 계산하고, 상기 계산된 복수의 실제 손가락 끝의 위치를 이용하여 복수의 가상 손가락 끝의 위치를 계산하고, 상기 계산된 복수의 가상 손가락 끝의 위치를 근거로 하여 물체의 중심위치 및 물체의 방향 벡터를 구하는 것을 포함하는 로봇 제어방법.
  11. 제8항에 있어서,
    상기 물체 기반 좌표를 선택하는 것은 마스터 디바이스 또는 슬레이브 디바이스로부터 전달 받은 가상 물체 좌표의 상대변화가 직선 운동인지, 회전 운동인지 또는 파지 운동인지 여부를 판단하고, 상기 직선 운동, 회전 운동, 파지 운동에 따른 직선 운동 제어명령, 회전 운동 제어명령, 파지 운동 제어명령을 하는 것을 더 포함하는 로봇 제어방법.
  12. 제11항에 있어서,
    상기 직선 운동 제어명령은 상기 직선 운동 중에서 물체 기반 좌표의 xy평면에서의 직선 운동인 지 여부를 판단하고, 상기 직선 운동 중에서 물체 기반 좌표의 z축에서의 직선 운동인 경우 상기 로봇 핸드가 물체 기반 좌표의 z축 방향의 직선 운동이 가능한 지 여부를 판단하여 상기 로봇 팔 또는 로봇 핸드를 제어하는 명령인 것을 포함하는 로봇 제어방법.
  13. 제11항에 있어서,
    상기 회전 운동 제어명령은 상기 회전 운동 중에서 물체 기반 좌표의 x축 또는 y축을 중심으로 하는 회전 운동인지를 판단하고, 상기 회전 운동 중에서 물체 기반 좌표의 z축을 중심으로 하는 회전 운동인 경우 상기 로봇 핸드가 물체 기반 좌표의 z축을 중심으로 회전 운동이 가능한 지 여부를 판단하여 상기 로봇 팔 또는 로봇 핸드를 제어하는 명령인 것을 포함하는 로봇 제어방법.
  14. 제11항에 있어서,
    상기 파지 운동 제어명령은 상기 로봇 핸드를 제어하는 명령인 것을 포함하는 로봇 제어방법.
KR1020120002955A 2012-01-10 2012-01-10 로봇 및 그 제어방법 Active KR101941844B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020120002955A KR101941844B1 (ko) 2012-01-10 2012-01-10 로봇 및 그 제어방법
CN201310008020.9A CN103192387B (zh) 2012-01-10 2013-01-09 机器人及其控制方法
US13/738,409 US9122275B2 (en) 2012-01-10 2013-01-10 Robot and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120002955A KR101941844B1 (ko) 2012-01-10 2012-01-10 로봇 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20130081875A true KR20130081875A (ko) 2013-07-18
KR101941844B1 KR101941844B1 (ko) 2019-04-11

Family

ID=48715295

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120002955A Active KR101941844B1 (ko) 2012-01-10 2012-01-10 로봇 및 그 제어방법

Country Status (3)

Country Link
US (1) US9122275B2 (ko)
KR (1) KR101941844B1 (ko)
CN (1) CN103192387B (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180027227A (ko) * 2016-09-06 2018-03-14 한국생산기술연구원 충돌위험을 최소화하는 자기중심 원격제어 방법
US9939846B2 (en) 2014-02-12 2018-04-10 Samsung Display Co., Ltd. Display device and method of manufacturing a display device
KR20180089602A (ko) * 2017-01-31 2018-08-09 전자부품연구원 복수의 컨트롤러를 이용한 로봇 제어 시스템 및 장치
KR20190048589A (ko) * 2017-10-31 2019-05-09 충남대학교산학협력단 가상 현실 기반 양팔로봇 교시 장치 및 방법
KR20200091238A (ko) * 2019-01-22 2020-07-30 한국원자력연구원 로봇의 마스터 장치 및 이를 구비하는 로봇 제어 시스템
US12493792B2 (en) 2019-10-24 2025-12-09 Nvidia Corporation Reinforcement learning of tactile grasp policies

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014129110A1 (ja) * 2013-02-25 2014-08-28 パナソニック株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
US9393686B1 (en) * 2013-03-15 2016-07-19 Industrial Perception, Inc. Moveable apparatuses having robotic manipulators and conveyors to facilitate object movement
CN103406910B (zh) * 2013-08-17 2015-11-25 刘发永 自主视觉仿生机器人
US10285765B2 (en) 2014-05-05 2019-05-14 Vicarious Surgical Inc. Virtual reality surgical device
CN104308844A (zh) * 2014-08-25 2015-01-28 中国石油大学(华东) 一种五指仿生机械手的体感控制方法
US10201901B2 (en) * 2015-01-29 2019-02-12 Canon Kabushiki Kaisha Robot apparatus, method for controlling robot, program, and recording medium
JP6468871B2 (ja) * 2015-02-03 2019-02-13 キヤノン株式会社 ロボットハンド制御方法及びロボット装置
US9669543B1 (en) 2015-12-11 2017-06-06 Amazon Technologies, Inc. Validation of robotic item grasping
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
US10213925B2 (en) * 2016-09-09 2019-02-26 The Board Of Trustees Of The Leland Stanford Junior University Workpiece contact state estimating device and workpiece contact state estimation method
CN106926260A (zh) * 2017-03-10 2017-07-07 蒙柳 一种遥操作机器人交互控制器
JP3226609U (ja) * 2017-06-19 2020-07-09 ジョンルイ フーニン ロボティクス (シェンヤン) カンパニー リミテッド ロボット用グリッパシステム
JP6912415B2 (ja) 2018-04-10 2021-08-04 ファナック株式会社 ハンド制御装置およびハンド制御システム
US11813749B2 (en) 2020-04-08 2023-11-14 Fanuc Corporation Robot teaching by human demonstration
CN111475025B (zh) * 2020-04-08 2022-08-19 腾讯科技(深圳)有限公司 一种触觉反馈设备、电子设备及机器人系统
CN114905478B (zh) * 2021-02-08 2024-09-17 腾讯科技(深圳)有限公司 双边遥操作系统及控制方法
CN113084848B (zh) * 2021-04-08 2022-06-14 河北省科学院应用数学研究所 主从式灵巧手跟随方法及终端设备
CN114029950B (zh) * 2021-11-08 2023-05-05 北京华航唯实机器人科技股份有限公司 机器人的坐标系分析方法及装置、机器人设备、存储介质
KR102795504B1 (ko) * 2022-11-25 2025-04-16 고려대학교 산학협력단 증강현실 객체탐지 기반 로봇팔 제어 시스템
CN119369438B (zh) * 2024-11-26 2025-11-28 上海期智研究院 力触觉反馈遥操作系统和远程操控机械手方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003062775A (ja) * 2001-08-24 2003-03-05 Japan Science & Technology Corp 人間型ハンドロボット用教示システム
JP3612085B2 (ja) * 1993-11-25 2005-01-19 株式会社東芝 マスタ・スレーブシステムのマスタアーム装置
JP2006167867A (ja) * 2004-12-16 2006-06-29 Fuji Heavy Ind Ltd 遠隔操作装置
KR20100062653A (ko) * 2008-12-02 2010-06-10 삼성전자주식회사 로봇 핸드 및 그 제어방법

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61296409A (ja) * 1985-06-25 1986-12-27 Fanuc Ltd ロボツト制御方式
US5086400A (en) 1990-05-11 1992-02-04 The United States Of America As Represented The The Administrator Of The National Aeronautics And Space Administration Bilevel shared control for teleoperators
US7027031B2 (en) * 2002-02-07 2006-04-11 Gifu University Touch sense interface and method for controlling touch sense interface
US8010180B2 (en) * 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US7443115B2 (en) * 2002-10-29 2008-10-28 Matsushita Electric Industrial Co., Ltd. Apparatus and method for robot handling control
SE0203908D0 (sv) 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
JP4001105B2 (ja) 2003-12-11 2007-10-31 トヨタ自動車株式会社 ロボットによる任意形状物体の把持方法
WO2005095066A1 (ja) * 2004-03-31 2005-10-13 Japan Science And Technology Agency ロボットハンド
ATE540634T1 (de) * 2005-06-06 2012-01-15 Intuitive Surgical Operations Laparoskopisches ultraschall-robotersystem für chirurgische zwecke
US7920124B2 (en) * 2006-08-29 2011-04-05 Canon Kabushiki Kaisha Force sense presentation device, mixed reality system, information processing method, and information processing apparatus
JP2009018380A (ja) 2007-07-12 2009-01-29 Toyota Motor Corp ロボット、ロボットの制御方法、及びロボットの制御システム
KR100926783B1 (ko) * 2008-02-15 2009-11-13 한국과학기술연구원 물체인식 및 인식된 물체를 포함하는 주변 환경 정보를바탕으로 한 로봇의 자기 위치 추정 방법
US8350843B2 (en) * 2008-03-13 2013-01-08 International Business Machines Corporation Virtual hand: a new 3-D haptic interface and system for virtual environments
KR101665544B1 (ko) 2008-12-18 2016-10-14 삼성전자주식회사 다지 핸드의 제어장치 및 그 파지방법
US8346393B2 (en) * 2008-12-18 2013-01-01 Samsung Electronics Co., Ltd. Control apparatus of multi-finger hand and grasping method using the same
US8364314B2 (en) * 2009-04-30 2013-01-29 GM Global Technology Operations LLC Method and apparatus for automatic control of a humanoid robot
KR20110015765A (ko) * 2009-08-10 2011-02-17 삼성전자주식회사 로봇의 경로계획장치 및 그 방법
JP5528095B2 (ja) * 2009-12-22 2014-06-25 キヤノン株式会社 ロボットシステム、その制御装置及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3612085B2 (ja) * 1993-11-25 2005-01-19 株式会社東芝 マスタ・スレーブシステムのマスタアーム装置
JP2003062775A (ja) * 2001-08-24 2003-03-05 Japan Science & Technology Corp 人間型ハンドロボット用教示システム
JP2006167867A (ja) * 2004-12-16 2006-06-29 Fuji Heavy Ind Ltd 遠隔操作装置
KR20100062653A (ko) * 2008-12-02 2010-06-10 삼성전자주식회사 로봇 핸드 및 그 제어방법

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9939846B2 (en) 2014-02-12 2018-04-10 Samsung Display Co., Ltd. Display device and method of manufacturing a display device
US10678304B2 (en) 2014-02-12 2020-06-09 Samsung Display Co., Ltd. Display device and method of manufacturing a display device
US11209868B2 (en) 2014-02-12 2021-12-28 Samsung Display Co., Ltd. Display device and method of manufacturing a display device
KR20180027227A (ko) * 2016-09-06 2018-03-14 한국생산기술연구원 충돌위험을 최소화하는 자기중심 원격제어 방법
KR101864758B1 (ko) * 2016-09-06 2018-06-05 한국생산기술연구원 충돌위험을 최소화하는 자기중심 원격제어 방법
KR20180089602A (ko) * 2017-01-31 2018-08-09 전자부품연구원 복수의 컨트롤러를 이용한 로봇 제어 시스템 및 장치
KR20190048589A (ko) * 2017-10-31 2019-05-09 충남대학교산학협력단 가상 현실 기반 양팔로봇 교시 장치 및 방법
KR20200091238A (ko) * 2019-01-22 2020-07-30 한국원자력연구원 로봇의 마스터 장치 및 이를 구비하는 로봇 제어 시스템
US12493792B2 (en) 2019-10-24 2025-12-09 Nvidia Corporation Reinforcement learning of tactile grasp policies

Also Published As

Publication number Publication date
CN103192387B (zh) 2017-03-01
US20130178978A1 (en) 2013-07-11
CN103192387A (zh) 2013-07-10
US9122275B2 (en) 2015-09-01
KR101941844B1 (ko) 2019-04-11

Similar Documents

Publication Publication Date Title
KR101941844B1 (ko) 로봇 및 그 제어방법
US12048505B2 (en) Master control device and methods therefor
US10842578B2 (en) Robot system
US10817056B2 (en) Hand exoskeleton force feedback system
CA2824588C (en) Robotic grasping device with multi-force sensing at base of fingers
US10423227B2 (en) Hand exoskeleton force feedback system
KR101896473B1 (ko) 로봇 핸드의 제어 방법
KR101891162B1 (ko) 도구의 제어 움직임에 사용되는 프레임의 위치 및 방향을 추정하는 장치 및 방법
WO2021047522A1 (zh) 手术机器人及其末端器械的控制方法、控制装置
CN110709211B (zh) 机器人系统和机器人系统的控制方法
WO2011065034A1 (ja) ロボットの動作を制御する方法およびロボットシステム
JPWO2019146201A1 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP2012128795A (ja) 側面設置型力覚提示インターフェイス
JP2013039657A (ja) シリアルロボットのための迅速な把持接触計算
JP2009172685A (ja) マニピュレータシステムおよびその制御方法
Zhao et al. An intuitive human robot interface for tele-operation
JP3884249B2 (ja) 人間型ハンドロボット用教示システム
KR101665544B1 (ko) 다지 핸드의 제어장치 및 그 파지방법
CN110877335A (zh) 一种基于混合滤波器自适应无标记机械臂轨迹跟踪方法
JP2011240418A (ja) マニピュレータの制御装置
Nandasena et al. Real-time upper body motion tracking using computer vision for improved human-robot interaction and teleoperation
JPH05337860A (ja) ロボットハンドの教示装置およびロボットハンド
JP2019126879A (ja) 把持装置
US20190389052A1 (en) Control apparatus, robot, and robot system
Gokul et al. Design of Imitative Control Modalities for a 3 Degree of Freedom Robotic Arm

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

A201 Request for examination
PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

AMND Amendment
P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E601 Decision to refuse application
PE0601 Decision on rejection of patent

St.27 status event code: N-2-6-B10-B15-exm-PE0601

AMND Amendment
P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

PX0901 Re-examination

St.27 status event code: A-2-3-E10-E12-rex-PX0901

PX0701 Decision of registration after re-examination

St.27 status event code: A-3-4-F10-F13-rex-PX0701

X701 Decision to grant (after re-examination)
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 8