[go: up one dir, main page]

KR102181815B1 - 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법 - Google Patents

개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법 Download PDF

Info

Publication number
KR102181815B1
KR102181815B1 KR1020180146008A KR20180146008A KR102181815B1 KR 102181815 B1 KR102181815 B1 KR 102181815B1 KR 1020180146008 A KR1020180146008 A KR 1020180146008A KR 20180146008 A KR20180146008 A KR 20180146008A KR 102181815 B1 KR102181815 B1 KR 102181815B1
Authority
KR
South Korea
Prior art keywords
unit
predicted position
location map
image capturing
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180146008A
Other languages
English (en)
Other versions
KR20200063355A (ko
Inventor
김영욱
전세웅
김동엽
신동인
정병진
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020180146008A priority Critical patent/KR102181815B1/ko
Priority to PCT/KR2018/015022 priority patent/WO2020105778A1/ko
Publication of KR20200063355A publication Critical patent/KR20200063355A/ko
Application granted granted Critical
Publication of KR102181815B1 publication Critical patent/KR102181815B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 개인성향을 파악하여 가사물을 정리정돈함으로써 물건정리에 대한 이질감을 줄이며, 사용자가 물건을 용이하게 찾을 수 있도록 도와주는 개인 맞춤형 정리로봇에 관한 것이다. 이를 위하여, 본 발명은, 물건을 촬영하는 영상촬영부; 상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부; 상기 물건을 이동시키기 위한 이동수행부; 상기 물건의 예측위치를 저장하는 물건위치맵부; 및 상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되는 개인 맞춤형 정리로봇을 제공한다.
따라서, 본 발명에 의하면, 개인이 사용한 물건을 정리정돈 할 수 있는 정리로봇을 제공할 수 있으며, 개인의 성향을 파악하여 가장 선호하는 위치에 물건을 정리할 수 있는 이점이 있다.

Description

개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법{Personalized arrangement robot and arrangement method using the same}
본 발명은 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법에 관한 것이며, 구체적으로 개인성향을 파악하여 가사물을 정리정돈함으로써 물건정리에 대한 이질감을 줄이며, 사용자가 물건을 용이하게 찾을 수 있도록 도와주는 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법에 관한 것이다.
로봇기술이 발달하면서 산업용 로봇뿐만 아니라 점차 가정용 로봇도 많은 연구가 진행되고 있다. 특히, 가정용 로봇은 청소로봇이 가장 활발하게 상업화가 되어 있는 분야이다. 이러한 청소로봇은 실내 구조 파악을 위해 실내맵을 저장하고 있으며, 스스로 돌아다니면서 진공흡수기를 이용하여 먼지 등을 흡수하거나 바닥을 닦는 역할을 한다.
종래기술로서, 도 1에 나타낸 등록특허 제10-0877072호를 참조하면, 청소를 위한 이동로봇은, 이동로봇의 위치 인식을 위한 특징맵을 생성하는 특징뱁 생성부와, 상기 특징맵을 이용하여 얻어지는 이동로봇의 자세 정보를 바탕으로 복수의 셀을 포함하고 각각의 셀은 장애물 유무정보 및 경로정보를 갖는 경로맵을 생성하는 경로맵생성부와, 상기 장애물 유무정보 및 경로정보에 따라 상기 이동로봇을 이동시키는 이동제어부로 이루어진다.
상기 특허에 의하면, 특징맵 및 경로맵을 이용하여 청소경로를 생성하므로 청소시간이 현저히 줄어드는 장점이 있다.
하지만, 이러한 종래기술은 정해진 경로대로 바닥을 청소하는 역할에 그칠 뿐 개인의 성향에 따라 물건을 정리할 수 있는 방법이나 구성은 없다.
따라서, 정해진 루트가 아닌 개인의 성향을 파악하여 개인 물건들을 정리할 수 있는 로봇에 대한 연구가 필요한 실정이다.
본 발명은 상기한 문제점을 해결하기 위한 것이며, 개인성향을 스스로 학습하여 개인 물건을 선호하는 위치에 정리,정돈하기 위한 개인 맞춤형 정리로봇을 제공하는 것이 본 발명의 목적이다.
또한, 개인 물건의 위치파악을 함으로써 사용자가 물건을 찾을 때 도움을 줄 수 있는 정보를 제공하는 것이 본 발명의 또 다른 목적이다.
상기한 목적을 달성하기 위하여, 본 발명은, 물건을 촬영하는 영상촬영부; 상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부; 상기 물건을 이동시키기 위한 이동수행부; 상기 물건의 예측위치를 저장하는 물건위치맵부; 및 상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되는 개인 맞춤형 정리로봇을 제공한다.
상기 물건위치맵부는 상기 물건인식부를 통해 인식된 물건의 위치 및 인식시간을 입력데이터로 포함하며, 각 물건의 예측위치 또는 버림여부를 출력데이터로 포함하여 기계학습을 하는 것이 바람직하다.
상기 제어부는 상기 물건인식부에 의해 인식된 물건에 대하여 상기 물건위치맵부를 참조하여 대응하는 예측위치의 유무를 판별하고, 예측위치가 존재하면 상기 예측위치와 실측위치 사이의 오차거리를 계산하여 상기 오차거리가 일정거리 이상인 경우 이동수행부를 제어하여 상기 물건을 예측위치로 이동시키는 것이 바람직하다.
상기 개인 맞춤형 정리로봇은 개인성향판단부를 더 포함하며, 상기 개인성향판단부는 상기 오차거리가 일정거리 이상인 이동횟수를 계산하여 상기 이동횟수가 일정횟수 이상이고, 상기 실측위치가 일정 범위 이내인 경우 상기 실측위치를 예측위치로 변경시킬 수 있다.
상기 개인성향판단부는 상기 이동수행부에 의해 이동된 물건에 대한 피드백을 입력받아 상기 물건위치맵부를 업데이트할 수 있다.
상기 개인 맞춤형 정리로봇은 사용자에게 정보를 주기 위한 표시부를 더 포함하며, 제어부는 특정 물건의 위치정보를 요청받은 경우 상기 물건위치맵부를 검색하여 상기 표시부를 통해 상기 물건의 위치정보를 표시하여 주는 것이 바람직하다.
상기 물건인식부는 영상촬영부에 의해 촬영된 물건의 종류를 분류하고, 물건위치맵부는 상기 물건인식부에서 인식된 물건의 종류별로 예측위치를 저장하는 것이 바람직하다.
상기 물건인식부는 영상촬영부에 의해 촬영된 물건의 촬영날짜를 저장하고, 상기 제어부는 상기 물건인식부에 의해 인식된 물건에 대해 설정날짜와 촬영날짜를 비교하여 상기 촬영날짜가 설정날짜와 같거나 이후이면 이동수행부를 제어하여 상기 물건을 예측위치로 이동시키는 것이 바람직하다.
본 발명에 의하면, 또한, 영상촬영부에 의해 물건을 촬영하는 단계; 물건인식부에 의해 상기 영상촬영부를 통해 촬영된 물건을 인식하는 단계; 상기 물건의 예측위치를 물건위치맵부에 저장하는 단계; 및 제어부는 상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 이동수행부를 제어하여 상기 물건을 이동시키는 단계를 수행하는 개인 맞춤형 정리로봇에 의한 물건정리방법을 제공한다.
상기 물건위치맵부는 상기 물건인식부를 통해 인식된 물건의 위치 및 인식시간을 입력데이터로 포함하며, 각 물건의 예측위치 또는 버림여부를 출력데이터로 포함하여 기계학습을 하는 것이 바람직하다.
본 발명에 의하면, 개인이 사용한 물건을 정리정돈 할 수 있는 정리로봇을 제공할 수 있으며, 개인의 성향을 파악하여 가장 선호하는 위치에 물건을 정리할 수 있는 이점이 있다.
또한, 본 발명에 의하면, 효율적으로 물건을 정리할 수 있으며, 사용자가 특정 물건을 찾을 경우 해당 물건에 대한 정보를 표시하여 줌으로써 편리하게 이용할 수 있는 이점이 있다.
도 1은 종래기술에 의한 청소로봇의 구성을 나타내는 구성도;
도 2는 본 발명에 의한 개인 맞춤형 정리로봇의 구성을 나타내는 구성도;
도 3은 도 2에서 물건인식부의 구성을 나타내는 구성도;
도 4는 본 발명에 의한 개인 맞춤형 정리로봇의 예를 나타내는 예시도;
도 5는 본 발명에 의한 물건위치맵부의 학습방법을 나타내는 예시도;
도 6은 본 발명에 의한 개인 맞춤형 정리로봇의 정리방법을 나타내는 설명도.
본 발명의 실시예의 구성 및 작용에 대하여 첨부한 도면을 참조하여 상세하게 설명한다.
도 2 및 도 6을 참조하면, 본 발명에 의한 개인 맞춤형 정리로봇은 영상촬영부(110), 물건인식부(120), 이동수행부(130), 물건위치맵부(140), 개인성향판단부(150), 제어부(160), 통신부(170), 주행부(180)를 포함하여 구성된다.
상기 영상촬영부(110)는 전방의 영상을 촬영할 수 있는 하나 이상의 센서들을 포함하여 구성될 수 있으며, RGB카메라, RGBD카메라, 라이다(Lidar), 적외선 스캐너, 초음파센서, LRF센서 등을 포함할 수 있다.
상기 물건인식부(120)는 영상촬영부(110)에서 촬영된 영상을 이용하여 영상에 포함된 물건을 인식하여 레이블을 생성한다.
구체적으로, 도 3을 참조하면, 물건인식부(120)는 영상수신부(121), 특징점추출부(122), 윤곽선추출부(123), 레이블매칭부(124)를 포함한다.
영상수신부(121)는 영상촬영부(110)에서 촬영된 영상을 수신할 수도 있고, 통신부(160)를 통해 외부에서 촬영된 영상을 수신받을 수도 있다. 상기 영상수신부(121)를 통해 수신된 영상은 특징점추출부(122)에서 특징점들이 추출된다. 상기 특징점들은 픽셀(색상 또는 명암)의 변화가 큰 점들이 될 수 있으며, 예를 들어, 물건의 모서리나 꼭지점 등이 될 수 있다.
또한, 윤곽선추출부(123)에서는 촬영된 물건의 외형을 추출하는 역할을 한다. 윤곽선을 추출하는 방법으로 세그멘테이션(segmentation) 기법이 이용될 수 있다.
윤곽선추출부(123)에 의해 분리된 물건의 영상정보는 레이블매칭부(124)에 의해 분류되어 레이블이 생성된다.
상기 레이블매칭부(124)는 입력층, 은닉층, 출력층을 포함한 딥러닝과 같은 인공지능 신경망으로 구성될 수 있으며, 학습된 데이터를 이용하여 은닉층에 가중치정보가 저장되어 있다.
상기 물건인식부는 이러한 방법으로 영상촬영부에 의해 촬영된 물건의 종류를 분류할 수 있으며, 영상촬영부에 의해 촬영된 물건의 촬영날짜를 저장할 수 있다.
상기 이동수행부(130)는 도 4와 같이 본체 전방에 형성되어 영상촬영부(110)로부터 촬영된 물건을 파지하는 역할을 하며, 소프트 그리퍼(soft gripper)로 구비되는 것이 바람직하다. 즉, 상기 이동수행부(130)는 제어부의 제어 하에 영상촬영부(110)로부터 촬영된 물건이 파지 가능한 경우, 물건을 파지하고 주행부(180)에 의해 특정 장소로 이동 후 물건의 파지를 해제할 수 있다.
상기 이동수행부(130)는 설계조건에 따라 다섯 손가락을 흉내낸 로봇손, 진공흡착을 할 수 있는 흡착기, 두 방향으로 구비되어 물건을 집을 수 있는 로봇집게 등 여러가지 형태로 구비될 수도 있다.
제어부는 영상촬영부로부터 촬영된 물건의 이미지를 통해 파지 가능여부를 판단할 수 있다. 즉, 제어부는 영상촬영부로부터 촬영된 물건의 이미지를 자체적으로 저장부에 저장된 물건의 종류에 대한 데이터베이스와 각 물건의 이미지 정보를 매칭시켜 촬영된 물건의 종류를 분류하고, 분류된 물건의 무게 또는 형상에 따라 이동수행부를 통해 파지가능 여부를 판단한다.
또한, 제어부는 이동수행부에 의해 파지 가능하다고 판단한 경우, 해당 물건을 학습할 수 있다. 여기서 제어부는 GAN 기반의 피킹학습정책 네트워크를 통해 해당 물건을 학습할 수 있다. 예를 들어, 제어부는 생성자(Generator)를 통해 실제 파지할 물건에 대하여 학습하고 이를 바탕으로 거짓 데이터를 생성한다. 그리고, 제어부에서는 감별자(Discriminor)를 통해 생성자가 내놓은 데이터가 실제인지 거짓인지 판별할 수 있도록 학습을 수행한다. 이와 같이 제어부는 대량의 데이터를 정제과정없이 처리할 수 있으며, 스스로 학습함으로써 학습데이터 확보가 쉽지 않은 문제점을 해결할 수 있다.
본 발명은 관리서버를 따로 두고 상기 관리서버에 데이터베이스를 구축하여 둠으로써 방대한 데이터를 관리할 수 있다. 즉, 관리서버에서는 개인 맞춤형 정리로봇으로부터 전방에 감지된 물건에 대한 이미지를 수신하거나, 서버 제어부에 의해 결정된 물건의 종류나 물건의 종류에 따른 무게 또는 형상을 다시 개인 맞춤형 정리로봇으로 송신하거나, 파지 가능여부에 대한 데이터를 송신할 수 있다.
또한, 서버 제어부에서는 개인 맞춤형 정리로봇으로부터 수신한 물건의 이미지를 데이터베이스에 저장된 이미지 정보와 매칭시켜 이미지에 포함된 물건의 종류를 파악할 수 있다.
상기 물건위치맵부(140)는 사용자 물건의 예측위치를 저장하며, 업데이트하는 역할을 한다. 상기 예측위치는 각 물건에 대해 사용자가 선호하는 위치일 수 있으며, 물건이 위치해야 할 장소를 실내의 정해진 위치에 대응시켜 놓은 데이터로 볼 수 있다. 특히, 물건위치맵부(140)는 물건인식부에서 인식된 물건의 종류별로 예측위치를 저장할 수 있다.
상기 물건위치맵부(140)는 실내구조를 포함하는 실내맵을 저장하며, 또한, 도 5와 같은 인공신경망 또는 딥러닝 등의 기계학습에 의해 물건의 위치와 포즈등을 학습하여 각 물건의 예측위치정보를 저장하게 된다. 예를 들어, 사물인식부에서 컵을 인식한 경우 상기 컵의 예측위치는 부엌으로 저장될 수 있으며, 옷을 인식한 경우 상기 옷의 예측위치는 세탁실 등으로 저장될 수 있다.
상기 실내맵은 방, 거실, 부엌, 화장실의 위치 및 구조정보 등이 저장될 수 있으며, 미리 만들어진 지도정보가 저장되거나 주행부를 통해 획득한 영상정보를 기초로 하여 실내맵을 생성할 수도 있다. 또한, 물건의 예측위치는 실내맵을 기초로 하여 각 물건에 2차원 또는 3차원 좌표를 대응시키거나 방,부엌,화장실 등 기능적인 구획공간에 대응시킬 수도 있다.
예측위치를 학습할 때, 입력층에는 영상촬영부(110)를 통해 획득한 물건의 위치 및 인식시간이 입력데이터로 포함될 수 있으며, 출력층에는 각 물건의 예측위치 또는 버림여부가 출력데이터로 포함될 수 있다.
예를 들어, 영상촬영부를 통해 병을 인식하였다고 할 때, 상기 병의 색상을 분석하여 내용물의 부피가 추정되고, 내용물의 부피가 일정부피 이하라고 판단되면 버리는 것으로 판단할 수 있다. 또한, 쿠키상자의 경우 영상촬영부를 통해 인식된 상자가 열려 있는 경우 쿠키가 있는 지 없는 지를 판단하여 쿠기가 없는 경우 버리는 것으로 판단할 수 있다.
상기한 바와 같이 버림으로 판단된 물건의 경우 예측위치는 휴지통으로 저장되어 이동수행부는 상기 물건을 파지하여 휴지통으로 이동시킬 수 있다.
또한, 동일한 물건이라도 물건인식부(120)에서 인식한 물건의 상태에 따라 예측위치가 달라질 수 있다. 예를 들어, 물건인식부에서 물건이 콜라병으로 인식되었을 때, 콜라병에 콜라가 가득 찬 것으로 인식된 경우 예측위치는 냉장고가 될 수 있으며, 콜라병에 콜라가 비어있는 것으로 인식된 경우 버림으로 판단한다.
상기 주행부(180)는 본체를 이동시키기 위한 구성으로, 본체의 하부에 설치되는 바퀴 및 상기 바퀴를 구동시키기 위한 모터로 구성되거나 걸을 수 있는 다리로 구성될 수 있다.
상기 본체에는 영상촬영부, 물건인식부, 이동수행부 등의 장치나 소프트웨어가 탑재되며, 상기 본체는 어느 정도 높이에 있는 실내의 물건을 인식하고 이동시키기 위하여 높이 조절이 가능하거나 일정 높이를 유지하도록 구성되는 것이 바람직하다.
또한, 상기 본체에 구비되는 통신부(170)는 블루투스, 와이파이, LTE와 같은 무선통신을 수행할 수 있도록 구비되며, 통신망을 통해 관리서버와 통신을 수행할 수 있다. 특히, 상기 통신부(170)는 영상촬영부(110)에 의해 촬영된 전방의 물건의 이미지를 관리서버로 전송하거나, 관리서버로부터 전송한 이미지에 대응되는 물건의 종류 또는 물건의 파지 가능여부에 대한 데이터를 수신할 수 있다.
그리고, 상기 본체에는 입력부(190) 및 표시부(195)가 구비될 수 있다. 상기 입력부(190)는 하나 이상의 버튼을 포함할 수 있다. 예를 들어, 입력부(190)는 예측위치, 영상정보, 물건위치 등을 확인하는 명령을 입력하거나 상기 명령을 재설정하는 버튼, 삭제버튼, 정리시작버튼, 정지버튼 등을 구비할 수 있다. 또한, 입력부(190)는 예약정보를 설정하거나 삭제하기 위한 버튼을 구비할 수도 있다. 이러한 입력부(190)는 사용자의 터치 또는 조작에 따른 입력신호를 발생하는 키패드와 터치패드 중 적어도 하나를 포함하여 구성될 수 있다. 이때, 입력부는 표시부와 함께 하나의 터치패널의 형태로 구성되어 입력과 표시 기능을 동시에 수행할 수 있다.
표시부(195)는 예약정보, 배터리 상태, 정리방식, 주행방식, 예측위치, 물건위치 등을 화면에 표시하여 준다. 상기 표시부는 본체의 각 유닛들의 현재상태와 정리상태 등을 출력할 수 있다.
제어부(160)는 본체의 각 구성 유닛들의 동작을 제어하는 역할을 한다. 또한, 주행부를 통해 본체가 실내공간을 돌아다니며 주기적으로 또는 설정된 시간에 맞추어 실내의 물건들을 스캔하도록 한다.
제어부(160)는 영상촬영부를 통해 촬영된 영상을 기초로 하여 물건인식부에서 촬영된 영상을 분석하여 물건을 인식하고, 물건위치맵부를 참조하여 인식된 물건에 대하여 대응하는 예측위치가 있는지 판별한다.
이때, 인식된 물건에 대응하는 예측위치가 있는 경우 상기 예측위치와 영상촬영부를 통해 촬영된 실측위치의 사이의 오차거리를 계산한다. 상기 오차거리는 실내맵을 참조하여 직선거리로 계산될 수 있으나, 이에 한정되지는 않고 상황에 맞는 방식으로 계산될 수 있다. 예를 들어, 실내의 벽이나 문을 고려한 최단거리, 좌표의 거리가 아닌 방, 부엌, 화장실과 같은 기능적인 구획공간 사이의 거리 등으로 계산될 수 있다. 상기 기능적인 구획공간은 방 내에서도 침대, 책상, 의자 등의 기능적인 사물별로 나뉠 수 있다. 만약, 인식된 물건의 예측위치와 실측위치가 동일하다면 오차거리는 0으로 계산된다.
제어부에서는 각 물건마다 위와 같은 방법으로 오차거리를 계산하여 저장부에 저장하며, 오차거리가 일정거리 이상인 경우 이동수행부를 제어하여 상기 물건을 파지한 후, 상기 물건을 예측위치로 이동시킬 수 있다.
이때, 오차거리는 일반적인 거리개념과는 다를 수 있다. 예를 들어, 동일한 방에서 침대 옆에 책상이 있는 경우 자로 잰 실측거리는 짧은 거리이더라도 오차거리는 기능적인 구획공간이 달라지면 매우 큰 거리로 저장될 수 있다. 즉, 오차거리는 자로 잰 실측거리에 기능적인 구획공간의 가중치를 곱하여 계산될 수 있다. 기능적인 구획공간이 달라지면 가중치가 커지도록 설정된다. 즉, 예측위치와 실측위치의 기능적인 구획공간이 달라지면 가중치는 1보다 큰 값이 곱해지고, 예측위치와 실측위치의 기능적인 구획공간이 동일하면 가중치는 1보다 작은 값이 곱해질 수 있다.
상기 제어부에서는 전체 실내 스캔을 마치면 오차거리가 가장 큰 물건순으로 정렬한 후 가장 오차거리가 큰 물건부터 정리를 시작할 수 있다.
한편, 인식된 물건에 따라 설정날짜 또는 설정횟수가 저장될 수 있다. 상기 설정날짜 또는 설정횟수는 해당 물건에 대해 어떠한 조치를 취해야 하는 날짜 또는 횟수이다. 예를 들어, 특정 외투가 인식되었을 때 제어부에서는 설정날짜와 물건인식부에서 인식된 촬영날짜를 비교하여 촬영날짜가 설정날짜와 같거나 이후이면 설정된 동작을 수행할 수 있다. 상기 설정된 동작은 이동수행부를 이용하여 세탁실로 이동시키는 등의 동작이 될 수 있다. 또한, 물건인식부를 통해 특정 음식물이 인식되었을 때, 설정날짜가 되면 상기 음식물을 이동수행부를 통해 휴지통으로 이동시키는 동작을 수행할 수도 있다.
상기 설정횟수는 물건인식부에 의해 인식된 횟수를 나타낸다. 이때, 설정횟수는 촬영날짜가 바뀌어야 설정횟수가 증가하도록 하는 것이 바람직하다.
상기 설정날짜 또는 설정횟수는 사용자에 의해 입력을 받을 수도 있고 자동으로 설정될 수도 있다. 예를 들어, 인식된 물건이 특정 셔츠인 경우 설정횟수가 자동으로 정해지며 상기 셔츠가 인식된 횟수가 설정횟수에 다다르면 제어부는 이동수행부를 이용하여 상기 셔츠를 세탁실로 이동시킨다.
상기 개인성향판단부(150)는 일반적인 환경과 달리 가사물에 대해 개인성향을 반영하여 정돈을 하기 위한 것으로서, 영상촬영부에 의해 촬영된 영상을 분석하여 각 물건에 대하여 오차거리가 일정거리 이상인 횟수, 즉 일정 기간동안 이동횟수를 계산하여 상기 이동횟수가 일정횟수 이상이고, 실측위치가 실측오차범위 이내인 경우 제어부를 통해 물건위치맵부에서 상기 실측위치를 예측위치로 변경시킨다.
상기 실측오차범위는 저장된 최종실측위치로부터 일정 거리 이내의 범위를 의미할 수 있으며, 이때에도 오차거리와 마찬가지로 기능적인 구획공간에 따라 가중치가 곱해질 수 있다. 즉, 최종실측위치와 현재실측위치가 동일한 기능적인 구획공간인 경우 가중치는 1보다 작게 되고, 최종실측위치와 현재실측위치가 동일한 기능적인 구획공간인 경우 가중치는 1보다 크게 될 수 있다.
개인성향판단부(150)는 외부 단말기를 통해서도 개인의 선호위치를 입력받을 수 있다. 예를 들어, 스마트폰과 같은 단말기를 통해 특정 물건의 선호위치를 입력받을 수 있으며, 이때, 개인성향판단부는 외부 단말기를 통해 입력받은 선호위치를 해당 물건의 예측위치로 변경시킨다.
또한, 상기 개인성향판단부(150)는 이동수행부(130)에 의해 이동된 물건에 대한 피드백을 입력받아 기계학습의 입력데이터로 활용함으로써 물건위치맵부를 업데이트할 수 있다. 이때, 기계학습은 GAN(Generative Adversarial Networks)기반 인공지능학습을 이용하는 것이 바람직하다.
한편, 상기 표시부(195)는 사용자에게 각종 정보를 표시하여 주는데, 제어부는 입력부(190)나 외부 단말기를 통해 입력받은 요청에 대해 상기 표시부를 통해 대응하는 정보를 표시하여 줄 수 있다.
상기 물건위치맵부(140)에서는 스캔한 물건 또는 이동수행부를 통해 이동시킨 물건의 최종위치를 저장하고 있다. 이때, 특정 물건의 위치정보를 요청받은 경우 제어부에서는 물건위치맵부를 검색하여 표시부를 통해 상기 물건의 위치정보를 표시하여 줄 수 있다.
상기에서는 본 발명의 실시예들을 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
110 : 영상촬영부 120 : 물건인식부
130 : 이동수행부 140 : 물건위치맵부
150 : 개인성향판단부 160 : 제어부
170 : 통신부 180 : 주행부
190 : 입력부 195 : 표시부

Claims (10)

  1. 삭제
  2. 물건을 촬영하는 영상촬영부;
    상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부;
    상기 물건을 이동시키기 위한 이동수행부;
    상기 물건의 예측위치를 저장하는 물건위치맵부; 및
    상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되며,
    상기 물건위치맵부는 상기 물건인식부를 통해 인식된 물건의 위치 및 인식시간을 입력데이터로 포함하며, 각 물건의 예측위치 또는 버림여부를 출력데이터로 포함하여 기계학습을 하는 것을 특징으로 하는 개인 맞춤형 정리로봇.
  3. 물건을 촬영하는 영상촬영부;
    상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부;
    상기 물건을 이동시키기 위한 이동수행부;
    상기 물건의 예측위치를 저장하는 물건위치맵부; 및
    상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되며,
    상기 제어부는 상기 물건인식부에 의해 인식된 물건에 대하여 상기 물건위치맵부를 참조하여 대응하는 예측위치의 유무를 판별하고, 예측위치가 존재하면 상기 예측위치와 실측위치 사이의 오차거리를 계산하여 상기 오차거리가 일정거리 이상인 경우 이동수행부를 제어하여 상기 물건을 예측위치로 이동시키는 것을 특징으로 하는 개인 맞춤형 정리로봇.
  4. 제3항에 있어서,
    상기 개인 맞춤형 정리로봇은 개인성향판단부를 더 포함하며,
    상기 개인성향판단부는 상기 오차거리가 일정거리 이상인 이동횟수를 계산하여 상기 이동횟수가 일정횟수 이상이고, 상기 실측위치가 일정 범위 이내인 경우 상기 실측위치를 예측위치로 변경시키는 것을 특징으로 하는 개인 맞춤형 정리로봇.
  5. 제4항에 있어서,
    상기 개인성향판단부는 상기 이동수행부에 의해 이동된 물건에 대한 피드백을 입력받아 상기 물건위치맵부를 업데이트하는 것을 특징으로 하는 개인 맞춤형 정리로봇.

  6. 물건을 촬영하는 영상촬영부;
    상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부;
    상기 물건을 이동시키기 위한 이동수행부;
    상기 물건의 예측위치를 저장하는 물건위치맵부; 및
    상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부;
    사용자에게 정보를 주기 위한 표시부를 포함하여 구성되며,
    제어부는 특정 물건의 위치정보를 요청받은 경우 상기 물건위치맵부를 검색하여 상기 표시부를 통해 상기 물건의 위치정보를 표시하여 주는 것을 특징으로 하는 개인 맞춤형 정리로봇.
  7. 물건을 촬영하는 영상촬영부;
    상기 영상촬영부를 통해 촬영된 물건을 인식하는 물건인식부;
    상기 물건을 이동시키기 위한 이동수행부;
    상기 물건의 예측위치를 저장하는 물건위치맵부; 및
    상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 상기 이동수행부를 제어하는 제어부를 포함하여 구성되며,
    상기 물건인식부는 영상촬영부에 의해 촬영된 물건의 종류를 분류하고,
    물건위치맵부는 상기 물건인식부에서 인식된 물건의 종류별로 예측위치를 저장하는 것을 특징으로 하는 개인 맞춤형 정리로봇.
  8. 제3항에 있어서,
    상기 물건인식부는 영상촬영부에 의해 촬영된 물건의 촬영날짜를 저장하고, 상기 제어부는 상기 물건인식부에 의해 인식된 물건에 대해 설정날짜와 촬영날짜를 비교하여 상기 촬영날짜가 설정날짜와 같거나 이후이면 이동수행부를 제어하여 상기 물건을 예측위치로 이동시키는 것을 특징으로 하는 개인 맞춤형 정리로봇.
  9. 삭제
  10. 영상촬영부에 의해 물건을 촬영하는 단계;
    물건인식부에 의해 상기 영상촬영부를 통해 촬영된 물건을 인식하는 단계;
    상기 물건의 예측위치를 물건위치맵부에 저장하는 단계; 및
    제어부는 상기 물건위치맵부에 의한 예측위치와 상기 영상촬영부에 의해 촬영된 물건의 실측위치를 비교하여 이동수행부를 제어하여 상기 물건을 이동시키는 단계를 수행하며,
    상기 물건위치맵부는 상기 물건인식부를 통해 인식된 물건의 위치 및 인식시간을 입력데이터로 포함하며, 각 물건의 예측위치 또는 버림여부를 출력데이터로 포함하여 기계학습을 하는 것을 특징으로 하는 개인 맞춤형 정리로봇에 의한 물건정리방법.
KR1020180146008A 2018-11-23 2018-11-23 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법 Active KR102181815B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180146008A KR102181815B1 (ko) 2018-11-23 2018-11-23 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법
PCT/KR2018/015022 WO2020105778A1 (ko) 2018-11-23 2018-11-30 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180146008A KR102181815B1 (ko) 2018-11-23 2018-11-23 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법

Publications (2)

Publication Number Publication Date
KR20200063355A KR20200063355A (ko) 2020-06-05
KR102181815B1 true KR102181815B1 (ko) 2020-11-24

Family

ID=70774540

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180146008A Active KR102181815B1 (ko) 2018-11-23 2018-11-23 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법

Country Status (2)

Country Link
KR (1) KR102181815B1 (ko)
WO (1) WO2020105778A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022158655A1 (ko) * 2021-01-19 2022-07-28 고려대학교 산학협력단 정리정돈 로봇을 이용한 정리정돈 시스템
KR20220127069A (ko) 2021-03-10 2022-09-19 한국과학기술연구원 공간 내 물건의 특성에 기초하여 공간 복잡도를 계산하는 공간 분석 시스템 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100811887B1 (ko) 2006-09-28 2008-03-10 한국전자통신연구원 단계적 정확도를 갖는 위치 정보를 선택적으로 제공할 수있는 자율이동로봇의 위치 정보 제공 장치 및 그 방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3920317B2 (ja) * 2004-08-02 2007-05-30 松下電器産業株式会社 物品運搬用ロボット
JP2007152443A (ja) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd 片付けロボット
KR100711559B1 (ko) * 2006-07-26 2007-04-27 김승우 홈 메스클린업 로봇 시스템 및 구현방법
KR100866380B1 (ko) * 2007-02-13 2008-11-03 한국과학기술연구원 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법
KR100917377B1 (ko) * 2007-03-30 2009-09-16 성균관대학교산학협력단 인식/추론 수준에 따른 계층적 구조의 실내 정보를 가지는서비스 로봇의 중앙 정보처리 시스템 및 방법
KR100926783B1 (ko) * 2008-02-15 2009-11-13 한국과학기술연구원 물체인식 및 인식된 물체를 포함하는 주변 환경 정보를바탕으로 한 로봇의 자기 위치 추정 방법
KR100991194B1 (ko) * 2008-07-31 2010-11-05 주식회사 유진로봇 이동 로봇의 물체 운반 시스템 및 방법
KR101134316B1 (ko) * 2009-10-09 2012-04-13 한양대학교 산학협력단 물체의 공간적 의미정보를 이용한 로봇의 능동적 자기위치 추정 방법
KR101145599B1 (ko) * 2010-04-14 2012-05-15 순천향대학교 산학협력단 승강 구조를 가지는 가사도우미 로봇
KR101623414B1 (ko) * 2014-09-16 2016-05-23 경상대학교 산학협력단 정리 로봇
KR102447438B1 (ko) * 2015-07-01 2022-09-27 삼성전자주식회사 알림 장치 및 알림 장치가 물건의 위치를 알려주는 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100811887B1 (ko) 2006-09-28 2008-03-10 한국전자통신연구원 단계적 정확도를 갖는 위치 정보를 선택적으로 제공할 수있는 자율이동로봇의 위치 정보 제공 장치 및 그 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022158655A1 (ko) * 2021-01-19 2022-07-28 고려대학교 산학협력단 정리정돈 로봇을 이용한 정리정돈 시스템
KR20220127069A (ko) 2021-03-10 2022-09-19 한국과학기술연구원 공간 내 물건의 특성에 기초하여 공간 복잡도를 계산하는 공간 분석 시스템 및 방법

Also Published As

Publication number Publication date
WO2020105778A1 (ko) 2020-05-28
KR20200063355A (ko) 2020-06-05

Similar Documents

Publication Publication Date Title
KR102795473B1 (ko) 클러터-청소 로봇 시스템
EP3720666B1 (en) Learning and applying empirical knowledge of environments by robots
CN112074382B (zh) 机器人以及定位机器人传感器的方法
US11370123B2 (en) Mobile robot and method of controlling the same
US9751212B1 (en) Adapting object handover from robot to human using perceptual affordances
KR102859547B1 (ko) 로봇 시스템 및 그 제어 방법
CN109613913A (zh) 自主移动机器人工作方法、自主移动机器人及系统
CN111328386A (zh) 通过自主移动机器人对未知环境的探察
KR102737171B1 (ko) 로봇 및 이를 포함하는 의류 폴딩 장치
CN108885459A (zh) 导航方法、导航系统、移动控制系统及移动机器人
CN118586482A (zh) 基于具身智能的三维场景图谱处理方法、系统及介质
Gualtieri et al. Open world assistive grasping using laser selection
KR102181815B1 (ko) 개인 맞춤형 정리로봇 및 그것을 이용한 물건정리방법
Matamoros et al. Trends, challenges and adopted strategies in robocup@ home
CN118893633B (zh) 一种模型训练方法、装置和机械臂系统
CN119278116A (zh) 用于更新场景表示模型的方法
Kubota et al. Topological environment reconstruction in informationally structured space for pocket robot partners
KR102285625B1 (ko) 비접촉식 물건속성 인식장치 및 방법
CN115164899A (zh) 路线规划方法、装置、设备及介质
CN114879677A (zh) 物品放置方法、装置、机器人、电子设备及存储介质
KR20200034025A (ko) 정리 및 정돈이 가능한 청소 로봇 및 시스템
JP2021160941A (ja) ピッキング用移動体
EP4404544A1 (en) Mobile terminal and system
JP2021160936A (ja) ピッキング経路提案プログラム
Neo et al. A natural language instruction system for humanoid robots integrating situated speech recognition, visual recognition and on-line whole-body motion generation

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20181123

PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20190109

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20181123

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200422

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20201025

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20201117

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20201117

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20230921

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee