[go: up one dir, main page]

KR102706055B1 - 라이다 장착 스마트 기기를 활용한 3차원 인체 골격 정보 추출 방법 - Google Patents

라이다 장착 스마트 기기를 활용한 3차원 인체 골격 정보 추출 방법 Download PDF

Info

Publication number
KR102706055B1
KR102706055B1 KR1020240047995A KR20240047995A KR102706055B1 KR 102706055 B1 KR102706055 B1 KR 102706055B1 KR 1020240047995 A KR1020240047995 A KR 1020240047995A KR 20240047995 A KR20240047995 A KR 20240047995A KR 102706055 B1 KR102706055 B1 KR 102706055B1
Authority
KR
South Korea
Prior art keywords
human body
skeleton information
dimensional
information
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020240047995A
Other languages
English (en)
Inventor
남종호
Original Assignee
국립한국해양대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국립한국해양대학교산학협력단 filed Critical 국립한국해양대학교산학협력단
Priority to KR1020240047995A priority Critical patent/KR102706055B1/ko
Application granted granted Critical
Publication of KR102706055B1 publication Critical patent/KR102706055B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1116Determining posture transitions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Physiology (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 개시는 라이다 장착 스마트 기기를 활용한 3차원 인체 골격 정보 추출 방법에 관한 것이다. 본 개시는, 카메라 모듈을 통해 인체 영상을 촬영하면서, 라이다 센서를 통해 인체 영상에 대한 깊이 정보를 검출하고, 인체 영상으로부터 2차원 인체 골격 정보를 검출하고, 2차원 인체 골격 정보와 깊이 정보를 결합하여, 3차원 인체 골격 정보를 검출하도록 구성될 수 있다. 아울러, 본 개시는, 외부 객체에 의해 인체의 적어도 하나의 부분이 가려지는 인체 가림 구간을 검출하고, 인체 가림 구간 직전의 제 1 3차원 인체 골격 정보와 인체 가림 구간 직후의 제 2 3차원 인체 골격 정보를 비교하여, 인체 가림 구간 내에서의 인체의 동작을 추정하도록 더 구성될 수 있다.

Description

라이다 장착 스마트 기기를 활용한 3차원 인체 골격 정보 추출 방법{METHOD FOR EXTRACTING 3D HUMAN SKELETON INFORMATION USING SMART DEVICES EQUIPPED WITH LiDAR}
본 개시는 3차원 인체 골격 정보를 추출하기 위한 방법 및 장치에 관한 것으로, 특히, 라이다 장착 스마트 기기를 활용한 3차원 인체 골격 정보 추출 방법에 관한 것이다.
현재 활용되는 대표적인 두 가지의 인체 측정 방식들은 멀티 카메라를 활용한 3차원 재생 방식(멀티 카메라 방식) 및 신체에 센서를 부착하는 방식(웨어러블 착용 방식)으로 알려져 있다. 이 두 가지 인체 측정 방식은 정확도 측면에서 우위를 가지나, 현장 적용을 어렵게 하는 복잡함과 번거로움을 가지고 있다. 따라서, 이 두 가지 인체 측정 방식들은 실험실에서 연구용으로 적합할 뿐, 현실적으로 활용이 거의 불가능하다.
구체적으로, 멀티 카메라 방식은 복잡하다. 3차원 형상 정보를 추출하기 위하여 스테레오 방식으로 영상을 취득하고 분석하여야 한다. 현재까지 개발 또는 발표된 대부분의 3차원 인체 측정은 복잡한 장비 셋업으로만 가능하다. 즉 2대 이상의 카메라들을 필요로 한다. 측정을 위한 장치 설치에 많은 시간을 요하며, 캘리브레이션 및 장소 이동 시 매우 불편하다. 마이크로소프트사의 키넥트(Kinect)와 같은 스테레오 방식의 카메라가 존재하지만, 거리 제한이 있고 정확도 측면에서 뒤떨어지는 기술로 알려져 있다. 이는 최근 업데이트가 없어 사양화되는 과정으로 인식되고 있다.
한편, 웨어러블 센서 방식은 번거롭다. 정확한 3차원 정보 추출을 위한 가장 효과적인 방법은 신체에 센서를 부착하거나 웨어러블 장비를 착용하는 방식이다. 센서 또는 웨어러블 장비의 가장 큰 문제점은 작업자의 신체에 직접 부착하여야 하므로, 많은 시간을 요할 뿐 아니라, 막대한 불편함을 초래할 수밖에 없다. 작업자 대다수가 기피하는 방식으로, 연구 측면에서 사전 자료를 취합할 때만 적합하고, 일반 현장에서는 부적합한 것으로 알려져 있다.
영상으로부터 3차원 골격 정보를 추출하는 현재 방법에는 두 가지의 문제점들이 있다. 첫 번째 문제점은 3차원 좌표 획득의 부정확성이다. 현재 2차원 골격 정보는 비교적 정확하게 추출되고 이에 대한 소프트웨어도 다수 존재한다. 하지만, 3차원 골격 정보는 오류가 많고, 부정확도 정도가 과하여 거의 활용 불가능하다. 두 번째 문제점은 가려진 신체 정보 획득의 불가능이다. 만약 신체 일부가 타 물체에 의해 가려지는 경우, 현존하는 소프트웨어는 신체 정보를 추출할 수 없다.
본 개시는 정확한 3차원 인체 골격 정보를 추출하기 위한 방법 및 장치를 제공한다.
본 개시는 가려진 인체 골격을 추정하여, 정확한 3차원 인체 골격 정보를 추출하기 위한 방법 및 장치를 제공한다.
본 개시는 카메라 모듈과 라이다 센서를 포함하는 전자 장치의 3차원 인체 골격 정보 추출 방법을 제공하며, 상기 방법은, 카메라 모듈을 통해 인체 영상을 촬영하면서, 라이다 센서를 통해 상기 인체 영상에 대한 깊이 정보를 검출하는 단계, 상기 인체 영상으로부터 2차원 인체 골격 정보를 검출하는 단계, 및 상기 2차원 인체 골격 정보와 상기 깊이 정보를 결합하여, 3차원 인체 골격 정보를 검출하는 단계를 포함할 수 있다.
본 개시에서, 상기 방법은, 외부 객체에 의해 인체의 적어도 하나의 부분이 가려지는 인체 가림 구간을 검출하는 단계, 및 상기 인체 가림 구간 직전의 제 1 3차원 인체 골격 정보와 상기 인체 가림 구간 직후의 제 2 3차원 인체 골격 정보를 비교하여, 상기 인체 가림 구간 내에서의 상기 인체의 동작을 추정하는 단계를 더 포함할 수 있다.
본 개시는 3차원 인체 골격 정보 추출을 위한 전자 장치를 제공하며, 상기 전자 장치는, 카메라 모듈, 라이다 센서, 메모리, 및 상기 카메라 모듈, 상기 라이다 센서, 및 상기 메모리와 연결되고, 상기 메모리에 저장된 적어도 하나의 명령을 실행하도록 구성되며, 상기 카메라 모듈 및 상기 라이다 센서를 이용하여 3차원 인체 골격 정보를 추출하는 동작을 수행하도록 구성되는 프로세서를 포함하고, 상기 프로세서는, 상기 카메라 모듈을 통해 인체 영상을 촬영하면서, 상기 라이다 센서를 통해 상기 인체 영상에 대한 깊이 정보를 검출하고, 상기 인체 영상으로부터 2차원 인체 골격 정보를 검출하고, 상기 2차원 인체 골격 정보와 상기 깊이 정보를 결합하여, 상기 3차원 인체 골격 정보를 검출하도록 구성될 수 있다.
본 개시에서, 외부 객체에 의해 인체의 적어도 하나의 부분이 가려지는 인체 가림 구간을 검출하고, 상기 인체 가림 구간 직전의 제 1 3차원 인체 골격 정보와 상기 인체 가림 구간 직후의 제 2 3차원 인체 골격 정보를 비교하여, 상기 인체 가림 구간 내에서의 상기 인체의 동작을 추정하도록 구성될 수 있다.
본 개시에 따르면, 전자 장치에 구비되는 카메라 모듈과 라이다 센서를 이용하여 실시간으로 3차원 인체 골격 정보가 추출될 수 있다. 스마트 기기와 같은 전자 장치를 통해 3차원 인체 골격 정보가 추출될 수 있으므로, 현장에의 추가 장치나 설비 없이, 전자 장치를 소유한 누구나 용이하게 3차원 인체 골격 정보를 획득할 수 있다. 이 때, 전자 장치는 인체로부터 원격에서 인체 영상과 인체 영상에 대한 깊이 정보를 검출할 수 있으므로, 인체 및 인체의 동작, 예컨대, 작업자 및 작업 과정을 전혀 방해하지 않고도, 3차원 인체 골격 정보를 획득할 수 있다. 이로써, 3차원 인체 골격 정보로부터 인체의 자세, 동작 특성 등, 예컨대, 작업장에서의 작업자의 작업 자세, 작업 난이도 등이 실시간으로 확인되어, 인체의 안전을 도모하기 위한 사전 예방 및 자세 교정이 가능하며, 나아가 주변 환경의 개선이 가능하다. 아울러, 전자 장치와 인체 사이의 외부 객체에 의한 인체 가림이 발생하더라도, 인체 가림이 종료된 후에 인체 가림 동안의 인체의 동작이 역으로 추정됨으로써, 인체 가림 동안의 신체 활동(에너지 소모량 등)의 유추가 가능하다.
도 1a는 인체 내 관절들을 나타내는 개략도이다.
도 1b는 본 개시의 다양한 실시예들에 따른 3차원 인체 골격 정보 추출을 위한 전자 장치를 도시하는 블록도이다.
도 2a는 도 1의 전자 장치의 동작 특징들을 설명하기 위한 개요도이다.
도 2b는 도 1의 전자 장치가 스마트 기기인 경우, 스마트 기기에서의 어플리케이션(앱) 구동 화면을 나타내는 예시도들이다.
도 2c는 도 2a의 2차원 인체 골격 정보와 3차원 인체 골격 정보를 나타내는 예시도들이다.
도 3은 본 개시의 다양한 실시예들에 따른 전자 장치의 3차원 인체 골격 정보 추출 방법을 도시하는 블록도이다.
도 4a, 도 4b, 도 4c, 도 4d, 도 4e, 도 5a, 도 5b, 및 도 5c는 도 3의 3차원 인체 골격 정보 추출을 위한 어플리케이션(앱)의 구동을 설명하기 위한 예시도들이다.
도 6은 도 3의 인체 가림 구간 내에서의 인체의 동작을 추정하는 단계를 세부적으로 도시하는 순서도이다.
이하, 본 개시의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다.
이하에서, 인체 골격 정보는 인체 내 관절들의 상대적인 위치들을 나타낼 수 있다. 도 1a는 인체 내 관절들을 나타내는 개략도이다. 도 1a에 도시된 바와 같이, 인체 내 관절들은 총 17 개에 해당하며, 하기 [표 1]과 같은 명칭들을 각각 갖는다.
No 관절 명칭 부모 관절
1 Head Neck
2 Neck Root
3 Shoulder_right Neck
4 Forearm_right Shoulder_right
5 Hand_right Forearm_right
6 Shoulder_left Neck
7 Forearm_left Shoulder_left
8 Hand_left Forearm_left
9 Upperleg_right Root
10 Leg_right Upperleg_right
11 Foot_right Leg_right
12 Upperleg_left Root
13 Leg_left Upperleg_left
14 Foot_left Leg_left
15 Eye_right Head
16 Eye_left Head
17 Root (pelvis) None
도 1b는 본 개시의 다양한 실시예들에 따른 3차원 인체 골격 정보 추출을 위한 전자 장치(100)를 도시하는 블록도이다. 도 2a는 도 1의 전자 장치(100)의 동작 특징들을 설명하기 위한 개요도이다. 도 2b는 도 1의 전자 장치(100)가 스마트 기기(예: 스마트폰)인 경우, 스마트 기기에서의 앱 구동 화면을 나타내는 예시도들이다. 도 2c는 도 2a의 2차원 인체 골격 정보(230)와 3차원 인체 골격 정보(240)를 나타내는 예시도들이다.
도 1b를 참조하면, 전자 장치(100)는 카메라 모듈(110), 라이다 센서(120), 통신 모듈(130), 입력 모듈(140), 출력 모듈(150), 메모리(160), 또는 프로세서(170) 중 적어도 하나를 포함할 수 있다. 일부 실시예들에서, 전자 장치(100)의 구성 요소들 중 적어도 하나가 생략될 수 있으며, 적어도 하나의 다른 구성 요소가 추가될 수 있다. 일부 실시예들에서, 전자 장치(100)의 구성 요소들 중 적어도 두 개가 하나의 통합된 회로로 구현될 수 있다. 일부 실시예들에서, 전자 장치(100)의 구성 요소들은 적어도 두 개의 장치들에 분산되어 배치될 수 있으며, 여기서, 해당 장치들은 서로와 통신 가능하게 연결될 수 있다.
이 때, 전자 장치(100)는 다양한 형태의 스마트 기기일 수 있다. 이로써, 전자 장치(100)는 스마트 기기에 설치되는 어플리케이션(앱)을 기반으로 3차원 인체 골격 정보를 추출할 수 있다. 예를 들면, 전자 장치(100)는 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다.
카메라 모듈(110)은 전자 장치(100)에서 영상을 촬영할 수 있다. 여기서, 영상은 정지 영상 또는 동영상 중 적어도 하나를 포함할 수 있다. 여기서, 카메라 모듈(110)은 RGB 카메라일 수 있으나, 이에 국한되지는 않는다. 예를 들면, 카메라 모듈(310)은 렌즈, 이미지 센서, 이미지 시그널 프로세서 또는 플래시 중 적어도 어느 하나를 포함할 수 있다.
라이다 센서(120)는 전자 장치(100)에서 주변 객체에 대한 깊이 정보를 감지할 수 있다. 구체적으로, 라이다 센서(120)는 레이저 빔을 사용하여 주변 환경을 스캔하여, 주변 객체에 대한 깊이 정보를 감지할 수 있다. 예를 들면, 라이다 센서(120)는 레이저 빔을 출력하는 송신기 및 주변 객체로부터 반사되는 레이저 빔을 수신하는 수신기를 포함할 수 있다.
통신 모듈(130)은 전자 장치(100)에서 외부 장치(도시되지 않음)와 통신을 수행할 수 있다. 통신 모듈(130)은 전자 장치(100)와 외부 장치 간 통신 채널을 수립하고, 통신 채널을 통하여, 외부 장치와 통신을 수행할 수 있다. 예를 들면, 외부 장치는 다른 전자 장치, 기지국, 서버, 또는 위성 중 적어도 하나를 포함할 수 있다. 통신 모듈(320)은 유선 통신 모듈 또는 무선 통신 모듈 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 무선 통신 모듈은 원거리 통신망 또는 근거리 통신망 중 적어도 어느 하나를 통하여 외부 장치와 통신을 수행할 수 있다.
입력 모듈(140)은 전자 장치(100)의 적어도 하나의 구성 요소에 사용될 명령을 입력할 수 있다. 입력 모듈(140)은 사용자가 전자 장치(100)에 직접적으로 명령 또는 데이터를 입력하도록 구성되는 입력 유닛, 또는 주변 환경을 감지하여 데이터를 발생하도록 구성되는 센서 유닛 중 적어도 어느 하나를 포함할 수 있다. 예를 들면, 입력 유닛은 마이크로폰(microphone), 마우스(mouse) 또는 키보드(keyboard) 중 적어도 어느 하나를 포함할 수 있다. 일부 실시예들에서, 입력 유닛은 터치를 감지하도록 설정된 터치 회로(touch circuitry) 또는 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로 중 적어도 하나를 포함할 수 있다.
출력 모듈(150)은 전자 장치(100)의 외부로 정보를 출력할 수 있다. 출력 모듈(150)은 정보를 시각적으로 출력하는 표시 모듈, 또는 정보를 청각적으로 출력하는 오디오 모듈 중 적어도 하나를 포함할 수 있다. 예를 들면, 표시 모듈은 디스플레이, 홀로그램 장치 또는 프로젝터 중 적어도 어느 하나를 포함할 수 있다. 어떤 실시예에서, 표시 모듈은 입력 모듈(140)의 터치 회로 또는 센서 회로 중 적어도 하나와 결합되어, 터치스크린으로 구현될 수 있다. 예를 들면, 오디오 모듈은 스피커 또는 리시버 중 적어도 하나를 포함할 수 있다.
메모리(160)는 전자 장치(100)의 적어도 하나의 구성 요소에 의해 사용되는 다양한 데이터를 저장할 수 있다. 예를 들면, 메모리(160)는 휘발성 메모리 또는 비휘발성 메모리 중 적어도 어느 하나를 포함할 수 있다. 데이터는 프로그램 또는 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 프로그램은 메모리(160)에 소프트웨어로서 저장될 수 있으며, 운영 체제, 미들 웨어 또는 어플리케이션 중 적어도 어느 하나를 포함할 수 있다. 어플리케이션은 3차원 인체 골격 정보 추출을 위한 어플리케이션(앱)을 포함할 수 있다.
프로세서(170)는 메모리(160)의 프로그램을 실행하여, 전자 장치(100)의 적어도 하나의 구성 요소를 제어할 수 있고, 데이터 처리 또는 연산을 수행할 수 있다. 구체적으로, 도 2a에 도시된 바와 같이, 임의의 인체에 대해 3차원 인체 골격 정보(240)가 추출될 수 있다. 프로세서(170)는 어플리케이션(앱)을 실행하여, 3차원 인체 골격 정보(240)를 추출할 수 있다. 이 때, 도 2b에 도시된 바와 같이, 앱이 실행되면, 프로세서(170)는 카메라 모듈(110)과 라이다 센서(120)를 활성화시키고, 앱이 실행되는 동안 실시간으로 3차원 인체 골격 정보(240)를 추출하도록 구동할 수 있다. 프로세서(170)는 카메라 모듈(110)을 통해 인체 영상(210)을 촬영하면서, 라이다 센서(120)를 통해 인체 영상에 대한 깊이 정보(220)를 검출할 수 있다. 여기서, 인체 영상(210)은 정지 영상 또는 동영상일 수 있다. 프로세서(170)는 인체 영상(210)으로부터 2차원 인체 골격 정보(230)를 검출할 수 있다. 여기서, 프로세서(170)는 도 2c의 좌측에 도시된 바와 같이 인체 영상(210) 내에서 인체의 관절들에 대한 2차원 좌표(x, y)들을 2차원 인체 골격 정보(230)로 검출할 수 있다. 프로세서(170)는 2차원 인체 골격 정보(230)와 깊이 정보(220)를 결합하여 3차원 인체 골격 정보(240)를 검출할 수 있다. 여기서, 프로세서(170)는 도 2c의 우측에 도시된 바와 같이 인체의 관절들에 대한 3차원 좌표(x, y, z)들을 3차원 인체 골격 정보(230)로 검출할 수 있다.
이러한 방식으로, 앱이 실행되는 동안, 프로세서(170)는 실시간으로 연속적으로 3차원 인체 골격 정보(240)를 검출할 수 있다. 이 때, 3차원 인체 골격 정보(240)를 검출하면서, 프로세서(170)는 인체 가림의 발생을 감지할 수 있다. 여기서, 인체 가림은 외부 객체에 의해 인체의 적어도 하나의 부분이 가려지는 것을 의미할 수 있다. 이러한 경우, 프로세서(170)는 인체 가림 구간을 검출할 수 있다. 그리고, 프로세서(170)는 인체 가림 구간 내에서의 인체의 동작을 추정할 수 있다. 구체적으로, 인체 가림 구간 내에서 인체의 자세는 변화될 수 있으므로, 프로세서(170)는 인체 가림 구간 직전의 제 1 3차원 인체 골격 정보(240)와 인체 가림 구간 직후의 제 2 3차원 인체 골격 정보(240)를 비교하여, 인체 가림 구간 내에서의 인체의 동작을 추정할 수 있다. 일부 실시예들에서, 인체의 50 % 미만이 외부 객체에 의해 가려지는 경우, 프로세서(170)는 인체의 동작을 추정할 수 있다. 일부 실시예들에서, 프로세서(170)는 인체 내의 관절들 중에서 팔 또는 다리와 같이 인체의 움직임에 직접적인 영향을 미치는 관절들을 중심으로 인체의 동작을 추정할 수 있다.
추가적으로, 도 2a에 도시된 바와 같이, 임의의 인체에 대한 3차원 인체 골격 정보(240)가 실시간으로 응용될 수 있다. 일 실시예에서, 프로세서(170)가 직접 3차원 인체 골격 정보(240)를 응용할 수 있다. 구체적으로, 프로세서(170)은 기계 학습 알고리즘(250)을 가지고 있으며, 기계 학습 알고리즘(250)을 통해 3차원 인체 골격 정보(240)를 분석하여 해당 인체의 인체 자세(260)를 판별할 수 있다. 또한, 프로세서(170)는 해당 인체 자세(260)에 따른 해당 인체의 동작 특성(270)을 검출할 수 있다. 여기서, 동작 특성은 해당 인체 자세(260)의 난이도(예: 신체 피로도, 동작 어려움 등을 표현하는 지수를 포함함)를 포함할 수 있다. 다른 실시예에서, 프로세서(170)는 통신 모듈(130)을 통해 3차원 인체 골격 정보(240)를 외부 장치로 전송하고, 이로써, 외부 장치가 3차원 인체 골격 정보(240)를 응용할 수 있다. 이러한 경우, 외부 장치가 기계 학습 알고리즘(250)을 가지고 있으며, 기계 학습 알고리즘(250)을 통해 3차원 인체 골격 정보(240)를 분석하여 해당 인체의 인체 자세(260)를 판별할 수 있다. 또한, 외부 장치는 해당 인체 자세(260)에 따른 해당 인체의 동작 특성(270)을 검출할 수 있다. 여기서, 동작 특성은 해당 인체 자세(260)의 난이도(예: 신체 피로도, 동작 어려움 등을 표현하는 지수를 포함함)를 포함할 수 있다. 일 예로, 해당 인체가 작업자의 것인 경우, 3차원 인체 골격 정보(240)로부터 작업자의 작업 난이도가 검출될 수 있으며, 이로써 작업자 보호, 작업 환경 개선 등이 도모될 수 있다.
도 3은 본 개시의 다양한 실시예들에 따른 전자 장치(100)의 3차원 인체 골격 정보 추출 방법을 도시하는 블록도이다. 도 4a, 도 4b, 도 4c, 도 4d, 도 4e, 도 5a, 도 5b, 및 도 5c는 도 3의 3차원 인체 골격 정보 추출을 위한 어플리케이션(앱)의 구동을 설명하기 위한 예시도들이다.
도 3을 참조하면, 전자 장치(100)는 310 단계에서 카메라 모듈(110)을 통해 인체 영상(210)을 촬영하면서, 라이다 센서(120)를 통해 인체 영상(210)에 대한 깊이 정보(220)를 검출할 수 있다. 이 때, 전자 장치(100)는 다양한 형태의 스마트 기기일 수 있으며, 스마트 기기에는 3차원 인체 골격 정보 추출을 위한 어플리케이션(앱)이 설치될 수 있다. 앱이 실행되면, 프로세서(170)는 카메라 모듈(110)과 라이다 센서(120)를 활성화시키고, 인체 영상(210)과 깊이 정보(220)를 획득할 수 있다. 여기서, 인체 형상(210)은 RGB 영상일 수 있다. 한편, 프로세서(170)는 라이다 센서(120)를 통해 픽셀 별 깊이를 감지함으로써 인체 영상(210)에 대응하는 깊이 맵(depth map)을 획득하고, 이를 깊이 정보(220)로 검출할 수 있다. 예를 들면, 프로세서(170)는 카메라 모듈(110)을 통해 도 4a에 도시된 바와 같은 인체 영상(210)을 획득하고, 라이다 센서(120)를 통해 도 4b에 도시된 바와 같은 깊이 정보(220)를 획득할 수 있다. 여기서, 프로세서(170)는 카메라 모듈(110)을 통해 촬영되는 프리뷰 영상을 표시 모듈을 통해 표시하는 중에, 사용자의 요청에 응답하여, 인체 영상(210)을 획득하고, 도 4a에 도시된 바와 같은 인체 영상(210)을 표시 모듈을 통해 표시할 수 있다. 아울러, 프로세서(170)는 사용자의 요청에 따라, 도 4b에 도시된 바와 같은 깊이 정보(220)를 표시 모듈을 통해 표시할 수도 있다.
다음으로, 전자 장치(100)는 320 단계에서 인체 영상(210)으로부터 2차원 인체 골격 정보(230)를 검출할 수 있다. 이 때, 프로세서(170)는 3차원 인체 골격 정보 추출을 위한 어플리케이션(앱)을 기반으로, 인체 영상(210)으로부터 2차원 인체 골격 정보(230)를 검출할 수 있다. 예를 들어, 프로세서(170)는 앱의 신체 검출(bodyDetection) 기능을 사용할 수 있다. 신체 검출 기능은 코어 기계 학습(Core ML) 프레임워크와 비전(Vision) 프레임워크의 조합으로 이루어질 수 있다. 코어 기계 학습 프레임워크는 실시간 데이터 분석 및 예측이 가능한 것을 특징으로 하고, 비전 프레임워크는 이미지 및 비디오 분석을 위한 고급 기능을 제공하는 것을 특징으로 한다. 구체적으로, 프로세서(170)는 사전에 훈련된 인체 감지 모델을 로드하고, 해당 모델을 통해 인체 영상(210) 내에서 인체를 감지하고, 해당 인체의 관절들을 추출할 수 있다. 이로써, 프로세서(170)는 인체 영상(210) 내에서 인체의 관절들에 대한 2차원 좌표(x, y)들을 2차원 인체 골격 정보(230)로 검출할 수 있다. 예를 들면, 프로세서(170)는 도 4c에 도시된 바와 같은 인체 영상(210)의 2차원 인체 골격 정보(230)를 획득할 수 있다. 도 4c에서, 흰색 점들이 2차원 인체 골격 정보(230)를 나타낼 수 있다. 여기서, 프로세서(170)는 도 4c에 도시된 바와 같이 인체 영상(210)에 2차원 인체 골격 정보(230)를 중첩시켜 표시 모듈을 통해 표시할 수 있다.
다음으로, 전자 장치(100)는 330 단계에서 2차원 인체 골격 정보(230)와 깊이 정보(220)를 결합하여, 3차원 인체 골격 정보(240)를 검출할 수 있다. 구체적으로, 프로세서(170)는 2차원 인체 골격 정보(230)를 깊이 정보(220)에 매치시킬 수 있다. 이 때, 2차원 인체 골격 정보(230)와 깊이 정보(220)는 정확하게 일치되지 않을 수 있으므로, 인접한 픽셀들을 조사하여 2차원 인체 골격 정보(230)를 깊이 정보(220)에 매치시킬 수 있다. 예를 들면, 프로세서(170)는 도 4d에 도시된 바와 같이 2차원 인체 골격 정보(230)를 깊이 정보(220)에 매치시킬 수 있다. 도 4d에서, 흰색 점들이 2차원 인체 골격 정보(230)를 나타낼 수 있다. 여기서, 프로세서(170)는 도 4d에 도시된 바와 같이 깊이 정보(220)에 2차원 인체 골격 정보(230)를 중첩시켜 표시 모듈을 통해 표시할 수 있다. 따라서, 프로세서(170)는 2차원 인체 골격 정보(230)의 관절들에 대한 깊이 정보(z 좌표)를 획득할 수 있다. 이로써, 프로세서(170)는 관절들에 대한 2차 좌표(x, y)들과 깊이 정보(z 좌표)의 조합으로 3차원 인체 골격 정보(240)를 검출할 수 있다. 예를 들면, 프로세서(170)는 도 4e에 도시된 바와 같이 3차원 인체 골격 정보(240)를 검출할 수 있다.
이러한 방식으로, 앱이 실행되는 동안, 전자 장치(100)는 실시간으로 연속적으로 3차원 인체 골격 정보(240)를 검출할 수 있다. 즉, 프로세서(170)는 310 단계, 320 단계, 및 330 단계를 반복적으로 수행할 수 있다.
한편, 330 단계에서 3차원 인체 골격 정보(240)를 검출하면서, 전자 장치(100)는 340 단계에서 인체 가림의 발생을 감지할 수 있다. 여기서, 도 5a에 도시된 바와 같이, 인체 가림은 외부 객체에 의해 인체의 적어도 하나의 부분이 가려지는 것을 의미할 수 있다. 예를 들어, 인체가 움직이거나 이동하는 중에, 고정되거나 이동 중인 외부 객체에 의해 인체의 적어도 하나의 부분이 가려질 수 있다. 구체적으로, 프로세서(170)는 2차원 인체 골격 정보(230)를 깊이 정보(220)에 매치시키는 중에, 2차원 인체 골격 정보(230)와 깊이 정보(220)의 미스매치를 감지하고, 이로부터 인체 가림의 발생을 감지할 수 있다. 예를 들면, 도 5a에 도시된 바와 같이, 인체 중 하나의 팔이 외부 객체에 가려짐에 따라, 프로세서(170)는 인체 가림의 발생을 감지할 수 있다.
이러한 경우, 전자 장치(100)는 350 단계에서 인체 가림 구간을 검출할 수 있다. 프로세서(170)는 2차원 인체 골격 정보(230)와 깊이 정보(220)의 미스매치가 감지되는 시점을 인체 가림 구간의 시작 시점으로 설정할 수 있다. 그리고, 프로세서(170)는 미스매치가 해제되는 시점을 인체 가림 구간의 종료 시점으로 설정할 수 있다. 즉, 인체 가림의 발생을 감지한 후에, 프로세서(170)는 연속적으로 3차원 인체 골격 정보(240)를 검출하면서, 인체 가림의 해제를 감지할 수 있다. 구체적으로, 프로세서(170)는 2차원 인체 골격 정보(230)를 깊이 정보(220)에 매치시키는 중에, 2차원 인체 골격 정보(230)와 깊이 정보(220)의 미스매치의 해제를 감지하고, 이로부터 인체 가림의 해제를 감지할 수 있다. 이로써, 프로세서(170)는 미스매치가 해제되는 시점을 인체 가림 구간의 종료 시점으로 설정할 수 있다. 따라서, 프로세서(170)는 시작 시점으로부터 종료 시점까지의 인체 가림 구간을 결정할 수 있다.
다음으로, 전자 장치(100)는 360 단계에서 인체 가림 구간 내에서의 인체의 동작을 추정할 수 있다. 구체적으로, 도 5a에 도시된 바와 같이, 인체 가림 구간 내에서 인체의 자세는 변화될 수 있으므로, 프로세서(170)는 인체 가림 구간 직전의 제 1 3차원 인체 골격 정보(240)와 인체 가림 구간 직후의 제 2 3차원 인체 골격 정보(240)를 비교하여, 인체 가림 구간 내에서의 인체의 동작을 추정할 수 있다. 일부 실시예들에서, 인체의 50 % 미만이 외부 객체에 의해 가려지는 경우, 프로세서(170)는 인체의 동작을 추정할 수 있다. 일부 실시예들에서, 프로세서(170)는 인체 내의 관절들 중에서 팔 또는 다리와 같이 인체의 움직임에 직접적인 영향을 미치는 관절들을 중심으로 인체의 동작을 추정할 수 있다.
보다 상세하게는, 프로세서(170)는 인체 가림 구간 내에서의 인체의 동작 가능 범위를 추정할 수 있다. 이 때, 프로세서(170)는 도 5b에 도시된 바와 같이 인체에서 가려지는 부분에 속하는 적어도 하나의 관절에서 각 관절의 움직임을 콘(cone)으로 모델링함으로써, 인체의 동작 가능 범위를 추정할 수 있다. 여기서, 콘은 해당 관절의 회전 영역을 나타낼 수 있다. 한편, 도 5c에 도시된 바와 같이, 해당 부분에 복수의 관절들이 속하는 경우(예: 팔, 다리), 프로세서(170)는 관절들로부터의 연속적인 콘들에 의해, 인체의 동작 가능 범위를 추정할 수 있다. 예를 들면, 프로세서(170)는 인체 가림 구간의 시간 길이와 하기 [표 2]와 같은 미리 정해지는 인체의 동작 특성의 조합으로, 인체의 동작 가능 범위를 추정할 수 있다. 그런 다음, 프로세서(170)는 동작 가능 범위 내에서 인체의 동작을 추정할 수 있다.
Movement speed level Frame per second Interval btw frames [sec] Note
Slow 2 and under 0.5 ~ 1 집중적인 작업: 용접작업, 페인팅
Moderate 2 ~ 5 0.2 ~ 0.5 일상 생활에서 움직임: 걷기
Fast 5 and above Under 0.2 스포츠: 육상, 탁구 등 빠른 동작을 요하는 분야
도 6은 도 3의 인체 가림 구간 내에서의 인체의 동작을 추정하는 단계(360 단계)를 세부적으로 도시하는 순서도이다.도 6을 참조하면, 전자 장치(100)는 610 단계에서 인체 가림 구간을 미리 정해진 하한과 비교할 수 있다. 구체적으로, 프로세서(170)는 인체 가림 구간의 시간 길이가 하한 이하인지의 여부를 판단할 수 있다.
이 때, 610 단계에서 인체 가림 구간이 하한 이하이면, 전자 장치(100)는 620 단계에서 제 1 3차원 인체 골격 정보(240)와 제 2 3차원 인체 골격 정보(240)를 선형적으로 보간하여, 인체 가림 구간 내에서의 인체의 동작을 추정할 수 있다. 구체적으로, 프로세서(170)는 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세와 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세를 선형적으로 보간하여, 인체의 동작을 추정할 수 있다. 이는, 하한 이하의 매우 짧은 시간 동안에는, 인체 가림 구간 내에서 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세로부터 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세로 직접적인 전환만이 동작으로서 이루어질 수 있을 것이기 때문이다. 예를 들어, 프로세서(170)는 인체 가림 구간 내에서의 인체의 동작 가능 범위를 추정하고, 해당 동작 가능 범위 내에서 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세로부터 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세로의 선형적인 동작을 추정할 수 있다.
한편, 610 단계에서 인체 가림 구간이 하한을 초과하면, 전자 장치(100)는 615 단계에서 인체 가림 구간을 미리 정해진 상한과 비교할 수 있다. 구체적으로, 프로세서(170)는 인체 가림 구간의 시간 길이가 상한을 초과하는지의 여부를 판단할 수 있다.
이 때, 615 단계에서 인체 가림 구간이 상한 이하이면, 즉, 인체 가림 구간이 하한을 초과하고 상한 이하이면, 전자 장치(100)는 630 단계에서 제 1 3차원 인체 골격 정보(240)와 제 2 3차원 인체 골격 정보(240)를 비선형적으로 보간하여, 인체 가림 구간 내에서의 인체의 동작을 추정할 수 있다. 구체적으로, 프로세서(170)는 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세와 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세를 비선형적으로 보간하여, 인체의 동작을 추정할 수 있다. 이는, 하한을 초과하되 상한 이하의 시간 동안에는, 인체 가림 구간 내에서 인체 가림 구간 내에서 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세와 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세의 사이에 비교적 단조롭고 적은 동작만이 이루어질 수 있을 것이기 때문이다. 예를 들어, 프로세서(170)는 인체 가림 구간 내에서의 인체의 동작 가능 범위를 추정하고, 해당 동작 가능 범위 내에서 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세로부터 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세로의 비선형적인 동작을 추정할 수 있다.
한편, 615 단계에서 인체 가림 구간이 상한을 초과하면, 전자 장치(100)는 640 단계에서 제 1 3차원 인체 골격 정보(240)와 제 2 3차원 인체 골격 정보(240)의 사이에서의 인체의 동작 가능 범위를 제시할 수 있다. 구체적으로, 프로세서(170)는 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세와 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세의 사이에서의 인체의 동작 가능 범위를 제시할 수 있다. 여기서, 동작 가능 범위의 평균 값, 최소 값, 또는 최대 값 중 적어도 하나가 제시될 수 있다. 이는, 상한을 초과하는 시간 동안에는, 인체 가림 구간 내에서 인체 가림 구간 내에서 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세와 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세의 사이에 비교적 복잡하고 많은 동작들이 이루어질 수 있으므로, 특정 동작을 추정하는 것은 불가능하기 때문이다. 예를 들어, 프로세서(170)는 인체 가림 구간 내에서의 인체의 동작 가능 범위를 추정하고, 해당 동작 가능 범위 내에서 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세로부터 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세로의 가능한 동작들에 대한 평균 값, 최소 값, 또는 최대 값 중 적어도 하나를 산출할 수 있다.
추가적으로, 전술한 바와 같이, 임의의 인체에 대한 3차원 인체 골격 정보(240)가 실시간으로 응용될 수 있다. 일 실시예에서, 프로세서(170)가 직접 3차원 인체 골격 정보(240)를 응용할 수 있다. 구체적으로, 프로세서(170)은 기계 학습 알고리즘(250)을 가지고 있으며, 기계 학습 알고리즘(250)을 통해 3차원 인체 골격 정보(240)를 분석하여 해당 인체의 인체 자세(260)를 판별할 수 있다. 또한, 프로세서(170)는 해당 인체 자세(260)에 따른 해당 인체의 동작 특성(270)을 검출할 수 있다. 여기서, 동작 특성은 해당 인체 자세(260)의 난이도(예: 신체 피로도, 동작 어려움 등을 표현하는 지수를 포함함)를 포함할 수 있다. 다른 실시예에서, 프로세서(170)는 통신 모듈(130)을 통해 3차원 인체 골격 정보(240)를 외부 장치로 전송하고, 이로써, 외부 장치가 3차원 인체 골격 정보(240)를 응용할 수 있다. 이러한 경우, 외부 장치가 기계 학습 알고리즘(250)을 가지고 있으며, 기계 학습 알고리즘(250)을 통해 3차원 인체 골격 정보(240)를 분석하여 해당 인체의 인체 자세(260)를 판별할 수 있다. 또한, 외부 장치는 해당 인체 자세(260)에 따른 해당 인체의 동작 특성(270)을 검출할 수 있다. 여기서, 동작 특성은 해당 인체 자세(260)의 난이도(예: 신체 피로도, 동작 어려움 등을 표현하는 지수를 포함함)를 포함할 수 있다. 일 예로, 해당 인체가 작업자의 것인 경우, 3차원 인체 골격 정보(240)로부터 작업자의 작업 난이도가 검출될 수 있으며, 이로써 작업자 보호, 작업 환경 개선 등이 도모될 수 있다.
본 개시에 따르면, 전자 장치(100)에 구비되는 카메라 모듈(110)과 라이다 센서(120)를 이용하여 실시간으로 3차원 인체 골격 정보(240)가 추출될 수 있다. 스마트 기기와 같은 전자 장치(100)를 통해 3차원 인체 골격 정보(240)가 추출될 수 있으므로, 현장에의 추가 장치나 설비 없이, 전자 장치(100)를 소유한 누구나 용이하게 3차원 인체 골격 정보(240)를 획득할 수 있다. 이 때, 전자 장치(100)는 인체로부터 원격에서 인체 영상(210)과 인체 영상(210)에 대한 깊이 정보(220)를 검출할 수 있으므로, 인체 및 인체의 동작, 예컨대, 작업자 및 작업 과정을 전혀 방해하지 않고도, 3차원 인체 골격 정보(240)를 획득할 수 있다. 이로써, 3차원 인체 골격 정보(240)로부터 인체의 자세, 동작 특성 등, 예컨대, 작업장에서의 작업자의 작업 자세, 작업 난이도 등이 실시간으로 확인되어, 인체의 안전을 도모하기 위한 사전 예방 및 자세 교정이 가능하며, 나아가 주변 환경의 개선이 가능하다. 아울러, 전자 장치와 인체 사이의 외부 객체에 의한 인체 가림이 발생하더라도, 인체 가림이 종료된 후에 인체 가림 동안의 인체의 동작이 역으로 추정됨으로써, 인체 가림 동안의 신체 활동(에너지 소모량 등)의 유추가 가능하다.
요컨대, 본 개시는 카메라 모듈(110)과 라이다 센서(120)를 포함하는 전자 장치(100)의 3차원 인체 골격 정보 추출 방법을 제공한다.
다양한 실시예들에서, 방법은, 카메라 모듈(110)을 통해 인체 영상(210)을 촬영하면서, 라이다 센서(120)를 통해 인체 영상(110)에 대한 깊이 정보(220)를 검출하는 단계(310 단계), 인체 영상(210)으로부터 2차원 인체 골격 정보(230)를 검출하는 단계(320 단계), 및 2차원 인체 골격 정보(230)와 깊이 정보(220)를 결합하여, 3차원 인체 골격 정보(240)를 검출하는 단계(330 단계)를 포함할 수 있다.
다양한 실시예들에서, 전자 장치(100)는 스마트 기기이며, 방법은 스마트 기기에 설치되는 앱을 기반으로 수행되는, 방법.
다양한 실시예들에서, 방법은 앱이 실행되는 동안 실시간으로 수행될 수 있다.
다양한 실시예들에서, 방법은, 외부 객체에 의해 인체의 적어도 하나의 부분이 가려지는 인체 가림 구간을 검출하는 단계(350 단계), 및 인체 가림 구간 직전의 제 1 3차원 인체 골격 정보(240)와 인체 가림 구간 직후의 제 2 3차원 인체 골격 정보(240)를 비교하여, 인체 가림 구간 내에서의 인체의 동작을 추정하는 단계(360 단계)를 더 포함할 수 있다.
다양한 실시예들에서, 인체 가림 구간을 검출하는 단계(350 단계)는, 2차원 인체 골격 정보(230)와 깊이 정보(220)의 미스매치가 감지되는 시점을 인체 가림 구간의 시작 시점으로 설정하는 단계, 미스매치가 해제되는 시점을 인체 가림 구간의 종료 시점으로 설정하는 단계, 및 시작 시점으로부터 종료 시점까지의 인체 가림 구간을 결정하는 단계를 포함할 수 있다.
다양한 실시예들에서, 인체의 동작을 추정하는 단계(360 단계)는, 인체 가림 구간이 미리 정해진 하한 이하이면, 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세와 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세를 선형적으로 보간하여, 인체의 동작을 추정하는 단계(620 단계)를 포함할 수 있다.
다양한 실시예들에서, 인체의 동작을 추정하는 단계(360 단계)는, 인체 가림 구간이 미리 정해진 상한을 초과하면, 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세와 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세의 사이에서의 인체의 동작 가능 범위를 제시하는 단계(640 단계)를 더 포함할 수 있다.
다양한 실시예들에서, 인체의 동작을 추정하는 단계(360 단계)는, 인체 가림 구간이 하한을 초과하고 상한 이하이면, 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세와 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세를 비선형적으로 보간하여, 인체의 동작을 추정하는 단계(630 단계)를 더 포함할 수 있다.
다양한 실시예들에서, 인체의 동작을 추정하는 단계(360 단계)는, 인체 가림 구간의 시간 길이와 미리 정해지는 인체의 동작 특성의 조합으로, 인체의 동작 가능 범위를 추정하는 단계, 및 동작 가능 범위 내에서 인체의 동작을 추정하는 단계를 포함할 수 있다.
다양한 실시예들에서, 인체의 동작 가능 범위는 부분에 속하는 적어도 하나의 관절에서 각 관절의 움직임을 콘으로 모델링함으로써 추정되고, 부분에 복수의 관절들이 속하는 경우, 관절들로부터의 연속적인 콘들에 의해 추정될 수 있다.
또한, 본 개시는 3차원 인체 골격 정보 추출을 위한 전자 장치(100)를 제공한다.
다양한 실시예들에서, 전자 장치(100)는, 카메라 모듈(110), 라이다 센서(120), 메모리(160), 및 카메라 모듈(110), 라이다 센서(120), 및 메모리(160)와 연결되고, 메모리에 저장된 적어도 하나의 명령을 실행하도록 구성되며, 카메라 모듈(110) 및 라이다 센서(120)를 이용하여 3차원 인체 골격 정보(240)를 추출하는 동작을 수행하도록 구성되는 프로세서(170)를 포함할 수 있다.
다양한 실시예들에서, 프로세서(170)는, 카메라 모듈(110)을 통해 인체 영상(210)을 촬영하면서, 라이다 센서(120)를 통해 인체 영상(210)에 대한 깊이 정보(220)를 검출하고, 인체 영상(210)으로부터 2차원 인체 골격 정보(230)를 검출하고, 2차원 인체 골격 정보(230)와 깊이 정보(220)를 결합하여, 3차원 인체 골격 정보(240)를 검출하도록 구성될 수 있다.
다양한 실시예들에서, 전자 장치(100)는 스마트 기기이며, 프로세서(170)는 메모리(160)에 설치되는 앱을 기반으로 동작하도록 구성될 수 있다.
다양한 실시예들에서, 프로세서(170)는, 앱이 실행되는 동안 실시간으로 동작을 수행하도록 구성될 수 있다.
다양한 실시예들에서, 프로세서(170)는, 외부 객체에 의해 인체의 적어도 하나의 부분이 가려지는 인체 가림 구간을 검출하고, 인체 가림 구간 직전의 제 1 3차원 인체 골격 정보(240)와 인체 가림 구간 직후의 제 2 3차원 인체 골격 정보(240)를 비교하여, 인체 가림 구간 내에서의 인체의 동작을 추정하도록 구성될 수 있다.
다양한 실시예들에서, 프로세서(170)는, 2차원 인체 골격 정보(230)와 깊이 정보(220)의 미스매치가 감지되는 시점을 인체 가림 구간의 시작 시점으로 설정하고, 미스매치가 해제되는 시점을 인체 가림 구간의 종료 시점으로 설정하고, 시작 시점으로부터 종료 시점까지의 인체 가림 구간을 결정하도록 구성될 수 있다.
다양한 실시예들에서, 프로세서(170)는, 인체 가림 구간이 미리 정해진 하한 이하이면, 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세와 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세를 선형적으로 보간하여, 인체의 동작을 추정하도록 구성될 수 있다.
다양한 실시예들에서, 프로세서(170)는, 인체 가림 구간이 미리 정해진 상한을 초과하면, 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세와 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세의 사이에서의 인체의 동작 가능 범위를 제시하도록 구성될 수 있다.
다양한 실시예들에서, 프로세서(170)는, 인체 가림 구간이 하한을 초과하고 상한 이하이면, 제 1 3차원 인체 골격 정보(240)에 따른 인체 자세와 제 2 3차원 인체 골격 정보(240)에 따른 인체 자세를 비선형적으로 보간하여, 인체의 동작을 추정하도록 구성될 수 있다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(200))에 의해 읽을 수 있는 저장 매체(storage medium)(예: 메모리(250))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서(예: 프로세서(260))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
다양한 실시예들에 따르면, 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 통합 이전에 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 카메라 모듈과 라이다 센서를 포함하는 전자 장치의 3차원 인체 골격 정보 추출 방법에 있어서, 상기 방법은,
    카메라 모듈을 통해 인체 영상을 촬영하면서, 라이다 센서를 통해 상기 인체 영상에 대한 깊이 정보를 검출하는 단계;
    상기 인체 영상으로부터 2차원 인체 골격 정보를 검출하는 단계; 및
    상기 2차원 인체 골격 정보와 상기 깊이 정보를 결합하여, 3차원 인체 골격 정보를 검출하는 단계
    를 포함하고,
    외부 객체에 의해 인체의 적어도 하나의 부분이 가려지는 인체 가림 구간을 검출하는 단계; 및
    상기 인체 가림 구간 직전의 제 1의 3차원 인체 골격 정보와 상기 인체 가림 구간 직후의 제 2의 3차원 인체 골격 정보를 비교하여, 상기 인체 가림 구간 내에서의 상기 인체의 동작을 추정하는 단계
    를 더 포함하고,
    상기 인체 가림 구간을 검출하는 단계는,
    상기 2차원 인체 골격 정보와 상기 깊이 정보의 미스매치가 감지되는 시점을 상기 인체 가림 구간의 시작 시점으로 설정하는 단계;
    상기 미스매치가 해제되는 시점을 상기 인체 가림 구간의 종료 시점으로 설정하는 단계; 및
    상기 시작 시점으로부터 상기 종료 시점까지의 상기 인체 가림 구간을 결정하는 단계
    를 포함하는, 방법.
  2. 제 1 항에 있어서,
    상기 전자 장치는 스마트 기기이며, 상기 방법은 상기 스마트 기기에 설치되는 앱을 기반으로 수행되는, 방법.
  3. 제 2 항에 있어서,
    상기 방법은 상기 앱이 실행되는 동안 실시간으로 수행되는, 방법.
  4. 삭제
  5. 삭제
  6. 제 1 항에 있어서,
    상기 인체의 상기 동작을 추정하는 단계는,
    상기 인체 가림 구간이 미리 정해진 하한 이하이면, 상기 제 1의 3차원 인체 골격 정보에 따른 인체 자세와 상기 제 2의 3차원 인체 골격 정보에 따른 인체 자세를 선형적으로 보간하여, 상기 인체의 상기 동작을 추정하는 단계; 및
    상기 인체 가림 구간이 미리 정해진 상한을 초과하면, 상기 제 1의 3차원 인체 골격 정보에 따른 인체 자세와 상기 제 2의 3차원 인체 골격 정보에 따른 인체 자세의 사이에서의 상기 인체의 동작 가능 범위를 제시하는 단계
    를 포함하는, 방법.
  7. 제 6 항에 있어서,
    상기 인체의 상기 동작을 추정하는 단계는,
    상기 인체 가림 구간이 상기 하한을 초과하고 상기 상한 이하이면, 상기 제 1의 3차원 인체 골격 정보에 따른 인체 자세와 상기 제 2의 3차원 인체 골격 정보에 따른 인체 자세를 비선형적으로 보간하여, 상기 인체의 상기 동작을 추정하는 단계
    를 더 포함하는, 방법.
  8. 제 1 항에 있어서,
    상기 인체의 상기 동작을 추정하는 단계는,
    상기 인체 가림 구간의 시간 길이와 미리 정해지는 상기 인체의 동작 특성의 조합으로, 상기 인체의 동작 가능 범위를 추정하는 단계; 및
    상기 동작 가능 범위 내에서 상기 인체의 상기 동작을 추정하는 단계
    를 포함하는, 방법.
  9. 제 6 항 또는 제 8 항에 있어서,
    상기 인체의 상기 동작 가능 범위는 상기 부분에 속하는 적어도 하나의 관절에서 각 관절의 움직임을 콘으로 모델링함으로써 추정되고, 상기 부분에 복수의 관절들이 속하는 경우, 상기 관절들로부터의 연속적인 콘들에 의해 추정되는,
    방법.
  10. 3차원 인체 골격 정보 추출을 위한 전자 장치에 있어서,
    카메라 모듈;
    라이다 센서;
    메모리; 및
    상기 카메라 모듈, 상기 라이다 센서, 및 상기 메모리와 연결되고, 상기 메모리에 저장된 적어도 하나의 명령을 실행하도록 구성되며, 상기 카메라 모듈 및 상기 라이다 센서를 이용하여 3차원 인체 골격 정보를 추출하는 동작을 수행하도록 구성되는 프로세서를 포함하고,
    상기 프로세서는,
    상기 카메라 모듈을 통해 인체 영상을 촬영하면서, 상기 라이다 센서를 통해 상기 인체 영상에 대한 깊이 정보를 검출하고,
    상기 인체 영상으로부터 2차원 인체 골격 정보를 검출하고,
    상기 2차원 인체 골격 정보와 상기 깊이 정보를 결합하여, 상기 3차원 인체 골격 정보를 검출하고,
    외부 객체에 의해 인체의 적어도 하나의 부분이 가려지는 인체 가림 구간을 검출하고,
    상기 인체 가림 구간 직전의 제 1의 3차원 인체 골격 정보와 상기 인체 가림 구간 직후의 제 2의 3차원 인체 골격 정보를 비교하여, 상기 인체 가림 구간 내에서의 상기 인체의 동작을 추정하도록
    구성되고,
    상기 프로세서는,
    상기 2차원 인체 골격 정보와 상기 깊이 정보의 미스매치가 감지되는 시점을 상기 인체 가림 구간의 시작 시점으로 설정하고,
    상기 미스매치가 해제되는 시점을 상기 인체 가림 구간의 종료 시점으로 설정하고,
    상기 시작 시점으로부터 상기 종료 시점까지의 상기 인체 가림 구간을 결정하도록
    구성되는, 전자 장치.
  11. 제 10 항에 있어서,
    상기 전자 장치는 스마트 기기이며, 상기 프로세서는 상기 메모리에 설치되는 앱을 기반으로 동작하도록
    구성되는, 전자 장치.
  12. 삭제
  13. 삭제
  14. 제 10 항에 있어서,
    상기 프로세서는,
    상기 인체 가림 구간이 미리 정해진 하한 이하이면, 상기 제 1의 3차원 인체 골격 정보에 따른 인체 자세와 상기 제 2의 3차원 인체 골격 정보에 따른 인체 자세를 선형적으로 보간하여, 상기 인체의 상기 동작을 추정하고,
    상기 인체 가림 구간이 미리 정해진 상한을 초과하면, 상기 제 1의 3차원 인체 골격 정보에 따른 인체 자세와 상기 제 2의 3차원 인체 골격 정보에 따른 인체 자세의 사이에서의 상기 인체의 동작 가능 범위를 제시하도록
    구성되는, 전자 장치.
  15. 카메라 모듈과 라이다 센서를 포함하는 전자 장치에 3차원 인체 골격 정보 추출 방법을 실행시키기 위해 비-일시적인 컴퓨터 판독 가능한 기록 매체에 저장되는 컴퓨터 프로그램에 있어서,
    상기 방법은,
    카메라 모듈을 통해 인체 영상을 촬영하면서, 라이다 센서를 통해 상기 인체 영상에 대한 깊이 정보를 검출하는 단계;
    상기 인체 영상으로부터 2차원 인체 골격 정보를 검출하는 단계; 및
    상기 2차원 인체 골격 정보와 상기 깊이 정보를 결합하여, 3차원 인체 골격 정보를 검출하는 단계
    를 포함하고,
    외부 객체에 의해 인체의 적어도 하나의 부분이 가려지는 인체 가림 구간을 검출하는 단계; 및
    상기 인체 가림 구간 직전의 제 1의 3차원 인체 골격 정보와 상기 인체 가림 구간 직후의 제 2의 3차원 인체 골격 정보를 비교하여, 상기 인체 가림 구간 내에서의 상기 인체의 동작을 추정하는 단계
    를 더 포함하고,
    상기 인체 가림 구간을 검출하는 단계는,
    상기 2차원 인체 골격 정보와 상기 깊이 정보의 미스매치가 감지되는 시점을 상기 인체 가림 구간의 시작 시점으로 설정하는 단계;
    상기 미스매치가 해제되는 시점을 상기 인체 가림 구간의 종료 시점으로 설정하는 단계; 및
    상기 시작 시점으로부터 상기 종료 시점까지의 상기 인체 가림 구간을 결정하는 단계
    를 포함하는, 컴퓨터 프로그램.
KR1020240047995A 2024-04-09 2024-04-09 라이다 장착 스마트 기기를 활용한 3차원 인체 골격 정보 추출 방법 Active KR102706055B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020240047995A KR102706055B1 (ko) 2024-04-09 2024-04-09 라이다 장착 스마트 기기를 활용한 3차원 인체 골격 정보 추출 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020240047995A KR102706055B1 (ko) 2024-04-09 2024-04-09 라이다 장착 스마트 기기를 활용한 3차원 인체 골격 정보 추출 방법

Publications (1)

Publication Number Publication Date
KR102706055B1 true KR102706055B1 (ko) 2024-09-11

Family

ID=92757363

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020240047995A Active KR102706055B1 (ko) 2024-04-09 2024-04-09 라이다 장착 스마트 기기를 활용한 3차원 인체 골격 정보 추출 방법

Country Status (1)

Country Link
KR (1) KR102706055B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006524863A (ja) * 2003-04-25 2006-11-02 本田技研工業株式会社 複雑な関節の動きをモデリングする関節構成要素フレームワーク
KR20130013122A (ko) * 2011-07-27 2013-02-06 삼성전자주식회사 객체 자세 검색 장치 및 방법
KR102454538B1 (ko) * 2022-02-15 2022-10-14 주식회사 인피닉 인공지능을 이용한 행동 추정 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR20230097298A (ko) * 2021-12-24 2023-07-03 서울대학교병원 이미지를 이용하여 임상 평가 정보를 제공하는 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006524863A (ja) * 2003-04-25 2006-11-02 本田技研工業株式会社 複雑な関節の動きをモデリングする関節構成要素フレームワーク
KR20130013122A (ko) * 2011-07-27 2013-02-06 삼성전자주식회사 객체 자세 검색 장치 및 방법
KR20230097298A (ko) * 2021-12-24 2023-07-03 서울대학교병원 이미지를 이용하여 임상 평가 정보를 제공하는 방법 및 장치
KR102454538B1 (ko) * 2022-02-15 2022-10-14 주식회사 인피닉 인공지능을 이용한 행동 추정 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램

Similar Documents

Publication Publication Date Title
US11238653B2 (en) Information processing device, information processing system, and non-transitory computer-readable storage medium for storing program
US11398049B2 (en) Object tracking device, object tracking method, and object tracking program
US20150002518A1 (en) Image generating apparatus
US10360444B2 (en) Image processing apparatus, method and storage medium
US20170337701A1 (en) Method and system for 3d capture based on structure from motion with simplified pose detection
KR20230035382A (ko) 신장 측정 방법 및 장치, 및 단말기
US20140085330A1 (en) Image processing device, image processing method, computer readable medium
US20110216946A1 (en) Information processing device, information processing method, program, and information storage medium
JP2016170610A (ja) 三次元モデル処理装置およびカメラ校正システム
CN111354088B (zh) 环境地图建立方法以及其系统
CN113544736B (zh) 下肢肌肉力量估计系统、下肢肌肉力量估计方法及记录介质
KR20100062320A (ko) 영상 데이터를 이용한 로봇 움직임 데이터 생성 방법 및 생성 장치
KR102374357B1 (ko) 밀집 통제를 위한 영상 감시 장치
CN113342157B (zh) 眼球追踪处理方法及相关装置
KR102706055B1 (ko) 라이다 장착 스마트 기기를 활용한 3차원 인체 골격 정보 추출 방법
EP3971683A1 (en) Human body portion tracking method and human body portion tracking system
US11263780B2 (en) Apparatus, method, and program with verification of detected position information using additional physical characteristic points
US20200226787A1 (en) Information processing apparatus, information processing method, and program
JP7629097B2 (ja) 画像または映像におけるオブジェクトの3次元場所特定
US11783492B2 (en) Human body portion tracking method and human body portion tracking system
CN116309712A (zh) 一种基于深度相机的功能运动分析系统及方法
KR102852066B1 (ko) 데이터 처리 방법, 장치, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
CN118506224A (zh) 动作识别方法、装置、设备、介质及产品
US10952648B2 (en) Measurement device and measurement method
JP5983132B2 (ja) 位置決定装置、位置決定システム、位置決定方法及びプログラム

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20240409

PA0201 Request for examination

Patent event code: PA02011R01I

Patent event date: 20240409

Comment text: Patent Application

PA0302 Request for accelerated examination

Patent event date: 20240412

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240422

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240830

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20240909

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20240909

End annual number: 3

Start annual number: 1

PG1601 Publication of registration