KR102057705B1 - 동작 인식을 위한 지능형 장치 및 그 제어 방법 - Google Patents
동작 인식을 위한 지능형 장치 및 그 제어 방법 Download PDFInfo
- Publication number
- KR102057705B1 KR102057705B1 KR1020180012015A KR20180012015A KR102057705B1 KR 102057705 B1 KR102057705 B1 KR 102057705B1 KR 1020180012015 A KR1020180012015 A KR 1020180012015A KR 20180012015 A KR20180012015 A KR 20180012015A KR 102057705 B1 KR102057705 B1 KR 102057705B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- hand
- finger
- imu sensor
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y80/00—Products made by additive manufacturing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Chemical & Material Sciences (AREA)
- Manufacturing & Machinery (AREA)
- Materials Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명에서 제안하고 있는 동작 인식을 위한 지능형 장치 및 그 제어 방법에 따르면, 사용자의 손 등과 엄지 및 검지에 각각 배치되는 3개의 IMU 센서 모듈과, 사용자의 제스처 인식을 위한 손과 손가락의 움직임의 동작 신호들을 하나의 출력으로 통합하여 출력하는 제어 모듈과, 동작 신호들의 시계열에 따른 전처리 과정과, N 차원의 DTW 분류와, 미리 설정된 제스처 선택의 맵핑 처리를 통해 사용자의 손과 손가락의 동작을 인식하고 제어하는 모바일 기기를 포함하여 구성함으로써, 3개의 IMU 센서 모듈로부터 측정되는 동작 신호들을 이용하여 22개의 다양한 제스처 동작 인식이 가능하도록 할 수 있다.
또한, 본 발명에 따르면, 손 등과 2개의 손가락에 장착되는 3개의 IMU 센서 모듈과 제어 모듈을 사용자 착용(wearable)형으로 구성함으로써, 기존의 장갑 형태의 동작 인식 장치보다 훨씬 간단하게 구현할 수 있음은 물론, DTW 알고리즘의 적용을 통한 동작 인식의 다양한 제스처를 정확하게 인식 가능하고, 간단하고 사용하기 쉬운 소형화로 구현될 수 있도록 할 수 있다.
뿐만 아니라, 본 발명은, 사물인터넷(IoT) 개념의 유연한 PCB 회로 설계로 와이파이 또는 기타 인터넷 연결 옵션을 사용하는 모든 어플리케이션에 연결하여 다양한 전자 장치들의 원격 제어에 범용으로 활용하는 것이 가능하도록 할 수 있다.
Description
도 2는 본 발명의 일실시예에 따른 동작 인식을 위한 지능형 장치의 시스템 구조도를 도시한 도면.
도 3은 본 발명의 일실시예에 따른 동작 인식을 위한 지능형 장치의 IMU 센서 모듈들과 제어 모듈의 구현 일례의 구성을 도시한 도면.
도 4는 본 발명의 일실시예에 따른 동작 인식을 위한 지능형 장치의 착용 상태의 구성을 도시한 도면.
도 5는 본 발명의 일실시예에 따른 동작 인식을 위한 지능형 장치를 이용한 22개의 제스처 표현 구성을 도시한 도면.
도 6은 본 발명의 일실시예에 따른 동작 인식을 위한 지능형 장치의 제어 방법의 동작 흐름을 도시한 도면.
도 7은 본 발명의 일실시예에 따른 동작 인식을 위한 지능형 장치의 제어 방법의 처리 과정을 도시한 도면.
도 8은 본 발명의 일실시예에 따른 동작 인식을 위한 지능형 장치의 제어 방법을 이용한 유클리드 거리 및 DTW의 그래프를 도시한 도면.
도 9는 본 발명의 일실시예에 따른 동작 인식을 위한 지능형 장치의 제어 방법에서, 다차원 DTW의 그래프를 도시한 도면.
도 10은 본 발명의 일실시예에 따른 동작 인식을 위한 지능형 장치의 제어 방법에서, 전처리 과정의 그래프를 도시한 도면.
도 11은 본 발명의 일실시예에 따른 동작 인식을 위한 지능형 장치의 제어 방법에서, ND-DTW 알고리즘을 사용하여 제스처 인식 정확도의 검증 실험 결과를 도시한 도면.
도 12는 본 발명의 일실시예에 따른 동작 인식을 위한 지능형 장치의 제어 방법과 관련 시스템과의 비교를 도시한 도면.
101: 케이싱
110: IMU 센서 모듈
120: 제어(MCU) 모듈
130: 모바일 기기
S110: 3개의 IMU 센서 모듈로부터 사용자의 제스처 인식을 위한 손과 손가락을 통해 측정되어 디지털 신호로 변환된 동작 신호들을 각각 입력받는 단계
S120: 사용자의 제스처 인식을 위한 손과 손가락의 움직임의 동작 신호들을 하나의 출력으로 통합하여 상기 모바일 기기로 전송하는 단계
S130: 사용자의 제스처 인식을 위한 손과 손가락의 움직임의 동작 신호들을 이용하여 미리 설정된 제스처 선택의 맵핑 처리를 통해 사용자의 손과 손가락의 동작을 인식하고 그에 해당하는 제어를 수행하는 단계
Claims (20)
- 동작 인식을 위한 지능형 장치(100)로서,
사용자의 제스처 인식을 위한 손과 손가락의 동작 신호를 측정하고, 측정되는 동작 신호를 디지털 신호로 변환하여 각각 출력하는 3개의 IMU(Inertial Motion Unit) 센서 모듈(110);
상기 3개의 IMU 센서 모듈(110)의 동작 신호를 각각 입력받고, 상기 사용자의 제스처 인식을 위한 손과 손가락의 움직임의 동작 신호들을 하나의 출력으로 통합하여 출력하는 제어(MCU) 모듈(120); 및
상기 제어 모듈(120)로부터 사용자의 제스처 인식을 위한 손과 손가락의 움직임의 동작 신호들을 무선근거리 통신을 통해 전송받아 전처리 과정과, N 차원의 DTW(Dynamic Time Warping) 분류와, 미리 설정된 제스처 선택의 맵핑 처리를 통해 사용자의 손과 손가락의 동작을 인식하고 그에 해당하는 제어를 수행하는 모바일 기기(Mobile Device)(130)를 포함하되,
상기 3개의 IMU 센서 모듈(110)은,
3개의 IMU 센서 모듈(110) 중 하나의 IMU 센서 모듈(110)은 사용자의 손 등에 장착되고, 나머지 2개의 IMU 센서 모듈(110)은 사용자의 2개의 손가락에 각각 장착하되, 상기 사용자의 손 등에 장착되는 IMU 센서 모듈(110)은 사용자의 손 방향을 측정하기 위한 모션 센서로 기능하고, 사용자의 손가락에 장착되는 2개의 IMU 센서 모듈(110)은 사용자의 손가락 방향을 측정하기 위한 동작 센서로 기능하고,
상기 사용자의 손 등에 장착되어 모션 센서로 기능하는 IMU 센서 모듈(110)은, 가속도계(Accelerometer) 센서로 구성하며,
상기 사용자의 손가락에 장착되어 동작 센서로 기능하는 2개의 IMU 센서 모듈(110)은 사용자의 엄지와 검지에 각각 배치하되, 검지에 배치되는 IMU 센서 모듈(110)은 자이로스코프(Gyroscope) 센서로 구성하고, 엄지에 배치되는 IMU 센서 모듈(110)은 자력계(Magnetometer) 센서로 구성하며,
상기 3개의 IMU 센서 모듈(110)은,
사용자의 손 등에 장착되는 1개의 IMU 센서 모듈(110)과, 사용자의 손가락에 장착되는 2개의 IMU 센서 모듈(110)에서 측정되는 손 방향과 손가락 방향의 동작 신호들을 통해 미리 설정된 사용자의 동작 22개의 제스처를 표현하고,
상기 22개의 제스처는,
6개의 단순(simple) 제스처와, 6개의 표준(normal) 제스처와, 6개의 복합(complex) 제스처, 및 2개의 손가락만을 사용한 4개의 제스처로 구성하며,
복합 제스처는,
손가락과 손 방향을 모두 사용하는 제스처이고,
상기 제어 모듈(120)은,
상기 3개의 IMU 센서 모듈(110)에서 측정한 사용자의 제스처 인식을 위한 손과 손가락의 움직임의 동작 신호들을 상기 모바일 기기(130)로 전송하기 위한 블루투스 모듈(121)을 더 포함하되, 상기 제어 모듈(120)은 상기 모바일 기기(130)와 저전력 통신을 위한 저전력 블루투스 4.0 BLE 보드로 구현되며,
상기 3개의 IMU 센서 모듈(110)과, 블루투스 모듈(121)을 구비하는 제어 모듈(120)은 케이싱(101)에 수용 설치되어 사용자의 손가락과 손 등에 체결되는 착용(wearable)으로 구성되고, 상기 케이싱(101)은 3D 프린터로 제작되고,
상기 모바일 기기(130)는,
상기 제어 모듈(120)로부터 블루투스 통신으로 입력받은 사용자의 제스처 인식을 위한 손과 손가락의 움직임의 동작 신호들의 시계열(Time series)을 전처리 과정을 통해 분류하고, 미리 설정된 클래스 ID와 N차원의 DTW 거리를 구하여 미리 설정된 22개의 제스처를 참조하여 비교한 결과로 사용자가 취한 제스처를 인식하고 그에 해당하는 동작 수행이 가능하도록 제어하며,
상기 모바일 기기(130)는,
상기 사용자의 제스처 인식을 위한 손과 손가락의 움직임의 동작 신호들의 패턴을 측정하기 위한 동적 시간 워핑(DTW) 알고리즘을 탑재하여 사용하되, 상기 동적 시간 워핑 알고리즘은 6배 교차 검증 방법으로 훈련되고,
상기 모바일 기기(130)는,
상기 3개의 IMU 센서 모듈(110)의 3개의 영역을 통해 22개의 동작 인식을 구현하되, 사용자가 사용자 정의 제스처를 통해 인식을 원하는 추가 동작을 더 설정할 수 있으며,
상기 모바일 기기(130)는 제어 모듈(120)과 블루투스 통신을 수행하기 위한 블루투스 모듈을 내장형으로 구성하는 것을 특징으로 하는, 동작 인식을 위한 지능형 장치.
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 3개의 IMU 센서 모듈(110)과 제어 모듈(120) 및 모바일 기기(130)를 구비하는 지능형 장치(100)를 이용한 동작 인식 제어 방법으로서,
(1) 상기 제어 모듈(120)이 상기 3개의 IMU 센서 모듈(110)로부터 사용자의 제스처 인식을 위한 손과 손가락을 통해 측정되어 디지털 신호로 변환된 동작 신호들을 각각 입력받는 단계;
(2) 상기 제어 모듈(120)이 상기 단계 (1)을 통해 각각 입력받은 상기 사용자의 제스처 인식을 위한 손과 손가락의 움직임의 동작 신호들을 하나의 출력으로 통합하여 상기 모바일 기기(130)로 전송하는 단계; 및
(3) 상기 모바일 기기(130)가 상기 제어 모듈(120)로부터 사용자의 제스처 인식을 위한 손과 손가락의 움직임의 동작 신호들을 무선근거리 통신을 통해 전송받아 전처리 과정과, N 차원의 DTW(Dynamic Time Warping) 분류와, 미리 설정된 제스처 선택의 맵핑 처리를 통해 사용자의 손과 손가락의 동작을 인식하고 그에 해당하는 제어를 수행하는 단계를 포함하되,
상기 단계 (1)에서,
상기 3개의 IMU 센서 모듈(110) 중 하나의 IMU 센서 모듈(110)은 사용자의 손 등에 장착되고, 나머지 2개의 IMU 센서 모듈(110)은 사용자의 2개의 손가락에 각각 장착하되, 상기 사용자의 손 등에 장착되는 IMU 센서 모듈(110)은 사용자의 손 방향을 측정하기 위한 모션 센서로 기능하고, 사용자의 손가락에 장착되는 2개의 IMU 센서 모듈(110)은 사용자의 손가락 방향을 측정하기 위한 동작 센서로 기능하고,
상기 3개의 IMU 센서 모듈(110)은,
상기 사용자의 손 등에 장착되어 모션 센서로 기능하는 IMU 센서 모듈(110)이 가속도계(Accelerometer) 센서로 구성되고, 상기 사용자의 손가락에 장착되어 동작 센서로 기능하는 2개의 IMU 센서 모듈(110)은 사용자의 엄지와 검지에 각각 배치하되, 검지에 배치되는 IMU 센서 모듈(110)은 자이로스코프(Gyroscope) 센서로 구성되며, 엄지에 배치되는 IMU 센서 모듈(110)은 자력계(Magnetometer) 센서로 구성되며,
상기 3개의 IMU 센서 모듈(110)은,
사용자의 손 등에 장착되는 1개의 IMU 센서 모듈(110)과, 사용자의 손가락에 장착되는 2개의 IMU 센서 모듈(110)에서 측정되는 손 방향과 손가락 방향의 동작 신호들을 통해 미리 설정된 사용자의 동작 22개의 제스처를 표현하되,
상기 22개의 제스처는,
6개의 단순(simple) 제스처와, 6개의 표준(normal) 제스처와, 6개의 복합(complex) 제스처, 및 2개의 손가락만을 사용한 4개의 제스처로 구성되고, 복합 제스처는 손가락과 손 방향을 모두 사용하는 제스처이며,
상기 단계 (2)에서의 제어 모듈(120)은,
상기 3개의 IMU 센서 모듈(110)에서 측정한 사용자의 제스처 인식을 위한 손과 손가락의 움직임의 동작 신호들을 상기 모바일 기기(130)로 전송하기 위한 블루투스 모듈(121)을 더 포함하되, 상기 제어 모듈(120)은 상기 모바일 기기(130)와 저전력 통신을 위한 저전력 블루투스 4.0 BLE 보드로 구현되며,
상기 3개의 IMU 센서 모듈(110)과, 블루투스 모듈(121)을 구비하는 제어 모듈(120)은 케이싱(101)에 수용 설치되어 사용자의 손가락과 손 등에 체결되는 착용(wearable)으로 구성되고, 상기 케이싱(101)은 3D 프린터로 제작되고,
상기 단계 (3)에서의 모바일 기기(130)는,
상기 제어 모듈(120)로부터 블루투스 통신으로 입력받은 사용자의 제스처 인식을 위한 손과 손가락의 움직임의 동작 신호들의 시계열(Time series)을 전처리 과정을 통해 분류하고, 미리 설정된 클래스 ID와 N차원의 DTW 거리를 구하여 미리 설정된 22개의 제스처를 참조하여 비교한 결과로 사용자가 취한 제스처를 인식하고 그에 해당하는 동작 수행이 가능하도록 제어하며, 상기 사용자의 제스처 인식을 위한 손과 손가락의 움직임의 동작 신호들의 패턴을 측정하기 위한 동적 시간 워핑(DTW) 알고리즘을 탑재하여 사용하되, 상기 동적 시간 워핑 알고리즘은 6배 교차 검증 방법으로 훈련되며,
상기 모바일 기기(130)는,
상기 3개의 IMU 센서 모듈(110)의 3개의 영역을 통해 22개의 동작 인식을 구현하되, 사용자가 사용자 정의 제스처를 통해 인식을 원하는 추가 동작을 더 설정할 수 있으며,
상기 모바일 기기(130)는 제어 모듈(120)과 블루투스 통신을 수행하기 위한 블루투스 모듈을 내장형으로 구성하는 것을 특징으로 하는, 동작 인식을 위한 지능형 장치의 제어 방법. - 삭제
- 삭제
- 삭제
- 삭제
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020180012015A KR102057705B1 (ko) | 2018-01-31 | 2018-01-31 | 동작 인식을 위한 지능형 장치 및 그 제어 방법 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020180012015A KR102057705B1 (ko) | 2018-01-31 | 2018-01-31 | 동작 인식을 위한 지능형 장치 및 그 제어 방법 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20190098806A KR20190098806A (ko) | 2019-08-23 |
| KR102057705B1 true KR102057705B1 (ko) | 2019-12-19 |
Family
ID=67763906
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020180012015A Active KR102057705B1 (ko) | 2018-01-31 | 2018-01-31 | 동작 인식을 위한 지능형 장치 및 그 제어 방법 |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102057705B1 (ko) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102260022B1 (ko) | 2020-05-25 | 2021-06-02 | 전남대학교산학협력단 | 딥러닝 기반 이미지 내 객체 분류 시스템 및 방법 |
| KR20210126354A (ko) * | 2020-04-10 | 2021-10-20 | 한국항공대학교산학협력단 | 웨어러블 디바이스 기반 적응형 dtw을 이용한 손동작 인식기 및 인식 방법 |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102813510B1 (ko) * | 2020-02-07 | 2025-05-27 | 삼성전자주식회사 | 사용자 입력을 처리하는 전자 장치 및 방법 |
| CN111913575B (zh) * | 2020-07-24 | 2021-06-11 | 合肥工业大学 | 一种手语词的识别方法 |
| CN112817450A (zh) * | 2021-01-28 | 2021-05-18 | Oppo广东移动通信有限公司 | 动作识别方法、装置、电子设备及存储介质 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013506216A (ja) * | 2009-09-29 | 2013-02-21 | モベア エス.アー | ジェスチャを認識するためのシステムおよび方法 |
-
2018
- 2018-01-31 KR KR1020180012015A patent/KR102057705B1/ko active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013506216A (ja) * | 2009-09-29 | 2013-02-21 | モベア エス.アー | ジェスチャを認識するためのシステムおよび方法 |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20210126354A (ko) * | 2020-04-10 | 2021-10-20 | 한국항공대학교산학협력단 | 웨어러블 디바이스 기반 적응형 dtw을 이용한 손동작 인식기 및 인식 방법 |
| KR102316556B1 (ko) | 2020-04-10 | 2021-10-22 | 한국항공대학교산학협력단 | 웨어러블 디바이스 기반 적응형 dtw을 이용한 손동작 인식기 및 인식 방법 |
| KR102260022B1 (ko) | 2020-05-25 | 2021-06-02 | 전남대학교산학협력단 | 딥러닝 기반 이미지 내 객체 분류 시스템 및 방법 |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20190098806A (ko) | 2019-08-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102057705B1 (ko) | 동작 인식을 위한 지능형 장치 및 그 제어 방법 | |
| CN109804331B (zh) | 检测和使用身体组织电信号 | |
| KR102271432B1 (ko) | 웨어러블 디바이스 및 그 제어 방법 | |
| Bulling et al. | Wearable EOG goggles: Seamless sensing and context-awareness in everyday environments | |
| CN106413529B (zh) | 光学压力传感器 | |
| KR101963694B1 (ko) | 동작 인식 및 제어를 위한 웨어러블 장치 및 이를 이용한 동작 인식 제어 방법 | |
| JP2021072136A (ja) | ジェスチャに基づいて制御するための筋活動センサ信号と慣性センサ信号とを結合する方法および装置 | |
| CN107943285B (zh) | 一种基于生物肌电的人机交互腕环、系统及方法 | |
| Matthies et al. | Capglasses: Untethered capacitive sensing with smart glasses | |
| CN108334766A (zh) | 电子装置、解锁方法及相关产品 | |
| Soltani et al. | Design of a novel wearable human computer interface based on electrooculograghy | |
| US9996168B2 (en) | Wearable wireless tongue controlled devices | |
| CN112783326A (zh) | 手势识别装置和手势识别系统 | |
| EP3407228B1 (en) | Wearable sensors for inputting a command | |
| KR20190063156A (ko) | 제스처 인식 장치 및 그 방법 | |
| Tripathy et al. | Design and implementation of brain computer interface based robot motion control | |
| Peters | An assessment of single-channel emg sensing for gestural input | |
| RU2661756C2 (ru) | Устройство мозг-машинного интерфейса для дистанционного управления экзоскелетными конструкциями | |
| CN108594937A (zh) | 便携式终端 | |
| Khan et al. | Tongue-supported human-computer interaction systems: a review | |
| Akumalla | Evaluating appropriateness of EMG and flex sensors for classifying hand gestures | |
| US20250352089A1 (en) | Tissue spectrophotometry for human-computer and human-machine interfacing | |
| Edwards | Wearables-fashion with a purpose: a new generation of wearable devices uses signal processing to make life easier, healthier, and more secure [special reports] | |
| CN206380808U (zh) | 脉冲反馈指纹识别智能手环 | |
| WO2024176149A1 (en) | Method and system for determining facial movements |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| AMND | Amendment | ||
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
St.27 status event code: N-2-6-B10-B15-exm-PE0601 |
|
| AMND | Amendment | ||
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PX0901 | Re-examination |
St.27 status event code: A-2-3-E10-E12-rex-PX0901 |
|
| PX0701 | Decision of registration after re-examination |
St.27 status event code: A-3-4-F10-F13-rex-PX0701 |
|
| X701 | Decision to grant (after re-examination) | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| P14-X000 | Amendment of ip right document requested |
St.27 status event code: A-5-5-P10-P14-nap-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 6 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 7 |