KR102203810B1 - 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법 - Google Patents
사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법 Download PDFInfo
- Publication number
- KR102203810B1 KR102203810B1 KR1020130117197A KR20130117197A KR102203810B1 KR 102203810 B1 KR102203810 B1 KR 102203810B1 KR 1020130117197 A KR1020130117197 A KR 1020130117197A KR 20130117197 A KR20130117197 A KR 20130117197A KR 102203810 B1 KR102203810 B1 KR 102203810B1
- Authority
- KR
- South Korea
- Prior art keywords
- event
- class
- classes
- representative value
- events
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
도 2는 다른 실시예에 따른 유저 인터페이싱 장치를 나타낸 블록도.
도 3은 일 실시예에 따른 이벤트를 분류하고, 클래스 정보를 갱신하는 동작을 설명하기 위한 도면.
도 4는 일 실시예에 따른 타임 스탬프를 설명하기 위한 도면.
도 5는 일 실시예에 따른 처리부를 나타낸 블록도.
도 6은 일 실시예에 따른 광류 계산부의 동작을 설명하기 위한 도면.
도 7은 일 실시예에 따른 속도 성분들을 설명하기 위한 도면.
도 8은 일 실시예에 따른 광류 중심을 계산하는 동작을 설명하기 위한 도면.
도 9는 일 실시예에 따른 Z축 속도 및 각속도를 계산하는 동작을 설명하기 위한 도면.
도 10은 일 실시예에 따른 유저 인터페이싱 방법을 나타낸 동작 흐름도.
도 11a 및 도 11b는 일 실시예에 따른 이벤트 맵을 설명하기 위한 도면.
도 12는 일 실시예에 따른 유저 인터페이싱 장치를 나타낸 블록도.
도 13은 일 실시예에 따른 오브젝트 트래킹 동작을 설명하기 위한 도면.
Claims (26)
- 이벤트 데이터를 처리하는 장치에 있어서:
오브젝트의 움직임에 의한 빛의 세기 변화에 대응하는 이벤트를 감지하고 상기 이벤트의 상기 이벤트 데이터를 생성하도록 구성되는 적어도 하나의 이벤트 기반 센서;
적어도 두 개의 클래스들의 각 대표값과 상기 이벤트 데이터 사이에서 계산되는 유사도에 기반하여, 상기 이벤트를, 상기 적어도 두 개의 클래스들 중 상기 이벤트 데이터와 가장 유사한 대표값을 갖는 클래스로 분류하고, 상기 이벤트에 대응하는 상기 클래스와 관련된 클래스 정보를 갱신하고, 상기 갱신된 클래스 정보에 기반하여 상기 이벤트에 대응하는 사용자 입력을 판단하도록 구성되는 적어도 하나의 프로세서를 포함하는 장치. - 삭제
- 제 1 항에 있어서,
상기 대표값은 상기 적어도 두 개의 클래스들의 각각에 대한 좌표 또는 위치 관련 정보에 대응하는 장치. - 제 1 항에 있어서,
상기 이벤트를 분류하기 위해, 상기 적어도 하나의 프로세서는:
상기 이벤트에 대응하는 이벤트 값을 상기 대표값과 비교하고, 그리고
상기 적어도 두 개의 클래스들 중, 상기 이벤트 값과 가장 유사한 대표값을 갖는 클래스를 감지하도록 구성되는 장치. - 제 1 항에 있어서,
상기 갱신된 클래스 정보는 상기 분류된 이벤트의 상기 클래스를 대표하는 대표값을 포함하는 장치. - 제 1 항에 있어서,
상기 적어도 두 개의 클래스들은 상기 사용자 입력과 관련된 적어도 두 개의 오브젝트들에 대응하는 장치. - 제 1 항에 있어서,
상기 사용자 입력을 판단하기 위해, 상기 적어도 하나의 프로세서는:
상기 적어도 두 개의 클래스들에 대응하는 광류들을 계산하고, 그리고
상기 계산된 광류들에 기반하여 적어도 상기 적어도 두 개의 클래스들에 대응하는 속도 성분들을 계산하도록 구성되는 장치. - 제 7 항에 있어서,
상기 속도 성분들은:
이벤트를 감지하기 위한 가상의 평면에서 상기 이벤트를 생성하는 오브젝트가 x축 방향으로 움직이는 제 1 속도 성분;
상기 가상의 평면에서 상기 오브젝트가 y축 방향으로 움직이는 제 2 속도 성분;
상기 오브젝트가 상기 가상의 평면과 수직 방향으로 움직이는 제 3 속도 성분; 및
상기 가상의 평면에서 상기 오브젝트가 회전하는 제4 속도 성분 중 적어도 하나를 포함하는 장치. - 제 7 항에 있어서,
상기 사용자 입력을 판단하기 위해, 상기 적어도 하나의 프로세서는:
사용자 입력 컨텍스트에 기반하여 상기 속도 성분들을 분석함으로써 상기 사용자 입력을 인식하도록 구성되는 장치. - 제 7 항에 있어서,
상기 사용자 입력을 판단하기 위해, 상기 적어도 하나의 프로세서는:
상기 속도 성분들에 기반하여 상기 분류된 이벤트의 상기 클래스 및 적어도 하나의 나머지 클래스 사이의 상대적인 속도를 분석함으로써 상기 사용자 입력을 인식하도록 구성되는 장치. - 제 1 항에 있어서,
상기 사용자 입력을 판단하기 위해, 상기 적어도 하나의 프로세서는:
사용자 입력 컨텍스트에 기반하여 상기 분류된 이벤트의 클래스를 대표하는 대표값 및 적어도 하나의 나머지 클래스를 대표하는 대표값을 분석함으로써 사용자 입력을 인식하도록 구성되는 장치. - 제 1 항에 있어서,
상기 이벤트는, 상기 이벤트 기반 센서에 의해 생성된 오프-서피스(off-surface) 이벤트에 대응하는 장치. - 이벤트들을 감지하도록 구성된 적어도 하나의 이벤트 기반 비전 센서에 의해 생성된 이벤트 데이터를 처리하기 위한 사용자 인터페이스의 동작 방법에 있어서:
복수의 오브젝트들의 움직임들에 의한 빛의 세기 변화들에 대응하는 상기 이벤트들의 이벤트 데이터들를 수신하는 단계;
복수의 클래스들의 각 대표값과 상기 이벤트들의 각 이벤트 데이터 사이에서 계산되는 각 유사도에 기반하여, 상기 이벤트들의 각각을, 상기 복수의 클래스들 중 상기 각 이벤트 데이터와 가장 유사한 대표값을 갖는 클래스로 각각 분류하는 단계;
상기 이벤트들에 기반하여 상기 복수의 클래스들과 관련된 클래스 정보를 갱신 하는 단계; 그리고
상기 갱신된 클래스 정보에 기반하여 사용자 입력을 판단하는 단계를 포함하는 방법. - 제 13 항에 있어서,
상기 분류하는 단계는:
상기 이벤트들의 각각에 대해, 상기 복수의 클래스들 중 대응하는 이벤트의 값과 가장 유사한 대표값을 갖는 클래스를 감지하는 단계를 포함하는 방법. - 제 13 항에 있어서,
상기 클래스 정보는 상기 클래스들에 포함된 픽셀들, 상기 클래스에 포함된 이벤트들, 및 메모리에 저장된 상기 클래스들의 대표값들 중 적어도 하나를 포함하는 방법. - 제 13 항에 있어서,
상기 판단하는 단계는:
상기 클래스들의 광류를 계산하는 단계;
상기 계산된 광류들에 기반하여 상기 클래스들의 속도 성분들을 계산하는 단계; 그리고
상기 클래스들의 상기 속도 성분들에 기반하여 상기 사용자 입력을 처리하기 위한 커맨드를 인식하는 단계를 포함하는 방법. - 오브젝트의 움직임에 의한 빛의 변화에 대응하는 이벤트를 감지하도록 구성되는 이벤트 기반 센서에 의해 생성되는 이벤트 데이터를 처리하기 위한 장치에 있어서:
상기 이벤트 데이터와, 상기 이벤트 기반 센서에 의해 감지되는 제 1 그룹의 이벤트들에 대응하는 제 1 대표값 사이의 제 1 유사도를 계산하고,
상기 이벤트 데이터와, 상기 이벤트 기반 센서에 의해 감지되는 제 2 그룹의 이벤트들에 대응하는 제 2 대표값 사이의 제 2 유사도를 계산하고,
상기 제 1 유사도와 상기 제 2 유사도를 비교하고,
상기 비교 결과에 기반하여 상기 이벤트를 제 1 그룹의 이벤트들 및 제 2 그룹의 이벤트들 중 어느 하나로 분류하고, 그리고
상기 분류된 이벤트에 기반하여 상기 제 1 대표값 또는 상기 제 2 대표값을 갱신하도록 구성되는 적어도 하나의 프로세서를 포함하는 장치. - 제 17 항에 있어서,
상기 이벤트 데이터는 상기 이벤트가 발생하는, 상기 이벤트 기반 센서에 포함된 복수의 픽셀들 중의, 타깃 픽셀의 타깃 좌표를 포함하고,
상기 제 1 대표값은 상기 제 1 그룹의 이벤트들을 생성하는, 상기 복수의 픽셀들 중 제 1 그룹의 픽셀들의 제 1 중심 좌표이고, 그리고
상기 제 2 대표값은 상기 제 2 그룹의 이벤트들을 생성하는, 상기 복수의 픽셀들 중 제 2 그룹의 픽셀들의 제 2 중심 좌표인 장치. - 제 18 항에 있어서,
상기 제 1 유사도는 상기 타깃 좌표와 상기 제 1 중심 좌표 사이의 제 1 거리이고, 상기 제 2 유사도는 상기 타깃 좌표와 상기 제 2 중심 좌표 사이의 제 2 거리인 장치. - 제 19 항에 있어서,
상기 적어도 하나의 프로세서는:
상기 제 2 거리가 상기 제 1 거리보다 클 때, 상기 이벤트를 상기 제 1 그룹의 이벤트들로 분류하고, 그리고
상기 제 1 거리가 상기 제 2 거리보다 클 때, 상기 이벤트를 상기 제 2 그룹의 이벤트들로 분류하도록 구성되는 장치. - 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
Priority Applications (6)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020130117197A KR102203810B1 (ko) | 2013-10-01 | 2013-10-01 | 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법 |
| US14/302,785 US10310615B2 (en) | 2013-10-01 | 2014-06-12 | Apparatus and method of using events for user interface |
| CN201410361004.2A CN104516499B (zh) | 2013-10-01 | 2014-07-25 | 利用用户接口的事件的设备和方法 |
| CN201910303747.7A CN110045829B (zh) | 2013-10-01 | 2014-07-25 | 利用用户接口的事件的设备和方法 |
| EP14181934.2A EP2857951B1 (en) | 2013-10-01 | 2014-08-22 | Apparatus and method of using events for user interface |
| US16/429,422 US10838508B2 (en) | 2013-10-01 | 2019-06-03 | Apparatus and method of using events for user interface |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020130117197A KR102203810B1 (ko) | 2013-10-01 | 2013-10-01 | 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20150038877A KR20150038877A (ko) | 2015-04-09 |
| KR102203810B1 true KR102203810B1 (ko) | 2021-01-15 |
Family
ID=51485447
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020130117197A Active KR102203810B1 (ko) | 2013-10-01 | 2013-10-01 | 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법 |
Country Status (4)
| Country | Link |
|---|---|
| US (2) | US10310615B2 (ko) |
| EP (1) | EP2857951B1 (ko) |
| KR (1) | KR102203810B1 (ko) |
| CN (2) | CN110045829B (ko) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9846677B2 (en) * | 2014-09-16 | 2017-12-19 | Qualcomm Incorporated | Event-based spatial transformation |
| KR102307055B1 (ko) * | 2015-04-28 | 2021-10-01 | 삼성전자주식회사 | 이벤트 기반 센서의 출력에 기초하여 정적 패턴을 추출하는 방법 및 장치 |
| US10909384B2 (en) * | 2015-07-14 | 2021-02-02 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring system and monitoring method |
| EP3120897A1 (en) * | 2015-07-22 | 2017-01-25 | Université Pierre et Marie Curie (Paris 6) | Method for downsampling a signal outputted by an asynchronous sensor |
| KR102512828B1 (ko) * | 2016-01-22 | 2023-03-22 | 삼성전자주식회사 | 이벤트 신호 처리 방법 및 장치 |
| US10725627B2 (en) * | 2016-07-15 | 2020-07-28 | International Business Machines Corporation | Managing inputs to a user interface with system latency |
| US10685279B2 (en) | 2016-09-26 | 2020-06-16 | Splunk Inc. | Automatically generating field extraction recommendations |
| US10909140B2 (en) | 2016-09-26 | 2021-02-02 | Splunk Inc. | Clustering events based on extraction rules |
| CN108574793B (zh) | 2017-03-08 | 2022-05-10 | 三星电子株式会社 | 被配置为重新生成时间戳的图像处理设备及包括其在内的电子设备 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20130229375A1 (en) * | 2009-05-05 | 2013-09-05 | Microsoft Corporation | Contact Grouping and Gesture Recognition for Surface Computing |
Family Cites Families (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002501271A (ja) * | 1998-01-26 | 2002-01-15 | ウェスターマン,ウェイン | 手操作入力を統合する方法および装置 |
| US20030132950A1 (en) * | 2001-11-27 | 2003-07-17 | Fahri Surucu | Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains |
| US7814545B2 (en) | 2003-07-22 | 2010-10-12 | Sonicwall, Inc. | Message classification using classifiers |
| US7676754B2 (en) | 2004-05-04 | 2010-03-09 | International Business Machines Corporation | Method and program product for resolving ambiguities through fading marks in a user interface |
| US7653249B2 (en) * | 2004-11-17 | 2010-01-26 | Eastman Kodak Company | Variance-based event clustering for automatically classifying images |
| US7958147B1 (en) | 2005-09-13 | 2011-06-07 | James Luke Turner | Method for providing customized and automated security assistance, a document marking regime, and central tracking and control for sensitive or classified documents in electronic format |
| US7729808B2 (en) | 2006-03-10 | 2010-06-01 | Edsa Micro Corporation | System for comparing real-time data and modeling engine data to predict arc flash events |
| US8378974B2 (en) * | 2007-07-02 | 2013-02-19 | Elo Touch Solutions, Inc. | Method and system for detecting touch events based on magnitude ratios |
| CN101965558B (zh) | 2008-02-29 | 2014-07-02 | 三菱电机株式会社 | 事件历史追踪装置 |
| KR100989081B1 (ko) | 2008-08-11 | 2010-10-25 | 한국전자통신연구원 | 네트워크 카메라를 이용한 이벤트 감시 시스템 및 방법 |
| JP5191321B2 (ja) * | 2008-09-02 | 2013-05-08 | 株式会社ジャパンディスプレイウェスト | 情報入力装置、情報入力方法、情報入出力装置および情報入力プログラム |
| JP5816098B2 (ja) * | 2009-02-02 | 2015-11-18 | アイサイト モバイル テクノロジーズ リミテッド | ビデオストリームの中のオブジェクト認識および追跡システムおよび方法 |
| KR20100130671A (ko) * | 2009-06-04 | 2010-12-14 | 삼성전자주식회사 | 터치 인터페이스에서 선택 영역의 제공 장치 및 그 방법 |
| WO2011001587A1 (ja) | 2009-07-01 | 2011-01-06 | 日本電気株式会社 | コンテンツ分類装置、コンテンツ分類方法及びコンテンツ分類プログラム |
| US9696856B2 (en) * | 2009-09-29 | 2017-07-04 | Elo Touch Solutions, Inc. | Method and apparatus for detecting simultaneous touch events on a bending-wave touchscreen |
| JP5411641B2 (ja) | 2009-09-29 | 2014-02-12 | 富士フイルム株式会社 | 画像分類装置、画像分類システム、画像分類方法、プログラム、および記録媒体 |
| US8600166B2 (en) * | 2009-11-06 | 2013-12-03 | Sony Corporation | Real time hand tracking, pose classification and interface control |
| US20110279682A1 (en) | 2009-11-12 | 2011-11-17 | Le Li | Methods for Target Tracking, Classification and Identification by Using Foveal Sensors |
| AU2009243442B2 (en) | 2009-11-30 | 2013-06-13 | Canon Kabushiki Kaisha | Detection of abnormal behaviour in video objects |
| US8758274B2 (en) | 2010-01-08 | 2014-06-24 | Medtronic, Inc. | Automated adjustment of posture state definitions for a medical device |
| KR101158729B1 (ko) | 2010-03-31 | 2012-06-22 | 한국과학기술원 | 실시간 다수 객체 추적시스템 및 방법 |
| CN102314297B (zh) * | 2010-07-07 | 2016-04-13 | 腾讯科技(深圳)有限公司 | 一种窗口对象惯性移动方法及实现装置 |
| US20130275907A1 (en) * | 2010-10-14 | 2013-10-17 | University of Technology ,Sydney | Virtual keyboard |
| US8953895B2 (en) | 2010-11-29 | 2015-02-10 | Panasonic Intellectual Property Corporation Of America | Image classification apparatus, image classification method, program, recording medium, integrated circuit, and model creation apparatus |
| TWI452540B (zh) * | 2010-12-09 | 2014-09-11 | Ind Tech Res Inst | 影像式之交通參數偵測系統與方法及電腦程式產品 |
| TWI448918B (zh) * | 2011-09-09 | 2014-08-11 | Pixart Imaging Inc | 光學觸控系統 |
| US20130249793A1 (en) * | 2012-03-22 | 2013-09-26 | Ingeonix Corporation | Touch free user input recognition |
| KR102070562B1 (ko) | 2012-06-19 | 2020-01-30 | 삼성전자주식회사 | 이벤트 기반 이미지 처리 장치 및 그 장치를 이용한 방법 |
| US20150070320A1 (en) * | 2013-09-10 | 2015-03-12 | Qualcomm Mems Technologies, Inc. | Photoconductive optical touch |
-
2013
- 2013-10-01 KR KR1020130117197A patent/KR102203810B1/ko active Active
-
2014
- 2014-06-12 US US14/302,785 patent/US10310615B2/en active Active
- 2014-07-25 CN CN201910303747.7A patent/CN110045829B/zh active Active
- 2014-07-25 CN CN201410361004.2A patent/CN104516499B/zh active Active
- 2014-08-22 EP EP14181934.2A patent/EP2857951B1/en active Active
-
2019
- 2019-06-03 US US16/429,422 patent/US10838508B2/en active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20130229375A1 (en) * | 2009-05-05 | 2013-09-05 | Microsoft Corporation | Contact Grouping and Gesture Recognition for Surface Computing |
Also Published As
| Publication number | Publication date |
|---|---|
| CN104516499B (zh) | 2019-12-31 |
| KR20150038877A (ko) | 2015-04-09 |
| EP2857951A1 (en) | 2015-04-08 |
| CN110045829A (zh) | 2019-07-23 |
| US10838508B2 (en) | 2020-11-17 |
| CN104516499A (zh) | 2015-04-15 |
| CN110045829B (zh) | 2021-11-02 |
| US20150095818A1 (en) | 2015-04-02 |
| US20190310715A1 (en) | 2019-10-10 |
| EP2857951B1 (en) | 2018-08-15 |
| US10310615B2 (en) | 2019-06-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102203810B1 (ko) | 사용자 입력에 대응되는 이벤트를 이용한 유저 인터페이싱 장치 및 방법 | |
| US20240289930A1 (en) | Deep learning-based real-time detection and correction of compromised sensors in autonomous machines | |
| KR102248404B1 (ko) | 움직임 분석 방법 및 움직임 분석 장치 | |
| US20160171739A1 (en) | Augmentation of stop-motion content | |
| US10922536B2 (en) | Age classification of humans based on image depth and human pose | |
| CN115699102A (zh) | 使用遮挡感知单对象跟踪在视频流中跟踪多个对象 | |
| US20240104744A1 (en) | Real-time multi-view detection of objects in multi-camera environments | |
| KR20150108888A (ko) | 제스처 인식을 위한 부분 및 상태 검출 | |
| CN112949512B (zh) | 一种动态手势识别方法、手势交互方法及交互系统 | |
| KR20150067250A (ko) | 사용자 인터페이스를 위한 터치리스 입력 | |
| KR20170036747A (ko) | 장면 내 키포인트를 추적하기 위한 방법 | |
| Min et al. | Human fall detection using normalized shape aspect ratio | |
| CN117593788A (zh) | 一种基于计算机视觉的人体姿态分类方法 | |
| KR101909326B1 (ko) | 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템 | |
| KR102227494B1 (ko) | 오브젝트의 움직임을 이용하여 사용자 입력을 처리하는 장치 및 방법 | |
| KR20240019030A (ko) | 시선 방향을 검출하는 딥러닝 기반의 시선 방향 검출 모델을 학습하는 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치 | |
| KR102159996B1 (ko) | 이벤트 필터링 장치 및 이를 이용한 동작 인식 장치 | |
| Kishore et al. | DSLR-Net a depth based sign language recognition using two stream convents | |
| Nabi et al. | Human Activity Recognition. | |
| KR101855105B1 (ko) | 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20131001 |
|
| PG1501 | Laying open of application | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20181001 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20131001 Comment text: Patent Application |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20200520 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20201012 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20210111 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20210112 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration | ||
| PR1001 | Payment of annual fee |
Payment date: 20231226 Start annual number: 4 End annual number: 4 |
|
| PR1001 | Payment of annual fee |
Payment date: 20241226 Start annual number: 5 End annual number: 5 |