KR20130133223A - User identification with biokinematic input - Google Patents
User identification with biokinematic input Download PDFInfo
- Publication number
- KR20130133223A KR20130133223A KR1020137016779A KR20137016779A KR20130133223A KR 20130133223 A KR20130133223 A KR 20130133223A KR 1020137016779 A KR1020137016779 A KR 1020137016779A KR 20137016779 A KR20137016779 A KR 20137016779A KR 20130133223 A KR20130133223 A KR 20130133223A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- computing device
- biokinetic
- palm
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Collating Specific Patterns (AREA)
- Telephone Function (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
바이오키네마틱 입력에 기반한 사용자 식별을 위한 시스템 및 방법이 본 명세서에서 개시된다. 이 시스템은 규정된 식별 제스처 중 일련의 연속 시간 인터벌들 각각에서 사용자의 손가락들에 의해 이루어진 손가락 터치의 검출 위치를 나타내는 데이터를 포함하는 바이오키네마틱 입력을 수신하도록 구성된 센서를 포함하는 멀티 터치 감지 디스플레이를 포함할 수 있다. 이 시스템은 컴퓨팅 장치의 프로세서에 의해 실행되는 사용자 식별 모듈을 더 포함할 수 있다. 사용자 식별 모듈은 센서로부터 바이오키네마틱 입력을 수신하며 손가락 터치들의 상대적 위치들 및/또는 손가락 터치들의 상기 위치들의 상대적 변화율을 사용자에 대해 검증된 바이오키네마틱 데이터의 저장 템플릿과 비교하도록 구성될 수 있다. 매치가 판정되면 사용자가 성공적으로 식별되었다는 표시가 디스플레이될 수 있다.Disclosed herein are systems and methods for user identification based on biokinetic input. The system includes a multi-touch sensitive display comprising a sensor configured to receive a biokinetic input comprising data indicative of a detected location of a finger touch made by a user's fingers at each of a series of consecutive time intervals of a defined identification gesture. It may include. The system can further include a user identification module executed by the processor of the computing device. The user identification module may be configured to receive biokinetic input from the sensor and to compare the relative positions of finger touches and / or the relative rate of change of the positions of finger touches with a storage template of biokinetic data validated for the user. . If a match is determined, an indication may be displayed that the user was successfully identified.
Description
생체측정 기법들이 지문 및 장문과 같은 특징적인 물리적 특성들에 기반하여 사람을 식별하기 위해 개발되어 왔다. 예를 들어, 건물 출입을 허가하거나 거부하는데 사용되는 손바닥 스캐너들이 개발되었으며, 웹사이트 및 파일 접속이나 운영체제로의 로그인에 사용되는 지문 스캐너들이 개발되어 왔다. 이 시스템들은 손가락이나 손바닥 상의 피부 패턴들에 대한 상세 스캔을 얻기에 충분한 고해상도 화상 기능을 가진 전용 스캐너를 이용하며, 그에 의해 사용자들을 서로 구분하는 피부 패턴들 내의 특징적인 물리적 특성들에 대한 식별을 가능하게 할 수 있다.Biometric techniques have been developed to identify people based on characteristic physical characteristics such as fingerprints and palm prints. For example, palm scanners have been developed to allow or deny building access, and fingerprint scanners have been developed for web site and file access or login to the operating system. These systems use a dedicated scanner with a high resolution imaging function sufficient to obtain detailed scans of skin patterns on fingers or palms, thereby enabling identification of characteristic physical properties within skin patterns that distinguish users from each other. It can be done.
태블릿 컴퓨팅 장치들 및 터치 스크린 모바일 전화기들 상에서의 그러한 생체측정 기법들의 채택에는 몇 가지 장애물이 존재한다. 과거에는 전용 지문 및 손바닥 스캐너들이 예컨대 그 스캐너들을 장착하기 충분한 공간이 있는 도어 출입 패널들 및 랩탑 컴퓨터 하우징 상에서 사용되었지만, 대부분의 태블릿 컴퓨팅 장치들과 터치 스크린 모바일 전화기들은 소형이므로 전용 지문 스캐너나 손바닥 스캐너를 장착할 충분한 공간을 가지지 못한다. 또한 종래의 태블릿 컴퓨팅 장치들 및 모바일 전화기들에 사용되는 터치 스크린 기술들은 사용자가 구별될 수 있는 지문 또는 손바닥의 피부 패턴들에 대한 사용가능 이미지를 획득할 정도로 충분히 높은 해상도가 아니다. 결과적으로, 지문 및 손바닥 스캐닝과 관련된 생체측정 기법들은 태블릿 컴퓨팅 장치들 및 터치 스크린 모바일 전화기들에 대해 널리 채택되고 있지 않다.
There are several obstacles to the adoption of such biometric techniques on tablet computing devices and touch screen mobile phones. In the past, dedicated fingerprint and palm scanners have been used, for example, on door access panels and laptop computer housings with sufficient space to mount the scanners. It does not have enough space to mount it. Also, touch screen technologies used in conventional tablet computing devices and mobile phones are not high enough resolution to obtain a usable image for the user's distinguishable fingerprint or palm skin patterns. As a result, biometric techniques related to fingerprint and palm scanning are not widely adopted for tablet computing devices and touch screen mobile phones.
바이오키네마틱 입력에 기반한 사용자 식별을 위한 시스템 및 방법이 본 명세서에서 개시된다. 이 시스템은 규정된 식별 제스처 중 일련의 연속 시간 인터벌들 각각에서 사용자의 손가락들에 의해 이루어진 손가락 터치의 검출 위치를 나타내는 데이터를 포함하는 바이오키네마틱 입력을 수신하도록 구성된 센서를 포함하는 멀티 터치 감지 디스플레이를 포함할 수 있다. 이 시스템은 컴퓨팅 장치의 프로세서에 의해 실행되는 사용자 식별 모듈을 더 포함할 수 있다. 사용자 식별 모듈은 센서로부터 바이오키네마틱 입력을 수신하며, 손가락 터치들의 상대적 위치들 및/또는 손가락 터치들의 상기 위치들의 상대적 변화율을 사용자에 대해 검증된 바이오키네마틱 데이터의 저장 템플릿과 비교하도록 구성될 수 있다. 매치가 판정되면 사용자가 성공적으로 식별되었다는 표시가 디스플레이될 수 있다. Disclosed herein are systems and methods for user identification based on biokinetic input. The system includes a multi-touch sensitive display comprising a sensor configured to receive a biokinetic input comprising data indicative of a detected location of a finger touch made by a user's fingers at each of a series of consecutive time intervals of a defined identification gesture. It may include. The system can further include a user identification module executed by the processor of the computing device. The user identification module receives biokinetic input from the sensor and may be configured to compare the relative positions of the finger touches and / or the relative rate of change of the positions of the finger touches with a storage template of biokinetic data validated for the user. have. If a match is determined, an indication may be displayed that the user was successfully identified.
이 요약은 이하의 상세한 설명에 자세히 기술되는 개념들의 선택을 간략한 형식으로 소개하기 위해 주어진다. 이 요약은 청구된 발명 대상의 주요 특징이나 필수적 특징을 확인하도록 의도되거나 청구된 발명 대상의 범위를 한정하는 데 사용되도록 의도된 것이 아니다. 또한 청구된 발명 대상이 이 개시의 어떤 일부에 언급된 어느 혹은 모든 단점들을 해결하는 구현예들에 국한되지 않는다.
This summary is given to introduce a selection of concepts in a simplified form that are further described below in the Detailed Description. This Summary is not intended to identify key features or essential features of the claimed subject matter, nor is it intended to be used to limit the scope of the claimed subject matter. Furthermore, the claimed subject matter is not limited to implementations that solve any or all disadvantages noted in any part of this disclosure.
도 1은 바이오키네마틱(biokinematic) 입력을 이용한 사용자 식별을 수행하도록 구성된 컴퓨팅 장치의 일 실시예에 대한 개략도이다.
도 2는 태블릿 컴퓨팅 장치 상의 손바닥-주먹 전환 제스처 시 일련의 손의 위치들을 예시한 도 1의 바이오키네마틱 입력을 이용한 사용자 식별을 수행하도록 구성된 컴퓨팅 장치의 투시도이다.
도 3은 도 2에 도시된 일련의 손 위치들에 해당하는 복수의 터치들을 보인 그래픽도이다.
도 4는 바이오키네마틱 입력을 이용한 사용자 식별을 위해 컴퓨터화된 사용자 식별 방법의 일 실시예에 대한 개략도이다.1 is a schematic diagram of one embodiment of a computing device configured to perform user identification using biokinematic input.
FIG. 2 is a perspective view of a computing device configured to perform user identification using the biokinetic input of FIG. 1 illustrating a series of hand positions in a palm-fist switch gesture on a tablet computing device.
3 is a graphic diagram illustrating a plurality of touches corresponding to a series of hand positions shown in FIG. 2.
4 is a schematic diagram of one embodiment of a computerized user identification method for user identification using biokinetic input.
도 1은 바이오키네마틱(biokinematic) 입력을 이용한 사용자 식별을 수행하도록 구성된 컴퓨팅 장치의 일 실시예에 대한 개략도이다. 컴퓨팅 장치(10)는 예를 들어 모바일 전화기, 태블릿 컴퓨팅 장치, 또는 랩탑 컴퓨터와 같은 휴대형 컴퓨팅 장치로서 구성될 수 있다. 다른 예들에서, 컴퓨팅 장치(10)는 퍼스널 컴퓨터(PC), 데스크탑 컴퓨터, 테이블탑 컴퓨터, 또는 키오스크 컴퓨터로서 구성될 수 있다. 컴퓨팅 장치(10)는 디스플레이(22), 프로세서(24), 메모리 유닛(26), 및 대량 저장 유닛(28)을 포함한다. 대량 저장 유닛(28)에 저장된 프로그램들은 메모리 유닛(26) 및 디스플레이(22)를 이용하는 프로세서(24)에 의해 실행되어 본 명세서에 기술된 다양한 기능들을 수행할 수 있다. 컴퓨팅 장치(10)는 규정된 식별 제스처 도중에 사용자로부터 바이오키네마틱 입력을 수신하고 그 바이오키네마틱 입력을 저장된 사용자 템플릿(48)과 비교하도록 구성될 수 있다. 그로써 만일 매치가 판정되면 사용자가 성공적으로 식별될 수 있으며 소프트웨어, 데이터 또는 장치의 기능에 대한 접근이 허락될 수 있다.1 is a schematic diagram of one embodiment of a computing device configured to perform user identification using biokinematic input.
디스플레이(22)는 터치 입력을 검출하기 위한 센서(32)를 포함하는 멀티 터치 감지 디스플레이일 수 있다. 디스플레이(22)는 가시적인 이미지를 생성하기 위한 다양한 디스플레이 기술들을 이용할 수 있다. 따라서 디스플레이는 LCD(liquid crystal display)나 예컨대 복수의 발광 픽셀들로 이루어진 OLED(organic light emitting diode) 디스플레이로서 구성될 수 있다. 디스플레이(22)는 마이크로소프트 SURFACE® 디스플레이와 같은 테이블탑 광 터치 감지 디스플레이일 수도 있다. The
센서(32)는 사용자의 대응하는 복수의 손가락들로 만들어진 복수의 손가락 터치들 각각의 검출 위치들을 나타내는 데이터를 포함하는 바이오키네마틱 입력(18)을 수신하도록 구성될 수 있다. 센서(32)는 규정된 사용자의 식별 제스처 중에 일련의 연속 시간 인터벌들 각각에서 데이터를 수신하도록 구성될 수 있다. 또한 규정된 식별 제스처의 복수의 손가락 터치들은 적어도 하나의 손바닥 터치를 포함할 수 있다. 따라서, 예컨대 규정된 식별 제스처는 사용자가 멀티 터치 디스플레이 상에서 꽉 쥔 주먹을 보인 후 열린 손바닥으로 전환하거나, 그와 달리 열린 손바닥을 보인 후 꽉 쥔 주먹으로 전환하는 손바닥-주먹 전환 제스처일 수 있다. 그러한 제스처는 이하의 도 2 및 도 3과 관련하여 보다 상세히 논의될 것이다. 이것은 다만 컴퓨팅 장치(10)에 의해 개인들을 구별하는 데 사용될 수 있는 식별 제스처의 한 예일 뿐이라는 것을 알 수 있을 것이다. 다양한 방식으로 움직이는 손, 손바닥, 손가락 및/또는 엄지를 포함하는 다른 식별 제스처들 역시 사용될 수 있다.
센서(32)는 다양한 터치 센서들 중 어느 하나일 수 있다. 예를 들어 센서(32)는 용량성 또는 저항성 멀티 터치 센서일 수 있다. 이러한 실시예들에서 센서(32)는 복수의 손가락 및/또는 손바닥 터치들 각각에 의해 야기되어 검출된 커패시턴스나 저항의 변화를 통해 디스플레이(22)의 상위 표면 상의 터치를 검출하도록 구성될 수 있다. The
다른 대안으로서 다른 터치 감지 기술들이 시용될 수 있다. 예를 들어 디스플레이(22)는 디스플레이의 각각의 픽셀에 위치될 수 있는 광 센서들(32)을 포함하여 광을 감지할 수 있으며, 이러한 광 센서들로부터 출력은 디스플레이의 상위 표면 상의 다중 터치들을 검출하기 위해 처리될 수 있다. 이러한 광 센서들은 일례로서 가시 광 및 적외선 광을 감지하도록 구성될 수 있다. 예를 들어 광 센서는 가시 광 및 적외선 광을 감지하도록 구성된 CMOS(complementary metal- oxide semiconductor)나 어떤 다른 APS(active pixel sensor)와 같은 APS일 수 있다. As another alternative, other touch sensing techniques may be employed. For example, the
컴퓨팅 장치(10)는 하드 드라이브와 같은 대량 저장 유닛(28)을 포함할 수 있다. 대량 저장 유닛(28)은 데이터 버스(30)를 통해 디스플레이(22), 프로세서(24) 및 메모리 유닛(26)와 유효한 통신을 할 수 있으며, 메모리(26)의 일부를 이용하여 프로세서(24)에 의해 실행되는 프로그램들 및 그러한 프로그램들에 의해 활용되는 다른 데이터를 저장하도록 구성된다. 예를 들어, 대량 저장 장치(28)는 사용자 식별 모듈(34) 및 관련 데이터베이스(38)를 저장할 수 있다. 대량 저장 장치(28)는 또한 응용 프로그램과 같이 사용자 식별 모듈(34)에 의해 식별이 수행되도록 요청하는 프로그램(36), 로그인 프로그램이나 사용자 인증 프로그램과 같은 운영체제 구성요소, 또는 컴퓨팅 장치 상에서 실행하는 다른 프로그램을 저장할 수 있다. 사용자 식별 모듈(34) 및 프로그램(36)은 메모리(26)의 일부를 이용하여 컴퓨팅 장치(10)의 프로세서(24)에 의해 실행될 수 있다.
사용자 식별 모듈(34)은 예컨대 등록 단계(50) 및 식별 단계(60)와 같은 다양한 각종 단계들 상에서 동작할 수 있다. 각각의 단계는 이하에 기술되는 바와 같이 사용자 식별 모듈(34)의 여러 구성요소들과 결부될 수 있다. The user identification module 34 may operate on various various steps, such as the
사용자 식별 모듈(34)은 센서(32)로부터 바이오키네마틱 입력(18)을 수신하도록 구성될 수 있다. 바이오키네마틱 입력은 사용자의 움직이는 신체 부분을 감지하는 센서(32)로부터 비롯된다. 한 사용자를 다른 사용자와 구분하기 위해 사용자 식별 모듈(34)은 바이오키네마틱 입력 안에 포함된 복수의 손가락 터치들 및/또는 손바닥 터치들의 상대적 위치들을 비교하도록 구성될 수 있다. 더 많거나 더 적거나 다른 신체 부분들로부터의 터치들 역시 검토될 수 있다는 것을 알 수 있을 것이다. 추가적으로나 대안적으로, 사용자 식별 모듈(34)은 시간에 따른 복수의 터치들의 상기 위치들의 상대적 변화율들을 비교하도록 구성될 수 있다. User identification module 34 may be configured to receive biokinetic input 18 from
수신된 바이오키네마틱 입력(18)은 이하에 논의되는 바와 같이, 등록 단계 중에 사용자 식별 모듈(34)에 의해 앞서 검증 및 저장되었을 수 있는 사용자에 대해 검증된 바이오키네마틱 데이터의 저장된 사용자 템플릿(48)과 비교될 수 있다. 바이오키네마틱 입력 및 저장된 사용자 템플릿(48) 사이의 매치가 결정되면, 디스플레이(22)는 사용자가 성공적으로 식별되었다는 표시를 디스플레이할 수 있다. The received biokinetic input 18 is a
다른 예로서, 사용자 식별 모듈(34)은 손바닥-주먹 전환 제스처 중에 적어도 하나의 손바닥 터치에 대한 복수의 손가락 터치들의 상대적 위치들 및/또는 상기 위치들의 변화율들을 측정하도록 구성될 수 있다. 이때 사용자 식별 모듈(34)은 매치가 존재하는지 여부를 판정하기 위해 측정된 상대적 위치들 및/또는 변화율들을 저장된 사용자 템플릿(48)과 비교할 수 있다. 이를 수행하기 위해 사용자 식별 모듈(34)은 사용자 바이오키네마틱 데이터의 템플릿을 생성할 수 있고 그 템플릿을 바이오키네마틱 데이터를 나타내는 저장된 사용자 템플릿(48)과 비교할 수 있다. As another example, the user identification module 34 may be configured to measure the relative positions of the plurality of finger touches and / or the rate of change of the positions relative to the at least one palm touch during the palm-fist switching gesture. The user identification module 34 may then compare the measured relative positions and / or rate of change with the stored
사용자 식별 모듈(34)의 내부 동작들이 이제부터 상술한 방식으로, 컴퓨터 장치(10)의 새로운 사용자들이 사용자 아이디를 검증하기 위해 사용되는 바이오키네마틱 입력을 이용하여 등록되는 등록 단계(50) 및 사용자들이 식별되어 접근권이 허여되거나 거부되는 식별 단계(60)를 참조하여 기술될 것이다. 예시된 바와 같이 사용자 식별 모듈은 아래에서 상세히 설명되는 것과 같이 동작하는 피처(feature) 추출기(42), 템플릿 생성기(44) 및 매칭 엔진(46)을 포함할 수 있다. The
등록 단계(50) 중에, 피처 추출기(42)는 센서(32)로부터 제1바이오키네마틱 입력을 수신하고 제1바이오키네마틱 입력으로부터 사용자 식별 특징들을 추출하도록 구성될 수 있다. 사용자 식별 특징들은 각각의 사용자에 고유할 수 있다, 즉 특정 특징들의 집합이 한 사용자와 관련될 수 있으며 다른 사용자의 특정 특징들과는 상이할 수 있다. 따라서 그 특정 특징들이 한 사용자를 식별하고 그 사용자를 다른 잠정 사용자들과 구분하는데 사용될 수 있다. 제1바이오키네마틱 입력은 복수의 손가락 터치들의 상대적 위치들 및 일부 실시예들에서 적어도 하나의 손바닥 터치를 포함할 수 있으며, 이러한 터치들의 상기 위치들의 상대적 변화율들을 포함할 수 있다. 위에서 설명한 바와 같이, 제1바이오키네마틱 입력은 규정된 식별 제스처, 예컨대 손바닥-주먹 전환 중에 일련의 연속 시간 인터벌들로부터의 데이터를 포함할 수 있다. During the
피처 추출기(42)는 임의 개의 기법들을 이용하는 사용자 식별 특징들을 추출할 수 있다. 예를 들어 피처 추출기(42)는 필터링, 사용자 손의 윤곽 식별 및/또는 하나 이상의 손가락 및/또는 손바닥 터치들의 무게중심 산출을 통해 이미지를 처리할 수 있다. 상술한 예들은 본 개시의 범위로부터 벗어남이 없이 조합 또는 부조합을 통해 사용될 수 있으며 사용자 식별 특성들을 추출하기 위한 추가적이거나 대안적인 수단을 더 포함할 수 있다는 것을 알 수 있을 것이다. 피처 추출기(42)는 추후 처리를 위해 템플릿 생성기(44)로 추출된 사용자 식별 특성들의 출력을 전송할 수 있다.
등록 단계(50)에서 계속하여, 템플릿 생성기(44)가 피처 추출기(42)에 의해 수신된 제1바이오키네마틱 입력으로부터 사용자에 대해 특징적인 데이터의 템플릿을 생성할 수 있다. 템플릿 생성기(44)는 주어진 사용자 및 주어진 식별 제스처에 대한 사용자 식별 특성들을 포함하는 사용자 템플릿(48)을 생성하고 사용자 템플릿(48)을 데이터베이스(38)와 같은 데이터 저장소에 저장하도록 구성될 수 있다. 각각의 사용자에 대한 그러한 특징 데이터를 저장함으로써, 사용자를 식별하기 위해 사용자 템플릿들(48)이 다음 사용자 식별 단계(60) 중에 수신되는 바이오키네마틱 데이터와 비교하여 매치가 존재하는지 여부를 판정하는데 사용될 수 있다. Continuing at
데이터베이스(38)는 액세스 컴퓨팅 장치(10) 상의 소프트웨어나 데이터에 대해 허가되는 복수의 사용자들에 대한 복수의 사용자 템플릿들(48)을 저장할 수 있다. 일부 실시예들에서 다양한 사용자들을 등록하기 위해 다양한 클래스들이 사용될 수 있으며, 그에 따라 하나를 넘는 사용자 템플릿(48)이 각각의 사용자에 대해 존재할 수 있다. 예를 들어 한 클래스는 손바닥-주먹 전환 제스처일 수 있고, 다른 한 클래스는 손가락-엄지 꼬집기(pinch) 제스처일 수 있으며, 별도의 사용자 템플릿(48)이 컴퓨팅 장치(10)를 사용하도록 등록되어 있는 각각의 인증된 사용자에 대해 저장될 수 있다.
이제 사용자 식별 단계(60)로 주의를 돌리면, 이 단계는 로그인 동작, 보호 폴더 열기, 보호 파일 열기, 보호 프로그램 접근, 보호 네트워크 접근, 또는 사용자 인증이 요망되는 어떤 다른 애플리케이션과 같은 임의 개의 사용자 인증 동작들 중에 구현될 수 있다. 예를 들어 사용자 식별 모듈(34)이 컴퓨팅 장치(10) 상의 사용자 세션에 대한 사용자 로그인과 같은 사용자 인증 동작 중에 실행될 수 있다. Turning now to the user identification step 60, this step is an arbitrary user authentication operation such as login operation, opening a protected folder, opening a protected file, accessing a protected program, accessing a protected network, or any other application for which user authentication is desired. Can be implemented. For example, user identification module 34 may be executed during a user authentication operation, such as a user login for a user session on computing
사용자 식별 단계(60) 중에 피처 추출기(42)가 센서(32)로부터 제2바이오키네마틱 입력을 수신할 수 있다. 제2바이오키네마틱 입력은 복수의 손가락 터치들의 상대적 위치들 및 적어도 하나의 손바닥 터치를 포함할 수 있으며, 이러한 터치들의 상기 위치들의 상대적 변화율들을 포함할 수 있다. 제2바이오키네마킥 입력은 또한 규정된 식별 제스처 중에 일련의 연속 타임 인터벌들로부터 이러한 터치들에 대한 데이터를 포함할 수 있다. 예를 들어 사용자 식별 단계(60)는 상술한 바와 같이 손바닥-주먹 전환과 같은 로그인 스크린 상의 제스처 기반 사용자 로그인 동작을 통해 수행될 수 있다.
사용자 식별 단계(60) 도중 피처 추출기(42)의 출력이 매칭 엔진(46)으로 보내질 수 있다. 매칭 엔진(46)은 사용자의 바이오키네마틱 데이터를 검증하기 위해 제2바이오키네마틱 입력을 제1바이오키네마틱 입력으로부터 추출된 특성들에 기반하여 생성되었던 저장된 사용자 템플릿(48)과 비교할 수 있다. 일부 실시예들에서 예컨대 핀(PIN) 넘버나 패스워드 대신, 혹은 그에 더하여 사용자의 아이디를 식별하기 위해, 사용자가 컴퓨팅 장치(10)로 사용자 이름을 입력할 수 있고, 바이오키네마틱 입력이 여기에 기술된 바와 같이 매치될 수 있다. 주어진 사용자에 대해 여러 제스처 클래스들에 대한 여러 템플릿들이 사용가능한 경우, 매칭 엔진(46)은 제2바이오키네미틱 입력을 손바닥-주먹 전환과 같은 특정 제스터 클래스에 속한 것으로 인식할 수 있으며, 그에 따라 제2바이오키네마틱 입력을 동일한 제스처 클래스에 속하는 저장된 사용자 템플릿들(48)과 비교할 수 있다. Output of
컴퓨팅 장치(10)의 등록된 사용자들의 총 수가 소수인 경우 특히 유용한 다른 실시예들에서, 사용자는 사용자 이름을 입력하지 않고 간단히 식별 제스처를 제시하고 사용자 식별 모듈이 제시된 식별 제스처에 대한 바이오키네마틱 입력으로부터 추출된 특성들에 매치하는 사용자 템플릿을 찾는다. In other embodiments particularly useful where the total number of registered users of the
매칭 엔진(46)은 제2바이오키네마틱 데이터로부터 추출된 특성들 및 사용자 템플릿들 사이에 매치가 존재하는지 여부를 판정할 수 있다. 매치가 존재하면, 사용자는 성공적으로 식별되었다고 판정된다. 매칭 엔진(46)은 매치가 존재한다고 판정하기 위해 임의의 개수의 기법들을 이용할 수 있다. 예를 들어 매칭 엔진(46)은 소정 오차 안에서, 복수의 손가락 및/또는 손바닥 터치들에 대응하는 제2바이오키네마틱 입력의 특징 또는 특징들의 조합과 하나 이상의 사용자 템플릿들(48)에 대응하는 터치들의 영역을 비교할 수 있다. 특징은 총 영역, 무게중심, 손가락 끝에서 손바닥까지 각각의 손가락 길이, 손가락 끝에서 손바닥까지 각각의 손가락의 상대 길이들 및 제스처 도중 시간에 따른 그러한 특징들 중 어느 하나의 변화율일 수 있다. 대안으로서, 매칭 엔진(46)이 제2바이오키네마틱 입력의 그러한 특징 또는 특징들의 조합을 모든 사용자들에 대한 소정의 정규 모델과 비교할 수 있다. 즉, 매칭 엔진(46)은 소정 정규 모델로부터의 제2바이오키네마틱 입력의 편차를 산출하고 제2바이오키네마틱 입력의 그 편차가 소정 문턱치 내에서 해당 사용자 템플릿의 편차와 매치하는지를 판정하도록 구성될 수 있다. The matching engine 46 may determine whether a match exists between the user templates and the features extracted from the second biokinetic data. If a match exists, the user is determined to have been successfully identified. Matching engine 46 may use any number of techniques to determine that a match exists. For example, the matching engine 46 may, within a certain error, correspond to one or
매치가 판정될 때, 그러한 이벤트에 대한 표시가 사용자에게 디스플레이될 수 있다. 예를 들어 그러한 표시는 성공적인 사용자 로그인 동작 후 디스플레이(22)의 그래픽 사용자 인터페이스(31)로 출력되는 메시지일 수 있다. 일 실시예에서, 그래픽 사용자 인터페이스(31)는 로그인 스크린을 포함할 수 있으며, 그 표시는 성공적 로그인에 대해 로그인 스크린 상에 디스플레이되는 메시지일 수 있다. 이와 달리, 상기 표시는 사용자에게 디스플레이되고 있는 로그인 스크린의 중단일 수 있다. 메시지의 디스플레이 및/또는 로그인 스크린의 중단에 이어, 사용자는 컴퓨팅 장치(10) 상의 프로그램(36), 파일, 폴더, 애플리케이션, 네트워크, 운영체제 등으로의 접근을 허락받을 수 있다. When a match is determined, an indication for such an event may be displayed to the user. For example, such an indication may be a message output to the
도 2는 휴대형 태블릿 컴퓨팅 장치 상의 손바닥-주먹 전환 제스처 시 일련의 손의 위치들을 예시한 도 1의 바이오키네마틱 입력을 이용한 사용자 식별을 수행하도록 구성된 컴퓨팅 장치의 투시도이다. 도 2는 디스플레이(22)에 접촉함으로써 컴퓨팅 장치(10)와 상호동작하는 사용자의 손(80)을 예시한다. 도 2는 A-D에서 서로 다른 자세의 사용자 손(80)을 도시하는데, 순서(A에서 D, 또는 D에서 A)에 따라 꽉 쥔 주먹에서 펴진 손바닥으로의 전환 및 그 반대 과정의 자세들을 나타내며, 여기서 꽉 쥔 주먹은 A에서 묘사되고 펴진 손바닥은 D에서 묘사되며 중간 그림은 B와 C에서 도시된다. 그러한 움직임이 손바닥-주먹 전환 제스처로서 규정될 수 있으며, 이미 기술된 바와 같이 컴퓨팅 장치(10) 및/또는 컴퓨팅 장치(10)의 특성들로의 접근을 얻기 위해 식별 제스처로서 사용될 수 있다. 성공적 식별에 대한 표시로서 기능하는 일례의 메시지가 도 2의 D에 도시된다. 손바닥-주먹 전환 제스처는 단지 여기에 기술된 시스템 및 방법에 의해 사용될 수 있는 어느 식별 제스처의 한 예시적 실시예일뿐이라는 것을 이해해야 한다. 사용자의 복수의 손가락들 및/또는 손바닥, 또는 다른 신체 부분들 사이의 상대적 움직임을 포함하는 수많은 다른 식별 제스처들이 고려된다. FIG. 2 is a perspective view of a computing device configured to perform user identification using the biokinetic input of FIG. 1 illustrating a series of hand positions in a palm-fist switch gesture on a portable tablet computing device. 2 illustrates a user's
도 3은 도 2에 도시된 일련의 손 위치들에 해당하는 복수의 터치들을 보인 그래픽도이다. 도 3은 손바닥-주먹 전환 제스처 도중 디스플레이(22)와 물리적 접촉을 할 수 있는 사용자 손(80)의 영역들을 예시한다. 그러한 접촉점들은 복수의 손가락 터치들(82) 및 손바닥 터치(84)를 포함할 수 있다. 예를 들어 사용자 손(80)이 도 2의 A에 보여진 거소가 같은 주먹을 만들 때, 도 3의 A에 보여진 바와 같은 복수의 손가락 터치들(82) 및 손바닥 터치(84)가 센서(32)에 의해 수신될 수 있다. 사용자 손(80)이 손바닥-주먹 전환 제스처를 계속하면서, 손가락 터치들(82) 및 손바닥 터치(84)의 상대적 위치들이 A-D 및 마찬가지로 D-A로부터 보여진 것과 같이 달라질 수 있다. 또한 손가락 터치들(82) 각각과 손바닥 터치(84) 사이의 상대적 변화율들이 이미 기술된 것과 같이 측정될 수 있다.3 is a graphic diagram illustrating a plurality of touches corresponding to a series of hand positions shown in FIG. 2. 3 illustrates areas of the user's
바이오키네마틱 데이터는 사용자 손이 장치와 물리적 접촉을 만들지 않고 복수의 손가락 및/또는 손바닥 터치들로부터 수신될 수 있다는 것을 이해해야 한다. 즉, 장치의 센서가 장치에 실질적으로 근접한 사용자 손으로부터 바이오키네마틱 데이터를 수신하도록 구성될 수 있다. 다른 대안으로서, 센서는 예컨대 광 센서들 및 어떤 용량성 센서들의 경우에서처럼, 손이 디스플레이(22)로부터 근접하여 떨어져 있을 때 그 손의 위치를 감지하도록 구성될 수 있다. It should be understood that biokinetic data may be received from a plurality of finger and / or palm touches without the user's hand making a physical contact with the device. That is, a sensor of the device may be configured to receive biokinetic data from a user's hand substantially in proximity to the device. As another alternative, the sensor may be configured to sense the position of the hand when the hand is in close proximity to the
바이오키네마틱 입력은 사용자에 대해 고유한데, 이는 식별 제스터 도중 손이 움직일 때 사용자 손들이 크기, 상대적 위치 및 복수의 손가락 터치들 및 손바닥 터치들 사이의 상대적 변화율들에 있어 크게 다를 수 있기 때문이다. 따라서 그러한 바이오키네마틱 입력이 복수의 사용자를 나타내는 가상 서명으로서 사용될 수 있고 그에 따라 사용자 인증이 검증될 수 있게 하는 수단을 생성할 수 있다. Biokinetic input is unique to the user because the user's hands may vary greatly in size, relative position, and relative rates of change between the plurality of finger touches and palm touches as the hand moves during identification zester. Thus such biokinetic input can be used as a virtual signature representing a plurality of users and thus create means for allowing user authentication to be verified.
도 4는 컴퓨터화된 사용자 식별 방법(400)의 일 실시예에 대한 개략도이다. 이 방법(400)은 상술한 컴퓨팅 장치(10)의 소프트웨어 및 하드웨어 구성요소들 또는 다른 적절한 구성요소들을 이용하여 수행될 수 있다. 방법(400)은 컴퓨팅 장치(10)의 디스플레이(22)와 같은 멀티 터치 감지 디스플레이가 도 2에 도시된 바와 같은 손바닥-주먹 전환 제스처와 같은 식별 제스처나 다른 식별 제스처와 관련된 사용자 바이오키네마틱 입력(18)을 수신하는 것(401)에서 시작한다. 4 is a schematic diagram of one embodiment of a computerized
402에서, 방법(400)은 사용자 식별 특성들을 추출하도록 진행한다. 예를 들어 도 3에 도시된 것과 같이 대응하는 사용자의 복수의 손가락들 및/또는 손바닥에 의해 이루어진 복수의 손가락 터치들 및/또는 손바닥 터치들이 추출될 수 있다. 사용자 식별 특성들은 일련의 연속적인 시간 인터벌들 각각에서 추출될 수 있다. At 402, the
403에서 방법(400)은 사용자에 의해 이루어진 복수의 손가락 터치들 및/또는 손바닥 터치들을 측정함으로써 진행된다. 예를 들어 손바닥-주먹 전환 제스처에 해당하는 바이오키네마틱 입력(18)이 복수의 손가락 터치들 및/또는 손바닥 터치들 각각의 상대적 이치들 및/또는 상대적 변화율들에 따라 측정될 수 있다. At 403 the
상술한 바와 같은 등록 단계 중에, 방법(400)은 404로 진행할 수 있으며, 사용자 손바닥-주먹 전환 제스처에 대응하여 바이오키네마틱 입력(상기 도 1과 관련하여 제1바이오키네마틱 입력이라 칭함)의 사용자 템플릿(48)을 생성하는 단계를 포함할 수 있다. 사용자 템플릿(48)을 생성하는 단계는 추가 단계들을 통해 제1바이오키네마틱 입력이 높은 무결성 또는 반복성을 가진다는 것을 검증하는 단계를 포함할 수 있다. 예를 들어 검증 단계는 사용자 템플릿(48) 생성 전에 사용자가 한번 이상 동일한 식별 제스처를 반복하는 단계를 포함할 수 있다. 그로써 템플릿 생성기는 보다 큰 신뢰도를 가지고 사용자 특유의 패턴들을 인식할 수 있다. During the registration step as described above, the
405에서 방법(400)은 컴퓨팅 장치(10)의 데이터베이스(38)와 같이 컴퓨팅 장치(10)의 다른 단계들 도중에 사용될 수 있는 데이터 저장소 안에 등록 단계 중에 획득된 사용자 템플릿(48)을 저장하는 절차를 밟는다. 방법이 404로부터 401로 루프를 되돌아 가서 이 방법의 식별 단계 중 또 다른 바이오키네마틱 입력을 수신하도록 한다. At 405, the
식별 단계 중에, 방법(400)은 손바닥-주먹 전환 제스처와 같은 식별 제스처에 대응하는 바이오키네마틱 입력이 이러한 단계들(401-403)을 통한 제2패스 동안의 제2바이오키네마틱 입력으로서 수신될 수 있는 단계들(401-403)을 반복한다. 이 방법은 식별 경로를 따라 제2바이오키네마틱 입력을 데이터베이스 내 검증된 바이오키네마틱 데이터의 저장된 사용자 템플릿(48)과 비교하는 단계(406)로 진행한다. 비교 단계는 상술한 바와 같이 손바닥-주먹 전환 제스처와 같은 식별 제스처의 적어도 일부 중에 복수의 손가락 터치들 및/또는 손바닥 터치들의 각자의 위치들 및/또는 각자의 변화율들에 대한 분석을 포함할 수 있다. During the identifying step, the
407에서 방법(400)은 소정의 오차 안에서 제2바이오키네마틱 입력과 저장된 사용자 템플릿(48) 사이에 매치가 존재하는지를 판정한다. 407에 대한 답이 '예'이면, 방법(400)은 408로 진행하여 사용자가 성공적으로 식별되었다는 것을 나타내는 메시지 형태의 표시가 디스플레이에 출력될 수 있다. 이와 달리, 상기 표시는 사용자에게 디스플레이되고 있는 로그인 스크린의 중단일 수 있다. At 407 the
방법(400)은 이제 409로 진행하여 사용자가 컴퓨팅 장치 상의 프로그램, 파일, 폴더, 애플리케이션, 운영체제 등으로의 접근을 허가받는다. 409로부터 방법의 식별 단계가 종료된다. The
407에 대한 답이 '아니오'이면, 방법(400)은 410으로 진행하여 사용자가 컴퓨팅 장치 상의 프로그램, 파일, 폴더, 애플리케이션, 운영체제 등으로의 접근에 대해 거부된다. 410으로부터 방법의 식별 단계가 역시 종료된다. 이와 달리, 일부 실시예들에서, 개시된 방법은 매치가 일어나지 않고 액세스가 거부될 때 추가적으로 사용자에게 어떤 표시를 디스플레이할 수 있고/있거나 사용자가 사용자 템플릿(48)과 비교할 바이오키네마틱 입력을 다시 입력할 수 있게 하는 GUI를 표시하여 사용자가 첫 번재 시점에 발생할 수 있었을 어떤 입력 에러들을 교정하게 할 수 있다. If the answer to 407 is no, the
이 방법(400)이 추가 또는 대안적 단계들을 포함할 수 있다는 것을 예상할 수 있을 것이다. 일례로서, 이 방법은 어느 단계(예를 들어, 등록 단계(50) 또는 식별 단계(60))에서 동작할 지를 판정하는 메커니즘을 포함할 수 있다. 통상적으로 사용자 식별 모듈이 컴퓨팅 장치 상의 새로운 사용자 계정을 등록하는 어떤 운영체제 구성요소에 의해 호출될 때, 등록 단계가 유발될 수 있다. 그리고 로그인 프로그램과 같은 어떤 운영체제 구성요소나 애플리케이션 프로그램이 사용자 식별 모듈을 호출할 때 식별 단계가 유발된다. 사용자 식별 모듈이 API(application programming interface)의 일부일 때, 각각의 단계에 대해 알맞은 애플리케이션 프로그래밍 인터페이스 함수 호출들이 제공될 수 있다. It will be appreciated that the
상술한 시스템 및 방법들은 컴퓨팅 장치의 소프트웨어, 데이터, 또는 기타 기능에 대한 접근을 제어하기 위한 바이오키네마틱 기반 보안을 구체화하는 데 사용될 수 있다. 이러한 시스템 및 방법들은 사용자 편의를 제공하는 한편 이전 장치들 상의 특징이었던 전용 지문 또는 손바닥 스캐너 없이도 구현될 수 있다는 이점을 가진다. The systems and methods described above can be used to embody biokinematic-based security for controlling access to software, data, or other functions of a computing device. These systems and methods provide the user convenience while having the advantage that they can be implemented without the need for a dedicated fingerprint or palm scanner, which was a feature on previous devices.
"모듈", "프로그램" 및 "엔진"이라는 용어들은 여기에서 컴퓨팅 장치에 의해 실행될 때 하나 이상의 특정 기능들을 수행하는 소프트웨어를 지칭하는 데에 사용된다. 이러한 용어들은 예컨대 실행 파일, 데이터 파일, 라이브러리, 드라이버, 스크립트, 데이터베이스 레코드 개개 또는 그룹들을 포괄하도록 되어 있다. 본 명세서에 기술된 실시예들은 그러한 모듈들, 프로그램들 및 엔진들의 어떤 전형적 구성을 보여주지만, 본 명세서에 기술된 기능들이 다르게 구성된 소프트웨어 요소들에 의해서도 달성될 수 있다는 것을 이해해야 한다. The terms “module”, “program” and “engine” are used herein to refer to software that, when executed by a computing device, performs one or more specific functions. These terms are intended to encompass, for example, executable files, data files, libraries, drivers, scripts, individual database records, or groups. While the embodiments described herein show some typical configuration of such modules, programs, and engines, it should be understood that the functions described herein may be achieved by other configured software elements.
수많은 변형들이 가능하기 때문에 본 명세서에 설명된 구성들 및/또는 접근 방식들은 본질적으로 예시적인 것이며 이러한 특정 실시예들이나 예들은 한정적인 의미로 간주되지 않아야 한다는 것을 이해해야 한다. 본 명세서에 기술된 특정 루틴들이나 방법들은 임의 개의 프로세싱 전략들 중 하나 이상을 나타낼 수 있다. 따라서, 예시된 다양한 행위들은 예시된 순서로, 혹은 다른 순서로, 혹은 병렬로, 혹은 어떤 경우 생략된 상태로 수행될 수 있다. 마찬가지로, 상술한 프로세서들의 순서는 바뀔 수 있다. It is to be understood that the configurations and / or approaches described herein are illustrative in nature and numerous specific embodiments or examples are not to be considered in a limiting sense because numerous variations are possible. Certain routines or methods described herein may represent one or more of any of the processing strategies. Thus, the various acts illustrated may be performed in the illustrated order, in other orders, in parallel, or in some cases omitted. Likewise, the order of the above-described processors may be reversed.
본 개시의 발명 대상은 본 명세서에 개시된 다양한 프로세스들, 시스템들 및 구성들의 모든 신규하고 자명하지 않은 조합 및 부조합, 그리고 다른 특성들, 기능들, 행위들, 및/또는 특성들, 및 그에 대한 어떤 그리고 모든 균등물들을 포함한다.The subject matter of the present disclosure is directed to all novel and non-obvious combinations and subcombinations of the various processes, systems, and configurations disclosed herein, as well as to other features, functions, actions, and / or properties, and to Includes any and all equivalents.
Claims (10)
상기 컴퓨팅 장치의 프로세서에 의해 실행되고, 상기 센서로부터 상기 바이오키네마틱 입력을 수신하도록 구성되는 사용자 식별 모듈 - 상기 사용자 식별 모듈은 상기 복수의 손가락 터치의 상대적 위치 및 상기 복수의 터치의 상기 위치의 상대적 변화율 중 하나 이상을 상기 사용자에 대해 검증된 바이오키네마틱 데이터의 저장된 사용자 템플릿과 비교하며 매치가 판정되면 상기 사용자가 성공적으로 식별되었다는 표시를 상기 디스플레이 상에 디스플레이하도록 더 구성됨 - 을 포함하는
컴퓨팅 장치.
A sensor configured to receive a biokinematic input comprising data indicative of the respective detection location of a corresponding plurality of finger touches made by the plurality of fingers of the user at each series of consecutive time intervals during the defined identification gesture. Including a multi-touch sensitive display, and
A user identification module executed by a processor of the computing device, the user identification module configured to receive the biokinetic input from the sensor, wherein the user identification module includes a relative position of the plurality of finger touches and a relative position of the position of the plurality of touches. Compare one or more of the rate of change to a stored user template of biokinetic data validated for the user and, if a match is determined, display an indication on the display that the user was successfully identified.
Computing device.
상기 센서는 용량성 멀티 터치 센서인
컴퓨팅 장치.
The method of claim 1,
The sensor is a capacitive multi-touch sensor
Computing device.
상기 규정된 식별 제스처의 상기 복수의 손가락 터치는 적어도 하나의 손바닥 터치를 포함하며, 상기 규정된 식별 제스처는 손바닥-주먹 전환 제스처인
컴퓨팅 장치.
The method of claim 1,
The plurality of finger touches of the prescribed identification gesture include at least one palm touch, wherein the defined identification gesture is a palm-fist switching gesture.
Computing device.
상기 사용자 식별 모듈은 상기 손바닥-주먹 전환 제스처 동안 상기 적어도 하나의 손바닥 터치에 대한 상기 복수의 손가락 터치의 상기 상대적 위치 및 상기 위치의 변화율 중 하나 이상을 측정하며 또한 매치가 존재하는지를 판정하기 위해 이렇게 측정된 상대적 위치 및 변화율 중 하나 이상을 상기 저장된 사용자 템플릿과 비교하도록 더 구성되는
컴퓨팅 장치.
The method of claim 3,
The user identification module measures one or more of the relative position of the plurality of finger touches and the rate of change of the position with respect to the at least one palm touch during the palm-fist switch gesture and also measures to determine if a match exists. And configured to compare one or more of the associated relative positions and rate of change with the stored user template.
Computing device.
상기 컴퓨팅 장치는 모바일 전화기, 태블릿 컴퓨팅 장치, 랩탑 컴퓨터, 퍼스널 컴퓨터, 데스크탑 컴퓨터, 테이블탑 컴퓨터, 또는 키오스크 컴퓨터로 이루어진 그룹으로부터 선택되는
컴퓨팅 장치.The method of claim 1,
The computing device is selected from the group consisting of mobile telephones, tablet computing devices, laptop computers, personal computers, desktop computers, tabletop computers, or kiosk computers.
Computing device.
상기 사용자 식별 모듈은 상기 컴퓨팅 장치 상의 사용자 인증 동작 중에 실행되고, 상기 사용자 인증은 상기 컴퓨팅 장치 상의 사용자 세션으로의 상기 사용자의 로그인 중에 구현되며, 상기 표시는 성공적 사용자 로그인 동작 이후 상기 디스플레이로 출력되는 메시지이거나, 상기 표시는 상기 사용자에게 디스플레이되는 로그인 스크린의 중단 및 상기 컴퓨팅 장치 상의 프로그램 또는 파일 또는 운영체제에 대해 허락되는 액세스인
컴퓨팅 장치.
The method of claim 1,
The user identification module is executed during a user authentication operation on the computing device, the user authentication is implemented during the user's login to a user session on the computing device, and the indication is a message output to the display after a successful user login operation. Or the indication is an interruption of the login screen displayed to the user and allowed access to a program or file or operating system on the computing device.
Computing device.
일련의 연속적 시간 인터벌 각각에서 컴퓨팅 장치의 멀티 터치 감지 디스플레이를 통해 사용자의 복수의 손가락에 의해 이루어진 대응하는 복수의 손가락 터치를 포함하는 식별 제스처의 사용자 바이오키네마틱 입력을 수신하는 단계,
상기 바이오키네마틱 입력의 상기 식별 제스처의 적어도 일부 동안에 상기 복수의 손가락 터치의 개별 위치 및 상기 위치의 개별 변화율 중 하나 이상을 상기 사용자에 대해 검증된 바이오키네마틱 데이터의 저장된 사용자 템플릿과 비교하는 단계, 및
상기 비교에 의해 매치가 판정되면, 상기 사용자가 성공적으로 식별되었다는 표시를 상기 디스플레이 상에 디스플레이하는 단계를 포함하는
방법.
Computerized user identification method,
Receiving a user biokinetic input of an identification gesture comprising a corresponding plurality of finger touches made by the plurality of fingers of the user via the multi-touch sensitive display of the computing device at each successive time interval,
Comparing at least one of the individual positions of the plurality of finger touches and the individual rate of change of the positions during at least a portion of the identification gesture of the biokinetic input to a stored user template of biokinetic data validated for the user, And
If a match is determined by the comparison, displaying an indication on the display that the user was successfully identified.
Way.
상기 식별 제스처의 상기 복수의 손가락 터치는 적어도 하나의 손바닥 터치를 포함하며, 상기 식별 제스처는 손바닥-주먹 전환 제스처인
방법.
The method of claim 7, wherein
The plurality of finger touches of the identification gesture include at least one palm touch, wherein the identification gesture is a palm-fist switching gesture.
Way.
상기 비교 단계 전에, 상기 손바닥-주먹 전환 제스처 동안 상기 적어도 하나의 손바닥 터치에 대한 상기 복수의 손가락 터치의 상기 상대적 위치 및 상기 위치의 변화율 중 하나 이상을 측정하는 단계를 더 포함하며,
상기 비교 단계는 추가적으로 상기 손바닥-주먹 전환 제스처 동안 상기 적어도 하나의 손바닥 터치에 대한 상기 복수의 손가락 터치의 상기 상대적 위치 및 상기 위치의 변화율 중 하나 이상을 비교하는 단계를 포함하는
방법.
9. The method of claim 8,
Prior to said comparing step, further comprising measuring at least one of said relative position of said plurality of finger touches and said rate of change of said position relative to said at least one palm touch during said palm-fist switching gesture,
The comparing step further includes comparing one or more of the relative position of the plurality of finger touches to the at least one palm touch and the rate of change of the position during the palm-fist switching gesture.
Way.
상기 수신, 비교, 및 디스플레이하는 단계는 상기 컴퓨팅 장치 상의 사용자 인증 동작 중에 실행되고, 상기 사용자 인증은 상기 컴퓨팅 장치 상의 사용자 세션으로의 상기 사용자의 로그인 중에 구현되며, 상기 표시는 성공적 사용자 로그인 동작 이후 상기 디스플레이로 출력되는 메시지이거나, 상기 표시는 상기 사용자에게 디스플레이되는 로그인 스크린의 중단 및 상기 컴퓨팅 장치 상의 프로그램 또는 파일 또는 운영체제에 대해 허락되는 액세스인
방법.The method of claim 7, wherein
The receiving, comparing, and displaying are performed during a user authentication operation on the computing device, the user authentication is implemented during the user's login to a user session on the computing device, and the indication is performed after a successful user login operation. Is a message output to a display, or the indication is an interruption of the login screen displayed to the user and access granted to a program or file or operating system on the computing device.
Way.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US12/981,097 | 2010-12-29 | ||
| US12/981,097 US8543833B2 (en) | 2010-12-29 | 2010-12-29 | User identification with biokinematic input |
| PCT/US2011/067430 WO2012092297A2 (en) | 2010-12-29 | 2011-12-27 | User identification with biokinematic input |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20130133223A true KR20130133223A (en) | 2013-12-06 |
Family
ID=46382039
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020137016779A Ceased KR20130133223A (en) | 2010-12-29 | 2011-12-27 | User identification with biokinematic input |
Country Status (7)
| Country | Link |
|---|---|
| US (2) | US8543833B2 (en) |
| EP (1) | EP2659432B1 (en) |
| JP (1) | JP2014502763A (en) |
| KR (1) | KR20130133223A (en) |
| CN (1) | CN102609129A (en) |
| TW (2) | TWI533230B (en) |
| WO (1) | WO2012092297A2 (en) |
Families Citing this family (75)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12101354B2 (en) * | 2010-11-29 | 2024-09-24 | Biocatch Ltd. | Device, system, and method of detecting vishing attacks |
| US11223619B2 (en) | 2010-11-29 | 2022-01-11 | Biocatch Ltd. | Device, system, and method of user authentication based on user-specific characteristics of task performance |
| US10747305B2 (en) | 2010-11-29 | 2020-08-18 | Biocatch Ltd. | Method, system, and device of authenticating identity of a user of an electronic device |
| US10897482B2 (en) | 2010-11-29 | 2021-01-19 | Biocatch Ltd. | Method, device, and system of back-coloring, forward-coloring, and fraud detection |
| US10728761B2 (en) | 2010-11-29 | 2020-07-28 | Biocatch Ltd. | Method, device, and system of detecting a lie of a user who inputs data |
| US10404729B2 (en) | 2010-11-29 | 2019-09-03 | Biocatch Ltd. | Device, method, and system of generating fraud-alerts for cyber-attacks |
| US10621585B2 (en) | 2010-11-29 | 2020-04-14 | Biocatch Ltd. | Contextual mapping of web-pages, and generation of fraud-relatedness score-values |
| US10586036B2 (en) | 2010-11-29 | 2020-03-10 | Biocatch Ltd. | System, device, and method of recovery and resetting of user authentication factor |
| US10262324B2 (en) | 2010-11-29 | 2019-04-16 | Biocatch Ltd. | System, device, and method of differentiating among users based on user-specific page navigation sequence |
| US10685355B2 (en) * | 2016-12-04 | 2020-06-16 | Biocatch Ltd. | Method, device, and system of detecting mule accounts and accounts used for money laundering |
| US10970394B2 (en) | 2017-11-21 | 2021-04-06 | Biocatch Ltd. | System, device, and method of detecting vishing attacks |
| US10834590B2 (en) | 2010-11-29 | 2020-11-10 | Biocatch Ltd. | Method, device, and system of differentiating between a cyber-attacker and a legitimate user |
| US11210674B2 (en) | 2010-11-29 | 2021-12-28 | Biocatch Ltd. | Method, device, and system of detecting mule accounts and accounts used for money laundering |
| US10298614B2 (en) * | 2010-11-29 | 2019-05-21 | Biocatch Ltd. | System, device, and method of generating and managing behavioral biometric cookies |
| US10917431B2 (en) | 2010-11-29 | 2021-02-09 | Biocatch Ltd. | System, method, and device of authenticating a user based on selfie image or selfie video |
| US10949757B2 (en) | 2010-11-29 | 2021-03-16 | Biocatch Ltd. | System, device, and method of detecting user identity based on motor-control loop model |
| US10069837B2 (en) | 2015-07-09 | 2018-09-04 | Biocatch Ltd. | Detection of proxy server |
| US20190158535A1 (en) * | 2017-11-21 | 2019-05-23 | Biocatch Ltd. | Device, System, and Method of Detecting Vishing Attacks |
| US10776476B2 (en) | 2010-11-29 | 2020-09-15 | Biocatch Ltd. | System, device, and method of visual login |
| US10395018B2 (en) * | 2010-11-29 | 2019-08-27 | Biocatch Ltd. | System, method, and device of detecting identity of a user and authenticating a user |
| US11269977B2 (en) | 2010-11-29 | 2022-03-08 | Biocatch Ltd. | System, apparatus, and method of collecting and processing data in electronic devices |
| US10474815B2 (en) | 2010-11-29 | 2019-11-12 | Biocatch Ltd. | System, device, and method of detecting malicious automatic script and code injection |
| US10949514B2 (en) | 2010-11-29 | 2021-03-16 | Biocatch Ltd. | Device, system, and method of differentiating among users based on detection of hardware components |
| US8543833B2 (en) | 2010-12-29 | 2013-09-24 | Microsoft Corporation | User identification with biokinematic input |
| FR2993078B1 (en) | 2012-07-06 | 2014-07-25 | Compagnie Ind Et Financiere Dingenierie Ingenico | METHOD OF AUTHENTICATING A SIGNATURE |
| CN103777748A (en) * | 2012-10-26 | 2014-05-07 | 华为技术有限公司 | Motion sensing input method and device |
| US9129100B2 (en) * | 2012-12-13 | 2015-09-08 | Huawei Technologies Co., Ltd. | Verification code generation and verification method and apparatus |
| US9184921B2 (en) * | 2012-12-14 | 2015-11-10 | Microsoft Technology Licensing, Llc | Input challenge based authentication |
| US9203835B2 (en) | 2013-03-01 | 2015-12-01 | Paypal, Inc. | Systems and methods for authenticating a user based on a biometric model associated with the user |
| JP2014182662A (en) * | 2013-03-19 | 2014-09-29 | Stanley Electric Co Ltd | Operation apparatus and operation method |
| JP5860443B2 (en) * | 2013-08-30 | 2016-02-16 | 京セラドキュメントソリューションズ株式会社 | Authentication program and authentication device |
| JP2015118663A (en) * | 2013-12-20 | 2015-06-25 | 日本電信電話株式会社 | Personal authentication device, personal authentication method and personal authentication program |
| US9223955B2 (en) * | 2014-01-30 | 2015-12-29 | Microsoft Corporation | User-authentication gestures |
| US9400880B2 (en) * | 2014-06-17 | 2016-07-26 | Qualcomm Incorporated | Method and apparatus for biometric-based security using capacitive profiles |
| CN105207979B (en) * | 2014-06-25 | 2018-01-26 | 腾讯科技(深圳)有限公司 | A kind of user authentication method and device based on user's input feature vector |
| CN105335686B (en) | 2014-07-23 | 2021-03-16 | 敦泰电子有限公司 | Electronic device with fingerprint sensing function and calling method of application program thereof |
| WO2016036427A1 (en) | 2014-09-02 | 2016-03-10 | Apple Inc. | Electronic device with rotatable input mechanism |
| DE202015006142U1 (en) | 2014-09-02 | 2015-12-09 | Apple Inc. | Electronic touch communication |
| US10444980B1 (en) * | 2014-10-13 | 2019-10-15 | The Cognitive Healthcare Company | Biomechanical motion measurement and analysis for self-administered tests |
| US10748439B1 (en) | 2014-10-13 | 2020-08-18 | The Cognitive Healthcare Company | Automated delivery of unique, equivalent task versions for computer delivered testing environments |
| US10383553B1 (en) | 2014-10-14 | 2019-08-20 | The Cognitive Healthcare Company | Data collection and analysis for self-administered cognitive tests characterizing fine motor functions |
| US9613428B2 (en) * | 2014-11-07 | 2017-04-04 | Fingerprint Cards Ab | Fingerprint authentication using stitch and cut |
| MX384758B (en) * | 2014-12-31 | 2025-03-14 | Imageware Systems Inc | Out-of-band biometric enrollment and verification using interactive messaging |
| US9747740B2 (en) | 2015-03-02 | 2017-08-29 | Ford Global Technologies, Llc | Simultaneous button press secure keypad code entry |
| US20160257198A1 (en) | 2015-03-02 | 2016-09-08 | Ford Global Technologies, Inc. | In-vehicle component user interface |
| US10366217B2 (en) * | 2015-03-29 | 2019-07-30 | Securedtouch Ltd. | Continuous user authentication |
| GB2539705B (en) | 2015-06-25 | 2017-10-25 | Aimbrain Solutions Ltd | Conditional behavioural biometrics |
| US9622159B2 (en) | 2015-09-01 | 2017-04-11 | Ford Global Technologies, Llc | Plug-and-play interactive vehicle interior component architecture |
| US9967717B2 (en) | 2015-09-01 | 2018-05-08 | Ford Global Technologies, Llc | Efficient tracking of personal device locations |
| US9914418B2 (en) | 2015-09-01 | 2018-03-13 | Ford Global Technologies, Llc | In-vehicle control location |
| US9860710B2 (en) | 2015-09-08 | 2018-01-02 | Ford Global Technologies, Llc | Symmetrical reference personal device location tracking |
| US9744852B2 (en) | 2015-09-10 | 2017-08-29 | Ford Global Technologies, Llc | Integration of add-on interior modules into driver user interface |
| US10046637B2 (en) | 2015-12-11 | 2018-08-14 | Ford Global Technologies, Llc | In-vehicle component control user interface |
| US10963159B2 (en) * | 2016-01-26 | 2021-03-30 | Lenovo (Singapore) Pte. Ltd. | Virtual interface offset |
| US10082877B2 (en) | 2016-03-15 | 2018-09-25 | Ford Global Technologies, Llc | Orientation-independent air gesture detection service for in-vehicle environments |
| US9914415B2 (en) | 2016-04-25 | 2018-03-13 | Ford Global Technologies, Llc | Connectionless communication with interior vehicle components |
| CN105956442A (en) * | 2016-04-29 | 2016-09-21 | 宇龙计算机通信科技(深圳)有限公司 | Data clearing method and terminal device |
| GB2552032B (en) | 2016-07-08 | 2019-05-22 | Aimbrain Solutions Ltd | Step-up authentication |
| US10579784B2 (en) | 2016-11-02 | 2020-03-03 | Biocatch Ltd. | System, device, and method of secure utilization of fingerprints for user authentication |
| DE102016225648A1 (en) * | 2016-12-20 | 2018-06-21 | Bundesdruckerei Gmbh | Method and system for behavior-based authentication of a user |
| US10397262B2 (en) | 2017-07-20 | 2019-08-27 | Biocatch Ltd. | Device, system, and method of detecting overlay malware |
| US20190101996A1 (en) * | 2017-09-29 | 2019-04-04 | Intel Corporation | Methods and apparatus to detect touch input gestures |
| CN109634450A (en) * | 2017-10-09 | 2019-04-16 | 华为技术有限公司 | False-touch prevention detection method, device and terminal |
| US10515282B1 (en) * | 2018-04-05 | 2019-12-24 | The United States Of America As Represented By The Secretary Of Navy | Multi-hand interface method |
| US11341279B2 (en) | 2019-07-29 | 2022-05-24 | International Business Machines Corporation | Management of securable computing resources |
| US11669602B2 (en) | 2019-07-29 | 2023-06-06 | International Business Machines Corporation | Management of securable computing resources |
| US11531787B2 (en) | 2019-07-29 | 2022-12-20 | International Business Machines Corporation | Management of securable computing resources |
| US10916889B1 (en) | 2019-07-29 | 2021-02-09 | International Business Machines Corporation | Management of securable computing resources |
| US11210427B2 (en) | 2019-07-29 | 2021-12-28 | International Business Machines Corporation | Management of securable computing resources |
| US11341278B2 (en) | 2019-07-29 | 2022-05-24 | International Business Machines Corporation | Management of securable computing resources |
| US11144160B1 (en) * | 2020-03-30 | 2021-10-12 | Sigmasense, Llc. | Three-dimensional data reduction method and system |
| US11606353B2 (en) | 2021-07-22 | 2023-03-14 | Biocatch Ltd. | System, device, and method of generating and utilizing one-time passwords |
| GB202204096D0 (en) | 2022-03-23 | 2022-05-04 | British Telecomm | A secure authentication token |
| GB202204090D0 (en) * | 2022-03-23 | 2022-05-04 | British Telecomm | A secure authentication token |
| CN117891421B (en) * | 2022-10-09 | 2025-11-28 | 广州视源电子科技股份有限公司 | Multi-screen touch display automatic calibration method |
Family Cites Families (26)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4736203A (en) | 1985-07-17 | 1988-04-05 | Recognition Systems, Inc. | 3D hand profile identification apparatus |
| JP2967012B2 (en) * | 1993-01-07 | 1999-10-25 | 富士電機株式会社 | Personal recognition device |
| US20070177804A1 (en) * | 2006-01-30 | 2007-08-02 | Apple Computer, Inc. | Multi-touch gesture dictionary |
| KR100595920B1 (en) | 1998-01-26 | 2006-07-05 | 웨인 웨스터만 | Method and apparatus for integrating manual input |
| JP3688489B2 (en) | 1998-12-25 | 2005-08-31 | 株式会社東芝 | Image recognition method and image recognition apparatus |
| JP4332649B2 (en) | 1999-06-08 | 2009-09-16 | 独立行政法人情報通信研究機構 | Hand shape and posture recognition device, hand shape and posture recognition method, and recording medium storing a program for executing the method |
| DE10100616A1 (en) * | 2001-01-09 | 2002-07-18 | Siemens Ag | Authentication of a person using hand recognition |
| IL141389A0 (en) | 2001-02-12 | 2002-03-10 | Weiss Golan | A system and a method for person's identity authentication |
| WO2003003295A1 (en) * | 2001-06-28 | 2003-01-09 | Trek 2000 International Ltd. | A portable device having biometrics-based authentication capabilities |
| JP4601380B2 (en) | 2004-10-08 | 2010-12-22 | 富士通株式会社 | Biometric authentication system registration method, biometric authentication system and program thereof |
| JP2006350577A (en) | 2005-06-14 | 2006-12-28 | Fuji Xerox Co Ltd | Operation analyzing device |
| JP4687265B2 (en) | 2005-06-14 | 2011-05-25 | 富士ゼロックス株式会社 | Image analyzer |
| US7983451B2 (en) * | 2006-06-30 | 2011-07-19 | Motorola Mobility, Inc. | Recognition method using hand biometrics with anti-counterfeiting |
| US7877707B2 (en) * | 2007-01-06 | 2011-01-25 | Apple Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
| US7971156B2 (en) * | 2007-01-12 | 2011-06-28 | International Business Machines Corporation | Controlling resource access based on user gesturing in a 3D captured image stream of the user |
| DE102007016408A1 (en) * | 2007-03-26 | 2008-10-02 | Ident Technology Ag | Mobile communication device and input device therefor |
| KR100939820B1 (en) | 2007-08-23 | 2010-02-02 | 주식회사 비원플러스 | A user terminal device for obtaining keystroke information from a user to perform user authentication based on keystroke based behavior pattern information, and a method of obtaining keystroke information using the same |
| US8009147B2 (en) | 2007-09-27 | 2011-08-30 | At&T Intellectual Property I, Lp | Multi-touch interfaces for user authentication, partitioning, and external device control |
| US8887141B2 (en) | 2007-09-28 | 2014-11-11 | Symantec Corporation | Automatically modifying a native code module accessed from virtual machine bytecode to determine execution information |
| US8320638B2 (en) * | 2008-04-10 | 2012-11-27 | Pitt Alan M | Anonymous association system utilizing biometrics |
| CN101739125A (en) * | 2008-11-12 | 2010-06-16 | 联想(北京)有限公司 | Method, equipment, and electric device to implement operation by operation body |
| US20100134424A1 (en) | 2008-12-02 | 2010-06-03 | At&T Mobility Ii Llc | Edge hand and finger presence and motion sensor |
| KR20110112831A (en) * | 2009-01-05 | 2011-10-13 | 스마트 테크놀러지스 유엘씨 | Gesture Recognition Method and Interactive Input System Using the Method |
| US8941466B2 (en) | 2009-01-05 | 2015-01-27 | Polytechnic Institute Of New York University | User authentication for devices with touch sensitive elements, such as touch sensitive display screens |
| JP2010268989A (en) * | 2009-05-22 | 2010-12-02 | Sony Ericsson Mobilecommunications Japan Inc | Individual authentication device and portable terminal |
| US8543833B2 (en) | 2010-12-29 | 2013-09-24 | Microsoft Corporation | User identification with biokinematic input |
-
2010
- 2010-12-29 US US12/981,097 patent/US8543833B2/en not_active Expired - Fee Related
-
2011
- 2011-11-29 TW TW100143764A patent/TWI533230B/en not_active IP Right Cessation
- 2011-11-29 TW TW104141951A patent/TWI595374B/en not_active IP Right Cessation
- 2011-12-27 KR KR1020137016779A patent/KR20130133223A/en not_active Ceased
- 2011-12-27 EP EP11852789.4A patent/EP2659432B1/en active Active
- 2011-12-27 JP JP2013547624A patent/JP2014502763A/en active Pending
- 2011-12-27 WO PCT/US2011/067430 patent/WO2012092297A2/en not_active Ceased
- 2011-12-28 CN CN2011104488909A patent/CN102609129A/en active Pending
-
2013
- 2013-09-19 US US14/031,328 patent/US8856543B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| WO2012092297A2 (en) | 2012-07-05 |
| JP2014502763A (en) | 2014-02-03 |
| TWI595374B (en) | 2017-08-11 |
| TW201626274A (en) | 2016-07-16 |
| EP2659432A4 (en) | 2017-11-15 |
| US20140026212A1 (en) | 2014-01-23 |
| US8543833B2 (en) | 2013-09-24 |
| WO2012092297A3 (en) | 2012-11-15 |
| EP2659432B1 (en) | 2020-04-08 |
| TW201234277A (en) | 2012-08-16 |
| US20120174213A1 (en) | 2012-07-05 |
| US8856543B2 (en) | 2014-10-07 |
| CN102609129A (en) | 2012-07-25 |
| EP2659432A2 (en) | 2013-11-06 |
| TWI533230B (en) | 2016-05-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8543833B2 (en) | User identification with biokinematic input | |
| KR102223416B1 (en) | User-authentication gestures | |
| KR102180226B1 (en) | Electronic device and method for securing using complex biometrics | |
| TWI474263B (en) | Method of executing software functions using biometric detection and related electronic device | |
| KR102387568B1 (en) | Method and apparatus for authentication based on fingerprint recognition | |
| JP6397036B2 (en) | Dynamic keyboard and touchscreen biometrics | |
| US9349035B1 (en) | Multi-factor authentication sensor for providing improved identification | |
| US8659572B2 (en) | Smart touchscreen key activation detection | |
| US10586031B2 (en) | Biometric authentication of a user | |
| JP2017539032A (en) | Fingerprint registration using touch sensor data | |
| US20160210452A1 (en) | Multi-gesture security code entry | |
| Koong et al. | A user authentication scheme using physiological and behavioral biometrics for multitouch devices | |
| JP6852508B2 (en) | Mobile terminal devices, their authentication methods, and programs | |
| CN106529246A (en) | Task execution method based on fingerprint, and mobile terminal | |
| HK1171834A (en) | User identification with biokinematic input | |
| JP2014081877A (en) | Information processing apparatus, signature information acquisition method, and program | |
| JP5969291B2 (en) | Mobile terminal authentication system and high function mobile terminal | |
| Zhang et al. | TouchSense: Accurate and Transparent User Re-authentication via Finger | |
| KR20150034074A (en) | Setting security method, electronic apparatus and computer-readable storage using fingerprint authentication and other security setting method | |
| JP2013246567A (en) | Information processing device, authentication method, and program | |
| Gorke et al. | SMAUG: Secure Mobile Authentication Using Gestures | |
| JP2008123209A (en) | Authentication device, authentication method, authentication program, and recording medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0105 | International application |
Patent event date: 20130627 Patent event code: PA01051R01D Comment text: International Patent Application |
|
| PG1501 | Laying open of application | ||
| N231 | Notification of change of applicant | ||
| PN2301 | Change of applicant |
Patent event date: 20150715 Comment text: Notification of Change of Applicant Patent event code: PN23011R01D |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20161122 Comment text: Request for Examination of Application |
|
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20180228 Patent event code: PE09021S01D |
|
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
Patent event date: 20180727 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20180228 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |