[go: up one dir, main page]

KR20130133223A - User identification with biokinematic input - Google Patents

User identification with biokinematic input Download PDF

Info

Publication number
KR20130133223A
KR20130133223A KR1020137016779A KR20137016779A KR20130133223A KR 20130133223 A KR20130133223 A KR 20130133223A KR 1020137016779 A KR1020137016779 A KR 1020137016779A KR 20137016779 A KR20137016779 A KR 20137016779A KR 20130133223 A KR20130133223 A KR 20130133223A
Authority
KR
South Korea
Prior art keywords
user
computing device
biokinetic
palm
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020137016779A
Other languages
Korean (ko)
Inventor
아비 가이거
오토 버크스
Original Assignee
마이크로소프트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 코포레이션 filed Critical 마이크로소프트 코포레이션
Publication of KR20130133223A publication Critical patent/KR20130133223A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Collating Specific Patterns (AREA)
  • Telephone Function (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

바이오키네마틱 입력에 기반한 사용자 식별을 위한 시스템 및 방법이 본 명세서에서 개시된다. 이 시스템은 규정된 식별 제스처 중 일련의 연속 시간 인터벌들 각각에서 사용자의 손가락들에 의해 이루어진 손가락 터치의 검출 위치를 나타내는 데이터를 포함하는 바이오키네마틱 입력을 수신하도록 구성된 센서를 포함하는 멀티 터치 감지 디스플레이를 포함할 수 있다. 이 시스템은 컴퓨팅 장치의 프로세서에 의해 실행되는 사용자 식별 모듈을 더 포함할 수 있다. 사용자 식별 모듈은 센서로부터 바이오키네마틱 입력을 수신하며 손가락 터치들의 상대적 위치들 및/또는 손가락 터치들의 상기 위치들의 상대적 변화율을 사용자에 대해 검증된 바이오키네마틱 데이터의 저장 템플릿과 비교하도록 구성될 수 있다. 매치가 판정되면 사용자가 성공적으로 식별되었다는 표시가 디스플레이될 수 있다.Disclosed herein are systems and methods for user identification based on biokinetic input. The system includes a multi-touch sensitive display comprising a sensor configured to receive a biokinetic input comprising data indicative of a detected location of a finger touch made by a user's fingers at each of a series of consecutive time intervals of a defined identification gesture. It may include. The system can further include a user identification module executed by the processor of the computing device. The user identification module may be configured to receive biokinetic input from the sensor and to compare the relative positions of finger touches and / or the relative rate of change of the positions of finger touches with a storage template of biokinetic data validated for the user. . If a match is determined, an indication may be displayed that the user was successfully identified.

Figure pct00001
Figure pct00001

Description

바이오키네마틱 입력을 이용한 사용자 식별{USER IDENTIFICATION WITH BIOKINEMATIC INPUT}USER IDENTIFICATION WITH BIOKINEMATIC INPUT}

생체측정 기법들이 지문 및 장문과 같은 특징적인 물리적 특성들에 기반하여 사람을 식별하기 위해 개발되어 왔다. 예를 들어, 건물 출입을 허가하거나 거부하는데 사용되는 손바닥 스캐너들이 개발되었으며, 웹사이트 및 파일 접속이나 운영체제로의 로그인에 사용되는 지문 스캐너들이 개발되어 왔다. 이 시스템들은 손가락이나 손바닥 상의 피부 패턴들에 대한 상세 스캔을 얻기에 충분한 고해상도 화상 기능을 가진 전용 스캐너를 이용하며, 그에 의해 사용자들을 서로 구분하는 피부 패턴들 내의 특징적인 물리적 특성들에 대한 식별을 가능하게 할 수 있다.Biometric techniques have been developed to identify people based on characteristic physical characteristics such as fingerprints and palm prints. For example, palm scanners have been developed to allow or deny building access, and fingerprint scanners have been developed for web site and file access or login to the operating system. These systems use a dedicated scanner with a high resolution imaging function sufficient to obtain detailed scans of skin patterns on fingers or palms, thereby enabling identification of characteristic physical properties within skin patterns that distinguish users from each other. It can be done.

태블릿 컴퓨팅 장치들 및 터치 스크린 모바일 전화기들 상에서의 그러한 생체측정 기법들의 채택에는 몇 가지 장애물이 존재한다. 과거에는 전용 지문 및 손바닥 스캐너들이 예컨대 그 스캐너들을 장착하기 충분한 공간이 있는 도어 출입 패널들 및 랩탑 컴퓨터 하우징 상에서 사용되었지만, 대부분의 태블릿 컴퓨팅 장치들과 터치 스크린 모바일 전화기들은 소형이므로 전용 지문 스캐너나 손바닥 스캐너를 장착할 충분한 공간을 가지지 못한다. 또한 종래의 태블릿 컴퓨팅 장치들 및 모바일 전화기들에 사용되는 터치 스크린 기술들은 사용자가 구별될 수 있는 지문 또는 손바닥의 피부 패턴들에 대한 사용가능 이미지를 획득할 정도로 충분히 높은 해상도가 아니다. 결과적으로, 지문 및 손바닥 스캐닝과 관련된 생체측정 기법들은 태블릿 컴퓨팅 장치들 및 터치 스크린 모바일 전화기들에 대해 널리 채택되고 있지 않다.
There are several obstacles to the adoption of such biometric techniques on tablet computing devices and touch screen mobile phones. In the past, dedicated fingerprint and palm scanners have been used, for example, on door access panels and laptop computer housings with sufficient space to mount the scanners. It does not have enough space to mount it. Also, touch screen technologies used in conventional tablet computing devices and mobile phones are not high enough resolution to obtain a usable image for the user's distinguishable fingerprint or palm skin patterns. As a result, biometric techniques related to fingerprint and palm scanning are not widely adopted for tablet computing devices and touch screen mobile phones.

바이오키네마틱 입력에 기반한 사용자 식별을 위한 시스템 및 방법이 본 명세서에서 개시된다. 이 시스템은 규정된 식별 제스처 중 일련의 연속 시간 인터벌들 각각에서 사용자의 손가락들에 의해 이루어진 손가락 터치의 검출 위치를 나타내는 데이터를 포함하는 바이오키네마틱 입력을 수신하도록 구성된 센서를 포함하는 멀티 터치 감지 디스플레이를 포함할 수 있다. 이 시스템은 컴퓨팅 장치의 프로세서에 의해 실행되는 사용자 식별 모듈을 더 포함할 수 있다. 사용자 식별 모듈은 센서로부터 바이오키네마틱 입력을 수신하며, 손가락 터치들의 상대적 위치들 및/또는 손가락 터치들의 상기 위치들의 상대적 변화율을 사용자에 대해 검증된 바이오키네마틱 데이터의 저장 템플릿과 비교하도록 구성될 수 있다. 매치가 판정되면 사용자가 성공적으로 식별되었다는 표시가 디스플레이될 수 있다. Disclosed herein are systems and methods for user identification based on biokinetic input. The system includes a multi-touch sensitive display comprising a sensor configured to receive a biokinetic input comprising data indicative of a detected location of a finger touch made by a user's fingers at each of a series of consecutive time intervals of a defined identification gesture. It may include. The system can further include a user identification module executed by the processor of the computing device. The user identification module receives biokinetic input from the sensor and may be configured to compare the relative positions of the finger touches and / or the relative rate of change of the positions of the finger touches with a storage template of biokinetic data validated for the user. have. If a match is determined, an indication may be displayed that the user was successfully identified.

이 요약은 이하의 상세한 설명에 자세히 기술되는 개념들의 선택을 간략한 형식으로 소개하기 위해 주어진다. 이 요약은 청구된 발명 대상의 주요 특징이나 필수적 특징을 확인하도록 의도되거나 청구된 발명 대상의 범위를 한정하는 데 사용되도록 의도된 것이 아니다. 또한 청구된 발명 대상이 이 개시의 어떤 일부에 언급된 어느 혹은 모든 단점들을 해결하는 구현예들에 국한되지 않는다.
This summary is given to introduce a selection of concepts in a simplified form that are further described below in the Detailed Description. This Summary is not intended to identify key features or essential features of the claimed subject matter, nor is it intended to be used to limit the scope of the claimed subject matter. Furthermore, the claimed subject matter is not limited to implementations that solve any or all disadvantages noted in any part of this disclosure.

도 1은 바이오키네마틱(biokinematic) 입력을 이용한 사용자 식별을 수행하도록 구성된 컴퓨팅 장치의 일 실시예에 대한 개략도이다.
도 2는 태블릿 컴퓨팅 장치 상의 손바닥-주먹 전환 제스처 시 일련의 손의 위치들을 예시한 도 1의 바이오키네마틱 입력을 이용한 사용자 식별을 수행하도록 구성된 컴퓨팅 장치의 투시도이다.
도 3은 도 2에 도시된 일련의 손 위치들에 해당하는 복수의 터치들을 보인 그래픽도이다.
도 4는 바이오키네마틱 입력을 이용한 사용자 식별을 위해 컴퓨터화된 사용자 식별 방법의 일 실시예에 대한 개략도이다.
1 is a schematic diagram of one embodiment of a computing device configured to perform user identification using biokinematic input.
FIG. 2 is a perspective view of a computing device configured to perform user identification using the biokinetic input of FIG. 1 illustrating a series of hand positions in a palm-fist switch gesture on a tablet computing device.
3 is a graphic diagram illustrating a plurality of touches corresponding to a series of hand positions shown in FIG. 2.
4 is a schematic diagram of one embodiment of a computerized user identification method for user identification using biokinetic input.

도 1은 바이오키네마틱(biokinematic) 입력을 이용한 사용자 식별을 수행하도록 구성된 컴퓨팅 장치의 일 실시예에 대한 개략도이다. 컴퓨팅 장치(10)는 예를 들어 모바일 전화기, 태블릿 컴퓨팅 장치, 또는 랩탑 컴퓨터와 같은 휴대형 컴퓨팅 장치로서 구성될 수 있다. 다른 예들에서, 컴퓨팅 장치(10)는 퍼스널 컴퓨터(PC), 데스크탑 컴퓨터, 테이블탑 컴퓨터, 또는 키오스크 컴퓨터로서 구성될 수 있다. 컴퓨팅 장치(10)는 디스플레이(22), 프로세서(24), 메모리 유닛(26), 및 대량 저장 유닛(28)을 포함한다. 대량 저장 유닛(28)에 저장된 프로그램들은 메모리 유닛(26) 및 디스플레이(22)를 이용하는 프로세서(24)에 의해 실행되어 본 명세서에 기술된 다양한 기능들을 수행할 수 있다. 컴퓨팅 장치(10)는 규정된 식별 제스처 도중에 사용자로부터 바이오키네마틱 입력을 수신하고 그 바이오키네마틱 입력을 저장된 사용자 템플릿(48)과 비교하도록 구성될 수 있다. 그로써 만일 매치가 판정되면 사용자가 성공적으로 식별될 수 있으며 소프트웨어, 데이터 또는 장치의 기능에 대한 접근이 허락될 수 있다.1 is a schematic diagram of one embodiment of a computing device configured to perform user identification using biokinematic input. Computing device 10 may be configured as a portable computing device such as, for example, a mobile phone, a tablet computing device, or a laptop computer. In other examples, computing device 10 may be configured as a personal computer (PC), desktop computer, tabletop computer, or kiosk computer. Computing device 10 includes a display 22, a processor 24, a memory unit 26, and a mass storage unit 28. Programs stored in mass storage unit 28 may be executed by processor 24 using memory unit 26 and display 22 to perform the various functions described herein. Computing device 10 may be configured to receive biokinetic input from a user during a defined identification gesture and to compare the biokinetic input to the stored user template 48. Thus, if a match is determined, the user can be identified successfully and access to the software, data, or functionality of the device can be granted.

디스플레이(22)는 터치 입력을 검출하기 위한 센서(32)를 포함하는 멀티 터치 감지 디스플레이일 수 있다. 디스플레이(22)는 가시적인 이미지를 생성하기 위한 다양한 디스플레이 기술들을 이용할 수 있다. 따라서 디스플레이는 LCD(liquid crystal display)나 예컨대 복수의 발광 픽셀들로 이루어진 OLED(organic light emitting diode) 디스플레이로서 구성될 수 있다. 디스플레이(22)는 마이크로소프트 SURFACE® 디스플레이와 같은 테이블탑 광 터치 감지 디스플레이일 수도 있다. The display 22 may be a multi-touch sensitive display that includes a sensor 32 for detecting touch input. Display 22 may use a variety of display technologies for generating visible images. Thus, the display may be configured as a liquid crystal display (LCD) or an organic light emitting diode (OLED) display composed of a plurality of light emitting pixels, for example. Display 22 may be a tabletop optical touch sensitive display, such as a Microsoft SURFACE® display.

센서(32)는 사용자의 대응하는 복수의 손가락들로 만들어진 복수의 손가락 터치들 각각의 검출 위치들을 나타내는 데이터를 포함하는 바이오키네마틱 입력(18)을 수신하도록 구성될 수 있다. 센서(32)는 규정된 사용자의 식별 제스처 중에 일련의 연속 시간 인터벌들 각각에서 데이터를 수신하도록 구성될 수 있다. 또한 규정된 식별 제스처의 복수의 손가락 터치들은 적어도 하나의 손바닥 터치를 포함할 수 있다. 따라서, 예컨대 규정된 식별 제스처는 사용자가 멀티 터치 디스플레이 상에서 꽉 쥔 주먹을 보인 후 열린 손바닥으로 전환하거나, 그와 달리 열린 손바닥을 보인 후 꽉 쥔 주먹으로 전환하는 손바닥-주먹 전환 제스처일 수 있다. 그러한 제스처는 이하의 도 2 및 도 3과 관련하여 보다 상세히 논의될 것이다. 이것은 다만 컴퓨팅 장치(10)에 의해 개인들을 구별하는 데 사용될 수 있는 식별 제스처의 한 예일 뿐이라는 것을 알 수 있을 것이다. 다양한 방식으로 움직이는 손, 손바닥, 손가락 및/또는 엄지를 포함하는 다른 식별 제스처들 역시 사용될 수 있다. Sensor 32 may be configured to receive biokinetic input 18 that includes data indicative of detection locations of each of a plurality of finger touches made of a corresponding plurality of fingers of a user. The sensor 32 may be configured to receive data at each of a series of consecutive time intervals during a defined user's identification gesture. The plurality of finger touches of the defined identification gesture may also include at least one palm touch. Thus, for example, the prescribed identification gesture may be a palm-fist switching gesture in which the user switches to an open palm after showing a clenched fist on a multi-touch display, or otherwise turns to a clenched fist after showing an open palm. Such gestures will be discussed in more detail with reference to FIGS. 2 and 3 below. It will be appreciated that this is just one example of an identification gesture that may be used by the computing device 10 to distinguish individuals. Other identifying gestures may also be used, including hands, palms, fingers and / or thumbs that move in various ways.

센서(32)는 다양한 터치 센서들 중 어느 하나일 수 있다. 예를 들어 센서(32)는 용량성 또는 저항성 멀티 터치 센서일 수 있다. 이러한 실시예들에서 센서(32)는 복수의 손가락 및/또는 손바닥 터치들 각각에 의해 야기되어 검출된 커패시턴스나 저항의 변화를 통해 디스플레이(22)의 상위 표면 상의 터치를 검출하도록 구성될 수 있다. The sensor 32 may be any one of various touch sensors. For example, sensor 32 may be a capacitive or resistive multi-touch sensor. In such embodiments the sensor 32 may be configured to detect a touch on the upper surface of the display 22 through a change in capacitance or resistance detected caused by each of the plurality of finger and / or palm touches.

다른 대안으로서 다른 터치 감지 기술들이 시용될 수 있다. 예를 들어 디스플레이(22)는 디스플레이의 각각의 픽셀에 위치될 수 있는 광 센서들(32)을 포함하여 광을 감지할 수 있으며, 이러한 광 센서들로부터 출력은 디스플레이의 상위 표면 상의 다중 터치들을 검출하기 위해 처리될 수 있다. 이러한 광 센서들은 일례로서 가시 광 및 적외선 광을 감지하도록 구성될 수 있다. 예를 들어 광 센서는 가시 광 및 적외선 광을 감지하도록 구성된 CMOS(complementary metal- oxide semiconductor)나 어떤 다른 APS(active pixel sensor)와 같은 APS일 수 있다. As another alternative, other touch sensing techniques may be employed. For example, the display 22 may include light sensors 32 that may be located at each pixel of the display, and the output from these light sensors detects multiple touches on the upper surface of the display. Can be processed to Such light sensors can be configured to sense visible light and infrared light as an example. For example, the optical sensor may be an APS, such as a complementary metal oxide semiconductor (CMOS) or any other active pixel sensor (APS) configured to sense visible and infrared light.

컴퓨팅 장치(10)는 하드 드라이브와 같은 대량 저장 유닛(28)을 포함할 수 있다. 대량 저장 유닛(28)은 데이터 버스(30)를 통해 디스플레이(22), 프로세서(24) 및 메모리 유닛(26)와 유효한 통신을 할 수 있으며, 메모리(26)의 일부를 이용하여 프로세서(24)에 의해 실행되는 프로그램들 및 그러한 프로그램들에 의해 활용되는 다른 데이터를 저장하도록 구성된다. 예를 들어, 대량 저장 장치(28)는 사용자 식별 모듈(34) 및 관련 데이터베이스(38)를 저장할 수 있다. 대량 저장 장치(28)는 또한 응용 프로그램과 같이 사용자 식별 모듈(34)에 의해 식별이 수행되도록 요청하는 프로그램(36), 로그인 프로그램이나 사용자 인증 프로그램과 같은 운영체제 구성요소, 또는 컴퓨팅 장치 상에서 실행하는 다른 프로그램을 저장할 수 있다. 사용자 식별 모듈(34) 및 프로그램(36)은 메모리(26)의 일부를 이용하여 컴퓨팅 장치(10)의 프로세서(24)에 의해 실행될 수 있다. Computing device 10 may include a mass storage unit 28, such as a hard drive. The mass storage unit 28 may be in effective communication with the display 22, the processor 24, and the memory unit 26 via the data bus 30, and may utilize the portion of the memory 26 to process the processor 24. Programs executed by and other data utilized by such programs. For example, mass storage device 28 may store user identification module 34 and associated database 38. The mass storage device 28 may also be a program 36, such as an application, requesting that identification be performed by the user identification module 34, an operating system component such as a login program or a user authentication program, or another program running on a computing device. You can save the program. The user identification module 34 and program 36 may be executed by the processor 24 of the computing device 10 using a portion of the memory 26.

사용자 식별 모듈(34)은 예컨대 등록 단계(50) 및 식별 단계(60)와 같은 다양한 각종 단계들 상에서 동작할 수 있다. 각각의 단계는 이하에 기술되는 바와 같이 사용자 식별 모듈(34)의 여러 구성요소들과 결부될 수 있다. The user identification module 34 may operate on various various steps, such as the registration step 50 and the identification step 60, for example. Each step may be associated with various components of the user identification module 34 as described below.

사용자 식별 모듈(34)은 센서(32)로부터 바이오키네마틱 입력(18)을 수신하도록 구성될 수 있다. 바이오키네마틱 입력은 사용자의 움직이는 신체 부분을 감지하는 센서(32)로부터 비롯된다. 한 사용자를 다른 사용자와 구분하기 위해 사용자 식별 모듈(34)은 바이오키네마틱 입력 안에 포함된 복수의 손가락 터치들 및/또는 손바닥 터치들의 상대적 위치들을 비교하도록 구성될 수 있다. 더 많거나 더 적거나 다른 신체 부분들로부터의 터치들 역시 검토될 수 있다는 것을 알 수 있을 것이다. 추가적으로나 대안적으로, 사용자 식별 모듈(34)은 시간에 따른 복수의 터치들의 상기 위치들의 상대적 변화율들을 비교하도록 구성될 수 있다. User identification module 34 may be configured to receive biokinetic input 18 from sensor 32. The biokinetic input comes from a sensor 32 that senses a moving body part of the user. To distinguish one user from another user, the user identification module 34 may be configured to compare the relative positions of the plurality of finger touches and / or palm touches included in the biokinetic input. It will be appreciated that touches from more, less or other body parts may also be considered. Additionally or alternatively, user identification module 34 may be configured to compare the relative rates of change of the locations of the plurality of touches over time.

수신된 바이오키네마틱 입력(18)은 이하에 논의되는 바와 같이, 등록 단계 중에 사용자 식별 모듈(34)에 의해 앞서 검증 및 저장되었을 수 있는 사용자에 대해 검증된 바이오키네마틱 데이터의 저장된 사용자 템플릿(48)과 비교될 수 있다. 바이오키네마틱 입력 및 저장된 사용자 템플릿(48) 사이의 매치가 결정되면, 디스플레이(22)는 사용자가 성공적으로 식별되었다는 표시를 디스플레이할 수 있다. The received biokinetic input 18 is a stored user template 48 of validated biokinetic data for the user that may have been previously verified and stored by the user identification module 34 during the registration phase, as discussed below. ) Can be compared. Once a match between the biokinetic input and the stored user template 48 is determined, the display 22 may display an indication that the user was successfully identified.

다른 예로서, 사용자 식별 모듈(34)은 손바닥-주먹 전환 제스처 중에 적어도 하나의 손바닥 터치에 대한 복수의 손가락 터치들의 상대적 위치들 및/또는 상기 위치들의 변화율들을 측정하도록 구성될 수 있다. 이때 사용자 식별 모듈(34)은 매치가 존재하는지 여부를 판정하기 위해 측정된 상대적 위치들 및/또는 변화율들을 저장된 사용자 템플릿(48)과 비교할 수 있다. 이를 수행하기 위해 사용자 식별 모듈(34)은 사용자 바이오키네마틱 데이터의 템플릿을 생성할 수 있고 그 템플릿을 바이오키네마틱 데이터를 나타내는 저장된 사용자 템플릿(48)과 비교할 수 있다. As another example, the user identification module 34 may be configured to measure the relative positions of the plurality of finger touches and / or the rate of change of the positions relative to the at least one palm touch during the palm-fist switching gesture. The user identification module 34 may then compare the measured relative positions and / or rate of change with the stored user template 48 to determine whether a match exists. To do this, the user identification module 34 may generate a template of user biokinetic data and compare the template with a stored user template 48 representing the biokinetic data.

사용자 식별 모듈(34)의 내부 동작들이 이제부터 상술한 방식으로, 컴퓨터 장치(10)의 새로운 사용자들이 사용자 아이디를 검증하기 위해 사용되는 바이오키네마틱 입력을 이용하여 등록되는 등록 단계(50) 및 사용자들이 식별되어 접근권이 허여되거나 거부되는 식별 단계(60)를 참조하여 기술될 것이다. 예시된 바와 같이 사용자 식별 모듈은 아래에서 상세히 설명되는 것과 같이 동작하는 피처(feature) 추출기(42), 템플릿 생성기(44) 및 매칭 엔진(46)을 포함할 수 있다. The registration step 50 and the user, in which the internal operations of the user identification module 34 are now registered using the biokinematic input used to verify the user ID, in the manner described above. Will be described with reference to the identification step 60 where they are identified and granted or denied access. As illustrated, the user identification module may include a feature extractor 42, a template generator 44, and a matching engine 46 that operate as described in detail below.

등록 단계(50) 중에, 피처 추출기(42)는 센서(32)로부터 제1바이오키네마틱 입력을 수신하고 제1바이오키네마틱 입력으로부터 사용자 식별 특징들을 추출하도록 구성될 수 있다. 사용자 식별 특징들은 각각의 사용자에 고유할 수 있다, 즉 특정 특징들의 집합이 한 사용자와 관련될 수 있으며 다른 사용자의 특정 특징들과는 상이할 수 있다. 따라서 그 특정 특징들이 한 사용자를 식별하고 그 사용자를 다른 잠정 사용자들과 구분하는데 사용될 수 있다. 제1바이오키네마틱 입력은 복수의 손가락 터치들의 상대적 위치들 및 일부 실시예들에서 적어도 하나의 손바닥 터치를 포함할 수 있으며, 이러한 터치들의 상기 위치들의 상대적 변화율들을 포함할 수 있다. 위에서 설명한 바와 같이, 제1바이오키네마틱 입력은 규정된 식별 제스처, 예컨대 손바닥-주먹 전환 중에 일련의 연속 시간 인터벌들로부터의 데이터를 포함할 수 있다. During the registration step 50, the feature extractor 42 may be configured to receive a first biokinetic input from the sensor 32 and extract user identification features from the first biokinetic input. User identification features may be unique to each user, that is, a set of specific features may be associated with one user and may be different from certain features of another user. Thus, the specific features can be used to identify one user and distinguish that user from other potential users. The first biokinetic input may include relative positions of the plurality of finger touches and at least one palm touch in some embodiments, and may include relative rates of change of the positions of these touches. As described above, the first biokinetic input may include data from a series of consecutive time intervals during a defined identification gesture, such as a palm-fist transition.

피처 추출기(42)는 임의 개의 기법들을 이용하는 사용자 식별 특징들을 추출할 수 있다. 예를 들어 피처 추출기(42)는 필터링, 사용자 손의 윤곽 식별 및/또는 하나 이상의 손가락 및/또는 손바닥 터치들의 무게중심 산출을 통해 이미지를 처리할 수 있다. 상술한 예들은 본 개시의 범위로부터 벗어남이 없이 조합 또는 부조합을 통해 사용될 수 있으며 사용자 식별 특성들을 추출하기 위한 추가적이거나 대안적인 수단을 더 포함할 수 있다는 것을 알 수 있을 것이다. 피처 추출기(42)는 추후 처리를 위해 템플릿 생성기(44)로 추출된 사용자 식별 특성들의 출력을 전송할 수 있다. Feature extractor 42 may extract user identification features using any number of techniques. For example, feature extractor 42 may process the image through filtering, contour identification of the user's hand, and / or calculating the center of gravity of one or more fingers and / or palm touches. It will be appreciated that the examples described above may be used in combination or subcombination without further departing from the scope of the present disclosure and may further include additional or alternative means for extracting user identification characteristics. Feature extractor 42 may send the output of the extracted user identification characteristics to template generator 44 for further processing.

등록 단계(50)에서 계속하여, 템플릿 생성기(44)가 피처 추출기(42)에 의해 수신된 제1바이오키네마틱 입력으로부터 사용자에 대해 특징적인 데이터의 템플릿을 생성할 수 있다. 템플릿 생성기(44)는 주어진 사용자 및 주어진 식별 제스처에 대한 사용자 식별 특성들을 포함하는 사용자 템플릿(48)을 생성하고 사용자 템플릿(48)을 데이터베이스(38)와 같은 데이터 저장소에 저장하도록 구성될 수 있다. 각각의 사용자에 대한 그러한 특징 데이터를 저장함으로써, 사용자를 식별하기 위해 사용자 템플릿들(48)이 다음 사용자 식별 단계(60) 중에 수신되는 바이오키네마틱 데이터와 비교하여 매치가 존재하는지 여부를 판정하는데 사용될 수 있다. Continuing at registration step 50, template generator 44 may generate a template of data characteristic for the user from the first biokinetic input received by feature extractor 42. Template generator 44 may be configured to generate a user template 48 that includes user identification characteristics for a given user and a given identification gesture and store the user template 48 in a data store, such as database 38. By storing such feature data for each user, user templates 48 may be used to determine whether a match exists to identify the user by comparing with biokinetic data received during the next user identification step 60. Can be.

데이터베이스(38)는 액세스 컴퓨팅 장치(10) 상의 소프트웨어나 데이터에 대해 허가되는 복수의 사용자들에 대한 복수의 사용자 템플릿들(48)을 저장할 수 있다. 일부 실시예들에서 다양한 사용자들을 등록하기 위해 다양한 클래스들이 사용될 수 있으며, 그에 따라 하나를 넘는 사용자 템플릿(48)이 각각의 사용자에 대해 존재할 수 있다. 예를 들어 한 클래스는 손바닥-주먹 전환 제스처일 수 있고, 다른 한 클래스는 손가락-엄지 꼬집기(pinch) 제스처일 수 있으며, 별도의 사용자 템플릿(48)이 컴퓨팅 장치(10)를 사용하도록 등록되어 있는 각각의 인증된 사용자에 대해 저장될 수 있다. Database 38 may store a plurality of user templates 48 for a plurality of users that are authorized for software or data on access computing device 10. In some embodiments various classes may be used to register various users, such that more than one user template 48 may exist for each user. For example, one class may be a palm-fist switch gesture, another class may be a finger-thumb pinch gesture, and a separate user template 48 is registered to use the computing device 10. Can be stored for each authenticated user.

이제 사용자 식별 단계(60)로 주의를 돌리면, 이 단계는 로그인 동작, 보호 폴더 열기, 보호 파일 열기, 보호 프로그램 접근, 보호 네트워크 접근, 또는 사용자 인증이 요망되는 어떤 다른 애플리케이션과 같은 임의 개의 사용자 인증 동작들 중에 구현될 수 있다. 예를 들어 사용자 식별 모듈(34)이 컴퓨팅 장치(10) 상의 사용자 세션에 대한 사용자 로그인과 같은 사용자 인증 동작 중에 실행될 수 있다. Turning now to the user identification step 60, this step is an arbitrary user authentication operation such as login operation, opening a protected folder, opening a protected file, accessing a protected program, accessing a protected network, or any other application for which user authentication is desired. Can be implemented. For example, user identification module 34 may be executed during a user authentication operation, such as a user login for a user session on computing device 10.

사용자 식별 단계(60) 중에 피처 추출기(42)가 센서(32)로부터 제2바이오키네마틱 입력을 수신할 수 있다. 제2바이오키네마틱 입력은 복수의 손가락 터치들의 상대적 위치들 및 적어도 하나의 손바닥 터치를 포함할 수 있으며, 이러한 터치들의 상기 위치들의 상대적 변화율들을 포함할 수 있다. 제2바이오키네마킥 입력은 또한 규정된 식별 제스처 중에 일련의 연속 타임 인터벌들로부터 이러한 터치들에 대한 데이터를 포함할 수 있다. 예를 들어 사용자 식별 단계(60)는 상술한 바와 같이 손바닥-주먹 전환과 같은 로그인 스크린 상의 제스처 기반 사용자 로그인 동작을 통해 수행될 수 있다. Feature extractor 42 may receive a second biokinetic input from sensor 32 during user identification step 60. The second biokinetic input may include relative positions of the plurality of finger touches and at least one palm touch, and may include relative rates of change of the positions of the touches. The second biokinetic kick input may also include data for these touches from a series of consecutive time intervals during the defined identification gesture. For example, user identification step 60 may be performed through a gesture-based user login operation on a login screen, such as a palm-fist switching, as described above.

사용자 식별 단계(60) 도중 피처 추출기(42)의 출력이 매칭 엔진(46)으로 보내질 수 있다. 매칭 엔진(46)은 사용자의 바이오키네마틱 데이터를 검증하기 위해 제2바이오키네마틱 입력을 제1바이오키네마틱 입력으로부터 추출된 특성들에 기반하여 생성되었던 저장된 사용자 템플릿(48)과 비교할 수 있다. 일부 실시예들에서 예컨대 핀(PIN) 넘버나 패스워드 대신, 혹은 그에 더하여 사용자의 아이디를 식별하기 위해, 사용자가 컴퓨팅 장치(10)로 사용자 이름을 입력할 수 있고, 바이오키네마틱 입력이 여기에 기술된 바와 같이 매치될 수 있다. 주어진 사용자에 대해 여러 제스처 클래스들에 대한 여러 템플릿들이 사용가능한 경우, 매칭 엔진(46)은 제2바이오키네미틱 입력을 손바닥-주먹 전환과 같은 특정 제스터 클래스에 속한 것으로 인식할 수 있으며, 그에 따라 제2바이오키네마틱 입력을 동일한 제스처 클래스에 속하는 저장된 사용자 템플릿들(48)과 비교할 수 있다. Output of feature extractor 42 may be sent to matching engine 46 during user identification step 60. The matching engine 46 may compare the second biokinetic input with the stored user template 48 that was generated based on the characteristics extracted from the first biokinetic input to verify the user's biokinetic data. In some embodiments, a user may enter a user name into computing device 10, for example to identify the user's identity instead of or in addition to a PIN number or password, and biokinetic input is described herein. Can be matched as shown. If multiple templates for different gesture classes are available for a given user, the matching engine 46 may recognize the second biokinetic input as belonging to a particular zester class, such as a palm-fist transition, thus The second biokinetic input may be compared with the stored user templates 48 belonging to the same gesture class.

컴퓨팅 장치(10)의 등록된 사용자들의 총 수가 소수인 경우 특히 유용한 다른 실시예들에서, 사용자는 사용자 이름을 입력하지 않고 간단히 식별 제스처를 제시하고 사용자 식별 모듈이 제시된 식별 제스처에 대한 바이오키네마틱 입력으로부터 추출된 특성들에 매치하는 사용자 템플릿을 찾는다. In other embodiments particularly useful where the total number of registered users of the computing device 10 is small, the user simply presents an identification gesture without entering a user name and the biokinetic input for the identification gesture presented by the user identification module. Find a user template that matches the properties extracted from.

매칭 엔진(46)은 제2바이오키네마틱 데이터로부터 추출된 특성들 및 사용자 템플릿들 사이에 매치가 존재하는지 여부를 판정할 수 있다. 매치가 존재하면, 사용자는 성공적으로 식별되었다고 판정된다. 매칭 엔진(46)은 매치가 존재한다고 판정하기 위해 임의의 개수의 기법들을 이용할 수 있다. 예를 들어 매칭 엔진(46)은 소정 오차 안에서, 복수의 손가락 및/또는 손바닥 터치들에 대응하는 제2바이오키네마틱 입력의 특징 또는 특징들의 조합과 하나 이상의 사용자 템플릿들(48)에 대응하는 터치들의 영역을 비교할 수 있다. 특징은 총 영역, 무게중심, 손가락 끝에서 손바닥까지 각각의 손가락 길이, 손가락 끝에서 손바닥까지 각각의 손가락의 상대 길이들 및 제스처 도중 시간에 따른 그러한 특징들 중 어느 하나의 변화율일 수 있다. 대안으로서, 매칭 엔진(46)이 제2바이오키네마틱 입력의 그러한 특징 또는 특징들의 조합을 모든 사용자들에 대한 소정의 정규 모델과 비교할 수 있다. 즉, 매칭 엔진(46)은 소정 정규 모델로부터의 제2바이오키네마틱 입력의 편차를 산출하고 제2바이오키네마틱 입력의 그 편차가 소정 문턱치 내에서 해당 사용자 템플릿의 편차와 매치하는지를 판정하도록 구성될 수 있다. The matching engine 46 may determine whether a match exists between the user templates and the features extracted from the second biokinetic data. If a match exists, the user is determined to have been successfully identified. Matching engine 46 may use any number of techniques to determine that a match exists. For example, the matching engine 46 may, within a certain error, correspond to one or more user templates 48 with a feature or combination of features of the second biokinetic input corresponding to the plurality of finger and / or palm touches. You can compare the area of these. The feature may be the total area, center of gravity, the length of each finger from fingertip to palm, the relative lengths of each finger from fingertip to palm, and the rate of change of any of those features over time during the gesture. Alternatively, matching engine 46 may compare such a feature or combination of features of the second biokinetic input to a predetermined normal model for all users. That is, the matching engine 46 is configured to calculate a deviation of the second biokinetic input from the given normal model and determine whether the deviation of the second biokinetic input matches the deviation of the corresponding user template within the predetermined threshold. Can be.

매치가 판정될 때, 그러한 이벤트에 대한 표시가 사용자에게 디스플레이될 수 있다. 예를 들어 그러한 표시는 성공적인 사용자 로그인 동작 후 디스플레이(22)의 그래픽 사용자 인터페이스(31)로 출력되는 메시지일 수 있다. 일 실시예에서, 그래픽 사용자 인터페이스(31)는 로그인 스크린을 포함할 수 있으며, 그 표시는 성공적 로그인에 대해 로그인 스크린 상에 디스플레이되는 메시지일 수 있다. 이와 달리, 상기 표시는 사용자에게 디스플레이되고 있는 로그인 스크린의 중단일 수 있다. 메시지의 디스플레이 및/또는 로그인 스크린의 중단에 이어, 사용자는 컴퓨팅 장치(10) 상의 프로그램(36), 파일, 폴더, 애플리케이션, 네트워크, 운영체제 등으로의 접근을 허락받을 수 있다. When a match is determined, an indication for such an event may be displayed to the user. For example, such an indication may be a message output to the graphical user interface 31 of the display 22 after a successful user login operation. In one embodiment, graphical user interface 31 may include a login screen, and the indication may be a message displayed on the login screen for a successful login. Alternatively, the indication may be an interruption of the login screen being displayed to the user. Following the discontinuance of the display and / or login screen of the message, the user may be granted access to programs 36, files, folders, applications, networks, operating systems, and the like on computing device 10.

도 2는 휴대형 태블릿 컴퓨팅 장치 상의 손바닥-주먹 전환 제스처 시 일련의 손의 위치들을 예시한 도 1의 바이오키네마틱 입력을 이용한 사용자 식별을 수행하도록 구성된 컴퓨팅 장치의 투시도이다. 도 2는 디스플레이(22)에 접촉함으로써 컴퓨팅 장치(10)와 상호동작하는 사용자의 손(80)을 예시한다. 도 2는 A-D에서 서로 다른 자세의 사용자 손(80)을 도시하는데, 순서(A에서 D, 또는 D에서 A)에 따라 꽉 쥔 주먹에서 펴진 손바닥으로의 전환 및 그 반대 과정의 자세들을 나타내며, 여기서 꽉 쥔 주먹은 A에서 묘사되고 펴진 손바닥은 D에서 묘사되며 중간 그림은 B와 C에서 도시된다. 그러한 움직임이 손바닥-주먹 전환 제스처로서 규정될 수 있으며, 이미 기술된 바와 같이 컴퓨팅 장치(10) 및/또는 컴퓨팅 장치(10)의 특성들로의 접근을 얻기 위해 식별 제스처로서 사용될 수 있다. 성공적 식별에 대한 표시로서 기능하는 일례의 메시지가 도 2의 D에 도시된다. 손바닥-주먹 전환 제스처는 단지 여기에 기술된 시스템 및 방법에 의해 사용될 수 있는 어느 식별 제스처의 한 예시적 실시예일뿐이라는 것을 이해해야 한다. 사용자의 복수의 손가락들 및/또는 손바닥, 또는 다른 신체 부분들 사이의 상대적 움직임을 포함하는 수많은 다른 식별 제스처들이 고려된다. FIG. 2 is a perspective view of a computing device configured to perform user identification using the biokinetic input of FIG. 1 illustrating a series of hand positions in a palm-fist switch gesture on a portable tablet computing device. 2 illustrates a user's hand 80 interacting with computing device 10 by contacting display 22. Figure 2 shows the user's hand 80 in different postures in AD, showing the positions of the transition from the clenched fist to the open palm and vice versa according to the order (A to D, or D to A), where The clenched fist is depicted in A, the open palm is depicted in D, and the middle figure is depicted in B and C. Such movement may be defined as a palm-fist switching gesture and may be used as an identifying gesture to gain access to the computing device 10 and / or the characteristics of the computing device 10 as already described. An example message that serves as an indication of successful identification is shown in FIG. It should be understood that the palm-fist switching gesture is merely one exemplary embodiment of any identifying gesture that may be used by the systems and methods described herein. Numerous other identifying gestures are contemplated, including relative movement between the user's plurality of fingers and / or palms, or other body parts.

도 3은 도 2에 도시된 일련의 손 위치들에 해당하는 복수의 터치들을 보인 그래픽도이다. 도 3은 손바닥-주먹 전환 제스처 도중 디스플레이(22)와 물리적 접촉을 할 수 있는 사용자 손(80)의 영역들을 예시한다. 그러한 접촉점들은 복수의 손가락 터치들(82) 및 손바닥 터치(84)를 포함할 수 있다. 예를 들어 사용자 손(80)이 도 2의 A에 보여진 거소가 같은 주먹을 만들 때, 도 3의 A에 보여진 바와 같은 복수의 손가락 터치들(82) 및 손바닥 터치(84)가 센서(32)에 의해 수신될 수 있다. 사용자 손(80)이 손바닥-주먹 전환 제스처를 계속하면서, 손가락 터치들(82) 및 손바닥 터치(84)의 상대적 위치들이 A-D 및 마찬가지로 D-A로부터 보여진 것과 같이 달라질 수 있다. 또한 손가락 터치들(82) 각각과 손바닥 터치(84) 사이의 상대적 변화율들이 이미 기술된 것과 같이 측정될 수 있다.3 is a graphic diagram illustrating a plurality of touches corresponding to a series of hand positions shown in FIG. 2. 3 illustrates areas of the user's hand 80 that may be in physical contact with the display 22 during the palm-fist switching gesture. Such points of contact may include a plurality of finger touches 82 and palm touch 84. For example, when the user's hand 80 makes the same fist shown in A of FIG. 2, a plurality of finger touches 82 and palm touch 84 as shown in A of FIG. Can be received by. As the user hand 80 continues the palm-fist switching gesture, the relative positions of the finger touches 82 and palm touch 84 can vary as seen from A-D and likewise D-A. Also, the relative rates of change between each of the finger touches 82 and palm touch 84 can be measured as already described.

바이오키네마틱 데이터는 사용자 손이 장치와 물리적 접촉을 만들지 않고 복수의 손가락 및/또는 손바닥 터치들로부터 수신될 수 있다는 것을 이해해야 한다. 즉, 장치의 센서가 장치에 실질적으로 근접한 사용자 손으로부터 바이오키네마틱 데이터를 수신하도록 구성될 수 있다. 다른 대안으로서, 센서는 예컨대 광 센서들 및 어떤 용량성 센서들의 경우에서처럼, 손이 디스플레이(22)로부터 근접하여 떨어져 있을 때 그 손의 위치를 감지하도록 구성될 수 있다. It should be understood that biokinetic data may be received from a plurality of finger and / or palm touches without the user's hand making a physical contact with the device. That is, a sensor of the device may be configured to receive biokinetic data from a user's hand substantially in proximity to the device. As another alternative, the sensor may be configured to sense the position of the hand when the hand is in close proximity to the display 22, such as in the case of optical sensors and certain capacitive sensors, for example.

바이오키네마틱 입력은 사용자에 대해 고유한데, 이는 식별 제스터 도중 손이 움직일 때 사용자 손들이 크기, 상대적 위치 및 복수의 손가락 터치들 및 손바닥 터치들 사이의 상대적 변화율들에 있어 크게 다를 수 있기 때문이다. 따라서 그러한 바이오키네마틱 입력이 복수의 사용자를 나타내는 가상 서명으로서 사용될 수 있고 그에 따라 사용자 인증이 검증될 수 있게 하는 수단을 생성할 수 있다. Biokinetic input is unique to the user because the user's hands may vary greatly in size, relative position, and relative rates of change between the plurality of finger touches and palm touches as the hand moves during identification zester. Thus such biokinetic input can be used as a virtual signature representing a plurality of users and thus create means for allowing user authentication to be verified.

도 4는 컴퓨터화된 사용자 식별 방법(400)의 일 실시예에 대한 개략도이다. 이 방법(400)은 상술한 컴퓨팅 장치(10)의 소프트웨어 및 하드웨어 구성요소들 또는 다른 적절한 구성요소들을 이용하여 수행될 수 있다. 방법(400)은 컴퓨팅 장치(10)의 디스플레이(22)와 같은 멀티 터치 감지 디스플레이가 도 2에 도시된 바와 같은 손바닥-주먹 전환 제스처와 같은 식별 제스처나 다른 식별 제스처와 관련된 사용자 바이오키네마틱 입력(18)을 수신하는 것(401)에서 시작한다. 4 is a schematic diagram of one embodiment of a computerized user identification method 400. The method 400 may be performed using software and hardware components or other suitable components of the computing device 10 described above. The method 400 includes a user biokinetic input (e.g., a multi-touch sensitive display such as the display 22 of the computing device 10 associated with an identification gesture or other identification gesture, such as a palm-fist switching gesture as shown in FIG. 18) and start at 401 receiving.

402에서, 방법(400)은 사용자 식별 특성들을 추출하도록 진행한다. 예를 들어 도 3에 도시된 것과 같이 대응하는 사용자의 복수의 손가락들 및/또는 손바닥에 의해 이루어진 복수의 손가락 터치들 및/또는 손바닥 터치들이 추출될 수 있다. 사용자 식별 특성들은 일련의 연속적인 시간 인터벌들 각각에서 추출될 수 있다. At 402, the method 400 proceeds to extract user identification characteristics. For example, as illustrated in FIG. 3, a plurality of finger touches and / or palm touches made by a plurality of fingers and / or palms of a corresponding user may be extracted. User identification characteristics may be extracted at each of a series of consecutive time intervals.

403에서 방법(400)은 사용자에 의해 이루어진 복수의 손가락 터치들 및/또는 손바닥 터치들을 측정함으로써 진행된다. 예를 들어 손바닥-주먹 전환 제스처에 해당하는 바이오키네마틱 입력(18)이 복수의 손가락 터치들 및/또는 손바닥 터치들 각각의 상대적 이치들 및/또는 상대적 변화율들에 따라 측정될 수 있다. At 403 the method 400 proceeds by measuring a plurality of finger touches and / or palm touches made by the user. For example, the biokinetic input 18 corresponding to the palm-fist switching gesture may be measured according to the relative values and / or relative rates of change of each of the plurality of finger touches and / or palm touches.

상술한 바와 같은 등록 단계 중에, 방법(400)은 404로 진행할 수 있으며, 사용자 손바닥-주먹 전환 제스처에 대응하여 바이오키네마틱 입력(상기 도 1과 관련하여 제1바이오키네마틱 입력이라 칭함)의 사용자 템플릿(48)을 생성하는 단계를 포함할 수 있다. 사용자 템플릿(48)을 생성하는 단계는 추가 단계들을 통해 제1바이오키네마틱 입력이 높은 무결성 또는 반복성을 가진다는 것을 검증하는 단계를 포함할 수 있다. 예를 들어 검증 단계는 사용자 템플릿(48) 생성 전에 사용자가 한번 이상 동일한 식별 제스처를 반복하는 단계를 포함할 수 있다. 그로써 템플릿 생성기는 보다 큰 신뢰도를 가지고 사용자 특유의 패턴들을 인식할 수 있다. During the registration step as described above, the method 400 may proceed to 404, wherein the user of the biokinetic input (referred to as the first biokinetic input in connection with FIG. 1) in response to the user palm-fist switching gesture. Generating the template 48. Generating the user template 48 may include verifying that the first biokinetic input has high integrity or repeatability through additional steps. For example, the verifying step may include the user repeating the same identification gesture one or more times before generating the user template 48. This allows the template generator to recognize user-specific patterns with greater confidence.

405에서 방법(400)은 컴퓨팅 장치(10)의 데이터베이스(38)와 같이 컴퓨팅 장치(10)의 다른 단계들 도중에 사용될 수 있는 데이터 저장소 안에 등록 단계 중에 획득된 사용자 템플릿(48)을 저장하는 절차를 밟는다. 방법이 404로부터 401로 루프를 되돌아 가서 이 방법의 식별 단계 중 또 다른 바이오키네마틱 입력을 수신하도록 한다. At 405, the method 400 includes a procedure for storing a user template 48 obtained during a registration step in a data store that can be used during other steps of the computing device 10, such as the database 38 of the computing device 10. Step on. The method loops back from 404 to 401 to receive another biokinetic input during the identification phase of the method.

식별 단계 중에, 방법(400)은 손바닥-주먹 전환 제스처와 같은 식별 제스처에 대응하는 바이오키네마틱 입력이 이러한 단계들(401-403)을 통한 제2패스 동안의 제2바이오키네마틱 입력으로서 수신될 수 있는 단계들(401-403)을 반복한다. 이 방법은 식별 경로를 따라 제2바이오키네마틱 입력을 데이터베이스 내 검증된 바이오키네마틱 데이터의 저장된 사용자 템플릿(48)과 비교하는 단계(406)로 진행한다. 비교 단계는 상술한 바와 같이 손바닥-주먹 전환 제스처와 같은 식별 제스처의 적어도 일부 중에 복수의 손가락 터치들 및/또는 손바닥 터치들의 각자의 위치들 및/또는 각자의 변화율들에 대한 분석을 포함할 수 있다. During the identifying step, the method 400 may include receiving a biokinetic input corresponding to an identifying gesture, such as a palm-fist switching gesture, as a second biokinetic input during the second pass through these steps 401-403. Repeat steps 401-403, which may be possible. The method proceeds to a step 406 of comparing the second biokinetic input to a stored user template 48 of verified biokinetic data in the database along the identification path. The comparing step may include an analysis of respective positions of the plurality of finger touches and / or palm touches and / or respective rate of change among at least a portion of an identification gesture, such as a palm-fist switching gesture as described above. .

407에서 방법(400)은 소정의 오차 안에서 제2바이오키네마틱 입력과 저장된 사용자 템플릿(48) 사이에 매치가 존재하는지를 판정한다. 407에 대한 답이 '예'이면, 방법(400)은 408로 진행하여 사용자가 성공적으로 식별되었다는 것을 나타내는 메시지 형태의 표시가 디스플레이에 출력될 수 있다. 이와 달리, 상기 표시는 사용자에게 디스플레이되고 있는 로그인 스크린의 중단일 수 있다. At 407 the method 400 determines whether a match exists between the second biokinetic input and the stored user template 48 within a predetermined error. If the answer to 407 is yes, the method 400 proceeds to 408 and an indication in the form of a message indicating that the user was successfully identified can be output to the display. Alternatively, the indication may be an interruption of the login screen being displayed to the user.

방법(400)은 이제 409로 진행하여 사용자가 컴퓨팅 장치 상의 프로그램, 파일, 폴더, 애플리케이션, 운영체제 등으로의 접근을 허가받는다. 409로부터 방법의 식별 단계가 종료된다. The method 400 now proceeds to 409 where the user is granted access to programs, files, folders, applications, operating systems, and the like on the computing device. The identification step of the method ends from 409.

407에 대한 답이 '아니오'이면, 방법(400)은 410으로 진행하여 사용자가 컴퓨팅 장치 상의 프로그램, 파일, 폴더, 애플리케이션, 운영체제 등으로의 접근에 대해 거부된다. 410으로부터 방법의 식별 단계가 역시 종료된다. 이와 달리, 일부 실시예들에서, 개시된 방법은 매치가 일어나지 않고 액세스가 거부될 때 추가적으로 사용자에게 어떤 표시를 디스플레이할 수 있고/있거나 사용자가 사용자 템플릿(48)과 비교할 바이오키네마틱 입력을 다시 입력할 수 있게 하는 GUI를 표시하여 사용자가 첫 번재 시점에 발생할 수 있었을 어떤 입력 에러들을 교정하게 할 수 있다. If the answer to 407 is no, the method 400 proceeds to 410 where the user is denied access to a program, file, folder, application, operating system, or the like on the computing device. The identification step of the method also ends at 410. In contrast, in some embodiments, the disclosed method may additionally display some indication to the user when no match occurs and access is denied and / or the user may re-enter a biokinetic input to compare with the user template 48. You can display a GUI that allows the user to correct any input errors that might have occurred at the first time.

이 방법(400)이 추가 또는 대안적 단계들을 포함할 수 있다는 것을 예상할 수 있을 것이다. 일례로서, 이 방법은 어느 단계(예를 들어, 등록 단계(50) 또는 식별 단계(60))에서 동작할 지를 판정하는 메커니즘을 포함할 수 있다. 통상적으로 사용자 식별 모듈이 컴퓨팅 장치 상의 새로운 사용자 계정을 등록하는 어떤 운영체제 구성요소에 의해 호출될 때, 등록 단계가 유발될 수 있다. 그리고 로그인 프로그램과 같은 어떤 운영체제 구성요소나 애플리케이션 프로그램이 사용자 식별 모듈을 호출할 때 식별 단계가 유발된다. 사용자 식별 모듈이 API(application programming interface)의 일부일 때, 각각의 단계에 대해 알맞은 애플리케이션 프로그래밍 인터페이스 함수 호출들이 제공될 수 있다. It will be appreciated that the method 400 may include additional or alternative steps. As one example, the method may include a mechanism for determining which step (eg, registration step 50 or identification step 60) to operate. Typically, the registration phase can be triggered when the user identification module is called by any operating system component that registers a new user account on the computing device. And an identification phase is triggered when any operating system component or application program, such as a login program, calls the user identification module. When the user identification module is part of an application programming interface (API), appropriate application programming interface function calls may be provided for each step.

상술한 시스템 및 방법들은 컴퓨팅 장치의 소프트웨어, 데이터, 또는 기타 기능에 대한 접근을 제어하기 위한 바이오키네마틱 기반 보안을 구체화하는 데 사용될 수 있다. 이러한 시스템 및 방법들은 사용자 편의를 제공하는 한편 이전 장치들 상의 특징이었던 전용 지문 또는 손바닥 스캐너 없이도 구현될 수 있다는 이점을 가진다. The systems and methods described above can be used to embody biokinematic-based security for controlling access to software, data, or other functions of a computing device. These systems and methods provide the user convenience while having the advantage that they can be implemented without the need for a dedicated fingerprint or palm scanner, which was a feature on previous devices.

"모듈", "프로그램" 및 "엔진"이라는 용어들은 여기에서 컴퓨팅 장치에 의해 실행될 때 하나 이상의 특정 기능들을 수행하는 소프트웨어를 지칭하는 데에 사용된다. 이러한 용어들은 예컨대 실행 파일, 데이터 파일, 라이브러리, 드라이버, 스크립트, 데이터베이스 레코드 개개 또는 그룹들을 포괄하도록 되어 있다. 본 명세서에 기술된 실시예들은 그러한 모듈들, 프로그램들 및 엔진들의 어떤 전형적 구성을 보여주지만, 본 명세서에 기술된 기능들이 다르게 구성된 소프트웨어 요소들에 의해서도 달성될 수 있다는 것을 이해해야 한다. The terms “module”, “program” and “engine” are used herein to refer to software that, when executed by a computing device, performs one or more specific functions. These terms are intended to encompass, for example, executable files, data files, libraries, drivers, scripts, individual database records, or groups. While the embodiments described herein show some typical configuration of such modules, programs, and engines, it should be understood that the functions described herein may be achieved by other configured software elements.

수많은 변형들이 가능하기 때문에 본 명세서에 설명된 구성들 및/또는 접근 방식들은 본질적으로 예시적인 것이며 이러한 특정 실시예들이나 예들은 한정적인 의미로 간주되지 않아야 한다는 것을 이해해야 한다. 본 명세서에 기술된 특정 루틴들이나 방법들은 임의 개의 프로세싱 전략들 중 하나 이상을 나타낼 수 있다. 따라서, 예시된 다양한 행위들은 예시된 순서로, 혹은 다른 순서로, 혹은 병렬로, 혹은 어떤 경우 생략된 상태로 수행될 수 있다. 마찬가지로, 상술한 프로세서들의 순서는 바뀔 수 있다. It is to be understood that the configurations and / or approaches described herein are illustrative in nature and numerous specific embodiments or examples are not to be considered in a limiting sense because numerous variations are possible. Certain routines or methods described herein may represent one or more of any of the processing strategies. Thus, the various acts illustrated may be performed in the illustrated order, in other orders, in parallel, or in some cases omitted. Likewise, the order of the above-described processors may be reversed.

본 개시의 발명 대상은 본 명세서에 개시된 다양한 프로세스들, 시스템들 및 구성들의 모든 신규하고 자명하지 않은 조합 및 부조합, 그리고 다른 특성들, 기능들, 행위들, 및/또는 특성들, 및 그에 대한 어떤 그리고 모든 균등물들을 포함한다.The subject matter of the present disclosure is directed to all novel and non-obvious combinations and subcombinations of the various processes, systems, and configurations disclosed herein, as well as to other features, functions, actions, and / or properties, and to Includes any and all equivalents.

Claims (10)

규정된 식별 제스처 동안 일련의 연속 시간 인터벌 각각에서 사용자의 복수의 손가락에 의해 이루어진 대응하는 복수의 손가락 터치의 각각의 검출 위치를 나타내는 데이터를 포함하는 바이오키네마틱(biokinematic) 입력을 수신하도록 구성된 센서를 포함하는 멀티 터치 감지 디스플레이, 및
상기 컴퓨팅 장치의 프로세서에 의해 실행되고, 상기 센서로부터 상기 바이오키네마틱 입력을 수신하도록 구성되는 사용자 식별 모듈 - 상기 사용자 식별 모듈은 상기 복수의 손가락 터치의 상대적 위치 및 상기 복수의 터치의 상기 위치의 상대적 변화율 중 하나 이상을 상기 사용자에 대해 검증된 바이오키네마틱 데이터의 저장된 사용자 템플릿과 비교하며 매치가 판정되면 상기 사용자가 성공적으로 식별되었다는 표시를 상기 디스플레이 상에 디스플레이하도록 더 구성됨 - 을 포함하는
컴퓨팅 장치.
A sensor configured to receive a biokinematic input comprising data indicative of the respective detection location of a corresponding plurality of finger touches made by the plurality of fingers of the user at each series of consecutive time intervals during the defined identification gesture. Including a multi-touch sensitive display, and
A user identification module executed by a processor of the computing device, the user identification module configured to receive the biokinetic input from the sensor, wherein the user identification module includes a relative position of the plurality of finger touches and a relative position of the position of the plurality of touches. Compare one or more of the rate of change to a stored user template of biokinetic data validated for the user and, if a match is determined, display an indication on the display that the user was successfully identified.
Computing device.
제1항에 있어서,
상기 센서는 용량성 멀티 터치 센서인
컴퓨팅 장치.
The method of claim 1,
The sensor is a capacitive multi-touch sensor
Computing device.
제1항에 있어서,
상기 규정된 식별 제스처의 상기 복수의 손가락 터치는 적어도 하나의 손바닥 터치를 포함하며, 상기 규정된 식별 제스처는 손바닥-주먹 전환 제스처인
컴퓨팅 장치.
The method of claim 1,
The plurality of finger touches of the prescribed identification gesture include at least one palm touch, wherein the defined identification gesture is a palm-fist switching gesture.
Computing device.
제3항에 있어서,
상기 사용자 식별 모듈은 상기 손바닥-주먹 전환 제스처 동안 상기 적어도 하나의 손바닥 터치에 대한 상기 복수의 손가락 터치의 상기 상대적 위치 및 상기 위치의 변화율 중 하나 이상을 측정하며 또한 매치가 존재하는지를 판정하기 위해 이렇게 측정된 상대적 위치 및 변화율 중 하나 이상을 상기 저장된 사용자 템플릿과 비교하도록 더 구성되는
컴퓨팅 장치.
The method of claim 3,
The user identification module measures one or more of the relative position of the plurality of finger touches and the rate of change of the position with respect to the at least one palm touch during the palm-fist switch gesture and also measures to determine if a match exists. And configured to compare one or more of the associated relative positions and rate of change with the stored user template.
Computing device.
제1항에 있어서,
상기 컴퓨팅 장치는 모바일 전화기, 태블릿 컴퓨팅 장치, 랩탑 컴퓨터, 퍼스널 컴퓨터, 데스크탑 컴퓨터, 테이블탑 컴퓨터, 또는 키오스크 컴퓨터로 이루어진 그룹으로부터 선택되는
컴퓨팅 장치.
The method of claim 1,
The computing device is selected from the group consisting of mobile telephones, tablet computing devices, laptop computers, personal computers, desktop computers, tabletop computers, or kiosk computers.
Computing device.
제1항에 있어서,
상기 사용자 식별 모듈은 상기 컴퓨팅 장치 상의 사용자 인증 동작 중에 실행되고, 상기 사용자 인증은 상기 컴퓨팅 장치 상의 사용자 세션으로의 상기 사용자의 로그인 중에 구현되며, 상기 표시는 성공적 사용자 로그인 동작 이후 상기 디스플레이로 출력되는 메시지이거나, 상기 표시는 상기 사용자에게 디스플레이되는 로그인 스크린의 중단 및 상기 컴퓨팅 장치 상의 프로그램 또는 파일 또는 운영체제에 대해 허락되는 액세스인
컴퓨팅 장치.
The method of claim 1,
The user identification module is executed during a user authentication operation on the computing device, the user authentication is implemented during the user's login to a user session on the computing device, and the indication is a message output to the display after a successful user login operation. Or the indication is an interruption of the login screen displayed to the user and allowed access to a program or file or operating system on the computing device.
Computing device.
컴퓨터화된 사용자 식별 방법으로서,
일련의 연속적 시간 인터벌 각각에서 컴퓨팅 장치의 멀티 터치 감지 디스플레이를 통해 사용자의 복수의 손가락에 의해 이루어진 대응하는 복수의 손가락 터치를 포함하는 식별 제스처의 사용자 바이오키네마틱 입력을 수신하는 단계,
상기 바이오키네마틱 입력의 상기 식별 제스처의 적어도 일부 동안에 상기 복수의 손가락 터치의 개별 위치 및 상기 위치의 개별 변화율 중 하나 이상을 상기 사용자에 대해 검증된 바이오키네마틱 데이터의 저장된 사용자 템플릿과 비교하는 단계, 및
상기 비교에 의해 매치가 판정되면, 상기 사용자가 성공적으로 식별되었다는 표시를 상기 디스플레이 상에 디스플레이하는 단계를 포함하는
방법.
Computerized user identification method,
Receiving a user biokinetic input of an identification gesture comprising a corresponding plurality of finger touches made by the plurality of fingers of the user via the multi-touch sensitive display of the computing device at each successive time interval,
Comparing at least one of the individual positions of the plurality of finger touches and the individual rate of change of the positions during at least a portion of the identification gesture of the biokinetic input to a stored user template of biokinetic data validated for the user, And
If a match is determined by the comparison, displaying an indication on the display that the user was successfully identified.
Way.
제7항에 있어서,
상기 식별 제스처의 상기 복수의 손가락 터치는 적어도 하나의 손바닥 터치를 포함하며, 상기 식별 제스처는 손바닥-주먹 전환 제스처인
방법.
The method of claim 7, wherein
The plurality of finger touches of the identification gesture include at least one palm touch, wherein the identification gesture is a palm-fist switching gesture.
Way.
제8항에 있어서,
상기 비교 단계 전에, 상기 손바닥-주먹 전환 제스처 동안 상기 적어도 하나의 손바닥 터치에 대한 상기 복수의 손가락 터치의 상기 상대적 위치 및 상기 위치의 변화율 중 하나 이상을 측정하는 단계를 더 포함하며,
상기 비교 단계는 추가적으로 상기 손바닥-주먹 전환 제스처 동안 상기 적어도 하나의 손바닥 터치에 대한 상기 복수의 손가락 터치의 상기 상대적 위치 및 상기 위치의 변화율 중 하나 이상을 비교하는 단계를 포함하는
방법.
9. The method of claim 8,
Prior to said comparing step, further comprising measuring at least one of said relative position of said plurality of finger touches and said rate of change of said position relative to said at least one palm touch during said palm-fist switching gesture,
The comparing step further includes comparing one or more of the relative position of the plurality of finger touches to the at least one palm touch and the rate of change of the position during the palm-fist switching gesture.
Way.
제7항에 있어서,
상기 수신, 비교, 및 디스플레이하는 단계는 상기 컴퓨팅 장치 상의 사용자 인증 동작 중에 실행되고, 상기 사용자 인증은 상기 컴퓨팅 장치 상의 사용자 세션으로의 상기 사용자의 로그인 중에 구현되며, 상기 표시는 성공적 사용자 로그인 동작 이후 상기 디스플레이로 출력되는 메시지이거나, 상기 표시는 상기 사용자에게 디스플레이되는 로그인 스크린의 중단 및 상기 컴퓨팅 장치 상의 프로그램 또는 파일 또는 운영체제에 대해 허락되는 액세스인
방법.
The method of claim 7, wherein
The receiving, comparing, and displaying are performed during a user authentication operation on the computing device, the user authentication is implemented during the user's login to a user session on the computing device, and the indication is performed after a successful user login operation. Is a message output to a display, or the indication is an interruption of the login screen displayed to the user and access granted to a program or file or operating system on the computing device.
Way.
KR1020137016779A 2010-12-29 2011-12-27 User identification with biokinematic input Ceased KR20130133223A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/981,097 2010-12-29
US12/981,097 US8543833B2 (en) 2010-12-29 2010-12-29 User identification with biokinematic input
PCT/US2011/067430 WO2012092297A2 (en) 2010-12-29 2011-12-27 User identification with biokinematic input

Publications (1)

Publication Number Publication Date
KR20130133223A true KR20130133223A (en) 2013-12-06

Family

ID=46382039

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137016779A Ceased KR20130133223A (en) 2010-12-29 2011-12-27 User identification with biokinematic input

Country Status (7)

Country Link
US (2) US8543833B2 (en)
EP (1) EP2659432B1 (en)
JP (1) JP2014502763A (en)
KR (1) KR20130133223A (en)
CN (1) CN102609129A (en)
TW (2) TWI533230B (en)
WO (1) WO2012092297A2 (en)

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12101354B2 (en) * 2010-11-29 2024-09-24 Biocatch Ltd. Device, system, and method of detecting vishing attacks
US11223619B2 (en) 2010-11-29 2022-01-11 Biocatch Ltd. Device, system, and method of user authentication based on user-specific characteristics of task performance
US10747305B2 (en) 2010-11-29 2020-08-18 Biocatch Ltd. Method, system, and device of authenticating identity of a user of an electronic device
US10897482B2 (en) 2010-11-29 2021-01-19 Biocatch Ltd. Method, device, and system of back-coloring, forward-coloring, and fraud detection
US10728761B2 (en) 2010-11-29 2020-07-28 Biocatch Ltd. Method, device, and system of detecting a lie of a user who inputs data
US10404729B2 (en) 2010-11-29 2019-09-03 Biocatch Ltd. Device, method, and system of generating fraud-alerts for cyber-attacks
US10621585B2 (en) 2010-11-29 2020-04-14 Biocatch Ltd. Contextual mapping of web-pages, and generation of fraud-relatedness score-values
US10586036B2 (en) 2010-11-29 2020-03-10 Biocatch Ltd. System, device, and method of recovery and resetting of user authentication factor
US10262324B2 (en) 2010-11-29 2019-04-16 Biocatch Ltd. System, device, and method of differentiating among users based on user-specific page navigation sequence
US10685355B2 (en) * 2016-12-04 2020-06-16 Biocatch Ltd. Method, device, and system of detecting mule accounts and accounts used for money laundering
US10970394B2 (en) 2017-11-21 2021-04-06 Biocatch Ltd. System, device, and method of detecting vishing attacks
US10834590B2 (en) 2010-11-29 2020-11-10 Biocatch Ltd. Method, device, and system of differentiating between a cyber-attacker and a legitimate user
US11210674B2 (en) 2010-11-29 2021-12-28 Biocatch Ltd. Method, device, and system of detecting mule accounts and accounts used for money laundering
US10298614B2 (en) * 2010-11-29 2019-05-21 Biocatch Ltd. System, device, and method of generating and managing behavioral biometric cookies
US10917431B2 (en) 2010-11-29 2021-02-09 Biocatch Ltd. System, method, and device of authenticating a user based on selfie image or selfie video
US10949757B2 (en) 2010-11-29 2021-03-16 Biocatch Ltd. System, device, and method of detecting user identity based on motor-control loop model
US10069837B2 (en) 2015-07-09 2018-09-04 Biocatch Ltd. Detection of proxy server
US20190158535A1 (en) * 2017-11-21 2019-05-23 Biocatch Ltd. Device, System, and Method of Detecting Vishing Attacks
US10776476B2 (en) 2010-11-29 2020-09-15 Biocatch Ltd. System, device, and method of visual login
US10395018B2 (en) * 2010-11-29 2019-08-27 Biocatch Ltd. System, method, and device of detecting identity of a user and authenticating a user
US11269977B2 (en) 2010-11-29 2022-03-08 Biocatch Ltd. System, apparatus, and method of collecting and processing data in electronic devices
US10474815B2 (en) 2010-11-29 2019-11-12 Biocatch Ltd. System, device, and method of detecting malicious automatic script and code injection
US10949514B2 (en) 2010-11-29 2021-03-16 Biocatch Ltd. Device, system, and method of differentiating among users based on detection of hardware components
US8543833B2 (en) 2010-12-29 2013-09-24 Microsoft Corporation User identification with biokinematic input
FR2993078B1 (en) 2012-07-06 2014-07-25 Compagnie Ind Et Financiere Dingenierie Ingenico METHOD OF AUTHENTICATING A SIGNATURE
CN103777748A (en) * 2012-10-26 2014-05-07 华为技术有限公司 Motion sensing input method and device
US9129100B2 (en) * 2012-12-13 2015-09-08 Huawei Technologies Co., Ltd. Verification code generation and verification method and apparatus
US9184921B2 (en) * 2012-12-14 2015-11-10 Microsoft Technology Licensing, Llc Input challenge based authentication
US9203835B2 (en) 2013-03-01 2015-12-01 Paypal, Inc. Systems and methods for authenticating a user based on a biometric model associated with the user
JP2014182662A (en) * 2013-03-19 2014-09-29 Stanley Electric Co Ltd Operation apparatus and operation method
JP5860443B2 (en) * 2013-08-30 2016-02-16 京セラドキュメントソリューションズ株式会社 Authentication program and authentication device
JP2015118663A (en) * 2013-12-20 2015-06-25 日本電信電話株式会社 Personal authentication device, personal authentication method and personal authentication program
US9223955B2 (en) * 2014-01-30 2015-12-29 Microsoft Corporation User-authentication gestures
US9400880B2 (en) * 2014-06-17 2016-07-26 Qualcomm Incorporated Method and apparatus for biometric-based security using capacitive profiles
CN105207979B (en) * 2014-06-25 2018-01-26 腾讯科技(深圳)有限公司 A kind of user authentication method and device based on user's input feature vector
CN105335686B (en) 2014-07-23 2021-03-16 敦泰电子有限公司 Electronic device with fingerprint sensing function and calling method of application program thereof
WO2016036427A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic device with rotatable input mechanism
DE202015006142U1 (en) 2014-09-02 2015-12-09 Apple Inc. Electronic touch communication
US10444980B1 (en) * 2014-10-13 2019-10-15 The Cognitive Healthcare Company Biomechanical motion measurement and analysis for self-administered tests
US10748439B1 (en) 2014-10-13 2020-08-18 The Cognitive Healthcare Company Automated delivery of unique, equivalent task versions for computer delivered testing environments
US10383553B1 (en) 2014-10-14 2019-08-20 The Cognitive Healthcare Company Data collection and analysis for self-administered cognitive tests characterizing fine motor functions
US9613428B2 (en) * 2014-11-07 2017-04-04 Fingerprint Cards Ab Fingerprint authentication using stitch and cut
MX384758B (en) * 2014-12-31 2025-03-14 Imageware Systems Inc Out-of-band biometric enrollment and verification using interactive messaging
US9747740B2 (en) 2015-03-02 2017-08-29 Ford Global Technologies, Llc Simultaneous button press secure keypad code entry
US20160257198A1 (en) 2015-03-02 2016-09-08 Ford Global Technologies, Inc. In-vehicle component user interface
US10366217B2 (en) * 2015-03-29 2019-07-30 Securedtouch Ltd. Continuous user authentication
GB2539705B (en) 2015-06-25 2017-10-25 Aimbrain Solutions Ltd Conditional behavioural biometrics
US9622159B2 (en) 2015-09-01 2017-04-11 Ford Global Technologies, Llc Plug-and-play interactive vehicle interior component architecture
US9967717B2 (en) 2015-09-01 2018-05-08 Ford Global Technologies, Llc Efficient tracking of personal device locations
US9914418B2 (en) 2015-09-01 2018-03-13 Ford Global Technologies, Llc In-vehicle control location
US9860710B2 (en) 2015-09-08 2018-01-02 Ford Global Technologies, Llc Symmetrical reference personal device location tracking
US9744852B2 (en) 2015-09-10 2017-08-29 Ford Global Technologies, Llc Integration of add-on interior modules into driver user interface
US10046637B2 (en) 2015-12-11 2018-08-14 Ford Global Technologies, Llc In-vehicle component control user interface
US10963159B2 (en) * 2016-01-26 2021-03-30 Lenovo (Singapore) Pte. Ltd. Virtual interface offset
US10082877B2 (en) 2016-03-15 2018-09-25 Ford Global Technologies, Llc Orientation-independent air gesture detection service for in-vehicle environments
US9914415B2 (en) 2016-04-25 2018-03-13 Ford Global Technologies, Llc Connectionless communication with interior vehicle components
CN105956442A (en) * 2016-04-29 2016-09-21 宇龙计算机通信科技(深圳)有限公司 Data clearing method and terminal device
GB2552032B (en) 2016-07-08 2019-05-22 Aimbrain Solutions Ltd Step-up authentication
US10579784B2 (en) 2016-11-02 2020-03-03 Biocatch Ltd. System, device, and method of secure utilization of fingerprints for user authentication
DE102016225648A1 (en) * 2016-12-20 2018-06-21 Bundesdruckerei Gmbh Method and system for behavior-based authentication of a user
US10397262B2 (en) 2017-07-20 2019-08-27 Biocatch Ltd. Device, system, and method of detecting overlay malware
US20190101996A1 (en) * 2017-09-29 2019-04-04 Intel Corporation Methods and apparatus to detect touch input gestures
CN109634450A (en) * 2017-10-09 2019-04-16 华为技术有限公司 False-touch prevention detection method, device and terminal
US10515282B1 (en) * 2018-04-05 2019-12-24 The United States Of America As Represented By The Secretary Of Navy Multi-hand interface method
US11341279B2 (en) 2019-07-29 2022-05-24 International Business Machines Corporation Management of securable computing resources
US11669602B2 (en) 2019-07-29 2023-06-06 International Business Machines Corporation Management of securable computing resources
US11531787B2 (en) 2019-07-29 2022-12-20 International Business Machines Corporation Management of securable computing resources
US10916889B1 (en) 2019-07-29 2021-02-09 International Business Machines Corporation Management of securable computing resources
US11210427B2 (en) 2019-07-29 2021-12-28 International Business Machines Corporation Management of securable computing resources
US11341278B2 (en) 2019-07-29 2022-05-24 International Business Machines Corporation Management of securable computing resources
US11144160B1 (en) * 2020-03-30 2021-10-12 Sigmasense, Llc. Three-dimensional data reduction method and system
US11606353B2 (en) 2021-07-22 2023-03-14 Biocatch Ltd. System, device, and method of generating and utilizing one-time passwords
GB202204096D0 (en) 2022-03-23 2022-05-04 British Telecomm A secure authentication token
GB202204090D0 (en) * 2022-03-23 2022-05-04 British Telecomm A secure authentication token
CN117891421B (en) * 2022-10-09 2025-11-28 广州视源电子科技股份有限公司 Multi-screen touch display automatic calibration method

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4736203A (en) 1985-07-17 1988-04-05 Recognition Systems, Inc. 3D hand profile identification apparatus
JP2967012B2 (en) * 1993-01-07 1999-10-25 富士電機株式会社 Personal recognition device
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
KR100595920B1 (en) 1998-01-26 2006-07-05 웨인 웨스터만 Method and apparatus for integrating manual input
JP3688489B2 (en) 1998-12-25 2005-08-31 株式会社東芝 Image recognition method and image recognition apparatus
JP4332649B2 (en) 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 Hand shape and posture recognition device, hand shape and posture recognition method, and recording medium storing a program for executing the method
DE10100616A1 (en) * 2001-01-09 2002-07-18 Siemens Ag Authentication of a person using hand recognition
IL141389A0 (en) 2001-02-12 2002-03-10 Weiss Golan A system and a method for person's identity authentication
WO2003003295A1 (en) * 2001-06-28 2003-01-09 Trek 2000 International Ltd. A portable device having biometrics-based authentication capabilities
JP4601380B2 (en) 2004-10-08 2010-12-22 富士通株式会社 Biometric authentication system registration method, biometric authentication system and program thereof
JP2006350577A (en) 2005-06-14 2006-12-28 Fuji Xerox Co Ltd Operation analyzing device
JP4687265B2 (en) 2005-06-14 2011-05-25 富士ゼロックス株式会社 Image analyzer
US7983451B2 (en) * 2006-06-30 2011-07-19 Motorola Mobility, Inc. Recognition method using hand biometrics with anti-counterfeiting
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
DE102007016408A1 (en) * 2007-03-26 2008-10-02 Ident Technology Ag Mobile communication device and input device therefor
KR100939820B1 (en) 2007-08-23 2010-02-02 주식회사 비원플러스 A user terminal device for obtaining keystroke information from a user to perform user authentication based on keystroke based behavior pattern information, and a method of obtaining keystroke information using the same
US8009147B2 (en) 2007-09-27 2011-08-30 At&T Intellectual Property I, Lp Multi-touch interfaces for user authentication, partitioning, and external device control
US8887141B2 (en) 2007-09-28 2014-11-11 Symantec Corporation Automatically modifying a native code module accessed from virtual machine bytecode to determine execution information
US8320638B2 (en) * 2008-04-10 2012-11-27 Pitt Alan M Anonymous association system utilizing biometrics
CN101739125A (en) * 2008-11-12 2010-06-16 联想(北京)有限公司 Method, equipment, and electric device to implement operation by operation body
US20100134424A1 (en) 2008-12-02 2010-06-03 At&T Mobility Ii Llc Edge hand and finger presence and motion sensor
KR20110112831A (en) * 2009-01-05 2011-10-13 스마트 테크놀러지스 유엘씨 Gesture Recognition Method and Interactive Input System Using the Method
US8941466B2 (en) 2009-01-05 2015-01-27 Polytechnic Institute Of New York University User authentication for devices with touch sensitive elements, such as touch sensitive display screens
JP2010268989A (en) * 2009-05-22 2010-12-02 Sony Ericsson Mobilecommunications Japan Inc Individual authentication device and portable terminal
US8543833B2 (en) 2010-12-29 2013-09-24 Microsoft Corporation User identification with biokinematic input

Also Published As

Publication number Publication date
WO2012092297A2 (en) 2012-07-05
JP2014502763A (en) 2014-02-03
TWI595374B (en) 2017-08-11
TW201626274A (en) 2016-07-16
EP2659432A4 (en) 2017-11-15
US20140026212A1 (en) 2014-01-23
US8543833B2 (en) 2013-09-24
WO2012092297A3 (en) 2012-11-15
EP2659432B1 (en) 2020-04-08
TW201234277A (en) 2012-08-16
US20120174213A1 (en) 2012-07-05
US8856543B2 (en) 2014-10-07
CN102609129A (en) 2012-07-25
EP2659432A2 (en) 2013-11-06
TWI533230B (en) 2016-05-11

Similar Documents

Publication Publication Date Title
US8543833B2 (en) User identification with biokinematic input
KR102223416B1 (en) User-authentication gestures
KR102180226B1 (en) Electronic device and method for securing using complex biometrics
TWI474263B (en) Method of executing software functions using biometric detection and related electronic device
KR102387568B1 (en) Method and apparatus for authentication based on fingerprint recognition
JP6397036B2 (en) Dynamic keyboard and touchscreen biometrics
US9349035B1 (en) Multi-factor authentication sensor for providing improved identification
US8659572B2 (en) Smart touchscreen key activation detection
US10586031B2 (en) Biometric authentication of a user
JP2017539032A (en) Fingerprint registration using touch sensor data
US20160210452A1 (en) Multi-gesture security code entry
Koong et al. A user authentication scheme using physiological and behavioral biometrics for multitouch devices
JP6852508B2 (en) Mobile terminal devices, their authentication methods, and programs
CN106529246A (en) Task execution method based on fingerprint, and mobile terminal
HK1171834A (en) User identification with biokinematic input
JP2014081877A (en) Information processing apparatus, signature information acquisition method, and program
JP5969291B2 (en) Mobile terminal authentication system and high function mobile terminal
Zhang et al. TouchSense: Accurate and Transparent User Re-authentication via Finger
KR20150034074A (en) Setting security method, electronic apparatus and computer-readable storage using fingerprint authentication and other security setting method
JP2013246567A (en) Information processing device, authentication method, and program
Gorke et al. SMAUG: Secure Mobile Authentication Using Gestures
JP2008123209A (en) Authentication device, authentication method, authentication program, and recording medium

Legal Events

Date Code Title Description
PA0105 International application

Patent event date: 20130627

Patent event code: PA01051R01D

Comment text: International Patent Application

PG1501 Laying open of application
N231 Notification of change of applicant
PN2301 Change of applicant

Patent event date: 20150715

Comment text: Notification of Change of Applicant

Patent event code: PN23011R01D

A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20161122

Comment text: Request for Examination of Application

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20180228

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20180727

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20180228

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I