[go: up one dir, main page]

KR101404018B1 - Device for recognizing the hand gesture and method thereof - Google Patents

Device for recognizing the hand gesture and method thereof Download PDF

Info

Publication number
KR101404018B1
KR101404018B1 KR1020130011562A KR20130011562A KR101404018B1 KR 101404018 B1 KR101404018 B1 KR 101404018B1 KR 1020130011562 A KR1020130011562 A KR 1020130011562A KR 20130011562 A KR20130011562 A KR 20130011562A KR 101404018 B1 KR101404018 B1 KR 101404018B1
Authority
KR
South Korea
Prior art keywords
hand
end point
coordinate values
image
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020130011562A
Other languages
Korean (ko)
Inventor
정광모
박영충
최광순
안양근
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020130011562A priority Critical patent/KR101404018B1/en
Application granted granted Critical
Publication of KR101404018B1 publication Critical patent/KR101404018B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명에 따른 손동작 인식 장치는 미리 저장해둔 특정 동작과 같은 손 모양이 촬영되면 이벤트를 감지하는 것이 아닌 매 프레임 촬영되는 영상에서의 손가락 끝점의 좌표 변화에 따라 위치 이동 이벤트 또는 클릭 이벤트를 감지하여 마우스의 커서를 제어할 수 있고, 손의 크기 또는 길이가 다른 다양한 손에 대해서도 정확하게 좌표 변화를 감지할 수 있으며, 특정 동작 정보를 저장하기 위한 메모리를 크게 차지하지 않는다.
또한, 본 발명에서는 적외선 카메라를 이용하므로, 피부색에 강인하게 손의 외곽선을 뚜렷이 검출할 수 있어 손동작 인식의 정확성을 향상할 수 있다.
The hand movement recognition apparatus according to the present invention detects a movement event or a click event according to a coordinate change of a finger end point in an image captured every frame, rather than detecting an event when a hand shape such as a specific motion stored in advance is photographed, And it is possible to accurately detect a coordinate change even in a variety of hands having different hand sizes or lengths, and does not occupy a large memory for storing specific operation information.
Further, in the present invention, since the infrared camera is used, the outline of the hand can be detected with high robustness against the skin color, and the accuracy of the recognition of the hand movement can be improved.

Description

손동작 인식 장치 및 그 방법{Device for recognizing the hand gesture and method thereof}Technical Field [0001] The present invention relates to a device for recognizing a hand gesture,

본 발명은 손동작을 인식하기 위한 기술에 관한 것으로, 특히 손 움직임을 포착하여 이벤트를 감지하는 기술에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for recognizing a hand gesture, and more particularly, to a technique for capturing a hand gesture to detect an event.

종래에 카메라를 이용한 손동작 인식 방법은 인식 가능한 손모양 또는 손패턴을 미리 설정하고, 카메라를 통해 입력된 영상에서 손모양을 검출한다. 제어 유닛은 메모리에 저장된 데이터베이스(database)에서 검출된 손모양과 가장 부합하는 기설정된 손모양을 검색하고, 검색된 결과에 따른 이벤트(event)를 발생시킨다. 즉, 종래의 손모양 인식 방법은 입력 신호들에 각각 대응하는 다양한 손모양을 정의하고, 미리 학습 또는 저장된 손모양과 현재의 입력 영상 속 손모양을 비교하여 이벤트를 발생시킨다.Conventionally, a hand motion recognition method using a camera sets a recognizable hand shape or a hand pattern in advance, and detects a hand shape in an image input through a camera. The control unit searches for a preset hand shape that best matches the hand shape detected in the database stored in the memory, and generates an event according to the retrieved result. That is, the conventional hand shape recognition method defines various hand shapes corresponding to input signals, and generates an event by comparing hand shapes stored in a previously learned or stored hand shape with those in a current input image.

그러나, 종래의 손모양 인식 방법은 카메라를 통해 촬영된 영역 중 사람의 피부 색상이라고 기설정된 색상이 감지되는 영역을 손모양으로 인식하는데, 근처에 피부 색상과 유사한 색상을 가지는 영역도 함께 손모양으로 인식되는 문제점이 있다. 이러한 경우, 사용자가 취한 손모양과는 다른 손모양이 인식되어 사용자가 의도한 이벤트와는 다른 이벤트가 수행되는 문제점이 있다.However, in the conventional hand shape recognition method, a region in which a predetermined color is detected as a skin color of a person is recognized as a hand shape in an area photographed by a camera, and a region having a color similar to that of the skin color is hand- There is a perceived problem. In this case, a hand shape different from a hand shape taken by a user is recognized, and an event different from a user-intended event is performed.

또한, 종래의 손모양 인식 방법은 손의 움직임 방향을 인식하는데 있어서 손의 운동 중심점을 이용하는데, 이는 손의 모양에 따라 쉽게 달라질 수 있으므로 오인식률이 높다. 덧붙여, 데이터 베이스에는 다양한 손모양 데이터와 그에 대응하는 이벤트 동작이 저장되어야 하는데, 이는 과도한 메모리를 차지하게 되는 문제 또한 있다. In addition, the conventional hand recognition method uses the motion center point of the hand in recognizing the direction of movement of the hand, which can be easily changed depending on the shape of the hand, and thus the recognition rate is high. In addition, the database needs to store various hand data and corresponding event operations, which also causes an excessive memory occupation.

본 발명은 손가락 좌표의 움직임을 포착하여 위치 이동 이벤트 또는 클릭 이벤트를 수행할 수 있도록 하는 기술적 방안을 제공함을 목적으로 한다.It is an object of the present invention to provide a technical solution for capturing a movement of a finger coordinate to perform a position movement event or a click event.

전술한 과제를 달성하기 위한 본 발명의 일 양상에 따른 손동작 인식 장치는 사용자의 손이 포함된 영상을 수신하는 수신부, 상기 손의 손가락들의 끝점 좌표값들을 추출하는 추출부, 및 추출된 상기 끝점 좌표값들의 변화에 대응하는 이벤트를 감지하는 감지부를 포함한다.According to an aspect of the present invention, there is provided a hand gesture recognition apparatus including a receiving unit for receiving an image including a user's hand, an extracting unit for extracting coordinate values of the end points of the fingers of the hand, And a sensing unit for sensing an event corresponding to a change in the values.

여기서, 상기 추출부는 상기 영상의 밝기를 이용하여 상기 영상에서 손 영역과 배경 영역을 분리하고, 상기 손 영역의 외곽선에 대한 곡률을 검출하고, 상기 곡률 데이터 중 곡률이 큰 상위 기설정된 개수의 좌표값을 추출하며, 상기 기설정된 개수의 좌표값을 순차적으로 상기 끝점 좌표값들에 대응시킨다.Here, the extracting unit may extract a hand region and a background region from the image using the brightness of the image, detect a curvature of the outline of the hand region, and determine a coordinate value And sequentially associates the predetermined number of coordinate values with the end point coordinate values.

또한, 상기 감지부는 상기 끝점 좌표값들 중 중지 끝점에 해당하는 좌표값의 제1값 이상의 변화를 감지하면 위치 이동 이벤트로 감지하며, 상기 끝점 좌표값들 중 검지 끝점 좌표와 엄지 끝점 좌표를 잇는 선분과 중지 끝점 좌표와 상기 검지 끝점 좌표를 잇는 선분에 의해 형성되는 사잇각의 제2값 이상의 변화를 감지하면 클릭 이벤트로 감지한다.The sensing unit senses a position movement event when it detects a change of a coordinate value corresponding to a stop end point among the end point coordinate values that is greater than or equal to a first value. The sensing unit detects a line segment connecting the detection end point coordinates and the thumb end point coordinates And a change in an angle formed by a line segment connecting the stop end point coordinates and the detection end point coordinates to a second value or more is detected as a click event.

상기 수신부는 상기 사용자의 손바닥이 바닥에 닿은 상태에서 손등이 촬영된 영상을 수신하는 것이다.The receiving unit receives an image of the back of the user while the palm of the user touches the floor.

한편, 전술한 과제를 달성하기 위한 본 발명의 일 양상에 따른 손동작 인식 장치에 의한 손동작 인식 방법은 적외선 카메라에 의해 사용자의 손이 촬영된 영상을 수신하는 단계, 상기 손의 손가락들의 끝점 좌표값들을 추출하는 단계, 및 추출된 상기 끝점 좌표값들의 변화에 대응하는 이벤트를 감지하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of recognizing a hand movement by a hand movement recognition apparatus, comprising: receiving an image of a user's hand captured by an infrared camera; And detecting an event corresponding to a change in the extracted end point coordinate values.

여기서, 상기 끝점 좌표값들을 추출하는 단계는 상기 영상에서 손 영역과 배경 영역을 분리하는 단계, 상기 손 영역의 외곽선에 대한 곡률을 검출하는 단계, 상기 곡률 데이터 중 곡률이 큰 상위 기설정된 개수의 좌표값을 추출하는 단계, 및 상기 추출된 좌표값들을 순차적으로 상기 끝점 좌표값들에 대응시키는 단계를 포함한다.The step of extracting the end point coordinate values may include separating a hand region and a background region from the image, detecting a curvature of an outline of the hand region, And a step of sequentially mapping the extracted coordinate values to the end point coordinate values.

또한, 상기 이벤트를 감지하는 단계는 상기 끝점 좌표값들 중 중지 끝점에 해당하는 좌표값의 제1값 이상의 변화를 감지하면 위치 이동 이벤트로 감지하며, 검지 끝점 좌표와 엄지 끝점 좌표를 잇는 선분과 상기 중지 끝점 좌표와 상기 검지 끝점 좌표를 잇는 선분에 의해 형성되는 사잇각의 제2값 이상의 변화를 감지하면 클릭 이벤트로 감지한다.The detecting of the event may include detecting a line segment connecting the detection end point coordinates and the thumb end point coordinates and detecting a movement event when a change of a coordinate value corresponding to the stop end point among the end point coordinate values is detected, When it detects a change of an angle formed by a segment connecting the stop end point coordinates and the detection end point coordinates to a second value or more, it is detected as a click event.

다른 한편, 전술한 과제를 달성하기 위한 본 발명의 일 양상에 따른 손동작 인식 장치에 의한 손동작 인식 방법은 손의 영상 이미지를 연속적으로 획득하는 단계, 상기 손의 이미지를 추출하고 이로부터 손가락 끝점을 추정하는 단계, 및 검지의 끝점과 엄지의 끝점을 잇는 선분과, 중지의 끝점과 검지의 끝점을 잇는 선분으로 구성되는 사잇각이 기설정된 값 이상으로 변화할 때 마우스 클릭에 대응되는 이벤트를 발생시키는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for recognizing a hand movement by a hand movement recognition apparatus, comprising the steps of continuously acquiring an image of a hand, extracting an image of the hand, And generating an event corresponding to a mouse click when an angle formed by a line segment connecting the end point of the detection and the end point of the thumb and a line segment connecting the end point of the stop and the end point of the detection changes by a predetermined value or more .

본 발명에 따른 카메라를 이용한 손동작 인식 장치는 크기 또는 길이가 다른 다양한 손에 대해서도 정확하게 좌표 변화를 감지할 수 있는 효과를 창출한다.The hand-operated recognition apparatus using a camera according to the present invention creates an effect of accurately detecting a coordinate change even in various hands of different sizes or lengths.

도 1은 본 발명의 일 실시예에 따른 손동작 인식 장치 블록도.
도 2는 본 발명에 따른 카메라와 사용자의 손 위치를 나타내는 도면.
도 3은 본 발명에 따른 손동작 인식 장치의 촬영 영상 처리를 통한 외곽선 생성 방법 설명을 위한 도면.
도 4는 본 발명에 따른 손동작 인식 장치의 손가락 끝점 좌표값 추출 방법 설명을 위한 도면.
도 5는 본 발명에 따른 손동작 인식 장치의 위치 이동 이벤트 감지 방법 설명을 위한 도면.
도 6은 본 발명에 따른 손동작 인식 장치의 클릭 이벤트 감지 방법 설명을 위한 도면.
도 7은 본 발명의 일 실시예에 따른 손동작 인식 장치의 동작 방법 흐름도.
1 is a block diagram of a hand-held recognition apparatus according to an embodiment of the present invention;
2 is a view showing a hand position of a camera and a user according to the present invention;
FIG. 3 is a diagram for explaining a method of generating an outline by processing a photographed image of a handgrip recognition apparatus according to the present invention. FIG.
FIG. 4 is a diagram for explaining a method of extracting coordinate values of a finger end point of a hand movement recognition apparatus according to the present invention. FIG.
5 is a view for explaining a method of detecting a movement event of a hand movement recognition apparatus according to the present invention.
6 is a diagram for explaining a method of detecting a click event in the hand-operated recognition apparatus according to the present invention.
FIG. 7 is a flowchart illustrating an operation method of a hand movement recognition apparatus according to an embodiment of the present invention; FIG.

전술한, 그리고 추가적인 본 발명의 양상들은 첨부된 도면을 참조하여 설명되는 바람직한 실시예들을 통하여 더욱 명백해질 것이다. 이하에서는 본 발명을 이러한 실시예를 통해 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 설명하기로 한다.BRIEF DESCRIPTION OF THE DRAWINGS The foregoing and further aspects of the present invention will become more apparent from the following detailed description of preferred embodiments with reference to the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 카메라를 이용한 손동작 인식 장치 블록도이다. 또한, 도 2 내지 도 6은 본 발명에 따른 손동작 인식 장치의 동작 설명을 위한 도면이다. 도 1에 도시된 바와 같이, 손동작 인식 장치(100)는 수신부(110), 추출부(120) 및 감지부(130)를 포함한다. 또한, 손동작 인식 장치(100)는 사용자의 손을 촬영하기 위한 카메라(200)를 더 포함할 수 있다.1 is a block diagram of a hand-held recognition apparatus using a camera according to an embodiment of the present invention. 2 to 6 are views for explaining the operation of the hand-operated recognition apparatus according to the present invention. 1, the handwriting recognition apparatus 100 includes a receiving unit 110, an extracting unit 120, and a sensing unit 130. As shown in FIG. In addition, the handgrip recognition apparatus 100 may further include a camera 200 for photographing a user's hand.

여기서, 카메라(200)는 물체에서 방사되는 적외선 방사 에너지를 검지기에 의해 검출하고, 물체의 방사 온도를 전기 신호로서 꺼내어 2차원의 가시상으로 표시하는 적외선 카메라일 수 있다. 이와 같이, 카메라(200)에는 적외선 카메라를 이용하는 것은 피부색에 강인하여 손의 외곽선이 뚜렷이 추출되는 효과가 있기 때문이다. 또한, 카메라(200)의 장착 위치는 도 2의 (a) 및 (b)에 예시된 바와 같이 사용자의 손바닥이 바닥에 닿은 상태에서 손등이 촬영될 수 있도록 사용자 손등의 위쪽 일정 높이에 위치한다.Here, the camera 200 may be an infrared camera that detects infrared radiation energy radiated from an object by a detector, extracts the radiation temperature of the object as an electrical signal, and displays it as a two-dimensional visual image. Thus, the use of the infrared camera in the camera 200 is robust to the skin color, and the outline of the hand is clearly extracted. The mounting position of the camera 200 is located at a certain height above the user's hand so that the back of the user can be photographed with the palm of the user touching the floor as illustrated in FIGS. 2A and 2B.

먼저, 손동작 인식 장치(100)의 수신부(110)는 사용자의 손이 포함된 영상을 수신한다. 구체적으로, 수신부(110)는 카메라(200)에 의해 도 3 (a)에 예시된 바와 같이 사용자의 손이 촬영된 영상의 매 프레임을 수신한다. 카메라(200)에 의해 촬영된 영상을 수신하는 것은 널리 알려진 기술이므로, 그에 대한 구체적인 설명은 생략한다.First, the receiving unit 110 of the handwriting recognition apparatus 100 receives an image including a user's hand. Specifically, the receiving unit 110 receives every frame of the image of the user's hand as illustrated in Fig. 3 (a) by the camera 200. [ Since it is a well-known technique to receive the image photographed by the camera 200, a detailed description thereof will be omitted.

수신부(110)를 통해 수신된 영상을 이용하여 추출부(120)는 사용자의 손가락 끝점 좌표값들을 추출한다.The extracting unit 120 extracts coordinate values of the user's fingertip using the image received through the receiving unit 110.

구체적으로, 먼저 추출부(120)는 수신된 영상의 밝기를 이용하여 영상에서 손 영역과 배경 영역을 분리한다. 즉, 추출부(120)는 수신된 영상에서 일정값 이상의 밝기를 가지는 영역을 손 영역으로 그 외 영역을 배경 영역으로 분리할 수 있다. 이와 같이, 분리된 영역은 이진화되어 도 3 (b)와 같이 손 영역은 하얀색으로 배경은 검은색으로 각각 분리되어 표현될 수 있다. 이렇게 분리된 손 영역에서 연결 요소를 이용하여 추출부(120)는 도 3 (c)와 같이 외곽선을 생성할 수 있다.Specifically, the extraction unit 120 separates the hand region and the background region from the image using the brightness of the received image. That is, the extracting unit 120 may divide an area having brightness of a predetermined value or more in the received image into a hand area and the other area into a background area. As described above, the separated area is binarized so that the hand area is separated into white color and the background color is separated into black color as shown in FIG. 3 (b). The extracting unit 120 can generate an outline as shown in FIG. 3 (c) using the connecting element in the separated hand region.

추출부(120)는 생성된 외곽선에 대한 곡률을 검출한다. 일 예로, 곡률을 검출하기 위해서는 외곽선 위의 임의의 간격(n)을 가지는 점들 중 인접한 세점을 이용한다. 즉, 추출부(120)는 외곽선의 점들 중 k 번째 점(

Figure 112013009659894-pat00001
)을 중심으로 하여 양쪽으로 n 간격만큼 떨어져 인접한 두 점(
Figure 112013009659894-pat00002
)을 이용하여 곡률을 검출할 수 있다. 이후, 추출부(120)는 k+1 번째 점(
Figure 112013009659894-pat00003
)을 중심으로 양쪽으로 n 간격만큼 떨어져 인접한 두 점(
Figure 112013009659894-pat00004
)을 이용하여 곡률을 검출할 수 있다. 위와 같이 추출부(120)는 계속적으로 n 간격씩 이동하여 다음 점을 중심으로 하는 곡률을 검출한다. 이렇게 검출된 곡률은 도 4 (a)와 같을 수 있다.The extracting unit 120 detects the curvature of the generated outline. For example, to detect the curvature, adjacent three points among the points having an arbitrary interval (n) on the outline are used. That is, the extracting unit 120 extracts the kth point (
Figure 112013009659894-pat00001
), And two adjacent points spaced apart by n intervals on both sides (
Figure 112013009659894-pat00002
) Can be used to detect the curvature. Then, the extracting unit 120 extracts k + 1th point (
Figure 112013009659894-pat00003
) Adjacent to each other and spaced by n intervals on both sides (
Figure 112013009659894-pat00004
) Can be used to detect the curvature. As described above, the extraction unit 120 continuously moves by n intervals to detect a curvature centered on the next point. The curvature thus detected may be as shown in Fig. 4 (a).

추출부(120)는 이렇게 검출된 곡률 데이터 중 곡률이 큰 5개의 점에 대한 좌표값을 추출한다. 추출부(120)는 이렇게 추출된 좌표값들을 순차적으로, 도 4 (b)와 같이 손가락들 각각의 끝점 좌표값들에 대응시킨다. 일 예로, 사용자의 설정에 의해 사용자의 오른손 영상이 수신될 시, 추출부(120)는 추출된 5개의 좌표값을 오른손 영상의 좌측에 위치한 좌표값부터 도 4 (b)와 같이 소지, 약지, 중지, 검지, 엄지 순으로 해당 손가락의 끝점 좌표값으로 대응시킨다. 다른 예로, 사용자의 설정에 의해 사용자의 왼손 영상이 수신될 시, 추출부(120)는 추출된 5개의 좌표값을 왼손 영상의 좌측에 위치한 좌표값부터 엄지, 검지, 중치, 약지, 소지 순으로 해당 손가락의 끝점 좌표값으로 대응시킨다. 여기서, 사용자의 오른손 또는 왼손을 포함하는 영상의 수신 여부는 사전에 사용자에 의해 입력 또는 설정된 정보를 이용하여 알 수 있다.The extraction unit 120 extracts coordinate values of five points having a large curvature among the detected curvature data. The extraction unit 120 sequentially associates the extracted coordinate values with the end point coordinate values of the respective fingers as shown in FIG. 4 (b). For example, when a user's right-handed image is received by the setting of the user, the extraction unit 120 extracts the extracted five coordinate values from the coordinate values located on the left side of the right-handed image as shown in FIG. 4 (b) Quot ;, " stop ", " index finger ", and " thumb " In another example, when the user's left-handed image is received, the extraction unit 120 extracts the extracted five coordinate values from the coordinate value located on the left-hand side of the left-hand image in order of thumb, index, And corresponds to the end point coordinate value of the corresponding finger. Here, whether or not the image including the user's right or left hand is received can be known by using information previously input or set by the user.

감지부(130)는 추출부(120)에 의해 추출된 손가락들의 끝점 좌표값들의 변화에 대응하는 이벤트를 감지한다. 그리고, 감지부(130)는 감지된 이벤트에 대응하는 동작을 수행할 수 있다.The sensing unit 130 senses an event corresponding to the change of the coordinate values of the end points of the finger extracted by the extracting unit 120. The sensing unit 130 may perform an operation corresponding to the sensed event.

일 예로, 감지부(130)는 추출된 끝점 좌표값들 중 중지 끝점 좌표값의 변화에 따라 위치 이동 이벤트를 감지한다. 구체적으로, 감지부(130)는 중지 끝점 좌표값을 마우스 커서의 변위로 대응시켜, 매 프레임마다 추출되는 중지의 끝점 좌표값이 제1값 이상 변하여 사용자의 중지 끝점이 이동하는 것으로 이벤트를 감지한다. 그에 대응하여 감지부(130)는 마우스 커서의 위치를 도 5에 예시된 바와 같이 이동시킬 수 있다. 여기서, 제1값은 사전에 사용자에 의해 기설정된 값으로, 사용자의 손 떨림이나 미세한 움직임에 의한 좌표값 변화는 무시할 수 있는 일정 반경 이상의 값이다. 또한, 도 5에 예시된 사용자의 손이 오른손이라 가정한 경우, 사용자 손이 좌측으로 이동시 사전에 사용자의 설정에 의해 마우스 커서는 좌측으로 이동하며, 또는, 사용자의 설정에 의해 마우스 커서는 우측으로 이동할 수도 있다. 덧붙여, 사용자의 설정에 따라서는 중지가 아닌 다른 손가락(예를 들어, 검지)의 끝점 좌표값의 변화에 의해서도 위치 이동 이벤트로 감지할 수 있다.For example, the sensing unit 130 senses the position movement event according to the change of the stop end coordinate value among the extracted end point coordinate values. Specifically, the sensing unit 130 correlates the stop end point coordinate value with the displacement of the mouse cursor, and detects the event that the stop end point of the user is shifted by the change of the stop end point coordinate value extracted for each frame by the first value or more . In response, the sensing unit 130 may move the position of the mouse cursor as illustrated in FIG. Here, the first value is a value predetermined by the user in advance, and is a value equal to or larger than a predetermined radius which can be ignored in the coordinate value change caused by hand tremor or fine movement of the user. If the user's hand illustrated in FIG. 5 is assumed to be the right hand, the mouse cursor moves to the left by the user's setting when the user's hand moves to the left, or the mouse cursor moves to the right It can also be moved. In addition, depending on the setting of the user, it can be detected as a position movement event by a change of the end point coordinate value of a finger (for example, a finger) other than the stop.

다른 예로, 감지부(130)는 추출된 끝점 좌표값들 중 소정 개수의 끝점 좌표값들을 이용하여 클릭 이벤트를 감지한다. 구체적으로, 감지부(130)는 도 6(a)에 예시된 바와 같이 검지 끝점 좌표와 엄지 끝점 좌표를 잇는 선분과 중지 끝점 좌표와 검지 끝점 좌표를 잇는 선분에 의해 형성되는 사잇각의 제2값 이상의 변화를 감지하면 클릭 이벤트로 감지한다. 이는, 평소에 마우스를 클릭하듯이 사용자가 검지로 클릭 동작을 수행하면 그 클릭 동작에 따라 검지 끝점 좌표가 변하여, 도 6 (b)와 같이 급격하게 사잇각이 변하는 것을 모니터링하여 클릭 이벤트로 감지하는 것이다. 이 사잇각은 손의 움직임 동작이나, 회전시에도 크게 변화하지 않는 한편 클릭 동작에는 매우 민감하게 변화하는 특징이 있다.In another example, the sensing unit 130 senses a click event using a predetermined number of end point coordinate values among the extracted end point coordinate values. More specifically, as illustrated in FIG. 6 (a), the sensing unit 130 may include a line segment connecting a detection end point coordinate and a thumb end point coordinate, and a line segment connecting a stop end point coordinate and a detection end point coordinate, When a change is detected, it is detected as a click event. This is because if the user performs a click operation with the index finger as usual when the user clicks the finger, the coordinates of the end point of the finger tip change according to the click operation and monitor the sudden change of the angle as shown in FIG. 6 (b) . This angle is characterized by the fact that it does not greatly change during hand movement or rotation, but changes very sensitively to click movement.

감지부(130)는 사잇각의 제2값 이상의 변화에 대응하여 마우스 커서의 클릭 동작을 수행할 수 있다. 여기서, 제2값은 사전에 사용자에 의해 기설정된 값으로, 사용자의 손 떨림이나 미세한 움직임에 의한 사잇각 변화는 무시할 수 있는 일정 사잇각 이상의 값이다. 또한, 사용자의 설정에 따라서는 다른 손가락 좌표를 중심으로 양쪽의 손가락 좌표를 이용한 사잇각 변화에 의해서도 클릭 이벤트로 감지할 수 있다.The sensing unit 130 may perform a click operation of the mouse cursor in response to a change of the angle of the second angle or more. Here, the second value is a value predetermined by the user in advance, and the value of the angle of incidence due to the hand tremor or the fine movement of the user is a value equal to or larger than a predetermined angle of incidence. Also, depending on the setting of the user, it can be detected as a click event even by an angle change using the finger coordinates on both sides of the other finger coordinates.

위와 같이, 본 발명의 일 실시예는 미리 저장해둔 특정 동작과 같은 손 모양이 촬영되면 이벤트를 감지하는 것이 아닌 매 프레임 촬영되는 영상에서의 손가락 끝점의 좌표 변화를 감지하여 마우스 커서의 위치 이동 이벤트 또는 클릭 이벤트를 수행한다. 이에 따라, 특징(예를 들어, 손의 크기 또는 길이)이 다른 다양한 손에 대해서도 정확하게 변화를 감지할 수 있으며, 특정 동작 정보를 저장하기 위한 메모리를 크게 차지하지 않는다.As described above, according to one embodiment of the present invention, instead of sensing an event when a hand shape such as a specific motion stored in advance is sensed, a change in coordinates of a finger end point in an image captured every frame is detected, Perform a click event. Thus, it is possible to accurately detect the change even for various hands having different characteristics (e.g., size or length of the hand), and does not occupy a large memory for storing specific operation information.

도 7은 본 발명의 일 실시예에 따른 카메라를 이용한 손동작 인식 장치의 동작 방법 흐름도이다.FIG. 7 is a flowchart illustrating an operation method of a hand movement recognition apparatus using a camera according to an embodiment of the present invention.

먼저, 손동작 인식 장치(100)는 카메라(200)에 의해 촬영되어 사용자의 손이 포함된 영상을 수신한다(S100). 구체적으로, 손동작 인식 장치(100)는 카메라(200)에 의해 도 3 (a)에 예시된 바와 같이 사용자의 손이 촬영된 영상의 매 프레임을 수신한다.First, the handwriting recognition apparatus 100 receives an image captured by the camera 200 and including a user's hand (S100). Specifically, the handgrip recognition apparatus 100 receives every frame of the image in which the user's hand is photographed by the camera 200, as illustrated in Fig. 3 (a).

손동작 인식 장치(100)는 수신된 영상의 밝기를 이용하여 영상에서 손 영역과 배경 영역을 분리한다(S200). 즉, 손동작 인식 장치(100)는 수신된 영상에서 일정값 이상의 밝기를 가지는 영역을 손 영역으로 그 외 영역을 배경 영역으로 분리하고 이진화한다. 이는 도 3 (b)와 같이 손 영역은 하얀색으로 배경은 검은색으로 각각 분리하여 표현될 수 있다. 영역 분리의 정확성을 위해 카메라(200)는 적외선 카메라가 이용될 수 있다.The hand gesture recognition apparatus 100 separates the hand region and the background region from the image using the brightness of the received image (S200). That is, the hand-held recognition apparatus 100 separates an area having brightness of a predetermined value or more from the received image into a hand area, and divides the other area into a background area and binarizes the hand area. As shown in FIG. 3 (b), the hand region may be represented by white, and the background may be represented by black. For accuracy of area separation, the camera 200 may be an infrared camera.

이렇게 분리된 손 영역에서 연결 요소를 이용하여 손동작 인식 장치(100)는 도 3(c)와 같이 외곽선을 생성하며, 생성된 외곽선에 대한 곡률을 검출한다(S300). 일 예로, 곡률을 검출하기 위해서는 손동작 인식 장치(100)는 외곽선 위의 임의의 간격(n)을 가지는 점들 중 인접한 세점을 이용한다. 즉, 손동작 인식 장치(100)는 외곽선의 점들 중 k 번째 점(

Figure 112013009659894-pat00005
)을 중심으로 하여 양쪽으로 n 간격만큼 떨어져 인접한 두 점(
Figure 112013009659894-pat00006
)을 이용하여 곡률을 검출할 수 있다. 이후, 손동작 인식 장치(100)는 k+1 번째 점(
Figure 112013009659894-pat00007
)을 중심으로 양쪽으로 n 간격만큼 떨어져 인접한 두 점(
Figure 112013009659894-pat00008
)을 이용하여 곡률을 검출할 수 있다. 위와 같이 손동작 인식 장치(100)는 계속적으로 n 간격씩 이동하여 다음 점을 중심으로 하는 곡률을 검출한다. 이렇게 검출된 곡률은 도 4 (a)와 같을 수 있다.Using the connecting element in the separated hand region, the handgrip recognition apparatus 100 generates an outline as shown in FIG. 3 (c), and detects the curvature of the generated outline (S300). For example, in order to detect the curvature, the handgrip recognition apparatus 100 uses adjacent three points among the points having an arbitrary interval n on the outline. That is, the handwriting recognition apparatus 100 recognizes the kth point out of the outline points (
Figure 112013009659894-pat00005
), And two adjacent points spaced apart by n intervals on both sides (
Figure 112013009659894-pat00006
) Can be used to detect the curvature. Thereafter, the handgrip recognition apparatus 100 recognizes the (k + 1) th point
Figure 112013009659894-pat00007
) Adjacent to each other and spaced by n intervals on both sides (
Figure 112013009659894-pat00008
) Can be used to detect the curvature. As described above, the hand-held recognition apparatus 100 continuously moves by n intervals to detect the curvature centered on the next point. The curvature thus detected may be as shown in Fig. 4 (a).

손동작 인식 장치(100)는 검출된 곡률 데이터 중 곡률이 큰 순서로 상위 기설정된 개수의 좌표값을 추출한다(S400). 여기서 기설정된 개수는 5개 일 수 있으며, 이 기설정된 개수의 값은 사용자에 의해 변경될 수도 있다.The hand gesture recognition apparatus 100 extracts a predetermined number of coordinate values in order of increasing curvature among the detected curvature data (S400). Here, the predetermined number may be five, and the predetermined number of values may be changed by the user.

손동작 인식 장치(100)는 추출된 좌표값들을 순차적으로, 도 4 (b)와 같이 손가락들 각각의 끝점 좌표값들에 대응시킨다(S500). 구체적으로, 손동작 인식 장치(100)는 이렇게 추출된 좌표값들을 순차적으로, 도 4 (b)와 같이 손가락들 각각의 끝점 좌표값들에 대응시킨다. The hand gesture recognition apparatus 100 sequentially associates the extracted coordinate values with the end point coordinate values of each of the fingers as shown in FIG. 4B (S500). Specifically, the handgrip recognition apparatus 100 sequentially associates the extracted coordinate values with the end point coordinate values of the respective fingers as shown in FIG. 4 (b).

일 예로, 사용자의 설정에 의해 사용자의 오른손 영상이 수신될 시, 손동작 인식 장치(100)는 추출된 5개의 좌표값을 오른손 영상의 좌측에 위치한 좌표값부터 도 4 (b)와 같이 소지, 약지, 중지, 검지, 엄지 순으로 해당 손가락의 끝점 좌표값으로 대응시킨다. 다른 예로, 사용자의 설정에 의해 사용자의 왼손 영상이 수신될 시, 손동작 인식 장치(100)는 추출된 5개의 좌표값을 왼손 영상의 좌측에 위치한 좌표값부터 엄지, 검지, 중치, 약지, 소지 순으로 해당 손가락의 끝점 좌표값으로 대응시킨다. 여기서, 사용자의 오른손 또는 왼손을 포함하는 영상의 수신 여부는 사전에 사용자에 의해 입력 또는 설정된 정보를 이용하여 알 수 있다.For example, when a user's right-handed image is received by the setting of the user, the handwriting recognition apparatus 100 extracts the extracted five coordinate values from the coordinate values located on the left side of the right-handed image as shown in FIG. 4 (b) , Stop, detection, and thumb in correspondence with the coordinate values of the end points of the corresponding finger. Alternatively, when a user's left-handed image is received by the user's setting, the handwriting recognition apparatus 100 extracts the extracted five coordinate values from the coordinate values located on the left-hand side of the left-hand image from thumb, Corresponding to the coordinate value of the end point of the corresponding finger. Here, whether or not the image including the user's right or left hand is received can be known by using information previously input or set by the user.

손동작 인식 장치(100)는 추출된 손가락들의 끝점 좌표값들의 변화에 대응하는 이벤트를 감지한다(S600). 그리고, 손동작 인식 장치(100)는 감지되니 이벤트에 대응하는 동작을 수행할 수 있다.The hand gesture recognition apparatus 100 senses an event corresponding to a change in the end point coordinate values of the extracted fingers (S600). Then, the handgrip recognition apparatus 100 is detected and can perform an operation corresponding to the event.

일 예로, 손동작 인식 장치(100)는 추출된 끝점 좌표값들 중 중지 끝점 좌표값의 변화에 따라 위치 이동 이벤트를 감지한다. 구체적으로, 손동작 인식 장치(100)는 중지 끝점 좌표값을 마우스 커서의 변위로 대응시켜, 매 프레임마다 추출되는 중지의 끝점 좌표값이 제1값 이상 변하면, 사용자의 중지 끝점이 이동하는 것으로 이벤트를 감지한다. 그에 대응하여 손동작 인식 장치(100)는 마우스 커서의 위치를 도 5에 예시된 바와 같이 이동시킬 수 있다. 여기서, 제1값은 사전에 사용자에 의해 기설정된 값으로, 사용자의 손 떨림이나 미세한 움직임에 의한 좌표값 변화는 무시할 수 있는 일정 반경 이상의 값이다. For example, the hand gesture recognition apparatus 100 detects a position movement event according to a change of the stop end coordinate value among the extracted end point coordinate values. Specifically, the hand movement recognition apparatus 100 associates the stop end point coordinate value with the displacement of the mouse cursor, and when the stop end point coordinate value extracted for each frame changes by a first value or more, the stop end point of the user moves, Detection. Correspondingly, the hand gesture recognition apparatus 100 can move the position of the mouse cursor as illustrated in FIG. Here, the first value is a value predetermined by the user in advance, and is a value equal to or larger than a predetermined radius which can be ignored in the coordinate value change caused by hand tremor or fine movement of the user.

다른 예로, 손동작 인식 장치(100)는 추출된 끝점 좌표값들 중 소정 개수의 끝점 좌표값들을 이용하여 클릭 이벤트를 감지한다. 구체적으로, 손동작 인식 장치(100)는 도 6(a)에 예시된 바와 같이 검지 끝점 좌표와 엄지 끝점 좌표를 잇는 선분과 중지 끝점 좌표와 검지 끝점 좌표를 잇는 선분에 의해 형성되는 사잇각의 제2값 이상의 변화를 감지하면 클릭 이벤트로 감지한다. 이는, 평소에 마우스를 클릭하듯이 사용자가 검지로 클릭 동작을 수행하면 그 클릭 동작에 따라 검지 끝점 좌표가 변화하여 도 6 (b)와 같이 급격하게 사잇각이 변하는 것을 모니터링하여 클릭 이벤트로 감지하는 것이다. 그에 대응하여 손동작 인식 장치(100)는 마우스 커서의 클릭 동작을 수행할 수 있다. 여기서, 제2값은 사전에 사용자에 의해 기설정된 값으로, 사용자의 손 떨림이나 미세한 움직임에 의한 사잇각 변화는 무시할 수 있는 일정 사잇각 이상의 값이다.As another example, the hand gesture recognition apparatus 100 senses a click event using a predetermined number of end point coordinate values among the extracted end point coordinate values. Specifically, as illustrated in FIG. 6A, the handgrip recognition apparatus 100 recognizes a second value of an angle formed by a line segment connecting the detection end point coordinates and the thumb end point coordinates, and a line segment connecting the stop end point coordinates and the detection end point coordinates, When the change is detected, it is detected as a click event. This is because, if the user performs a click operation with the index finger as usual when the user clicks the mouse, the coordinate of the end point of the finger tip changes according to the click operation and monitors the change of the angle of abruptness as shown in FIG. 6 (b) . The handgrip recognition apparatus 100 can perform a mouse cursor click operation. Here, the second value is a value predetermined by the user in advance, and the value of the angle of incidence due to the hand tremor or the fine movement of the user is a value equal to or larger than a predetermined angle of incidence.

위와 같이, 본 발명의 일 실시예는 미리 저장해둔 특정 동작과 같은 손 모양이 촬영되면 이벤트를 감지하는 것이 아닌 매 프레임 촬영되는 영상에서의 손가락 끝점의 좌표 변화를 감지하여 마우스 커서의 위치 이동 이벤트 또는 클릭 이벤트를 수행한다. 이에 따라, 특징(예를 들어, 손의 크기 또는 길이)이 다른 다양한 손에 대해서도 정확하게 변화를 감지할 수 있으며, 특정 동작 정보를 저장하기 위한 메모리를 크게 차지하지 않는다. 또한, 본 발명에서는 적외선 카메라를 이용하므로, 피부색에 강인하게 손의 외곽선을 뚜렷이 검출할 수 있어 손동작 인식의 정확성이 향상된다.
As described above, according to one embodiment of the present invention, instead of sensing an event when a hand shape such as a specific motion stored in advance is sensed, a coordinate change of a finger end point in an image captured every frame is detected, Perform a click event. Thus, it is possible to accurately detect the change even for various hands having different characteristics (e.g., size or length of the hand), and does not occupy a large memory for storing specific operation information. Further, in the present invention, since the infrared camera is used, the outline of the hand can be detected with high robustness against the skin color, and the accuracy of the recognition of the hand movement is improved.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to the preferred embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

100 : 손동작 인식 장치 110 : 수신부
120 : 추출부 130 : 감지부
200 : 카메라
100: a hand movement recognition device 110:
120: Extracting unit 130:
200: camera

Claims (9)

사용자의 손이 포함된 영상을 수신하는 수신부;
상기 손의 손가락들의 끝점 좌표값들을 추출하는 추출부; 및
추출된 상기 끝점 좌표값들의 변화에 대응하는 이벤트를 감지하는 감지부;
를 포함하되,
상기 감지부는 상기 끝점 좌표값들 중 검지 끝점 좌표와 엄지 끝점 좌표를 잇는 선분과 중지 끝점 좌표와 상기 검지 끝점 좌표를 잇는 선분에 의해 형성되는 사잇각의 제2값 이상의 변화를 감지하면, 클릭 이벤트로 감지하는 것인 손동작 인식 장치.
A receiving unit for receiving an image including a user's hand;
An extracting unit for extracting coordinate values of end points of the fingers of the hand; And
A sensing unit for sensing an event corresponding to a change in the extracted endpoint coordinate values;
, ≪ / RTI &
When the sensing unit senses a change of a line segment connecting the detection end point coordinates and the thumb end point coordinates of the end point coordinate values and a change of an angle formed by a line segment connecting the stop end point coordinates and the detection end point coordinates to a second value or more, And a hand-operated recognition device.
제1항에 있어서,
상기 추출부는 상기 영상의 밝기를 이용하여 상기 영상에서 손 영역과 배경 영역을 분리하고, 상기 손 영역의 외곽선에 대한 곡률을 검출하고, 상기 곡률 데이터 중 곡률이 큰 상위 기설정된 개수의 좌표값을 추출하며, 상기 기설정된 개수의 좌표값을 순차적으로 상기 끝점 좌표값들에 대응시키는 것인 손동작 인식 장치.
The method according to claim 1,
The extraction unit separates the hand region and the background region from the image using the brightness of the image, detects the curvature of the outline of the hand region, and extracts a predetermined number of co-ordinates having a large curvature from the curvature data And sequentially associates the predetermined number of coordinate values with the end point coordinate values.
제1항에 있어서,
상기 감지부는 상기 끝점 좌표값들 중 중지 끝점에 해당하는 좌표값의 제1값 이상의 변화를 감지하면, 위치 이동 이벤트로 감지하는 것인 손동작 인식 장치.
The method according to claim 1,
Wherein the sensing unit senses a position movement event when it detects a change of a coordinate value corresponding to a stop end point of the end point coordinate values that is greater than a first value.
삭제delete 제1항에 있어서,
상기 수신부는 상기 사용자의 손바닥이 바닥에 닿은 상태에서 손등이 촬영된 영상을 수신하는 것인 손동작 인식 장치.
The method according to claim 1,
Wherein the receiving unit receives an image of the back of the user while the palm of the user is touching the floor.
손동작 인식 장치에 의한 손동작 인식 방법으로서,
적외선 카메라에 의해 사용자의 손이 촬영된 영상을 수신하는 단계;
상기 손의 손가락들의 끝점 좌표값들을 추출하는 단계; 및
추출된 상기 끝점 좌표값들의 변화에 대응하는 이벤트를 감지하는 단계;
를 포함하되,
상기 이벤트를 감지하는 단계는,
검지의 끝점과 엄지의 끝점을 잇는 선분과, 중지의 끝점과 검지의 끝점을 잇는 선분으로 구성되는 사잇각이 기설정된 값 이상으로 변화할 때 마우스 클릭에 대응되는 이벤트를 발생시키는 단계를 포함하는 것인 손동작 인식 방법.
A hand movement recognition method using a hand movement recognition device,
Receiving an image of a user's hand photographed by an infrared camera;
Extracting end point coordinate values of the fingers of the hand; And
Sensing an event corresponding to a change in the extracted endpoint coordinate values;
, ≪ / RTI &
The step of detecting the event comprises:
And generating an event corresponding to a mouse click when an angle formed by a line segment connecting the end point of the index finger and the end point of the thumb and a line segment connecting the end point of the stop and the end point of the fingerprint is changed by more than a predetermined value Hand gesture recognition method.
제6항에 있어서, 상기 끝점 좌표값들을 추출하는 단계는 :
상기 영상에서 손 영역과 배경 영역을 분리하는 단계;
상기 손 영역의 외곽선에 대한 곡률을 검출하는 단계;
상기 곡률 데이터 중 곡률이 큰 상위 기설정된 개수의 좌표값을 추출하는 단계; 및
상기 추출된 좌표값들을 순차적으로 상기 끝점 좌표값들에 대응시키는 단계;
를 포함하는 손동작 인식 방법.
7. The method of claim 6, wherein extracting the endpoint coordinate values comprises:
Separating a hand region and a background region from the image;
Detecting a curvature of an outline of the hand region;
Extracting a predetermined number of coordinate values having a large curvature among the curvature data; And
Associating the extracted coordinate values sequentially with the endpoint coordinate values;
And a handwriting recognition method.
제6항에 있어서, 상기 이벤트를 감지하는 단계는 :
상기 끝점 좌표값들 중 중지 끝점에 해당하는 좌표값의 제1값 이상의 변화를 감지하면 위치 이동 이벤트로 감지하는 것인 손동작 인식 방법.
7. The method of claim 6, wherein detecting the event comprises:
Detecting a change in a coordinate value corresponding to a stop end point of the end point coordinate values that is greater than or equal to a first value, as a position movement event.
손의 영상 이미지를 연속적으로 획득하는 단계;
상기 손의 이미지를 추출하고 이로부터 손가락 끝점을 추정하는 단계; 및
검지의 끝점과 엄지의 끝점을 잇는 선분과, 중지의 끝점과 검지의 끝점을 잇는 선분으로 구성되는 사잇각이 기설정된 값 이상으로 변화할 때 마우스 클릭에 대응되는 이벤트를 발생시키는 단계;
를 포함하는 손동작 인식 방법.
Successively acquiring a video image of a hand;
Extracting an image of the hand and estimating a fingertip point therefrom; And
Generating an event corresponding to a mouse click when an angle formed by a line segment connecting the end point of the index finger and the end point of the thumb and a line segment connecting the end point of the stop and the end point of the finger exceeds a predetermined value;
And a handwriting recognition method.
KR1020130011562A 2013-02-01 2013-02-01 Device for recognizing the hand gesture and method thereof Active KR101404018B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130011562A KR101404018B1 (en) 2013-02-01 2013-02-01 Device for recognizing the hand gesture and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130011562A KR101404018B1 (en) 2013-02-01 2013-02-01 Device for recognizing the hand gesture and method thereof

Publications (1)

Publication Number Publication Date
KR101404018B1 true KR101404018B1 (en) 2014-06-10

Family

ID=51131930

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130011562A Active KR101404018B1 (en) 2013-02-01 2013-02-01 Device for recognizing the hand gesture and method thereof

Country Status (1)

Country Link
KR (1) KR101404018B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160099267A (en) * 2015-02-12 2016-08-22 연세대학교 산학협력단 Apparatus and Method for authoring 3D animation contents
US9720513B2 (en) 2015-03-18 2017-08-01 Korea Electronics Technology Institute Apparatus and method for receiving a key input
CN110221717A (en) * 2019-05-24 2019-09-10 李锦华 Virtual mouse driving device, gesture identification method and equipment for virtual mouse
CN113610944A (en) * 2021-07-30 2021-11-05 新线科技有限公司 Line drawing method, device, equipment and storage medium
KR102559138B1 (en) * 2022-12-28 2023-07-25 에이아이다이콤 (주) Non-contact control system for vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080029730A (en) * 2006-09-29 2008-04-03 김철우 User interface device and method using hand movement recognition
KR20110041757A (en) * 2009-10-16 2011-04-22 에스케이텔레콤 주식회사 Terminal and method for providing a user interface using a gesture
KR20120134488A (en) * 2011-06-02 2012-12-12 한국전자통신연구원 Method of user interaction based gesture recognition and apparatus for the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080029730A (en) * 2006-09-29 2008-04-03 김철우 User interface device and method using hand movement recognition
KR20110041757A (en) * 2009-10-16 2011-04-22 에스케이텔레콤 주식회사 Terminal and method for providing a user interface using a gesture
KR20120134488A (en) * 2011-06-02 2012-12-12 한국전자통신연구원 Method of user interaction based gesture recognition and apparatus for the same

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160099267A (en) * 2015-02-12 2016-08-22 연세대학교 산학협력단 Apparatus and Method for authoring 3D animation contents
KR101668747B1 (en) * 2015-02-12 2016-10-24 연세대학교 산학협력단 Apparatus and Method for authoring 3D animation contents
US9720513B2 (en) 2015-03-18 2017-08-01 Korea Electronics Technology Institute Apparatus and method for receiving a key input
CN110221717A (en) * 2019-05-24 2019-09-10 李锦华 Virtual mouse driving device, gesture identification method and equipment for virtual mouse
CN113610944A (en) * 2021-07-30 2021-11-05 新线科技有限公司 Line drawing method, device, equipment and storage medium
KR102559138B1 (en) * 2022-12-28 2023-07-25 에이아이다이콤 (주) Non-contact control system for vehicle

Similar Documents

Publication Publication Date Title
EP4160530B1 (en) Gesture recognition device, system, and program for same
KR101514169B1 (en) Information processing device, information processing method, and recording medium
CN107003716B (en) Projection type image display device and image display method
JP6360050B2 (en) Method and system for simultaneous human-computer gesture-based interaction using unique noteworthy points on the hand
WO2022166243A1 (en) Method, apparatus and system for detecting and identifying pinching gesture
CN101901052B (en) Target control method based on mutual reference of both hands
US9836130B2 (en) Operation input device, operation input method, and program
KR101745651B1 (en) System and method for recognizing hand gesture
KR101404018B1 (en) Device for recognizing the hand gesture and method thereof
KR101374720B1 (en) Virtual mouse control apparatus based on hand gesture and method thereof
CN105849673A (en) Human-to-computer natural three-dimensional hand gesture based navigation method
TWI571772B (en) Virtual mouse driving apparatus and virtual mouse simulation method
WO2013180151A1 (en) Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
JP2013250882A5 (en)
CN104914989B (en) The control method of gesture recognition device and gesture recognition device
CN105992988A (en) Method and apparatus for detecting a touch between a first object and a second object
TW201120681A (en) Method and system for operating electric apparatus
JP6066093B2 (en) Finger shape estimation device, finger shape estimation method, and finger shape estimation program
JP2014165660A (en) Method of input with virtual keyboard, program, storage medium, and virtual keyboard system
Saba et al. Dante vision: In-air and touch gesture sensing for natural surface interaction with combined depth and thermal cameras
TWI526877B (en) Input device, machine, input method and recording medium
CN113282164A (en) Processing method and device
JP6501806B2 (en) INFORMATION PROCESSING APPARATUS, OPERATION DETECTING METHOD, AND COMPUTER PROGRAM
KR101396488B1 (en) Apparatus for signal input and method thereof
TWI521387B (en) A re-anchorable virtual panel in 3d space

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20130201

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20140227

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20140430

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20140529

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20140529

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20170512

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20170512

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20180406

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20190313

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20190313

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20200504

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20210503

Start annual number: 8

End annual number: 8

PR1001 Payment of annual fee

Payment date: 20220502

Start annual number: 9

End annual number: 9

PR1001 Payment of annual fee

Payment date: 20240326

Start annual number: 11

End annual number: 11

PR1001 Payment of annual fee

Payment date: 20250324

Start annual number: 12

End annual number: 12