CN106055106B - 一种基于Leap Motion的优势点检测识别方法 - Google Patents
一种基于Leap Motion的优势点检测识别方法 Download PDFInfo
- Publication number
- CN106055106B CN106055106B CN201610391403.2A CN201610391403A CN106055106B CN 106055106 B CN106055106 B CN 106055106B CN 201610391403 A CN201610391403 A CN 201610391403A CN 106055106 B CN106055106 B CN 106055106B
- Authority
- CN
- China
- Prior art keywords
- max
- vertices
- line segment
- vertex
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种基于Leap Motion的优势点检测识别方法属于计算机系统的人机交互领域。首先,本方法获取手势顶点,建立手势库以验证改进的非参数控制优势点检测算法。然后,给出在首点和尾点之间的所有点,并连接首点和尾点,组成线段。找到在给出的点中找到离这条线段最远的点,判断这个点是否大于ε,如果成立则保留该点,反之舍去。重复此法,并最终得到优化后的折线。其中参数ε由改进的非参数控制优势点检测算法自适应得出来。将该算法应用在Leap Motion体感控制器上,可以扩展更多手势。该发明对手势识别有很好的自适应性、精确性,可以更加精确的对手势进行识别,在人机交互的应用中有广泛的用途。
Description
技术领域
一种基于Leap Motion的优势点检测识别方法属于计算机系统的人机交互领域。
背景技术
随着人机交互技术应用不断创新和发展,虚拟现实技术极大地增强博物馆展示的表现形式和交互能力,其中以Leap motion的应用较为广泛,但是使用的手势仅限于LeapMotion开发包中的手势。因此要解决这个问题,需要对手势顶点进行更好的优化,使用优势点检测的方法得到更精确的顶点。
近年来许多学者对优势点检测算法进行了研究,优势点检测算法有很多,按照使用的方法可以分为动态规划法,分割法,组合法,数字化线段法,断点压缩法以及计算曲率法。在这些算法中都使用一个固定参数ε来控制点的取舍,被称为参数控制优势点检测算法,通过判断当前点与首尾两点连成的线段的偏移量来决定该点的取舍。但是参数控制优势点检测算法需要提前设置好参数,并且对于不同长度的线段固定的参数没有很好的自适应性。
发明内容
因此根据以上问题,本发明提出一种非参数控制的优势点检测算法,目的在于将本发明运用在博物馆的虚拟文物手势导览当中,准确识别操作者的手势,提高人机交互性。
为了实现上述目的,本发明采取了如下技术方案:
一、获取手势顶点。使用Leap Motion获取手部图像,将手部五指或任意一指看做顶点并记录数据。
二、建立手势库以验证改进的非参数控制优势点检测算法。分别建立垂直折线,水平折线以及方形手势。
三、使用一种改进的非参数控制优势点检测算法对手势顶点进行取舍优化。首先,给出在首点和尾点之间的所有点,并连接首点和尾点,组成线段。然后,找到在给出的点中找到离这条线段最远的点,判断这个点是否大于ε,如果成立则保留该点,反之舍去。重复此法,并最终得到优化后的折线。其中参数ε由改进的非参数控制优势点检测算法自适应得出来。
四、将优化的顶点连接起来与手势库中的手势进行匹配,完成识别。
与现有的检测方法相比,本发明具有如下优点:(1)非参数控制优势点检测算法对于较为复杂的手势具有更好的识别度;如附图所示(2)由于操作者之间存在差异性,非参数控制优势点检测算法可以对更多的手势尺度进行识别,且识别效果准确;(3)非参数控制优势点检测算法对于设备产生的噪声在不同手势尺度下都具有很好的鲁棒性。如附图所示。
附图说明
图1系统流程图。
图2垂直折线手势识别示意图。
图3水平折线手势识别示意图。
图4方形手势识别示意图。
图5改进的非参数控制优势点检测算法的去噪示意图。
具体实施方式
下面结合附图3对本发明作进一步说明:
1.获取顶点
通过Leap Motion体感控制器获取每一帧的手部图像,它可以很精确的识别出手指的朝向以及手部的法向量,使得手部的每一个细节完美的呈现出来。我们选取每一帧中的手指尖端的平均位置作为手势顶点。
2.顶点处理
首先对动态手势进行顶点处理过程,由于Leap Motion所记录的所有顶点不全部为手势顶点,比如操作者在做手势之前需要将手放置在Leap Motion的识别区域当中,在移动的过程中产生的顶点计算出的参数值ε则需要被舍去。因此根据经验我们需要对前2个顶点进行舍去。如此,去除前2个手势顶点后,参数的计算会更加有效。此时顶点被记作{P1,P2,…Pk}(k∈N+)
3.参数计算
连接P1 Pk得到线段l,计算距离s=|P1 Pk|,以及斜率m,并计算ε。具体方法如下:
基于Leap Motion的非参数RDP检测算法所要解决的关键问题是自动选取合适的参数值ε。我们根据每一条线段的长度、斜率以及线段之间的夹角来自适应的控制参数的变化。并且根据图像数字处理
x'=round(x);y'=round(y) (1)
x,y分别为顶点的横坐标和纵坐标,对其取整,使用P′(x′,y′)近似真实顶点P(x,y)。
x’,y’∈Z (2)
Z为整形实数。
x'=x+Δx;y'=y+Δy (3)
-0.5≤Δx≤0.5,-0.5≤Δy≤0.5 (4)
Δxk,Δyk分别为顶点Pk的横坐标和纵坐标的偏移量。定义P1P2的斜率为m,P1′P2′的斜率为m′。:
使用由原始点计算出的正弦值与由近似点计算出来的正弦值两者的角差来估计误差:
将(6)式代入(7)中可得:
假设s和t如下:
代入(8)得:
由公式(4)可知,Δx+Δy的最大值为1;
由公式(9)可知,|(x2-x1)/s|与|(y2-y1)/s|都小于等于1,s总大于所以由此得出
n为正整数:(n∈N+)
当|Δx2-Δx1|=|Δy2-Δy1|=1时有最大值,因此通过公式(5)可以求出t的最大值:
由此求出最大值
因为tmax≤1,公式(14)可以写成:
代表增长率的上限为在RDP算法的每一次迭代的过程中,利用公式(14)求得
4.参数处理
为了能够提升非参数RDP检测算法对由Leap Motion产生的噪声的鲁棒性,在非参数RDP算法的每一次迭代过程中我们加入参数值的取舍环节,根据经验,如果后一个参数ε小于前一个参数ε的三分之一则将其舍去。通过这样的处理我们发现对由Leap Motion产生的噪声具有很好的鲁棒性。
5.计算顶点的最大距离
由P1Pk得出线段l并计算出ε之后,我们分别计算P1到Pk之间所有顶点到线段l的距离,并找到距离线段l最远的顶点Pmax,其最大距离为dmax。如果dmax≤ε,则Pmax舍去,反之则保留Pmax,并连接P1Pmax得到线段l(1,max),连接PmaxPk得到线段l(max,k).
再次按照3.参数计算、4.参数处理以及5.计算顶点的最大距离三个步骤进行迭代操作,直到将所有顶点{P1,P2,…Pk}处理完成,最终完成所有顶点的检测。
6.匹配手势库
将优化后的顶点按照先后顺序进行连接,生成手势图形,并与手势库中的手势进行匹配。通过实验表明使用基于Leap Motion的非参数RDP检测算法检测出来的手势比RDP算法有更好的鲁棒性。
优势:RDP算法具有很好的手势识别效果,但是在博物馆这种人流大的场景下,每一个操作者都有着不同的操作习惯,画出的手势尺寸不一。然而RDP算法是一种参数固定的检测方法,并不具备手势识别的多尺度性,因此不适用于博物馆这种人流较大的场景中。RDP算法是一种参数固定的检测方法,并不具备手势识别的多尺度性,本文所提出的一种基于Leap Motion的非参数RDP检测算法对于较为复杂的手势具有更好的识别度;相较于参数RDP检测算法,它具有多尺度性,对于不同的操作者的手势都有着更好的适应性;同时,非参数RDP检测算法对于由操作者手部抖动产生的噪声在不同手势尺度下都具有很好的鲁棒性,对操作者的手势动作规范要求不高,操作更加友好。
Claims (1)
1.一种基于Leap Motion的优势点检测识别方法,其特征在于包括以下步骤:
1)获取顶点
通过Leap Motion体感控制器获取每一帧的手部图像,选取每一帧中的手指尖端的平均位置作为手势顶点;
2)顶点处理
首先对动态手势进行顶点处理过程,去除前2个手势顶点后,剩余的顶点被记作{P1,P2,…Pk};
3)参数计算
连接P1Pk得到第一线段,计算距离s=|P1Pk|,以及斜率m,并计算ε;具体如下:
x'=round(x);y'=round(y) (1)
x,y分别为顶点的横坐标和纵坐标,(1)式中对其取整,使用取整后的顶点P′(x′,y′)近似真实顶点P(x,y);
x’,y’∈Z (2)
Z为整形实数;
x'=x+Δx;y'=y+Δy (3)
-0.5≤Δx≤0.5,-0.5≤Δy≤0.5 (4)
Δxk,Δyk分别为顶点Pk的横坐标和纵坐标的偏移量;定义P1P2的斜率为m,P1′P2′的斜率为m′;
使用由原始点计算出的正弦值与由近似点计算出来的正弦值两者的角差来估计误差:
将(6)式代入(7)中得到:
假设s和t如下:
代入(8)得:
由公式(4)可知,Δx+Δy的最大值为1;
由公式(9)可知,|(x2-x1)/s|与|(y2-y1)/s|都小于等于1,s总大于所以由此得出
当|Δx2-Δx1|=|Δy2-Δy1|=1时有最大值,因此通过公式(5)求出t的最大值:
由此求出最大值
因为tmax≤1,公式(14)写成:
代表增长率的上限为在RDP算法的每一次迭代的过程中,求得
4).参数处理
每一次迭代过程中加入参数值的取舍环节,如果后一个参数ε小于前一个参数ε的三分之一则将其舍去;
5).计算顶点的最大距离
由P1Pk得出第一线段并计算出ε之后,分别计算P1到Pk之间所有顶点到第一线段的距离,并找到距离第一线段最远的顶点Pmax,其最大距离为dmax;如果dmax≤ε,则Pmax舍去,反之则保留Pmax,并连接P1Pmax得到第一线段(1,max),连接PmaxPk得到第一线段(max,k);
重复步骤3)-5)直到将所有顶点{P1,P2,…Pk}处理完成,完成所有顶点的检测。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201610391403.2A CN106055106B (zh) | 2016-06-04 | 2016-06-04 | 一种基于Leap Motion的优势点检测识别方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201610391403.2A CN106055106B (zh) | 2016-06-04 | 2016-06-04 | 一种基于Leap Motion的优势点检测识别方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN106055106A CN106055106A (zh) | 2016-10-26 |
| CN106055106B true CN106055106B (zh) | 2018-11-13 |
Family
ID=57170144
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201610391403.2A Active CN106055106B (zh) | 2016-06-04 | 2016-06-04 | 一种基于Leap Motion的优势点检测识别方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN106055106B (zh) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102592113A (zh) * | 2011-12-23 | 2012-07-18 | 哈尔滨工业大学深圳研究生院 | 一种基于表观特征的静态手势快速识别法 |
| CN103211622A (zh) * | 2013-05-06 | 2013-07-24 | 深圳市开立科技有限公司 | 一种多成像模式超声图像显示方法和系统 |
| CN103226387A (zh) * | 2013-04-07 | 2013-07-31 | 华南理工大学 | 基于Kinect的视频人手指尖定位方法 |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110119216A1 (en) * | 2009-11-16 | 2011-05-19 | Microsoft Corporation | Natural input trainer for gestural instruction |
-
2016
- 2016-06-04 CN CN201610391403.2A patent/CN106055106B/zh active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102592113A (zh) * | 2011-12-23 | 2012-07-18 | 哈尔滨工业大学深圳研究生院 | 一种基于表观特征的静态手势快速识别法 |
| CN103226387A (zh) * | 2013-04-07 | 2013-07-31 | 华南理工大学 | 基于Kinect的视频人手指尖定位方法 |
| CN103211622A (zh) * | 2013-05-06 | 2013-07-24 | 深圳市开立科技有限公司 | 一种多成像模式超声图像显示方法和系统 |
Non-Patent Citations (1)
| Title |
|---|
| 基于Leap Motion的体感交互技术在博物馆中的研究;张雪鉴 黄先开 刘宏哲;《计算机科学》;20151031;第42卷(第10期);第52-54页 * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN106055106A (zh) | 2016-10-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112926423B (zh) | 捏合手势检测识别方法、装置及系统 | |
| CN104937635B (zh) | 基于模型的多假设目标追踪器 | |
| US11842514B1 (en) | Determining a pose of an object from rgb-d images | |
| US10394318B2 (en) | Scene analysis for improved eye tracking | |
| CN108292362B (zh) | 用于光标控制的手势识别 | |
| JP7337104B2 (ja) | 拡張現実によるモデル動画多平面インタラクション方法、装置、デバイス及び記憶媒体 | |
| US10043308B2 (en) | Image processing method and apparatus for three-dimensional reconstruction | |
| CN104317391B (zh) | 一种基于立体视觉的三维手掌姿态识别交互方法和系统 | |
| KR20200111617A (ko) | 제스처 인식 방법, 장치, 전자 기기 및 저장 매체 | |
| CN106030610B (zh) | 移动设备的实时3d姿势识别和跟踪系统 | |
| KR101410273B1 (ko) | 증강현실 응용을 위한 환경 모델링 방법 및 장치 | |
| US9727776B2 (en) | Object orientation estimation | |
| WO2019196745A1 (zh) | 人脸建模方法及相关产品 | |
| CN107609519A (zh) | 一种人脸特征点的定位方法及装置 | |
| US20170161903A1 (en) | Method and apparatus for gesture recognition | |
| US10600202B2 (en) | Information processing device and method, and program | |
| CN108647597A (zh) | 一种手腕识别方法、手势识别方法、装置和电子设备 | |
| CN110706257B (zh) | 有效特征点对的识别方法、相机状态的确定方法及装置 | |
| CN113763458B (zh) | 确定目标对象摆放面的方法和装置 | |
| US20250118102A1 (en) | Query deformation for landmark annotation correction | |
| CN106055106B (zh) | 一种基于Leap Motion的优势点检测识别方法 | |
| CN104732570B (zh) | 一种图像生成方法及装置 | |
| CN106662927A (zh) | 动作识别方法和动作识别装置 | |
| Kim et al. | Recognition of face orientation by divided hausdorff distance | |
| CN102749996A (zh) | 空中双手的控制方法及系统 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| C10 | Entry into substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |