CN110135370B - 人脸活体检测的方法及装置、电子设备、计算机可读介质 - Google Patents
人脸活体检测的方法及装置、电子设备、计算机可读介质 Download PDFInfo
- Publication number
- CN110135370B CN110135370B CN201910419412.1A CN201910419412A CN110135370B CN 110135370 B CN110135370 B CN 110135370B CN 201910419412 A CN201910419412 A CN 201910419412A CN 110135370 B CN110135370 B CN 110135370B
- Authority
- CN
- China
- Prior art keywords
- detected object
- image
- detected
- determining
- living body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
- Collating Specific Patterns (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
Abstract
本公开提供了一种人脸活体检测的方法,其包括:在被检测对象未受到参考光源的光照时,对所述被检测对象的被检测区域进行图像采集,得到第一图像,所述被检测区域至少包括被检测对象的眼部;利用参考光源对所述被检测对象进行光照,并对所述被检测对象的所述被检测区域进行图像采集,得到第二图像;其中,所述被检测对象在采集所述第二图像时所处的位置与在采集所述第一图像时所处的位置相同;根据第一图像和第二图像的差异判断是否存在由所述被检测对象的角膜反射产生的亮斑,并根据判断结果确定所述被检测对象是否为非活体。本公开还提供了一种人脸活体检测的装置、电子设备、计算机可读介质。
Description
技术领域
本公开实施例涉及计算机技术领域,特别涉及人脸活体检测的方法及装置、电子设备、计算机可读介质。
背景技术
目前,人脸识别技术应用于安防、金融等需要身份验证的领域,在人脸识别时需要引入人脸活体检测技术,即,根据捕捉到的人脸信息,判断目标对象是真实的人脸,还是伪造的人脸攻击。
发明内容
本公开实施例提供一种人脸活体检测的方法及装置、电子设备、计算机可读介质。
第一方面,本公开实施例提供一种人脸活体检测的方法,其包括:
在被检测对象未受到参考光源的光照时,对所述被检测对象的被检测区域进行图像采集,得到第一图像,所述被检测区域至少包括被检测对象的眼部;
利用参考光源对所述被检测对象进行光照,并对所述被检测对象的所述被检测区域进行图像采集,得到第二图像;其中,所述被检测对象在采集所述第二图像时所处的位置与在采集所述第一图像时所处的位置相同;
根据第一图像和第二图像的差异判断是否存在由所述被检测对象的角膜反射产生的亮斑,并根据判断结果确定所述被检测对象是否为非活体。
在一些实施例中,所述根据判断结果确定所述被检测对象是否为非活体,包括:若根据所述第一图像和第二图像之间的差异判断出不存在所述亮斑,则确定所述被检测对象为非活体。
在一些实施例中,若根据所述第一图像和第二图像之间的差异判断出存在所述亮斑,则所述方法还包括:
采集所述被检测对象的被检测区域在预定时间段内的视频;
根据所述视频确定所述亮斑的位置的波动程度;
根据所述亮斑的位置的波动程度生成第一置信度;
判断所述第一置信度是否小于第一阈值,若小于,则确定所述被检测对象为非活体。
在一些实施例中,若所述第一置信度大于或等于所述第一阈值,则所述方法还包括:
控制屏幕上的引导物进行运动,以使所述被检测对象的瞳孔追随所述引导物运动;
获取所述被检测对象的瞳孔在所述引导物运动过程中的运动轨迹;
判断所述瞳孔的运动轨迹与所述引导物的运动轨迹的拟合度是否小于第二阈值,若小于,则确定所述被检测对象为非活体。
在一些实施例中,若所述瞳孔的运动轨迹与所述引导物的运动轨迹的拟合度大于或等于所述第二阈值,则所述方法还包括:
确定所述亮斑的位置在所述引导物运动过程中的波动程度;
根据所述瞳孔的运动轨迹与所述引导物的运动轨迹的拟合度以及所述亮斑的位置在所述引导物运动过程中的波动程度,生成第二置信度;
根据所述第一置信度、所述第二置信度和预设阈值,判断所述被检测对象是否为活体。
在一些实施例中,所述预设阈值包括第三阈值;
所述根据所述第一置信度、所述第二置信度和预设阈值,判断所述被检测对象是否为活体,包括:
根据所述第一置信度和预设的第一权值,以及所述第二置信度和预设的第二权值计算综合置信度;
判断所述综合置信度是否大于所述第三阈值,若大于,则确定所述被检测对象为活体;否则,确定所述被检测对象为非活体。
在一些实施例中,所述亮斑为普尔钦斑。
第二方面,本公开实施例提供一种人脸活体检测的装置,其包括:
参考光源,用于朝向被检测对象发光;
光源控制模块,用于控制所述参考光源的开启和关闭;
图像采集模块,用于在被检测对象未受到参考光源的光照时,对所述被检测对象的被检测区域进行图像采集,得到第一图像;并在所述参考光源对所述被检测对象进行光照时,对所述被检测对象的所述被检测区域进行图像采集,得到第二图像;其中,所述被检测区域至少包括被检测对象的眼部;所述被检测对象在采集所述第二图像时所处的位置与在采集所述第一图像时所处的位置相同;
第一判断模块,用于根据第一图像和第二图像的差异判断是否存在由所述被检测对象的角膜反射产生的亮斑,并根据判断结果确定所述被检测对象是否为非活体。
在一些实施例中,所述第一判断模块具体用于,若根据所述第一图像和第二图像之间的差异判断出不存在亮斑,则确定所述被检测对象为非活体。
在一些实施例中,所述装置还包括:
视频采集模块,用于在所述第一判断模块判断出存在亮斑时,采集所述被检测对象的被检测区域在预定时间段内的视频;
第一确定模块,用于根据所述视频确定所述亮斑的波动程度;
第一置信度生成模块,用于根据所述亮斑的位置的波动程度生成第一置信度;
第二判断模块,用于判断所述第一置信度是否小于第一阈值,若小于,则确定所述被检测对象为非活体。
在一些实施例中,所述装置还包括:
显示控制模块,用于在所述第二判断模块判断出所述第一置信度大于或等于所述第一阈值时,控制屏幕上的引导物进行运动,以使所述被检测对象的瞳孔追随所述引导物运动;
获取模块,用于获取所述被检测对象的瞳孔在所述引导物运动过程中的运动轨迹;
第三判断模块,用于判断所述瞳孔的运动轨迹与所述引导物的运动轨迹的拟合度是否小于第二阈值,若小于,则确定所述被检测对象为非活体。
在一些实施例中,所述装置还包括:
第二确定模块,用于在所述第三判断模块判断出所述瞳孔的运动轨迹与所述引导物的运动轨迹的拟合度大于或等于所述第二阈值时,确定所述亮斑的位置在所述引导物运动过程中的波动程度;
第二置信度生成模块,用于根据所述瞳孔的运动轨迹与所述引导物的运动轨迹的拟合度以及所述亮斑的位置在所述引导物运动过程中的波动程度,生成第二置信度;
第四判断模块,用于根据所述第一置信度、所述第二置信度和预设阈值,判断所述被检测对象是否为活体。
在一些实施例中,所述预设阈值包括第三阈值;
所述第四判断模块包括:
计算单元,用于根据所述第一置信度和预设的第一权值,以及所述第二置信度和预设的第二权值计算综合置信度;
判断单元,用于判断所述综合置信度是否大于所述第三阈值,若大于,则确定所述被检测对象为活体;否则,确定所述被检测对象为非活体。
在一些实施例中,所述亮斑为普尔钦斑。
第三方面,本公开实施例提供一种电子设备,其包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述实施例所述的方法。
第四方面,本公开实施例提供一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现上述实施例所述的方法。
本公开实施例提供的人脸活体检测的方法及装置、电子设备、计算机可读介质,通过被检测对象在受到光照前后的图像之间的差异,来判断是否产生由被检测对象的角膜反射产生的亮斑,并根据判断结果确定被检测对象是否为非活体。由于角膜上的亮斑是活体人脸的角膜在光照下才产生的,因此,通过被检测对象在光照前后的图像差异来判断是否产生亮斑,可以尽量地识别出非活体,减少或防止人脸识别时受到恶意攻击。并且,本实施例中的方法计算量小且易于实现。
附图说明
附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开的实施例一起用于解释本公开,并不构成对本公开的限制。通过参考附图对详细示例实施例进行描述,以上和其它特征和优点对本领域技术人员将变得更加显而易见,在附图中:
图1为本公开实施例提供的一种人脸活体检测的方法的流程图;
图2为本公开中步骤S3的一种可选实现方式的流程图;
图3为本公开中步骤S32的一种可选实现方式的流程图;
图4为本公开中步骤S325的一种可选实现方式的流程图;
图5为本公开中步骤S3254的一种可选实现方式的流程图;
图6为本公开中步骤S32543的一种可选实现方式的流程图;
图7为本公开实施例提供的第一种人脸活体检测的装置的结构示意图;
图8为本公开实施例提供的另一种人脸活体检测的装置的结构示意图;
图9为本公开实施例提供的再一种人脸活体检测的装置的结构示意图;
图10为本公开实施例提供的又一种人脸活体检测的装置的结构示意图;
图11为本公开中第四判断模块的一种可选实现方式的结构图。
具体实施方式
为使本领域的技术人员更好地理解本发明的技术方案,下面结合附图对本发明提供的人脸活体检测的方法及装置、电子设备、计算机可读介质进行详细描述。
在下文中将参考附图更充分地描述示例实施例,但是所述示例实施例可以以不同形式来体现且不应当被解释为限于本文阐述的实施例。反之,提供这些实施例的目的在于使本公开透彻和完整,并将使本领域技术人员充分理解本公开的范围。
如本文所使用的,术语“和/或”包括一个或多个相关列举条目的任何和所有组合。
本文所使用的术语仅用于描述特定实施例,且不意欲限制本公开。如本文所使用的,单数形式“一个”和“该”也意欲包括复数形式,除非上下文另外清楚指出。还将理解的是,当本说明书中使用术语“包括”和/或“由……制成”时,指定存在所述特征、整体、步骤、操作、元件和/或组件,但不排除存在或添加一个或多个其它特征、整体、步骤、操作、元件、组件和/或其群组。
本文所述实施例可借助本公开的理想示意图而参考平面图和/或截面图进行描述。因此,可根据制造技术和/或容限来修改示例图示。因此,实施例不限于附图中所示的实施例,而是包括基于制造工艺而形成的配置的修改。因此,附图中例示的区具有示意性属性,并且图中所示区的形状例示了元件的区的具体形状,但并不旨在是限制性的。
除非另外限定,否则本文所用的所有术语(包括技术和科学术语)的含义与本领域普通技术人员通常理解的含义相同。还将理解,诸如那些在常用字典中限定的那些术语应当被解释为具有与其在相关技术以及本公开的背景下的含义一致的含义,且将不解释为具有理想化或过度形式上的含义,除非本文明确如此限定。
图1为本公开实施例提供的一种人脸活体检测的方法的流程图,其中,该方法可以由人脸活体检测的装置来执行,该装置可以通过软件和/或硬件的方式来实现,该装置可以集成在电子设备中。如图1所示,该方法具体包括:
步骤S1、在被检测对象未受到参考光源的光照时,对被检测对象的被检测区域进行图像采集,得到第一图像。被检测区域至少包括被检测对象的眼部。
其中,被检测对象是指进行人脸活体检测的对象,该被检测对象可以为活体对象,即,真实的人脸;也可以为非活体对象,例如,打印的人脸图、电子设备屏幕中的人脸数字图像、3D人脸仿真模型等恶意伪造的人脸攻击。眼部区域为至少包括黑白眼球的区域。
人脸图像采集过程可以由摄像头等图像采集器件来执行;进行人脸图像采集时,可以获取整个人脸,也可以获取人脸中的包括眼部的一部分区域。
参考光源为设置在摄像头周围一定距离处且位置固定的光源,该参考光源在开启的情况下,其光线能够照射至被检测对象,且当被检测对象为真实人脸时,能够在被检测对象眼部的角膜上产生亮斑。其中,参考光源可以为红外光源。
步骤S2、利用参考光源对被检测对象进行光照,并对被检测对象的被检测区域进行图像采集,得到第二图像。其中,被检测对象在采集第二图像时所处的位置与在采集第一图像时所处的位置相同。
在本实施例的一些可选实现方式中,可以在步骤S1之前生成第一提醒信息,以提醒被检测对象保持头部不动的信息。其中,该第一提醒信息可以包括声音提醒信息和/或文字提醒信息。
步骤S3、根据第一图像和第二图像的差异判断是否存在由被检测对象的角膜反射产生的亮斑,并根据判断结果确定被检测对象是否为非活体。
其中,亮斑为亮度较大的斑点。第一图像与第二图像之间的差异可以为:各像素点的像素值之差。第一图像和第二图像可以为灰度图像,此时,像素值可以为像素点的灰度值;此时,亮斑具体可以为黑眼球上的大于一定灰度值(例如120)的斑点。当然,第一图像和第二图像也可以为彩色图像,此时,像素值可以为像素点的R值、B值、G值的加权和。
其中,亮斑由参考光源进入瞳孔的光线在角膜外表面上反射产生。因此,当被检测对象为活体时,其在未受到参考光源的光照时,眼部并不会出现亮斑,或者亮斑较弱,此时,第一图像中对应于眼部的区域并不会出现亮点;而被检测对象在受到参考光源的光照时,眼部会出现亮斑。当被检测对象为打印照片、数字人脸图像、3D人脸模型等非活体时,若这些非活体的眼部位置本身就存在颜色较浅的斑点(例如,通过图像处理的方式在数字人脸图像的眼部区域增加的斑点),被检测对象受到光照前后,斑点始终存在,此时,第一图像和第二图像之间的差异不足以定位出亮斑(即,步骤S3中的判断结果为不存在由被检测对象的角膜反射产生的亮斑);若上述非活体的眼部位置本身不存在颜色较浅的斑点,被检测对象受到光照前后,均不会出现亮斑;此时,第一图像和第二图像之间的差异不足以定位出由被检测对象的角膜反射产生的亮斑。
在本实施例中,由于角膜上的亮斑是活体人脸的眼球在光照下才产生的,因此,通过被检测对象在光照前后的图像差异来判断是否产生亮斑,可以尽量地识别出非活体,减少或防止人脸识别时受到恶意攻击。并且,本实施例中的方法计算量小且易于实现。
在本公开的一些可选实现方式中,由被检测对象的角膜反射产生的亮斑为普尔钦斑。
图2为本公开中步骤S3的一种可选实现方式的流程图,如图2所示,步骤S3具体包括:
步骤S31、根据第一图像和第二图像的差异判断是否存在亮斑;若判断出不存在所述亮斑,则确定所述被检测对象为非活体;若判断出存在亮斑,则进行步骤S32。
在本实施例的一些可选实现方式中,根据第一图像和第二图像的差异判断是否存在亮斑的过程如下:计算第一图像与第二图像之间的差值图像;并判断差值图像中是否存在像素值大于预设像素值且与瞳孔区域的之间的距离小于预设距离值的像素点,若存在,则确定存在亮斑;否则,确定不存在亮斑。
其中,预设像素值和预设距离值可以根据实际需要进行设置。例如,差值图像为灰度图像,预设像素值为100至150之间的任意值,预设距离值为黑眼球半径的2/3。
当被检测对象为活体时,差值图像中对应于亮斑的像素点的像素值较大,而眼球中除了亮斑以外的区域的像素值较小,因此,若像素值大于预设像素值,则表明眼球上存在亮度较大的亮斑。另外,当在实际检测过程中出现噪声光源(如,位于被检测对象头顶的光源)时,这些光源在眼球上也会产生反光点(即,噪声斑点),这些噪声斑点距离瞳孔的位置较远,因此,通过判断差值图像中是否存在像素值大于预设像素值且与瞳孔区域的之间的距离小于预设距离值的像素点,可以滤除噪声斑点。
步骤S32、进行进一步的判断。
图3为本公开中步骤S32的一种可选实现方式的流程图,如图3所示,步骤S32具体包括:
步骤S321、采集被检测对象的被检测区域在预定时间段内的视频。
其中,被检测区域在预定时间段内的视频可以为:以较大的采集频率(例如,每秒10~60次)对被检测区域进行图像采集所得到的连续的多帧图像。
需要说明的是,步骤S321及之后的步骤中,参考光源保持对被检测对象进行光照。
步骤S322、根据视频确定亮斑的位置的波动程度。
其中,亮斑的位置为,视频的各帧图像中,亮斑区域(即,图像中与亮斑对应的区域)的中心的坐标。
在视频的每帧图像中,可以根据亮斑与周围区域的像素信息的差异,确定亮斑的位置。例如,当某一区域中的像素点的像素值大于第一预设像素值(例如,灰阶为200)、且该区域周围一定范围内的像素点的像素值均小于第二预设像素值(例如,灰阶为50)时,则该区域即为亮斑区域。或者,可以根据人眼的轮廓特征确定黑眼球区域,并检测黑眼球区域中像素值大于第一预设像素值的像素点的位置,这些像素点所构成的区域即为亮斑区域。
亮斑的位置的波动程度用于表示亮斑的位置的变化大小,波动程度越大,则表示亮斑在各人脸图像中的位置变化越大;波动程度越小,则表示亮斑在各人脸图像中的位置变化越小。
亮斑的位置的波动程度可以利用以下参数来表示:亮斑的位置发生波动时形成的波动区域的面积与黑眼球面积之比,或者,距离最远的两个位置之间的欧氏距离。当然,也可以以其他参数来表示。
步骤S323、根据亮斑的位置在预定时间段内的波动程度生成第一置信度。
其中,第一置信度为0~1之间的值,且与亮斑的位置在预定时间段内的波动程度反相关。
步骤S324、判断第一置信度是否小于第一阈值,若小于,则确定被检测对象为非活体;否则,进行步骤S325。
步骤S325、进行进一步的判断。
其中,第一阈值可以根据实际情况确定。例如,以亮斑的波动区域的面积与黑眼球的面积之比(记为A,A在0.05~1之间)作为亮斑的位置的波动程度,第一置信度设为1/(20*A),第一阈值设为0.5。
由活体人脸的角膜所反射形成的亮斑(即,普尔钦斑)的运动轨迹特点为:当摄像头、参考光源,人脸的位置相对不变时,随着人眼的注视方向的变化,瞳孔和眼球的位置也会发生相应的变化,而亮斑的位置是相对不变的。因此,当亮斑的位置的波动程度过大(即,第一置信度过小)时,则可以确定被检测对象为非活体,从而更大可能地识别出非活体对象,进一步提高检测的准确率。
图4为本公开中步骤S325的一种可选实现方式的流程图,如图4所示,步骤S325具体包括:
步骤S3251、控制屏幕上的引导物进行运动,以使被检测对象的瞳孔追随引导物运动。
其中,屏幕设置在靠近参考光源和摄像头的位置,且屏幕的朝向与参考光源的朝向相同,以使得被检测对象在接收到参考光源照射时,能够看到屏幕上显示的引导物。
另外,引导物可以沿固定的轨迹进行运动,也可以沿随机设定的轨迹进行运动。
另外,在步骤S3251中在控制屏幕上的引导物进行运动的同时,可以产生第二提醒信息,以提醒被检测对象头部保持不动且眼睛紧盯屏幕上的引导物。该第二提醒信息可以包括声音提醒信息和/或文字提醒信息。
步骤S3252、获取被检测对象的瞳孔在引导物运动过程中的运动轨迹。
其中,瞳孔的运动轨迹可以根据现有的目标追踪方法来获取。
步骤S3253、判断瞳孔的运动轨迹与引导物的运动轨迹的拟合度是否小于第二阈值,若小于,则确定被检测对象为非活体;否则,进行步骤S3254。
瞳孔的运动轨迹与引导物的运动轨迹的拟合度是指,瞳孔的运动轨迹与引导物的运动轨迹的相似度。第二阈值可以根据实际情况确定,例如,为50%。
步骤S3254、进行进一步的判断。
基于本实施例的人脸活体检测的方法,不仅根据被检测对象的角膜是否在光照下产生亮斑来进行活体检测,还根据被检测对象的瞳孔是否能配合屏幕引导物进行运动,从而更大可能地识别出非活体对象,进一步提高检测的准确率。
图5为本公开中步骤S3254的一种可选实现方式的流程图,如图5所示,步骤S3254具体包括:
步骤S32541、确定亮斑的位置在引导物运动过程中的波动程度。
步骤S32542、根据瞳孔的运动轨迹与引导物的运动轨迹的拟合度以及亮斑的位置在引导物运动过程中的波动程度,生成第二置信度。
其中,第二置信度与亮斑的位置在引导物运动过程中的波动程度反相关,并与瞳孔的运动轨迹与引导物的运动轨迹的拟合度正相关。
步骤S32543、根据第一置信度、第二置信度和预设阈值,判断被检测对象是否为活体。
在本实施例的一些可选实现方式中,预设阈值包括第三阈值。
图6为本公开中步骤S32543的一种可选实现方式的流程图,如图6所示,步骤S32543包括:
步骤S32544、根据第一置信度和预设的第一权值,以及第二置信度和预设的第二权值计算综合置信度。
其中,第二权值大于第一权值。
步骤S32545、判断综合置信度是否大于第三阈值,若大于,则确定被检测对象为活体;否则,确定被检测对象为非活体。
当然,步骤S32543中也可以采用其他的方式判断检测对象是否为活体。例如,预设阈值包括分别与第一置信度和第二置信度对应的两个阈值,当第一置信度和第二置信度均大于各自对应的阈值时,确定被检测对象为活体;否则,确定被检测对象为非活体。
本实施例的方法根据第一置信度和第二置信度来进行活体检测,可以更进一步地识别出非活体对象,进一步提高检测的准确率。并且,整个方法计算量小,鲁棒性好,易于实现。
图7为本公开实施例提供的第一种人脸活体检测的装置的结构示意图,该装置可用于实现上述各实施例所提供的人脸活体检测的方法,如图7所示,该装置包括:参考光源1、光源控制模块2、图像采集模块3和第一判断模块4。
其中,参考光源1用于朝向被检测对象发光。
光源控制模块2用于控制参考光源1的开启和关闭。
图像采集模块3用于在被检测对象未受到参考光源的光照时(也即,光源控制模块2控制参考光源1关闭时),对被检测对象的被检测区域进行图像采集,得到第一图像;并在参考光源1对被检测对象进行光照时(也即,光源控制模块2控制参考光源1开启时),对被检测对象的被检测区域进行图像采集,得到第二图像。其中,被检测区域至少包括被检测对象的眼部。被检测对象在采集第二图像时所处的位置与在采集第一图像时所处的位置相同。
第一判断模块4用于根据第一图像和第二图像的差异判断是否存在由被检测对象的角膜反射产生的亮斑,并根据判断结果确定被检测对象是否为非活体。
在本公开的一些可选实现方式中,由被检测对象的角膜反射产生的亮斑为普尔钦斑。
其中,第一判断模块4具体用于,若根据第一图像和第二图像之间的差异判断出不存在亮斑(即,普尔钦斑),则确定被检测对象为非活体。
图8为本公开实施例提供的另一种人脸活体检测的装置的结构示意图,如图8所示,与上述实施例不同的是,该装置还包括:视频采集模块5、第一确定模块6、第一置信度生成模块7和第二判断模块8。
其中,视频采集模块5用于在第一判断模块4判断出存在亮斑时,采集被检测对象的被检测区域在预定时间段内的视频。其中,视频采集模块5和图像采集模块3可以集成为一体。
第一确定模块6用于根据视频确定亮斑的位置的波动程度。
第一置信度生成模块7用于根据亮斑的位置的波动程度生成第一置信度。
在本实施例的一些可选实现方式中,第一置信度与亮斑的位置在预定时间段内的波动程度反相关。
第二判断模块8用于判断第一置信度是否小于第一阈值,若小于,则确定被检测对象为非活体。
图9为本公开实施例提供的再一种人脸活体检测的装置的结构示意图,如图9所示,与上述实施例不同的是,该装置还包括:显示控制模块9、获取模块10和第三判断模块11。
其中,显示控制模块9用于在第二判断模块8判断出第一置信度大于或等于第一阈值时,控制屏幕上的引导物进行运动,以使被检测对象的瞳孔追随引导物运动。
获取模块10用于获取被检测对象的瞳孔在引导物运动过程中的运动轨迹。
第三判断模块11用于判断瞳孔的运动轨迹与引导物的运动轨迹的拟合度是否小于第二阈值,若小于,则确定被检测对象为非活体。
图10为本公开实施例提供的又一种人脸活体检测的装置的结构示意图,如图10所示,与上述实施例不同的是,该装置还包括:第二确定模块12、第二置信度生成模块13和第四判断模块14。
第二确定模块12用于在第三判断模块11判断出瞳孔的运动轨迹与引导物的运动轨迹的拟合度大于或等于第二阈值时,确定亮斑的位置在引导物运动过程中的波动程度。
第二置信度生成模块13用于根据瞳孔的运动轨迹与引导物的运动轨迹的拟合度以及亮斑的位置在引导物运动过程中的波动程度,生成第二置信度。
在本实施例的一些可选实现方式中,第二置信度与亮斑的位置在引导物运动过程中的波动程度反相关,并与瞳孔的运动轨迹与引导物的运动轨迹的拟合度正相关。
第四判断模块14用于根据第一置信度和第二置信度,判断被检测对象是否为活体。
图11为本公开中第四判断模块的一种可选实现方式的结构图,如图11所示,第四判断模块14包括:计算单元14a和判断单元14b。
其中,计算单元14a用于根据第一置信度和预设的第一权值,以及第二置信度和预设的第二权值计算综合置信度。
判断单元14b用于判断综合置信度是否大于第三阈值,若大于,则确定被检测对象为活体;否则,确定被检测对象为非活体。
对于上述各模块和单元的实现细节和技术效果的描述,可以参见前述方法实施例的说明,此处不再赘述。
本公开实施例还提供了一种电子设备,该电子设备包括:一个或多个处理器以及存储装置;其中,存储装置上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如前述各实施例所提供的人脸活体检测的方法。
本公开实施例还提供了一计算机可读存储介质,其上存储有计算机程序,其中,该计算机程序被执行时实现如前述各实施例所提供的人脸活体检测的方法。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、装置中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。在硬件实施方式中,在以上描述中提及的功能模块/单元之间的划分不一定对应于物理组件的划分;例如,一个物理组件可以具有多个功能,或者一个功能或步骤可以由若干物理组件合作执行。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其它数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其它存储器技术、CD-ROM、数字多功能盘(DVD)或其它光盘存储、磁盒、磁带、磁盘存储或其它磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其它的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其它传输机制之类的调制数据信号中的其它数据,并且可包括任何信息递送介质。
本文已经公开了示例实施例,并且虽然采用了具体术语,但它们仅用于并仅应当被解释为一般说明性含义,并且不用于限制的目的。在一些实例中,对本领域技术人员显而易见的是,除非另外明确指出,否则可单独使用与特定实施例相结合描述的特征、特性和/或元素,或可与其它实施例相结合描述的特征、特性和/或元件组合使用。因此,本领域技术人员将理解,在不脱离由所附的权利要求阐明的本公开的范围的情况下,可进行各种形式和细节上的改变。
Claims (10)
1.一种人脸活体检测的方法,其包括:
在被检测对象未受到参考光源的光照时,对所述被检测对象的被检测区域进行图像采集,得到第一图像,所述被检测区域至少包括被检测对象的眼部;
利用参考光源对所述被检测对象进行光照,并对所述被检测对象的所述被检测区域进行图像采集,得到第二图像;其中,所述被检测对象在采集所述第二图像时所处的位置与在采集所述第一图像时所处的位置相同;
根据第一图像和第二图像的差异判断是否存在由所述被检测对象的角膜反射产生的亮斑,并根据判断结果确定所述被检测对象是否为非活体;
其中,所述根据判断结果确定所述被检测对象是否为非活体包括:
若根据所述第一图像和所述第二图像之间的差异判断存在由所述被检测对象的角膜反射产生的亮斑,根据预定时间段内的视频确定所述亮斑的位置的波动程度;根据所述亮斑的位置的波动程度生成第一置信度;判断所述第一置信度是否小于第一阈值,若小于,则确定所述被检测对象为非活体;
在所述第一置信度大于或等于所述第一阈值的情况下,控制屏幕上的引导物进行运动,以使所述被检测对象的瞳孔追随所述引导物运动;获取所述被检测对象的瞳孔在所述引导物运动过程中的运动轨迹;判断所述瞳孔的运动轨迹与所述引导物的运动轨迹的拟合度是否小于第二阈值,若小于,则确定所述被检测对象为非活体;
在所述瞳孔的运动轨迹与所述引导物的运动轨迹的拟合度大于或等于第二阈值的情况下,确定所述亮斑的位置在所述引导物运动过程中的波动程度;根据所述瞳孔的运动轨迹与所述引导物的运动轨迹的拟合度以及所述亮斑的位置在所述引导物运动过程中的波动程度,生成第二置信度;
根据所述第一置信度和预设的第一权值,以及所述第二置信度和预设的第二权值计算综合置信度;
在所述综合置信度大于第三阈值的情况下,确定所述被检测对象为活体;在所述综合置信度小于或等于所述第三阈值的情况下,确定所述被检测对象为非活体。
2.根据权利要求1所述的方法,其中,所述根据判断结果确定所述被检测对象是否为非活体,包括:若根据所述第一图像和第二图像之间的差异判断出不存在所述亮斑,则确定所述被检测对象为非活体。
3.根据权利要求1所述的方法,其中,所述判断所述亮斑的位置的波动程度,包括:
采集所述被检测对象的被检测区域在预定时间段内的视频;
根据所述视频确定所述亮斑的位置的波动程度。
4.根据权利要求1至3中任意一项所述的方法,其中,所述亮斑为普尔钦斑。
5.一种人脸活体检测的装置,其包括:
参考光源,用于朝向被检测对象发光;
光源控制模块,用于控制所述参考光源的开启和关闭;
图像采集模块,用于在被检测对象未受到参考光源的光照时,对所述被检测对象的被检测区域进行图像采集,得到第一图像;并在所述参考光源对所述被检测对象进行光照时,对所述被检测对象的所述被检测区域进行图像采集,得到第二图像;其中,所述被检测区域至少包括被检测对象的眼部;所述被检测对象在采集所述第二图像时所处的位置与在采集所述第一图像时所处的位置相同;
第一判断模块,用于根据第一图像和第二图像的差异判断是否存在由所述被检测对象的角膜反射产生的亮斑,并根据判断结果确定所述被检测对象是否为非活体;
第一确定模块,用于确定所述亮斑的波动程度;
第一置信度生成模块,用于根据所述亮斑的位置的波动程度生成第一置信度;
第二判断模块,用于判断所述第一置信度是否小于第一阈值,若小于,则确定所述被检测对象为非活体;
所述装置还包括:
显示控制模块,用于在所述第二判断模块判断出所述第一置信度大于或等于所述第一阈值时,控制屏幕上的引导物进行运动,以使所述被检测对象的瞳孔追随所述引导物运动;
获取模块,用于获取所述被检测对象的瞳孔在所述引导物运动过程中的运动轨迹;
第三判断模块,用于判断所述瞳孔的运动轨迹与所述引导物的运动轨迹的拟合度是否小于第二阈值,若小于,则确定所述被检测对象为非活体;
第二确定模块,用于在所述第三判断模块判断出所述瞳孔的运动轨迹与所述引导物的运动轨迹的拟合度大于或等于所述第二阈值时,确定所述亮斑的位置在所述引导物运动过程中的波动程度;
第二置信度生成模块,用于根据所述瞳孔的运动轨迹与所述引导物的运动轨迹的拟合度以及所述亮斑的位置在所述引导物运动过程中的波动程度,生成第二置信度;
第四判断模块,用于根据所述第一置信度、所述第二置信度和第三阈值,判断所述被检测对象是否为活体;
所述第四判断模块包括:
计算单元,用于根据所述第一置信度和预设的第一权值,以及所述第二置信度和预设的第二权值计算综合置信度;
判断单元,用于判断所述综合置信度是否大于所述第三阈值,若大于,则确定所述被检测对象为活体;否则,确定所述被检测对象为非活体。
6.根据权利要求5所述的装置,其中,所述第一判断模块具体用于,若根据所述第一图像和第二图像之间的差异判断出不存在所述亮斑,则确定所述被检测对象为非活体。
7.根据权利要求6所述的装置,其中,所述装置还包括:
视频采集模块,用于在所述第一判断模块判断出存在所述亮斑时,采集所述被检测对象的被检测区域在预定时间段内的视频;
所述第一确定模块,用于根据所述视频确定所述亮斑的波动程度。
8.根据权利要求5至7中任意一项所述的装置,其中,所述亮斑为普尔钦斑。
9.一种电子设备,其包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据权利要求1至4中任意一项所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现根据权利要求1至4中任意一项所述的方法。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201910419412.1A CN110135370B (zh) | 2019-05-20 | 2019-05-20 | 人脸活体检测的方法及装置、电子设备、计算机可读介质 |
| KR1020200058206A KR102442220B1 (ko) | 2019-05-20 | 2020-05-15 | 얼굴 생체 검출 방법과 장치, 전자 기기, 컴퓨터 판독 가능 매체 |
| US16/877,427 US11188771B2 (en) | 2019-05-20 | 2020-05-18 | Living-body detection method and apparatus for face, and computer readable medium |
| JP2020088097A JP7159242B2 (ja) | 2019-05-20 | 2020-05-20 | 顔生体の検出方法及び検出装置、電子機器、並びにコンピュータ読み取り可能な媒体 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201910419412.1A CN110135370B (zh) | 2019-05-20 | 2019-05-20 | 人脸活体检测的方法及装置、电子设备、计算机可读介质 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN110135370A CN110135370A (zh) | 2019-08-16 |
| CN110135370B true CN110135370B (zh) | 2022-09-09 |
Family
ID=67571750
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201910419412.1A Active CN110135370B (zh) | 2019-05-20 | 2019-05-20 | 人脸活体检测的方法及装置、电子设备、计算机可读介质 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11188771B2 (zh) |
| JP (1) | JP7159242B2 (zh) |
| KR (1) | KR102442220B1 (zh) |
| CN (1) | CN110135370B (zh) |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111274928B (zh) | 2020-01-17 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 一种活体检测方法、装置、电子设备和存储介质 |
| CN111402480A (zh) * | 2020-02-29 | 2020-07-10 | 深圳壹账通智能科技有限公司 | 访客信息管理方法、装置、系统、设备和存储介质 |
| CN111523438B (zh) * | 2020-04-20 | 2024-02-23 | 支付宝实验室(新加坡)有限公司 | 一种活体识别方法、终端设备和电子设备 |
| CN112906619A (zh) * | 2021-03-09 | 2021-06-04 | 福建库克智能科技有限公司 | 活体检测方法、装置、电子设备及存储介质 |
| CN112926497B (zh) * | 2021-03-20 | 2024-07-05 | 杭州知存智能科技有限公司 | 基于多通道数据特征融合的人脸识别活体检测方法和装置 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106821301A (zh) * | 2017-01-24 | 2017-06-13 | 周凌云 | 一种基于计算机的眼球运动距离及双眼运动一致性偏差检测装置及方法 |
| CN109657531A (zh) * | 2018-09-18 | 2019-04-19 | 深圳先牛信息技术有限公司 | 一种基于眼球上光斑的人脸活体检测方法及检测装置 |
Family Cites Families (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB0316631D0 (en) * | 2003-07-16 | 2003-08-20 | Omniperception Ltd | Facial liveness assessment system |
| JP4609253B2 (ja) | 2005-09-08 | 2011-01-12 | オムロン株式会社 | なりすまし検出装置及び顔認証装置 |
| GB2495324B (en) * | 2011-10-07 | 2018-05-30 | Irisguard Inc | Security improvements for Iris recognition systems |
| CN102572217B (zh) * | 2011-12-29 | 2014-08-20 | 华为技术有限公司 | 基于视觉关注的多媒体处理方法及装置 |
| JP2014078052A (ja) | 2012-10-09 | 2014-05-01 | Sony Corp | 認証装置および方法、並びにプログラム |
| CN103390152B (zh) * | 2013-07-02 | 2017-02-08 | 华南理工大学 | 基于sopc的适合人机交互的视线跟踪系统 |
| US9767358B2 (en) * | 2014-10-22 | 2017-09-19 | Veridium Ip Limited | Systems and methods for performing iris identification and verification using mobile devices |
| US9672341B2 (en) * | 2014-10-30 | 2017-06-06 | Delta ID Inc. | Systems and methods for spoof detection in iris based biometric systems |
| WO2016090379A2 (en) * | 2014-12-05 | 2016-06-09 | Texas State University | Detection of print-based spoofing attacks |
| EP3240467A4 (en) | 2014-12-31 | 2018-12-26 | Morphotrust Usa, LLC | Detecting facial liveliness |
| US9928603B2 (en) * | 2014-12-31 | 2018-03-27 | Morphotrust Usa, Llc | Detecting facial liveliness |
| WO2016168814A1 (en) * | 2015-04-16 | 2016-10-20 | Tobii Ab | Identification and/or authentication of a user using gaze information |
| WO2017000116A1 (zh) * | 2015-06-29 | 2017-01-05 | 北京旷视科技有限公司 | 活体检测方法、活体检测系统以及计算机程序产品 |
| US10546183B2 (en) * | 2015-08-10 | 2020-01-28 | Yoti Holding Limited | Liveness detection |
| CN105184246B (zh) | 2015-08-28 | 2020-05-19 | 北京旷视科技有限公司 | 活体检测方法和活体检测系统 |
| CN105184277B (zh) * | 2015-09-29 | 2020-02-21 | 杨晴虹 | 活体人脸识别方法以及装置 |
| US10445606B2 (en) * | 2015-10-08 | 2019-10-15 | Microsoft Technology Licensing, Llc | Iris recognition |
| CN105354545A (zh) * | 2015-10-28 | 2016-02-24 | 广东欧珀移动通信有限公司 | 虹膜信息的采集方法及采集系统 |
| KR102358677B1 (ko) * | 2016-03-07 | 2022-02-03 | 매직 립, 인코포레이티드 | 생체 인증 보안을 위한 청색 광 조정 |
| CN105912986B (zh) * | 2016-04-01 | 2019-06-07 | 北京旷视科技有限公司 | 一种活体检测方法和系统 |
| CN105955465A (zh) * | 2016-04-25 | 2016-09-21 | 华南师范大学 | 一种桌面便携式视线跟踪方法及装置 |
| JP2019519859A (ja) * | 2016-06-29 | 2019-07-11 | シーイング マシーンズ リミテッド | 視線追跡を実行するシステム及び方法 |
| CN108280392A (zh) * | 2017-01-06 | 2018-07-13 | 望墨科技(武汉)有限公司 | 一种虹膜识别过程中检测欺骗的方法和系统 |
| CN107273794A (zh) * | 2017-04-28 | 2017-10-20 | 北京建筑大学 | 一种人脸识别过程中的活体鉴别方法及装置 |
| CN107169429A (zh) * | 2017-04-28 | 2017-09-15 | 北京小米移动软件有限公司 | 活体识别方法和装置 |
| JP6930223B2 (ja) * | 2017-05-31 | 2021-09-01 | 富士通株式会社 | 瞳孔検出用コンピュータプログラム、瞳孔検出装置及び瞳孔検出方法 |
| CN108875469A (zh) * | 2017-06-14 | 2018-11-23 | 北京旷视科技有限公司 | 活体检测与身份认证的方法、装置及计算机存储介质 |
| CN108958577B (zh) * | 2018-06-14 | 2020-09-11 | 北京七鑫易维信息技术有限公司 | 基于可穿戴设备的窗口操作方法、装置、穿戴设备及介质 |
| CN109063674A (zh) * | 2018-08-22 | 2018-12-21 | 深圳先牛信息技术有限公司 | 一种基于眼球上光斑的虹膜活体检测方法及检测装置 |
-
2019
- 2019-05-20 CN CN201910419412.1A patent/CN110135370B/zh active Active
-
2020
- 2020-05-15 KR KR1020200058206A patent/KR102442220B1/ko active Active
- 2020-05-18 US US16/877,427 patent/US11188771B2/en active Active
- 2020-05-20 JP JP2020088097A patent/JP7159242B2/ja active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106821301A (zh) * | 2017-01-24 | 2017-06-13 | 周凌云 | 一种基于计算机的眼球运动距离及双眼运动一致性偏差检测装置及方法 |
| CN109657531A (zh) * | 2018-09-18 | 2019-04-19 | 深圳先牛信息技术有限公司 | 一种基于眼球上光斑的人脸活体检测方法及检测装置 |
Non-Patent Citations (3)
| Title |
|---|
| A Structural Survey.《2019 IEEE 9th Annual Computing and Communication Workshop and Conference (CCWC)》.2019, * |
| Sheida Asad Soleimani等.Iris Live Detection Assessment * |
| 基于人眼序列分析的活体人脸检测方法;林诚燕;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170315(第3期);I138-5321 * |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20200134160A (ko) | 2020-12-01 |
| JP7159242B2 (ja) | 2022-10-24 |
| CN110135370A (zh) | 2019-08-16 |
| US20200372272A1 (en) | 2020-11-26 |
| US11188771B2 (en) | 2021-11-30 |
| KR102442220B1 (ko) | 2022-09-08 |
| JP2020191089A (ja) | 2020-11-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110135370B (zh) | 人脸活体检测的方法及装置、电子设备、计算机可读介质 | |
| CN107609383B (zh) | 3d人脸身份认证方法与装置 | |
| CN107748869B (zh) | 3d人脸身份认证方法与装置 | |
| US10318831B2 (en) | Method and system for monitoring the status of the driver of a vehicle | |
| CN112487921B (zh) | 一种用于活体检测的人脸图像预处理方法及系统 | |
| CN107633165B (zh) | 3d人脸身份认证方法与装置 | |
| JP6577454B2 (ja) | 軸上視線追跡システム及び方法 | |
| CN106774863B (zh) | 一种基于瞳孔特征实现视线追踪的方法 | |
| KR101356358B1 (ko) | 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법 | |
| CN103870796B (zh) | 一种人眼视线估计的方法与装置 | |
| CN101271517A (zh) | 面部区域检测装置、方法和计算机可读记录介质 | |
| CN105138965A (zh) | 一种近眼式视线跟踪方法及其系统 | |
| CN111860394A (zh) | 一种基于姿态估计和动作检测的动作活体识别方法 | |
| CN109657531A (zh) | 一种基于眼球上光斑的人脸活体检测方法及检测装置 | |
| CN105243378A (zh) | 基于眼部信息的活体人脸检测方法及装置 | |
| JP6870474B2 (ja) | 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法 | |
| CN107016348A (zh) | 结合深度信息的人脸检测方法、检测装置和电子装置 | |
| CN116189153A (zh) | 驾驶员的视线识别方法及装置、车辆和存储介质 | |
| CN113093907A (zh) | 人机交互方法、系统、设备及存储介质 | |
| US11163994B2 (en) | Method and device for determining iris recognition image, terminal apparatus, and storage medium | |
| CN112700568A (zh) | 一种身份认证的方法、设备及计算机可读存储介质 | |
| CN115147936A (zh) | 一种活体检测方法、电子设备、存储介质及程序产品 | |
| CN115083325B (zh) | 一种设备控制方法、装置、电子设备和存储介质 | |
| CN106557752A (zh) | 一种基于虹膜识别的安防控制系统及其方法 | |
| CN112069917B (zh) | 一种用于固定场景的人脸识别系统 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |