[go: up one dir, main page]

CN111079549B - 一种利用门控融合判别特征进行漫画人脸识别的方法 - Google Patents

一种利用门控融合判别特征进行漫画人脸识别的方法 Download PDF

Info

Publication number
CN111079549B
CN111079549B CN201911157921.8A CN201911157921A CN111079549B CN 111079549 B CN111079549 B CN 111079549B CN 201911157921 A CN201911157921 A CN 201911157921A CN 111079549 B CN111079549 B CN 111079549B
Authority
CN
China
Prior art keywords
model
features
global
local
cartoon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911157921.8A
Other languages
English (en)
Other versions
CN111079549A (zh
Inventor
俞俊
高飞
戴玲娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201911157921.8A priority Critical patent/CN111079549B/zh
Publication of CN111079549A publication Critical patent/CN111079549A/zh
Application granted granted Critical
Publication of CN111079549B publication Critical patent/CN111079549B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种利用门控融合判别特征进行漫画人脸识别的方法。本发明步骤如下:(1)数据预处理:全局模型部分将图片根据5个关键点进行放射变化并裁减到统一尺寸。局部模型部分需将图片根据17个关键点所在位置按比例裁剪并缩放。(2)特征提取及融合:对于全局及局部模型分别利用一个嵌入了CBAM注意力机制模型并Sphereface上预训练好的20层模型以及嵌入CBAM轻量级Sphereface网络进行特征提取;将17个局部特征与全局特征进行融合。(3)识别准确度:将融合后的漫画及人脸照片的特征计算余弦距离。本发明提出一种跨模态漫画人脸识别的模型,特别是提出了利用门控融合的方式对特征进行整合,并且获得了目前漫画人脸识别中的最好效果。

Description

一种利用门控融合判别特征进行漫画人脸识别的方法
技术领域
本发明提到了一种利用门控融合判别特征进行漫画人脸识别(Gated Fusion ofDiscriminant Features for Caricature Recognition)的新方法,主要涉及一种利用深层次网络进行训练,提出通过自主学习权重来处理局部特征、并与全局特征进行融合的方式,以构建一个准确率较高的漫画人脸识别模型。
背景技术
一张面部素描的漫画,试图通过夸大一些突出特征来描绘面部特征。而漫画已在新闻和社交媒体中广泛使用,导致对漫画识别的广泛需求。尽管漫画很容易被人识别,但由于照片和漫画之间的严重几何变形以及漫画风格的变化,漫画识别对于计算机来说是一个巨大的挑战。匹配人脸照片和漫画并非易事。
一开始,研究人员专注于设计和学习面部属性特征。但通过启发式设计和费力地标记属性限制了性能和泛化能力。而最近卷积神经网络(CNN)的杰出能力,让研究人员开始使用CNN来进行漫画识别例如,使用两个CNN分别从照片和漫画中提取特征,并使用验证损失和识别损失的联合来监督表示学习;整合全脸的全局相似性和四个局部部分(即眼睛,鼻子,嘴巴和下巴部分)的局部相似性,然后将这些相似性整合在一起以获得更好的照片和漫画相似性度量。
尽管在漫画识别方面取得了这样的进步,但是其性能仍然远远不能令人满意。有限的性能可能归因于漫画识别的开放协议,即测试身份通常与训练集不相交。在这种情况下,学习具有区别性的大边缘特征至关重要。然而,现有的softmax损失或pairwise损失,它们只能学习不一定具有区分性的可分离特征。学习具有区别性的大边缘特征仍然是一项挑战,该特征可以很好地弥合照片与漫画之间的差距,以实现漫画识别。
发明内容
本发明的目的是针对现有技术的不足,提供一种利用门控系统融合判别特征进行漫画人脸识别的方法。对一个大型的照片漫画数据库WebCaricature数据库做了实验,该数据集包含6042个漫画和来自252个人的5974张照片。对于数据集中的每个图像,提供了17个标记的面部标志。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤(1)数据预处理
对于全局模型部分:将图片根据5个关键点进行仿射变化并裁减到统一尺寸大小。所述的关键点为:左眼中、右眼中、鼻尖、左嘴角、右嘴角;
对于局部模型部分:将图片根据数据集自带的17个关键点所在的位置按照设定比例裁剪得到局部图片并进行缩放。
步骤(2)特征提取及融合
对于全局模型及局部模型分别利用一个在Sphereface上预训练好的20层ResNet模型以及轻量级的Sphereface模型进行特征提取;分别将提取出来的全局特征与17个局部特征进行特征融合。在全局模型及局部模型中均嵌入CBAM注意力机制模型。
步骤(3)识别准确度
将融合后的漫画及人脸照片的特征之间计算余弦距离,按照排序可计算得到rank-1和rank-10的分数。
步骤(1)所述的数据预处理:
1-1 WebCaricature数据库是一个包含252位人物身份的6042个漫画和5974张照片组成,所以将数据集中随机一半人物身份的图片作为训练集,剩下的作为测试集;
1-2在处理全局模型的输入图片时,将图片缩放为112*96的固定尺寸;而在处理局部模型的输入图片时,根据17个关键点所在位置为中心按照H/112*20的大小裁剪出局部图片块,并将图片大小调整为20*20,其中H表示输入图片的高度,17个关键点分别对应WebCaricature数据集中所提到自带的关键点。
步骤(2)所述的特征提取及处理:
2-1在sphereface模型的Convl.x之后嵌入CBAM(convolutional blockattention module)注意力机制模型。
2-2针对全局模型,利用在Sphereface上训练好的20层模型对输入的整张图片进行特征提取得到向量F2_g,对于局部模型部分,利用轻量级的Sphereface网络对17个局部图片块进行特征提取,得到向量F2_l。其中F2_l,F2_g∈Rn,2表示为Sphereface模型中卷积层之后的第二个全连接层,n为训练数据集中人脸的身份数量,并用该向量进行身份识别并优化网络;
2-3在全局模型和局部模型分别得到向量F2_g和F2_l之前会经过模型卷积层之后的第一个线性层,此时将全局模型和局部模型中第一个线性层的输出特征表述为F1_g和F1_l。F1_l,F1_g∈Rh,其中1表示为Sphereface模型中卷积层之后的第一个全连接层,h表示输出的向量长度,长度值为512。将第一个线性层得到的17个局部特征F1_l_i(i=1,2,...,17)与经过学习权重模型学到的权重w=[ω1,ω2,...,ω17]分别相乘,得到F′1_l_i(i=1,2,...,17)并与全局特征F1_g合并得到一个新的特征向量,即此时便可利用得到的新的特征向量进行人脸识别指标计算。
步骤(3)所述的特征提取及处理:
3-1在对漫画识别人脸的过程中,经过上述步骤能够得到所有漫画以及每个身份人脸的融合之后的特征向量,其中漫画特征向量个数为测试集中所有的漫画,而人脸特征向量个数为测试集中人物身份个数。人脸识别漫画实验中反之亦然。
3-2将得到的漫画图片及人脸照片的特征向量f计算余弦距离,即,其中f1是漫画特征融合之后的向量,f2是人脸照片特征融合之后的向量。
3-3将计算得到的余弦距离进行排序,并计算rank-1,rank-10。
设有n张漫画图片,m张人脸照片,在计算漫画图片和人脸照片之间的余弦距离之后,得到n×m大小的距离矩阵,将该距离矩阵按行进行从小到大排序。故而对于rank-1来说排第一的距离对应的漫画图片和人脸照片如果属于同一个人,便代表识别正确,反之识别错误。对于rank-10来说,排在前十的距离对应的漫画图片和人脸照片对中,有其中一对漫画图片和人脸照是同一个人便代表识别正确,反之识别错误。最后分别根据识别正确和错误的数量来计算百分比,也就是rank-1和rank-10指标的值。
本发明有益效果如下:
本发明对于漫画人脸识别的识别准确率在WebCaricature数据及上处于领先地位,因此在做漫画人脸识别相关工作时,利用本发明在通过漫画识别人脸或者通过人脸识别漫画上可以达到较高的识别正确率。
附图说明
图1是利用门控系统进行全局及局部特征融合的漫画人脸识别框架示意图
图2是全局及局部的人脸识别网络的体系结构
具体实施方式
下面结合附图对本发明做进一步说明。
如图1和图2所示,利用特征识别的判别特征学习和门控特征融合模块对漫画人脸进行识别,具体包括如下步骤:
步骤(1)数据预处理
对于全局模型部分:将图片根据5个关键点(左眼中、右眼中、鼻尖、左嘴角、右嘴角)进行仿射变化并裁减到统一尺寸大小。
对于局部模型部分:将图片根据17个关键点所在的位置按照一定比例裁剪得到局部图片并进行缩放。
步骤(2)特征提取及融合
对于全局及局部模型分别利用一个在Sphereface上预训练好的20层ResNet模型以及轻量级的Sphereface模型进行特征提取;将提取出来的17个局部特征与全局特征进行特征融合。在全局及局部模型中我们还嵌入了CBAM注意力机制模型。
步骤(3)识别准确度
将融合后的漫画及人脸照片的特征之间计算余弦距离,按照排序可计算得到rank-1和rank-10的分数。
步骤(1)所述的数据预处理:
1-1 WebCaricature数据库是一个包含252位人物身份的6042个漫画和5974张照片组成,所以将数据集中随机一半人物身份的图片作为训练集,剩下的作为测试集;
1-2在处理全局模型的输入图片时,将图片缩放为112*96的固定尺寸;而在处理局部模型的输入图片时,根据17个关键点所在位置为中心按照H/112*20的大小裁剪出局部图片块,并将图片大小调整为20*20,其中H表示输入图像的高度,17个关键点分别对应WebCaricature数据集中所提到的关键点。
步骤(2)所述的特征提取及处理:
2-1在sphereface模型的Convl.x之后嵌入CBAM(convolutional blockattention module)注意力机制模型。CBAM包括通道和空间注意力模块。给定特征映射F∈Rc×H×W,通道注意模块推断1维信道注意向量Mc∈RC×1×1,空间注意模型推断2维空间注意力图Ms∈R1×H×W。整个操作过程为:
其中表示按元素方向乘法,F*表示通道注意模块的输出,F**表示空间注意模型的输出,也就是CBAM的输出。
2-2针对全局模型,利用在Sphereface上训练好的20层模型对输入的整张图片进行特征提取得到向量F2_g,对于局部模型部分,我们利用轻量级的Sphereface网络对17个局部图片块进行特征提取,得到向量F2_l。其中F2_l,F2_g∈Rn、2表示为Sphereface模型中卷积层之后的第二个全连接层,n为训练数据集中人脸的身份数量,并用该向量进行身份识别并优化网络;
2-3在优化网络过程中,使用的损失函数为A_softmax loss,其决策边界为:
||x||(cos mθ1-cosθ2)=0 for class 1;
||x||(cosθ1-cosmθ2)=0 for class 2;
其中θi是Wi和x之间的角度,Wi表示最后一个全连接层的参数,m(m>1)是整数用来定量地控制角边缘的大小。
2-4在全局模型和局部模型分别得到F2_g和F2_l之前会经过模型卷积层之后的第一个线性层,此时我们将全局和局部模型中第一个线性层的输出特征表述为F1_g和F1_l。F1_l,F1_g∈Rh,其中1表示为Sphereface模型中卷积层之后的第二个全连接层,h表示输出的向量长度,为512。将在这第一个线性层得到的17个局部特征F1_l_i(i=1,2,...,17)与经过学习权重模型学到的权重w=[ω1,ω2,...,ω17]分别相乘,得到F′1_l_i(i=1,2,...,17)并与全局特征F1_g合并得到一个新的特征向量,即此时便可利用得到的新的特征向量进行人脸识别指标计算。
步骤(3)所述的特征提取及处理:
3-1在对漫画识别人脸的实验中,经过上述步骤可以得到所有漫画以及每个身份人脸的融合之后的特征向量,其中漫画特征向量个数为测试集中所有的漫画,而人脸特征向量个数为测试集中人物身份个数。人脸识别漫画实验中反之亦然。
3-2将得到的漫画图片及人脸照片的特征向量f计算余弦距离,即,其中f1是漫画特征融合之后的向量,f2是人脸照片特征融合之后的向量。
3-3将计算得到的余弦距离进行排序,并计算rank-1,rank-10。
设有n张漫画图片,m张人脸照片,在计算漫画图片和人脸照片之间的余弦距离之后,得到n×m大小的距离矩阵,将该距离矩阵按行进行从小到大排序。故而对于rank-1来说排第一的距离对应的漫画图片和人脸照片如果属于同一个人,便代表识别正确,反之识别错误。对于rank-10来说,排在前十的距离对应的漫画图片和人脸照片对中,有其中一对漫画图片和人脸照是同一个人便代表识别正确,反之识别错误。最后分别根据识别正确和错误的数量来计算百分比,也就是rank-1和rank-10指标的值。

Claims (3)

1.一种利用门控融合判别特征进行漫画人脸识别的方法,其特征在于包括如下步骤:
步骤(1)数据预处理
对于全局模型部分:将图片根据5个关键点进行仿射变化并裁减到统一尺寸大小;所述的关键点为:左眼中、右眼中、鼻尖、左嘴角、右嘴角;
对于局部模型部分:将图片根据数据集自带的17个关键点所在的位置按照设定比例裁剪得到局部图片并进行缩放;
步骤(2)特征提取及融合
对于全局及局部模型分别利用一个在Sphereface上预训练好的20层ResNet模型以及轻量级的Sphereface模型进行特征提取;将提取出来的17个局部特征与全局特征进行特征融合;在全局及局部模型中我们还嵌入了CBAM注意力机制模型;
步骤(3)识别准确度
将融合后的漫画及人脸照片的特征之间计算余弦距离,按照排序可计算得到rank-1和rank-10的分数;
步骤(2)所述的特征提取及处理:
2-1.在sphereface模型的Conv1.x之后嵌入CBAM注意力机制模型;CBAM包括通道和空间注意力模块;给定特征映射F∈RC×H×W,通道注意模块推断1维信道注意向量Mc∈RC×1×1,空间注意模型推断2维空间注意力图Ms∈R1×H×W;整个操作过程为:
其中表示按元素方向乘法,F*表示通道注意模块的输出,F**表示空间注意模型的输出,也就是CBAM的输出;
2-2针对全局模型,利用在Sphereface上训练好的20层模型对输入的整张图片进行特征提取得到向量F2_g,对于局部模型部分,我们利用轻量级的Sphereface网络对17个局部图片块进行特征提取,得到向量F2_l;其中F2_l,F2_g∈Rn、2表示为Sphereface模型中卷积层之后的第二个全连接层,n为训练数据集中人脸的身份数量,并用该向量进行身份识别并优化网络;
2-3在优化网络过程中,使用的损失函数为A_softmax loss,其决策边界为:
||x||(cos mθ1-cosθ2)=0 for class1;
||x||(cosθ1-cosmθ2)=0 for class 2;
其中θi是Wi和x之间的角度,Wi表示最后一个全连接层的参数,m,m>1是整数用来定量地控制角边缘的大小;
2-4在全局模型和局部模型分别得到F2_g和F2_l之前会经过模型卷积层之后的第一个线性层,此时我们将全局和局部模型中第一个线性层的输出特征表述为F1_g和F1_l;F1_l,F1_g∈Rh,其中1表示为Sphereface模型中卷积层之后的第二个全连接层,h表示输出的向量长度,为512;将在这第一个线性层得到的17个局部特征F1_l_i,i=1,2,...,17与经过学习权重模型学到的权重w=[ω12,...,ω17]分别相乘,得到F′1_l_i,i=1,2,...,17并与全局特征F1_g合并得到一个新的特征向量,即此时便可利用得到的新的特征向量进行人脸识别指标计算。
2.根据权利要求1所述的一种利用门控融合判别特征进行漫画人脸识别的方法,其特征在于步骤(1)所述的数据预处理:
1-1.WebCaricature数据库是一个包含252位人物身份的6042个漫画和5974张照片组成,所以将数据集中随机一半人物身份的图片作为训练集,剩下的作为测试集;
1-2.在处理全局模型的输入图片时,将图片缩放为112*96的固定尺寸;而在处理局部模型的输入图片时,根据17个关键点所在位置为中心按照H/112*20的大小裁剪出局部图片块,并将图片大小调整为20*20,其中H表示输入图像的高度,17个关键点分别对应WebCaricature数据集中所提到的关键点。
3.根据权利要求2所述的一种利用门控融合判别特征进行漫画人脸识别的方法,其特征在于步骤(3)所述的特征提取及处理:
3-1在对漫画识别人脸的实验中,经过上述步骤可以得到所有漫画以及每个身份人脸的融合之后的特征向量,其中漫画特征向量个数为测试集中所有的漫画,而人脸特征向量个数为测试集中人物身份个数;人脸识别漫画实验中反之亦然;
3-2将得到的漫画图片及人脸照片的特征向量f计算余弦距离,即,其中f1是漫画特征融合之后的向量,f2是人脸照片特征融合之后的向量;
3-3将计算得到的余弦距离进行排序,并计算rank-1,rank-10;
设有n张漫画图片,m张人脸照片,在计算漫画图片和人脸照片之间的余弦距离之后,得到n×m大小的距离矩阵,将该距离矩阵按行进行从小到大排序;故而对于rank-1来说排第一的距离对应的漫画图片和人脸照片如果属于同一个人,便代表识别正确,反之识别错误;对于rank-10来说,排在前十的距离对应的漫画图片和人脸照片对中,有其中一对漫画图片和人脸照是同一个人便代表识别正确,反之识别错误;最后分别根据识别正确和错误的数量来计算百分比,也就是rank-1和rank-10指标的值。
CN201911157921.8A 2019-11-22 2019-11-22 一种利用门控融合判别特征进行漫画人脸识别的方法 Active CN111079549B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911157921.8A CN111079549B (zh) 2019-11-22 2019-11-22 一种利用门控融合判别特征进行漫画人脸识别的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911157921.8A CN111079549B (zh) 2019-11-22 2019-11-22 一种利用门控融合判别特征进行漫画人脸识别的方法

Publications (2)

Publication Number Publication Date
CN111079549A CN111079549A (zh) 2020-04-28
CN111079549B true CN111079549B (zh) 2023-09-22

Family

ID=70311351

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911157921.8A Active CN111079549B (zh) 2019-11-22 2019-11-22 一种利用门控融合判别特征进行漫画人脸识别的方法

Country Status (1)

Country Link
CN (1) CN111079549B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111832622A (zh) * 2020-06-11 2020-10-27 国家计算机网络与信息安全管理中心 特定人物丑化图片识别方法及系统
CN112507995B (zh) * 2021-02-05 2021-06-01 成都东方天呈智能科技有限公司 一种跨模型人脸特征向量的转换系统及方法
CN113762022B (zh) * 2021-02-09 2025-07-18 北京沃东天骏信息技术有限公司 人脸图像的融合方法和装置
CN113112015B (zh) * 2021-04-06 2023-10-20 咪咕动漫有限公司 模型训练方法、装置、电子设备及计算机可读存储介质
CN113723332A (zh) * 2021-09-07 2021-11-30 中国工商银行股份有限公司 面部图像识别方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016086330A1 (en) * 2014-12-03 2016-06-09 Xiaoou Tang A method and a system for face recognition
CN106023079A (zh) * 2016-05-19 2016-10-12 西安电子科技大学 联合局部与全局特性的两阶段人脸画像生成方法
CN108154133A (zh) * 2018-01-10 2018-06-12 西安电子科技大学 基于非对称联合学习的人脸画像-照片识别方法
CN108596839A (zh) * 2018-03-22 2018-09-28 中山大学 一种基于深度学习的人脸漫画生成方法及其装置
CN110414378A (zh) * 2019-07-10 2019-11-05 南京信息工程大学 一种基于异质人脸图像融合特征的人脸识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10628985B2 (en) * 2017-12-01 2020-04-21 Affectiva, Inc. Avatar image animation using translation vectors
US20170236001A1 (en) * 2016-02-11 2017-08-17 Daniel M. McLean Device and method for transforming a facial image into a set of recognizable emoticons

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016086330A1 (en) * 2014-12-03 2016-06-09 Xiaoou Tang A method and a system for face recognition
CN106023079A (zh) * 2016-05-19 2016-10-12 西安电子科技大学 联合局部与全局特性的两阶段人脸画像生成方法
CN108154133A (zh) * 2018-01-10 2018-06-12 西安电子科技大学 基于非对称联合学习的人脸画像-照片识别方法
CN108596839A (zh) * 2018-03-22 2018-09-28 中山大学 一种基于深度学习的人脸漫画生成方法及其装置
CN110414378A (zh) * 2019-07-10 2019-11-05 南京信息工程大学 一种基于异质人脸图像融合特征的人脸识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Qiuxia Lai et al..Video Saliency Prediction Using Spatiotemporal Residual Attentive Networks.《IEEE TRANSACTIONS ON IMAGE PROCESSING》.2019,第29卷第1113-1126页. *
Weiyang Liu et al..SphereFace: deep hypersphere embedding for face recognition.《2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)》.2017,第6738-6746页. *
赵强 等.基于面部结构残差网络的压缩人脸图像复原算法.《南京邮电大学学报》.2019,第39卷(第4期),第39-46页. *

Also Published As

Publication number Publication date
CN111079549A (zh) 2020-04-28

Similar Documents

Publication Publication Date Title
CN111079549B (zh) 一种利用门控融合判别特征进行漫画人脸识别的方法
CN109948425B (zh) 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置
CN109325398B (zh) 一种基于迁移学习的人脸属性分析方法
CN107145842B (zh) 结合lbp特征图与卷积神经网络的人脸识别方法
Tang et al. Facial landmark detection by semi-supervised deep learning
CN109800648A (zh) 基于人脸关键点校正的人脸检测识别方法及装置
CN109993100B (zh) 基于深层特征聚类的人脸表情识别的实现方法
CN106682598A (zh) 一种基于级联回归的多姿态的人脸特征点检测方法
Yang et al. Larnet: Lie algebra residual network for face recognition
CN104036255A (zh) 一种人脸表情识别方法
CN114049662B (zh) 一种基于面部特征迁移学习的表情识别网络装置及方法
CN111401303A (zh) 一种身份与视角特征分离的跨视角步态识别方法
CN113743251B (zh) 一种基于弱监督场景的目标搜索方法及装置
CN109858362A (zh) 一种基于倒置残差结构和角度联合损失函数的移动端人脸检测方法
CN111339849A (zh) 一种融合行人属性的行人重识别的方法
CN112381047B (zh) 一种人脸表情图像的增强识别方法
CN103984920A (zh) 一种基于稀疏表示与多特征点的三维人脸识别方法
Du High-precision portrait classification based on mtcnn and its application on similarity judgement
CN107818299A (zh) 基于融合hog特征和深度信念网络的人脸识别算法
CN116386102A (zh) 一种基于改进残差卷积网络inception块结构的人脸情绪识别方法
Han et al. Text-to-image person re-identification based on multimodal graph convolutional network
CN110880010A (zh) 基于卷积神经网络的视觉slam闭环检测算法
CN116311387A (zh) 一种基于特征交集的跨模态行人重识别方法
CN106980845B (zh) 基于结构化建模的人脸关键点定位方法
CN118097358A (zh) 多层级信息遥感图像的目标检测方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant