CN111611880B - 一种基于神经网络无监督对比学习的高效行人重识别方法 - Google Patents
一种基于神经网络无监督对比学习的高效行人重识别方法 Download PDFInfo
- Publication number
- CN111611880B CN111611880B CN202010364742.8A CN202010364742A CN111611880B CN 111611880 B CN111611880 B CN 111611880B CN 202010364742 A CN202010364742 A CN 202010364742A CN 111611880 B CN111611880 B CN 111611880B
- Authority
- CN
- China
- Prior art keywords
- training
- unsupervised
- model
- feature vector
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于神经网络无监督对比学习的高效行人重识别方法。本发明步骤:步骤1:准备行人重识别模型训练的数据集;步骤2:选择具有较强特征提取能力的卷积神经网络作为无监督对比学习模型的主干网络,无监督对比学习模型中的对比学习以特征向量为出发点,即对无监督对比学习模型提取的特征向量进行约束,按照损失函数的方式,利用优化器和反向传播的原理实现对无监督对比学习模型的网络参数的修正;步骤3:将训练图片的特征向量存入缓存区;步骤4:通过量化指标进行量化评估。本发明使用有标数据和无标数据同时训练,即保障模型较高的准确度,实现模型易训练的特点,又能有较好的模型扩展性,对新环境的新样本有更好的扩展性。
Description
技术领域
本发明涉及智能安防业务涵盖社会安保、人员监控、反恐维稳等领域,提供一种基于神经网络无监督对比学习的高效行人重识别方法。一种场景适应能力强、跨摄像头多角度、识别精度高的普适性行人识别方法。
背景技术
行人重识别技术是视频追踪的一个重要实验技术,通过对多个摄像头中行人图片的提取进行同一人在不同姿态、不同角度、不同环境下的识别和匹配技术。该技术能够根据行人的穿着、体态、发型等信息认知行人,同时该技术可以作为人脸识别技术的重要补充,可以对无法获取清晰拍摄人脸的行人进行跨摄像头连续跟踪,增强数据的时空连续性。行人重识别技术利用计算机视觉技术判断图像或者视频序列中是否存在特定行人。广泛被认为是一个图像检索的子问题。给定一个监控行人图像,检索跨设备下的该行人图像。
目前行人检测的算法如DPM(Deformable part model可形变部件模型)和FastRCNN已经可以实现在一个图像中圈出行人的目标,即自动标注,不需要人工去标注了,那么行人重识别任务就是要找到最可能匹配待识别目标的候选。目前的行人再识别研究是基于数据集的,就是通过架设几个摄像头,采集行人图像,然后人工标注或自动标注。这些图像一部分用于训练,一部分用于识别。目前受到相机拍摄角度、图片成像质量、环境光线变化、人体姿态变化、目标遮挡和训练数据集不够等问题,目前的识别率还达不到可以应用的要求。
传统的行人重识别方法是采用有监督的训练方法,即使用人工收集和标记的行人训练集进行训练,因为训练集的图片是有限的场景下的有限数量的采集,并不能完全符合实际生活中的所有场景,训练的行人重识别模型对与训练集相同情境下的图片具有良好的检测和识别精度,但是对其他情景下的图片却没有很好的识别精度。所以传统有监督学习下训练的模型缺少对实际生活场景的普适性。
如果需要在新的场景下让行人重识别模型得到较好的结果,需要对新场景进行行人图片的采集、人工标注以及模型重新训练,这其中代价最高就是行人图片的标注,这个需要耗费大量的人力物力,也是目前有监督学习下行人重识别技术没法落地应用的主要障碍。本发明是采用无监督学习方法进行图片特征表述学习的技术,不需要大量的人工数据标注,只需要提供新环境下足够的行人抓取照片即可。
传统的使用监督学习的方式需要进行足够的新环境鲁棒性和稳定性测试,需要大量的人力物力去测试系统和模型的有效运行性,在模型和系统实际上线运行之前,需要足够的时间去测试,检验模型在新场景下是否具有足够的稳定性和准确性。采用有监督方法训练的模型存在着不稳定性,在实际使用中存在极大的风险,这也是制约目前行人重识别技术落地的重要因素。
行人重识别的技术受环境因素影响巨大,系统稳定运行的风险也很大,特别是有监督训练的模型普适性不强,容易被攻击造成系统无法正常运行。在现实中,攻击者可以换装衣服和帽子、光照强度变化、遮挡身体部分等实现对行人重识别系统的攻击。
发明内容
本发明的目的是针对现有技术的不足,提出一种基于神经网络无监督对比学习的高效行人重识别方法。一种使用对比学习方式的普适性行人重识别方法。本发明可以快速高效的实现行人在不同场景下的识别和检测。
本发明根据无监督学习领域的对比学习方法,利用无监督不需要标注数据的特点,使用神经网络进行对比学习,利用更多的无标签的行人图片,去提高神经网络的特征表达和特征提取能力。
本发明一种基于神经网络无监督对比学习的高效行人重识别方法,其解决技术问题所采用的技术方案包括以下步骤:
步骤1:准备行人重识别模型训练的数据集;
步骤2:选择具有较强特征提取能力的卷积神经网络作为无监督对比学习模型的主干网络,卷积神经网络包括ResNet;无监督对比学习模型中的对比学习以特征向量为出发点,即对无监督对比学习模型提取的特征向量进行约束,按照损失函数的方式,利用优化器和反向传播的原理实现对无监督对比学习模型的网络参数的修正;
步骤3:将训练图片的特征向量存入缓存区
为了方便模型训练过程中特征向量的对比学习,正在训练中的无监督对比学习模型将当前训练图片提取的特征向量存入缓存区,便于下一个训练周期进行特征向量对比;
当需要进行特征向量对比时,随机选取指定数量的特征向量与当前训练周期中提取的特征向量进行对比学习;
步骤4:通过量化指标进行量化评估。
进一步的,步骤1具体实现如下:
1-1.在应用该行人重识别方法的地区,实地收集行人图片,无需标注图片,形成真实训练集;
1-2.从网络中选取公开的带标签的行人重识别的科研训练集;
1-3.将收集到的行人重识别图片作为两个训练集,用来同一个模型的训练学习;利用训练服务器GPU大容量的特点,将两个训练集同时放入无监督对比学习模型进行训练,实现训练数据的并行处理。
进一步的,步骤2所述的对比学习具体实现如下:
2-1.使用带标签的科研训练集对卷积无监督对比学习模型进行监督学习,使用交叉熵函数公式(1)训练,当损失函数不再下降时,无监督对比学习模型达到收敛状态;
2-2.然后将带标签的科研训练集和无标签的真实训练集输入步骤2-1训练后的无监督对比学习模型;具体的科研训练集和真实训练集按照1:1的比例,分批次送入无监督对比学习模型中进行训练,损失函数采用公式(2)所表达的相似度函数,指导无监督对比学习模型提取带标签训练图片和无标签训练图片的特征向量,通过计算特征向量的欧式距离判断达到相似度一致,打破不同环境中潜在的不一致性;特征向量的欧式距离计算如公式(4)所示;
2-3.对带标签训练图片和无标签训练图片进行对比学习,让训练图片的每一个特征向量具有自己独特的特征,使用的是无参数的softmaxs损失函数,如公式(3)所示,将每一个特征向量作为无参数softmax的输入;
计算公式(1)-(3)所示无参数损失函数如下所示:
其中和/>分别表示交叉熵损失函数、相似度损失函数和无参数softmax损失函数;其中ns表示带标签的科研训练集中第s个批次的样本数量,ys,i表示带标签的科研训练集中第s个批次中第i个样本的标签;xs,i表示带标签的科研训练集中第s个批次中第i个样本;p()表示条件概率函数;q表示无标签的真实训练集中一个样本的特征向量,k-和k+表示无监督对比学习模型在上一个训练周期已经保存的训练好的特征向量;k-表示与q无关的特征向量,k+表示跟q相关的特征向量,τ表示时间常量,用来控制特征向量的大小;ki表示上一个训练周期已经保存的训练好的特征向量中的第i个特征向量。
进一步的,为了保证特征提取在不同时期的连续性,在使用缓存区中提取到的特征向量时,需要对特征向量进行当前监督对比学习模型的参数的中和,中和的程度与缓存区中特征向量更新的时间间隔有关;更新时间间隔越长,中和参数越大,则缓存区中的特征向量需要更多当前训练模型的中和指导,中和函数如下所示:
v=(1-λt)vm+λtv0 (5)
其中,v表示中和后的特征向量,vm表示监督对比学习模型当前训练周期提取的特征向量,v0表示缓存区中的特征向量,λt表示更新常量,该常数跟更新时间有关。
进一步的,所述的λt用更新常量公式表示,表示方式如下:
进一步的,在使用缓存区时,以一个批次处理的时间为间隔,对缓存区中的所有特征向量进行统一更新;即对每一批处理训练的特征向量进行同一批次的更新,保障每一个训练图片都有最新的特征向量,方便整个模型的对比学习过程。
本发明的有益效果是:
使用有标数据和无标数据同时训练,即保障模型较高的准确度,实现模型易训练的特点,又能有较好的模型扩展性,对新环境的新样本有更好的扩展性。无监督学习同时对样本个体特异性和环境一致性进行约束学习,确保了行人重识别技术在新环境下的稳定性和准确性,同时无监督学习的方式可以节约大量的数据标注工作。利用动态的特征向量的缓存和融合利用,可以实现对样本特征的准确描述,实现更好的模型训练效果。
具体实施方式
本发明根据无监督学习领域的对比学习方法,利用无监督不需要标注数据的特点,使用神经网络进行对比学习,利用更多的无标签的行人图片,去提高神经网络的特征表达和特征提取能力。
本发明一种基于神经网络无监督对比学习的高效行人重识别方法,其解决技术问题所采用的技术方案包括以下步骤:
步骤1:准备行人重识别模型训练的数据集。
尽管采集的数据集不是用在监督学习方法训练模型,但是训练图片依旧需要尽可能贴近实际生活中的图片,确保行人重识别较高的精度和可用性,具体步骤如下:
1-1.在应用该行人重识别方法的地区,实地收集行人图片,无需标注图片,形成真实训练集;
1-2.从网络中选取公开的带标签的行人重识别的科研训练集;
1-3.将收集到的行人重识别图片作为两个训练集,用来同一个模型的训练学习。利用训练服务器GPU大容量的特点,将两个训练集同时放入无监督对比学习模型进行训练,实现训练数据的并行处理。
步骤2:选择具有较强特征提取能力的卷积神经网络作为无监督对比学习模型的主干网络,卷积神经网络包括ResNet。无监督对比学习模型中的对比学习以特征向量为出发点,即对无监督对比学习模型提取的特征向量进行约束,按照损失函数的方式,利用优化器和反向传播的原理实现对无监督对比学习模型的网络参数的修正。
对比学习的实现过程如下(创新点);
2-1.使用带标签的科研训练集对卷积无监督对比学习模型进行监督学习,使用交叉熵函数公式(1)训练,当损失函数不再下降时,无监督对比学习模型达到收敛状态;
2-2.然后将带标签的科研训练集和无标签的真实训练集输入步骤2-1训练后的无监督对比学习模型;具体的科研训练集和真实训练集按照1:1的比例,分批次送入无监督对比学习模型中进行训练,损失函数采用公式(2)所表达的相似度函数,指导无监督对比学习模型提取带标签训练图片和无标签训练图片的特征向量,通过计算特征向量的欧式距离判断达到相似度一致,打破不同环境中潜在的不一致性;特征向量的欧式距离计算如公式(4)所示。
所述的每个批次中样本的数量相同;
2-3.对带标签训练图片和无标签训练图片进行对比学习,让训练图片的每一个特征向量具有自己独特的特征,使用的是无参数的softmaxs损失函数,如公式(3)所示,将每一个特征向量作为无参数softmax的输入。
计算公式(1)-(3)所示无参数损失函数如下所示:
其中和/>分别表示交叉熵损失函数、相似度损失函数和无参数softmax损失函数。其中ns表示带标签的科研训练集中第s个批次的样本数量,ys,i表示带标签的科研训练集中第s个批次中第i个样本的标签;xs,i表示带标签的科研训练集中第s个批次中第i个样本。p()表示条件概率函数;q表示无标签的真实训练集中一个样本的特征向量,k-和k+表示无监督对比学习模型在上一个训练周期已经保存的训练好的特征向量;k-表示与q无关的特征向量,k+表示跟q相关的特征向量,τ表示时间常量,用来控制特征向量的大小。ki表示上一个训练周期已经保存的训练好的特征向量中的第i个特征向量;
步骤3:将训练图片的特征向量存入缓存区
为了方便模型训练过程中特征向量的对比学习,正在训练中的无监督对比学习模型将当前训练图片提取的特征向量存入缓存区,便于下一个训练周期进行特征向量对比;
当需要进行特征向量对比时,随机选取指定数量的特征向量与当前训练周期中提取的特征向量进行对比学习。
同时为了保证特征提取在不同时期的连续性,在使用缓存区中提取到的特征向量时,需要对特征向量进行当前监督对比学习模型的参数的中和,中和的程度与缓存区中特征向量更新的时间间隔有关。更新时间间隔越长,中和参数越大,则缓存区中的特征向量需要更多当前训练模型的中和指导,中和函数如下所示:
v=(1-λt)vm+λtv0 (5)
其中,v表示中和后的特征向量,vm表示监督对比学习模型当前训练周期提取的特征向量,v0表示缓存区中的特征向量,λt表示更新常量,该常数跟更新时间有关。
λt表示更新常量公式,求解方式如下:
在使用缓存区时,以一个批次处理的时间为间隔,对缓存区中的所有特征向量进行统一更新;即对每一批处理训练的特征向量进行同一批次的更新,保障每一个训练图片都有最新的特征向量,方便整个模型的对比学习过程。
步骤4:进行量化评估
量化评估的量化指标为
(1)CMC:累积匹配曲线,Rank n代表前n个有正确的匹配结果,Rank 1即代表第一次就找对了,Rank 5则指前五次中有正确结果;
(2)mAP:平均AP值,是对多个验证集个体求平均AP值。AP准确率,计算公式为预测样本中实际正样本数/所有被预测成正样本数。量化评估结果如下,我们在Market1501公开科研数据集进行测试,下面是我们的模型和现在最好的模型的对比。
| rank-1 | rank-5 | mAP | |
| ECN | 75.1 | - | 43.0 |
| MAR | 67.7 | 81.9 | 40.0 |
| SI | 74.0 | 87.4 | 47.9 |
| Our | 78.6 | 85.4 | 48.3 |
使用有标数据和无标数据同时训练,即保障模型较高的准确度,实现模型易训练的特点,又能有较好的模型扩展性,对新环境的新样本有更好的扩展性。无监督学习同时对样本个体特异性和环境一致性进行约束学习,确保了行人重识别技术在新环境下的稳定性和准确性,同时无监督学习的方式可以节约大量的数据标注工作。利用动态的特征向量的缓存和融合利用,可以实现对样本特征的准确描述,实现更好的模型训练效果。
Claims (4)
1.一种基于神经网络无监督对比学习的高效行人重识别方法,其特征在于包括以下步骤:
步骤1:准备行人重识别模型训练的数据集;
步骤2:选择具有较强特征提取能力的卷积神经网络作为无监督对比学习模型的主干网络,卷积神经网络包括ResNet;无监督对比学习模型中的对比学习以特征向量为出发点,即对无监督对比学习模型提取的特征向量进行约束,按照损失函数的方式,利用优化器和反向传播的原理实现对无监督对比学习模型的网络参数的修正;
步骤3:将训练图片的特征向量存入缓存区
为了方便模型训练过程中特征向量的对比学习,正在训练中的无监督对比学习模型将当前训练图片提取的特征向量存入缓存区,便于下一个训练周期进行特征向量对比;
当需要进行特征向量对比时,随机选取指定数量的特征向量与当前训练周期中提取的特征向量进行对比学习;
步骤4:通过量化指标进行量化评估;
步骤1具体实现如下:
1-1.在应用该行人重识别方法的地区,实地收集行人图片,无需标注图片,形成真实训练集;
1-2.从网络中选取公开的带标签的行人重识别的科研训练集;
1-3.将收集到的行人重识别图片作为两个训练集,用来同一个模型的训练学习;利用训练服务器GPU大容量的特点,将两个训练集同时放入无监督对比学习模型进行训练,实现训练数据的并行处理;
步骤2所述的对比学习具体实现如下:
2-1.使用带标签的科研训练集对卷积无监督对比学习模型进行监督学习,使用交叉熵函数公式(1)训练,当损失函数不再下降时,无监督对比学习模型达到收敛状态;
2-2.然后将带标签的科研训练集和无标签的真实训练集输入步骤2-1训练后的无监督对比学习模型;具体的科研训练集和真实训练集按照1:1的比例,分批次送入无监督对比学习模型中进行训练,损失函数采用公式(2)所表达的相似度函数,指导无监督对比学习模型提取带标签训练图片和无标签训练图片的特征向量,通过计算特征向量的欧式距离判断达到相似度一致,打破不同环境中潜在的不一致性;特征向量的欧式距离计算如公式(4)所示;
2-3.对带标签训练图片和无标签训练图片进行对比学习,让训练图片的每一个特征向量具有自己独特的特征,使用的是无参数的softmaxs损失函数,如公式(3)所示,将每一个特征向量作为无参数softmax的输入;
计算公式(1)-(3)所示无参数损失函数如下所示:
2.根据权利要求1所述的一种基于神经网络无监督对比学习的高效行人重识别方法,其特征在于为了保证特征提取在不同时期的连续性,在使用缓存区中提取到的特征向量时,需要对特征向量进行当前监督对比学习模型的参数的中和,中和的程度与缓存区中特征向量更新的时间间隔有关;更新时间间隔越长,中和参数越大,则缓存区中的特征向量需要更多当前训练模型的中和指导,中和函数如下所示:
v=(1-λt)vm+λtv0(5)
其中,v表示中和后的特征向量,vm表示监督对比学习模型当前训练周期提取的特征向量,v0表示缓存区中的特征向量,λt表示更新常量,该更新常量跟更新时间有关。
4.根据权利要求2或3所述的一种基于神经网络无监督对比学习的高效行人重识别方法,其特征在于在使用缓存区时,以一个批次处理的时间为间隔,对缓存区中的所有特征向量进行统一更新;即对每一批处理训练的特征向量进行同一批次的更新,保障每一个训练图片都有最新的特征向量,方便整个模型的对比学习过程。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010364742.8A CN111611880B (zh) | 2020-04-30 | 2020-04-30 | 一种基于神经网络无监督对比学习的高效行人重识别方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010364742.8A CN111611880B (zh) | 2020-04-30 | 2020-04-30 | 一种基于神经网络无监督对比学习的高效行人重识别方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN111611880A CN111611880A (zh) | 2020-09-01 |
| CN111611880B true CN111611880B (zh) | 2023-06-20 |
Family
ID=72201267
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202010364742.8A Active CN111611880B (zh) | 2020-04-30 | 2020-04-30 | 一种基于神经网络无监督对比学习的高效行人重识别方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111611880B (zh) |
Families Citing this family (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112115997B (zh) | 2020-09-11 | 2022-12-02 | 苏州浪潮智能科技有限公司 | 一种物体识别模型的训练方法、系统及装置 |
| CN112418264B (zh) * | 2020-10-14 | 2025-01-21 | 上海眼控科技股份有限公司 | 检测模型的训练方法、装置、目标检测方法、设备和介质 |
| CN112381116B (zh) * | 2020-10-21 | 2022-10-28 | 福州大学 | 基于对比学习的自监督图像分类方法 |
| CN112347957A (zh) * | 2020-11-12 | 2021-02-09 | 广联达科技股份有限公司 | 行人重识别方法、装置、计算机设备及存储介质 |
| CN112668493B (zh) * | 2020-12-30 | 2022-11-11 | 上海交通大学 | 基于gan和深度学习的换装行人再识别定位跟踪系统 |
| CN113191183A (zh) * | 2021-03-02 | 2021-07-30 | 清华大学 | 人员重新识别中的无监督域纠正伪标签方法及装置 |
| CN113111814B (zh) * | 2021-04-20 | 2022-12-06 | 合肥学院 | 基于正则化约束的半监督行人重识别方法及装置 |
| CN114241514B (zh) * | 2021-11-15 | 2024-05-28 | 北京爱笔科技有限公司 | 一种用于提取人体骨骼特征的模型训练方法及装置 |
| CN114511884A (zh) * | 2022-01-29 | 2022-05-17 | 上海国民集团健康科技有限公司 | 基于对比学习的舌象清晰度识别方法、装置、设备和介质 |
| CN114529946B (zh) * | 2022-02-23 | 2024-12-10 | 厦门市美亚柏科信息股份有限公司 | 基于自监督学习的行人重识别方法、装置、设备及存储介质 |
| CN114863425B (zh) * | 2022-03-31 | 2024-10-29 | 哈尔滨工程大学 | 基于有监督对比学习的尿红细胞的分类方法 |
| CN114782890B (zh) * | 2022-04-11 | 2025-06-10 | 中山大学 | 一种行人重识别的神经网络加速装置及方法 |
| CN117011887B (zh) * | 2023-06-25 | 2025-12-09 | 河北大学 | 一种基于桥接网络知识回顾的终身行人重识别方法 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109948561A (zh) * | 2019-03-25 | 2019-06-28 | 广东石油化工学院 | 基于迁移网络的无监督图像视频行人重识别的方法及系统 |
| GB201908574D0 (en) * | 2019-06-14 | 2019-07-31 | Vision Semantics Ltd | Optimised machine learning |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019182974A2 (en) * | 2018-03-21 | 2019-09-26 | Nvidia Corporation | Stereo depth estimation using deep neural networks |
| CN110502964B (zh) * | 2019-05-21 | 2021-09-28 | 杭州电子科技大学 | 一种无监督数据驱动的行人重识别方法 |
| CN110263697A (zh) * | 2019-06-17 | 2019-09-20 | 哈尔滨工业大学(深圳) | 基于无监督学习的行人重识别方法、装置及介质 |
| CN110414368B (zh) * | 2019-07-04 | 2021-12-17 | 华中科技大学 | 一种基于知识蒸馏的无监督行人重识别方法 |
| KR102281590B1 (ko) * | 2019-07-31 | 2021-07-29 | 엘지전자 주식회사 | 음성인식 성능 향상을 위한 비 지도 가중치 적용 학습 시스템 및 방법, 그리고 기록 매체 |
| CN110414462B (zh) * | 2019-08-02 | 2022-02-08 | 中科人工智能创新技术研究院(青岛)有限公司 | 一种无监督的跨域行人重识别方法及系统 |
-
2020
- 2020-04-30 CN CN202010364742.8A patent/CN111611880B/zh active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109948561A (zh) * | 2019-03-25 | 2019-06-28 | 广东石油化工学院 | 基于迁移网络的无监督图像视频行人重识别的方法及系统 |
| GB201908574D0 (en) * | 2019-06-14 | 2019-07-31 | Vision Semantics Ltd | Optimised machine learning |
Also Published As
| Publication number | Publication date |
|---|---|
| CN111611880A (zh) | 2020-09-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111611880B (zh) | 一种基于神经网络无监督对比学习的高效行人重识别方法 | |
| CN111832514B (zh) | 基于软多标签的无监督行人重识别方法及装置 | |
| CN111783576B (zh) | 基于改进型YOLOv3网络和特征融合的行人重识别方法 | |
| CN109948561B (zh) | 基于迁移网络的无监督图像视频行人重识别的方法及系统 | |
| Novotny et al. | Self-supervised learning of geometrically stable features through probabilistic introspection | |
| CN109886141B (zh) | 一种基于不确定性优化的行人再辨识方法 | |
| CN110263697A (zh) | 基于无监督学习的行人重识别方法、装置及介质 | |
| Karianakis et al. | Reinforced temporal attention and split-rate transfer for depth-based person re-identification | |
| CN110378259A (zh) | 一种面向监控视频的多目标行为识别方法及系统 | |
| CN110717411A (zh) | 一种基于深层特征融合的行人重识别方法 | |
| CN110580460A (zh) | 基于行人身份和属性特征联合识别验证的行人再识别方法 | |
| CN111814661A (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
| CN110008793A (zh) | 人脸识别方法、装置及设备 | |
| CN108960047B (zh) | 基于深度二次树的视频监控中人脸去重方法 | |
| CN108765394A (zh) | 基于质量评价的目标识别方法 | |
| CN103955947A (zh) | 一种基于连续最小能量与表观模型的多目标关联跟踪方法 | |
| WO2021056765A1 (zh) | 图像处理方法及相关装置 | |
| CN109034035A (zh) | 基于显著性检测和特征融合的行人重识别方法 | |
| CN110728216A (zh) | 一种基于行人属性自适应学习的无监督行人再识别方法 | |
| CN112541421A (zh) | 一种开放空间的行人换装重识别方法 | |
| WO2019153175A1 (zh) | 基于机器学习的遮挡人脸识别系统、方法及存储介质 | |
| CN111967433A (zh) | 一种基于自监督学习网络的动作识别办法 | |
| Wu et al. | Exploiting target data to learn deep convolutional networks for scene-adapted human detection | |
| Li et al. | Person reidentification based on elastic projections | |
| CN115661722B (zh) | 一种结合属性与朝向的行人再识别方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |