[go: up one dir, main page]

CN109815873A - 基于图像识别的商品展示方法、装置、设备及介质 - Google Patents

基于图像识别的商品展示方法、装置、设备及介质 Download PDF

Info

Publication number
CN109815873A
CN109815873A CN201910042541.3A CN201910042541A CN109815873A CN 109815873 A CN109815873 A CN 109815873A CN 201910042541 A CN201910042541 A CN 201910042541A CN 109815873 A CN109815873 A CN 109815873A
Authority
CN
China
Prior art keywords
image
recognized
target
images
commodity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910042541.3A
Other languages
English (en)
Inventor
罗琳耀
徐国强
邱寒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OneConnect Smart Technology Co Ltd
Original Assignee
OneConnect Smart Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OneConnect Smart Technology Co Ltd filed Critical OneConnect Smart Technology Co Ltd
Priority to CN201910042541.3A priority Critical patent/CN109815873A/zh
Publication of CN109815873A publication Critical patent/CN109815873A/zh
Priority to PCT/CN2019/120988 priority patent/WO2020147430A1/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于图像识别的商品展示方法、装置、设备及介质,该方法包括采用人脸检测模型对待展示商品的目标视频数据中至少两帧待识别图像进行人脸识别和聚类,获取目标视频数据对应的客户数量和每一客户对应的图像聚类集合;若客户数量大于预设数量,则采用预先训练好的微表情识别模型对每一图像聚类集合中的待识别图像进行识别,获取每一待识别图像的单帧情绪;基于待识别图像的单帧情绪,获取与图像聚类集合对应的客户的目标情绪;依据客户数量和每一图像聚类集合对应的客户的目标情绪,获取最终情绪;依据待展示商品对应的最终情绪,获取目标展示商品,以解决展示商品吸引力不够的问题。

Description

基于图像识别的商品展示方法、装置、设备及介质
技术领域
本发明涉及智能决策领域,尤其涉及一种基于图像识别的商品展示方法、装置、设备及介质。
背景技术
目前,随着时间更迭,众多商家在新产品推出或者换季期间,会推出新的商品,需要对推出的商品进行推广,以吸引客户进行购买。通常商家是将需要推出的商品挑选出一些商品进行展示,以供客户浏览查看,但由于不清楚客户的喜好,而以个人眼光从商品中挑选出比较出色的商品进行展示,或者是公司内部人员对需要展示的商品进行决定,从而使得展示的商品不符合客户眼光或需求,降低展示商品的吸引力,无法吸引客户进店购买。
发明内容
本发明实施例提供一种基于图像识别的商品展示方法、装置、设备及介质,以解决展示商品吸引力不够的问题。
一种基于图像识别的商品展示方法,包括:
获取待展示商品的目标视频数据,所述目标视频数据包含至少两帧待识别图像;
采用人脸检测模型对至少两帧所述待识别图像进行人脸识别和聚类,获取所述目标视频数据对应的客户数量和每一客户对应的图像聚类集合,每一所述图像聚类集合包括至少一帧待识别图像;
若所述客户数量大于预设数量,则采用预先训练好的微表情识别模型对每一所述图像聚类集合中的待识别图像进行识别,获取每一所述待识别图像的单帧情绪;
基于至少一帧所述待识别图像的单帧情绪,获取与所述图像聚类集合对应的客户的目标情绪;
依据所述客户数量和每一所述图像聚类集合对应的客户的目标情绪,获取最终情绪;
依据所述待展示商品对应的最终情绪,获取目标展示商品。
一种基于图像识别的商品展示装置,包括:
数据获取模块,用于获取待展示商品的目标视频数据,所述目标视频数据包含至少两帧待识别图像;
图像聚类集合获取模块,用于采用人脸检测模型对至少两帧所述待识别图像进行人脸识别和聚类,获取所述目标视频数据对应的客户数量和每一客户对应的图像聚类集合,每一所述图像聚类集合包括至少一帧待识别图像;
单帧情绪确定模块,用于若所述客户数量大于预设数量,则采用预先训练好的微表情识别模型对每一所述图像聚类集合中的待识别图像进行识别,获取每一所述待识别图像的单帧情绪;
目标情绪获取模块,用于基于至少一帧所述待识别图像的单帧情绪,获取与所述图像聚类集合对应的客户的目标情绪;
最终情绪获取模块,用于依据所述客户数量和每一所述图像聚类集合对应的客户的目标情绪,获取最终情绪;
目标展示商品获取模块,用于依据所述待展示商品对应的最终情绪,获取目标展示商品。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于图像识别的商品展示方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于图像识别的商品展示方法的步骤。
上述基于图像识别的商品展示方法、装置、设备及介质,通过获取待展示商品的目标视频数据,采用人脸检测模型对目标视频数据中待识别图像进行人脸识别和聚类,获取目标视频数据对应的客户数量和每一客户对应的图像聚类集合,以便后续根据一定数量的客户的目标情绪确定目标展示商品,提高目标展示商品的准确率。若客户数量大于预设数量,则采用预先训练好的微表情识别模型对每一图像聚类集合中的待识别图像进行识别,获取每一待识别图像的单帧情绪,以实现识别客户的情绪。基于至少一帧待识别图像的单帧情绪,获取与图像聚类集合对应的客户的目标情绪,以确定该待展示商品是否为客户所感兴趣的商品。依据客户数量和每一图像聚类集合对应的客户的目标情绪,以获取到一定数量的客户对该待展示商品的最终情绪,依据待展示商品对应的最终情绪,获取目标展示商品,提高目标展示商品的准确率,使得目标商品为大多数客户较为感兴趣的商品。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于图像识别的商品展示方法的应用环境示意图;
图2是本发明一实施例中基于图像识别的商品展示方法的流程图;
图3是本发明一实施例中基于图像识别的商品展示方法的流程图;
图4是本发明一实施例中基于图像识别的商品展示方法的流程图;
图5是本发明一实施例中基于图像识别的商品展示方法的流程图;
图6是本发明一实施例中基于图像识别的商品展示方法的流程图;
图7是本发明一实施例中基于图像识别的商品展示方法的流程图;
图8是本发明一实施例中基于图像识别的商品展示装置的原理框图;
图9是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结和本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的基于图像识别的商品展示方法,可应用在如图1的应用环境中,其中,客户端通过网络与服务端进行通信。该基于图像识别的商品展示方法应用在服务端上,通过对待展示商品对应的目标视频数据进行分析识别,获取目标视频数据中每一客户对应的情绪,并根据每一客户对应的情绪确定客户对该待展示商品的最终情绪,根据每一待展示商品对应的最终情绪确定目标展示商品,使得目标展示商品为客户较为关注的商品,提高目标展示商品的吸引力,以吸引客户对展示商品进行购买。其中,客户端可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务端可以用独立的服务端或者是多个服务端组成的服务端集群来实现。
在一实施例中,如图2所示,提供一种基于图像识别的商品展示方法,以该方法应用在图1中的服务端为例进行说明,具体包括如下步骤:
S10:获取待展示商品的目标视频数据,目标视频数据包含至少两帧待识别图像。
其中,目标视频数据是指对与待展示商品对应的初始视频数据进行筛选以获取到的视频数据,具体可以是满足一些条件的的视频数据。例如,满足待展示商品的属性信息的视频数据。属性信息可包括适宜年龄和适宜性别。可以理解地,通过适宜年龄和适宜性别对采集到的与待展示商品对应的初始视频数据进行筛选,获取到的目标视频数据。待识别图像是指根据适宜年龄和适宜性别进行筛选后的图像。其中,初始视频数据为视频采集工具采集到的与每一待展示商品对应的视频数据。
具体地,预先为每一待展示商品所在区域配置一视频采集工具,该视频采集工具用于采集图像或者视频数据,当视频采集工具检测到有客户出现在采集工具的采集范围之内时,视频采集工具自动触发,并对客户进行图像或者视频数据采集。该视频采集工具具体为摄像头,通过摄像头可实时采集每一待展示商品对应的采集范围内的初始视频数据。由于每一采集工具对应于一个待展示商品,通过每一摄像头采集每一个待展示商品所在区域的初始视频数据,通过对待展示商品所在区域的初始视频数据进行筛选,以获取到每一与待展示商品对应的目标视频数据。其中,采集到的初始视频数据中携带有待展示商品对应的商品标识,以便后续通过商品标识确定对应的目标视频数据。例如,视频采集工具采集到的初始视频数据包括商品标识A,那么该初始视频数据为商品标识A对应的初始视频数据,对初始视频数据进行筛选,以获取到商品标识A对应的目标视频数据。其中,商品标识是指用于区分不同待展示商品的唯一性标识。可选地,商品标识可以由数字、字母、文字或者符号的至少一项组成。例如,商品标识可以是待展示商品的编号或者是序列号等。
S20:采用人脸检测模型对至少两帧待识别图像进行人脸识别和聚类,获取目标视频数据对应的客户数量和每一客户对应的图像聚类集合,每一图像聚类集合包括至少一帧待识别图像。
其中,人脸检测模型是指预先训练好的用于检测每一帧待识别图像是否包含人的面部区域的模型。客户数量是指在目标视频数据中,根据客户不同所确定的数量。图像聚类集合是指将同一客户对应的待识别图像进行聚类,以形成的集合。
具体地,服务端与数据库网络连接,数据库中存储有人脸检测模型,目标视频数据中包含不同客户对应的待识别图像,采用人脸检测模型对待识别图像进行识别,以获取到待识别图像中包含的人脸图像,其中,人脸图像是指客户的人脸区域的图像。服务端将获取到的目标视频数据中的每一待识别图像输入至人脸检测模型,通过人脸检测模型对目标视频数据中每一待识别图像进行人脸识别,确定每一待识别图像是否为人脸图像,若待识别图像为人脸图像,则将相同的人脸图像进行聚类,即对相同的人脸图像对应的待识别图像进行聚类,以获取到每一客户对应的图像聚类集合,根据目标视频数据中图像聚类集合的数量,确定目标视频数据中客户数量。
更具体地,采用特征提取算法提取每一待识别图像对应的人脸图像的人脸特征,将每一待识别图像对应的人脸特征进行特征相似度计算,若特征相似度大于预设阈值,则说明特征相似度大于预设阈值对应的人脸图像为相同客户对应的人脸图像,将同一客户对应的人脸图像对应的待识别图像进行聚类,以获取每一客户对应的图像聚类集合,并根据图像聚类集合的数量,确定目标视频数据中的客户数量。其中,预设阈值时预先设定的用于评估相似度是否达到判定为同一客户的人脸的值。特征提取算法包括但不局限于CNN(Convolutional Neural Network,卷积神经网)算法,例如,可通过CNN算法提取人待识别图像对应的人脸图像的人脸特征。
S30:若客户数量大于预设数量,则采用预先训练好的微表情识别模型对每一图像聚类集合中的待识别图像进行识别,获取每一待识别图像的单帧情绪。
其中,微表情识别模型是指通过捕捉待识别图像中的客户脸部的局部特征,并根据局部特征识别待识别图像中人脸的各个目标面部动作单元,再根据所识别出的目标面部动作单元确定其情绪的模型。单帧情绪是指通过微表情识别模型对待识别图像进行识别,根据识别出的目标面部动作单元确定的情绪。
其中,微表情识别模型可以是基于深度学习的神经网络识别模型,可以是基于分类的局部识别模型,还可以是基于局部二值模式(Local Binary Pattern,LBP)的局部情绪识别模型。本实施例中,微表情识别模型是基于分类的局部识别模型,微表情识别模型预先进行训练时,通过预先收集大量的训练图像数据,训练图像数据中包含每一面部动作单元的正样本和面部动作单元的负样本,通过分类算法对训练图像数据进行训练,获取微表情识别模型。本实施例中,可以是通过SVM分类算法对大量的训练图像数据进行训练,以获取到与N个面部动作单元对应的SVM分类器。例如,可以是39个面部动作单元对应的39个SVM分类器,也可以是54个面部动作单元对应的54个SVM分类器,进行训练的训练图像数据中包含的不同面部动作单元的正样本和负样本越多,则获取到的SVM分类器数量越多。可以理解地,通过N个SVM分类器以形成微表情识别模型,其获取到的SVM分类器越多,则形成的微表情识别模型所识别出的情绪越精准。
其中,预设数量是预先设定的值,每一待展示商品对应的预设数量相同,服务端判断出客户数量大于预设数量,则采用预先训练好的微表情识别模型对每一图像聚类集合中的待识别图像进行识别,获取每一待识别图像对应的单帧情绪。采用预先训练好的微表情识别模型对每一图像聚类集合中的待识别图像进行识别具体包括如下步骤,服务端先对待识别图像进行人脸关键点检测和特征提取,以从待识别图像中获取对应的局部特征,再将待识别图像对应的局部特征输入至预先训练好的微表情识别模型中。微表情识别模型中包括N个SVM分类器,每个SVM分类器对一个待识别图像对应的局部特征进行识别,通过N个SVM分类器对的输入的所有局部特征进行识别,获取N个SVM分类器输出的与该面部动作单元对应的概率值,当概率值大于预设概率阈值时,则将该面部动作单元确定为与该待识别图像对应的目标面部动作单元。其中,预设概率阈值时预先设定的值。其中,目标面部动作单元是指根据微表情识别模型对待识别图像进行识别,获取到的面部动作单元(Action Unit,AU)。
本实施例中,微表情识别模型中包含54个SVM分类器,建立面部动作单元编号映射表,每个面部动作单元用一个预先规定的编号表示。例如,AU1为内眉上扬,AU2为外眉上扬,AU5为上眼睑上扬和AU26为下颚张开等。每个面部动作单元有训练好对应的SVM分类器。例如,通过内眉上扬对应的SVM分类器可识别出内眉上扬的局部特征属于内眉上扬的概率值,通过外眉上扬对应的SVM分类器可识别出外眉上扬的局部特征属于外眉上扬的概率值等。概率值具体可以是0-1之间的值,若输出的概率值为0.6,预设概率阈值为0.5,那么概率值0.6大于预设概率阈值0.5,则将0.6对应的面部动作单元,作为待识别图像的目标面部动作单元。
具体地,服务端可根据每一待识别图像对应的目标面部动作单元确定该待识别图像的单帧情绪,即根据每一待识别图像对应的目标面部动作单元查询评估表,获取与该待识别图像相对应的单帧情绪。如上实施例中,通过54个SVM分类器对局部特征进行识别,确定与待识别图像对应的所有目标面部动作单元,并根据所有目标面部动作单元,查找评估表,确定与待识别图像对应的单帧情绪,以提高获取客户单帧情绪的准确性。其中,评估表是预先配置的表。一种或多种面部动作单元形成不同的情绪,预先获取到每一情绪对应的面部动作单元组合,将每一面部动作单元组合和对应的情绪进行关联存储,以形成评估表。
S40:基于至少一帧待识别图像的单帧情绪,获取与图像聚类集合对应的客户的目标情绪。
其中,目标情绪是指根据图像聚类集合每一待识别图像对应的单帧情绪确定的情绪。可以理解地,图像聚类集合中为同一客户对应的待识别图像,通过该客户的每一待识别图像对应的单帧情绪,确定该客户对应的目标情绪。
具体地,服务端获取图像聚类集合每一待识别图像对应的单帧情绪,对图像聚类集合每一待识别图像对应的单帧情绪进行分析,以获取图像聚类集合对应的客户的目标情绪。可以理解地,判断图像聚类集合每一待识别图像对应的单帧情绪是否相同,若图像聚类集合中所有单帧情绪相同,则将该单帧情绪作为目标情绪。若至少两个个单帧情绪不相同,则确定图像聚类集合中哪种单帧情绪对应的数量最多,将数量最多对应的单帧情绪作为目标情绪。具体地,统计图像聚类集合中每一单帧情绪对应的数量,将最大数量对应的单帧情绪作为与图像聚类集合对应的客户的目标情绪。本实施例中,依次获取到与待展示商品对应的目标视频数据中每一图像聚类集合对应的客户的目标情绪,即获取到每一客户对该待展示商品的情绪。例如,与A商品对应的目标视频数据中包含100个图像聚类集合,获取每一图像聚类集合对应的客户的目标情绪,即获取到100个客户对A商品的目标情绪。
S50:依据客户数量和每一图像聚类集合对应的客户的目标情绪,获取最终情绪。
其中,最终情绪是指通过每一客户对该待展示商品的目标情绪进行数量分析,获取到的与待展示商品对应的情绪。
具体地,服务端根据每一图像聚类集合对应的客户的目标情绪,判断所有图像聚类集合对应的客户的目标情绪是否相同,若图像聚类集合对应的客户的目标情绪不同,则依据客户数量和每一图像聚类集合对应的客户的目标情绪,统计每一目标情绪对应的数量,将数量最大的目标情绪作为最终情绪。例如,A商品的目标视频数据对应的客户数量为100,即图像聚类集合也为100,若100个图像聚类集合对应的目标情绪,50个为喜悦,30个为平静,20个为冷淡,那么将数量最大对应的目标情绪(即喜悦)作为A商品的最终情绪。若数量最大对应的目标情绪为至少两个,则基于目标情绪的情绪类别的数量确定最终情绪。优选地,将目标情绪为积极情绪的作为最终情绪。例如,A商品的目标视频数据对应的客户数量为100,即图像聚类集合也为100,若100个图像聚类集合对应的目标情绪,50个为喜悦,50个为冷淡,则将目标情绪为喜悦作为该待展示商品的最终情绪。若并列的数量最大对应的目标情绪为至少两个,且目标情绪均为负面情绪,由于最终展示的目标展示商品对应的最终情绪应该为积极情绪,则可选择任意一个目标情绪作为最终情绪。
S60:依据待展示商品对应的最终情绪,获取目标展示商品。
其中,目标展示商品是指根据每一待展示商品对应的最终情绪,从待展示商品中获取到可进行展示的商品。
具体地,服务端根据每一待展示商品对应的最终情绪,从待展示商品中获取到目标展示商品具体包括如下步骤:
(1)先确定每一待展示商品对应的最终情绪是否为可进行展示的商品。具体地,预先设定可进行展示的预设情绪,将每一待展示商品对应的最终情绪与预设情绪进行匹配,若最终情绪与预设情绪匹配成功,将匹配成功的最终情绪对应的待展示商品为可进行展示的商品。通过该步骤,避免目标情绪与预设情绪不匹配的待展示商品作为目标展示商品。一般来说,预设情绪为积极情绪,则避免了将最终情绪为负面情绪对应的待展示商品作为目标展示商品。例如,A待展示商品对应的最终情绪为喜悦,则大部分客户对该待展示商品是比较感兴趣的,将喜悦与预设情绪进行匹配,若喜悦与预设情绪匹配成功,则A商品确定为可进行展示的商品。再例如,B待展示商品对应的最终情绪为厌恶、生气或者失望,则大部分客户对该待展示商品是不喜欢的,将B待展示商品对应的最终情绪与预设情绪匹配失败,则B不可作为展示的商品。
(2)确定可展示的商品的数量,若可展示的商品的数量大于预设值,则根据每一可展示的商品对应的最终情绪查询情绪排序表,将最终情绪对应的待展示商品进行排序,获取预设值的待展示商品作为目标展示商品。其中,情绪排序表是预先设定的表,越积极的情绪排在越前,例如,根据喜悦、欢乐、惊讶、平静、厌恶、生气和失望等进行排序。例如,可进行展示的待展示商品的数量为4,预设值为3,则获取可进行展示的待展示商品对应的最终情绪,A待展示商品对应的最终情绪为喜悦,B待展示商品对应的最终情绪为欢乐,C待展示商品对应的最终情绪为惊讶,D待展示商品对应的最终情绪为平静,那么根据情绪排序表对待展示商品进行排序,即为A、B、C和D,获取排前预设值的待展示商品作为目标展示商品,即排前3个A、B和C的待展示商品作为目标展示商品。
进一步地,若根据情绪排序表,将最终情绪对应的待展示商品进行排序时出现并列的情况,先判断是否在预设值内获取到目标展示商品;若在预设值内不能获取到目标展示商品,则确定待展示商品的目标视频数据中与并列最终情绪相匹配的数量(即目标情绪的最大数量),根据该数量确定并列最终情绪的有限级,获取预设值的目标展示商品。例如,可进行展示的待展示商品的数量为4,预设值为3,则获取可进行展示的待展示商品对应的最终情绪,A待展示商品对应的最终情绪为喜悦,B待展示商品对应的最终情绪为欢乐,C待展示商品对应的最终情绪为平静,D待展示商品对应的最终情绪为平静,那么根据情绪排序表对待展示商品进行排序,即为A、B、C和D,C与D并列,且在预设值内不能获取到目标展示商品,则获取C待展示商品的目标视频数据中与C待展示商品对应的最终情绪相匹配的数量,若该数量为50;再确定D待展示商品的目标视频数据中,与D待展示商品对应的最终情绪相匹配的数量,若该数量为60;则将数量为60对应的D待展示商品的优先于数量为50对应的C待展示商品,获取预设值的待展示商品作为目标展示商品,即A、B和D的待展示商品作为目标展示商品。通过该步骤,避免最终情绪出现并列的情况,以提高目标展示商品的确定速度。
步骤S10-S60中,获取待展示商品的目标视频数据,采用人脸检测模型对目标视频数据中待识别图像进行人脸识别和聚类,获取目标视频数据对应的客户数量和每一客户对应的图像聚类集合,以便后续根据一定数量的客户的目标情绪确定目标展示商品,提高目标展示商品的准确率。若客户数量大于预设数量,则采用预先训练好的微表情识别模型对每一图像聚类集合中的待识别图像进行识别,获取每一待识别图像的单帧情绪,以实现识别客户的情绪。基于至少一帧待识别图像的单帧情绪,获取与图像聚类集合对应的客户的目标情绪,以确定该待展示商品是否为客户所感兴趣的商品。依据客户数量和每一图像聚类集合对应的客户的目标情绪,以获取到一定数量的客户对该待展示商品的最终情绪,依据待展示商品对应的最终情绪,获取目标展示商品,提高目标展示商品的准确率,使得目标商品为大多数客户较为感兴趣的商品。
在一实施例中,如图3所示,步骤S10中,即获取待展示商品的目标视频数据,目标视频数据包含至少两帧待识别图像,具体包括如下步骤:
S11:获取待展示商品的初始视频数据,初始视频数据包括至少两帧初始视频图像。
其中,初始视频数据是指视频采集工具采集的与每一待展示商品对应的视频数据。
具体地,采用视频采集工具采集每一待展示商品对应的初始视频数据,初始视频数据中包括至少两帧初始视频图像,初始视频数据中包含待展示商品的对应的商品标识,根据该商品标识可确定与每一待展示商品对应的初始视频数据。通过采集每一待展示商品对应的初始视频数据,以便后续对初始视频数据进行分析,获取到每一待展示商品对应的最终情绪。
S12:获取待展示商品的属性信息,属性信息包括适宜年龄和适宜性别。
其中,适宜年龄是指适用于该待展示商品对应的年龄。适宜性别是指适用于该待展示商品对应的性别。
具体地,数据库中存储有每一待展示商品对应的属性信息。服务端根据待展示商品查找数据库,获取与每一待展示商品对应的属性信息。其中,属性信息中包含适宜年龄和适宜性别。例如,某一待展示商品为服饰,该服饰对应的属性信息中适宜年龄为20-24岁,适宜性别为的女性。再例如,待展示商品为化妆品,该化妆品对应的属性信息中适宜年龄为25-30岁,适宜性别为男性等。本实施例中对待展示商品不做具体地限定。
S13:采用适宜年龄和适宜性别对初始视频图像进行筛选,获取待识别图像,基于至少两帧待识别图像形成目标视频数据。
具体地,采用预先训练好的分类器对初始视频数据中的至少两帧初始视频图像进行识别,获取与每一初始视频图像对应的目标年龄和目标性别,服务端将目标年龄与适宜年龄进行匹配,将目标性别与适宜性别进行匹配,将与适宜年龄进行匹配成功且与适宜性别进行匹配成功的初始视频图像确定为待识别图像,将匹配不成功的初始视频图像进行删除,基于至少两帧待识别图像形成目标视频数据。其中,目标年龄是指通过预先训练好的分类器对初始视频图像进行识别,所获取到年龄。目标性别是指通过预先训练好的分类器对初始视频图像进行识别,所获取到性别。
步骤S11-S13,根据待展示商品对应的适宜年龄和适宜性别对初始视频图像进行筛选,获取待识别图像,基于至少两帧待识别图像形成目标视频数据,使得目标视频数据与待展示商品更加匹配,提高目标展示商品的准确率。
在一实施例中,在步骤S3之前,即在采用适宜年龄和适宜性别对初始视频图像进行筛选的步骤之前,基于图像识别的商品展示方法还包括:
(1)采用超分辨率技术对至少两帧初始视频图像进行处理,获取与至少两帧初始视频图像对应的高分辨率图像,将高分辨率图像作为待确定图像。
其中,超分辨率技术(Super-Resolution,SR)是指从获取到的低分辨率图像重建出相应的高分辨率图像。通常,初始视频数据中初始视频图像为低分辨率图像。待确定图像是指将初始视频图像转换成高分辨率的图像。
具体地,服务端获取初始视频数据,初始视频数据包括至少两帧初始视频图像,初始视频图像在低分辨率(LR)空间,通过ESPCN算法提取低分辨率空间的特征图,通过有效的亚像素卷积层,将初始视频图像从低分辨率放大高分辨率,将最终的低分辨率特征图升级到高分辨率特征图,根据高分辨率特征图获取与每一初始视频图像对应的高分辨率图像,将高分辨率图像作为待确定图像。其中,ESPCN算法的核心概念是亚像素卷积层(sub-pixelconvolutional layer),输入是低分辨率图像(即初始视频图像),通过两个亚像素卷积层以后,得到的特征图像大小与输入图像一样,但是特征通道为r^2(r是图像的目标放大倍数)。将每个像素的r^2个通道重新排列成一个r x r的区域,对应于高分辨率图像中的一个r x r大小的子块,从而大小为r^2x H x W的特征图像被重新排列成1x rH x rW大小的高分辨率特征图,根据高分辨率特征图获取与每一帧初始视频图像对应的高分辨率图像,将高分辨率图像作为待确定图像。
如图4所示,步骤S13中,即采用适宜年龄和适宜性别对初始视频图像进行筛选,获取待识别图像,具体包括如下步骤:
S131:采用预先训练好的分类器对至少两帧待确定图像进行识别,获取与每一待确定图像对应的目标年龄和目标性别。
其中,预先训练好的分类器包括性别分类器和年龄分类器,通过性别分类器和年龄分类器分别对待确定图像进行识别,以获取到与待确定图像对应的目标年龄和目标性别。其中,目标性别是指通过性别分类器对待确定图像进行识别,所获取到的性别。目标年龄是指通过年龄分类器对待确定图像进行识别,所获取到的年龄。
其中,性别分类器和年龄分类器进行训练时,先获取大量的训练图像数据,训练图像数据中包含不同年龄和不同性别的人脸图像,将训练图像数据中的每一人脸图像进行年龄和性别标注,将标注后的训练图像数据输入至深度神经网络,并通过深度神经网络对标注后的训练图像数据进行训练,由于深度神经网络包括至少两个卷积层,将年龄预测值和已标注的年龄进行比对,以调整深度神经网络中各层的权重和偏差,直至模型收敛,获取年龄分类器。将性别预测值和已标注的性别进行比对,以调整深度神经网络中各层的权重和偏差,直至模型收敛,获取性别分类器。
具体地,采用预先训练好的性别分类器对待确定图像进行识别,待确定图像为包含客户脸部的图像,将包含客户脸部的待确定图像进行人脸关键点检测和特征提取,以获取脸部特征。最后,将提取的脸部特征输入到预先训练好的性别分类器中,通过性别分类器对脸部特征进行识别,以获取与待确定图像对应的目标性别。并将将提取的脸部特征输入到预先训练好的年龄分类器中,通过年龄分类器对脸部特征进行分类,以获取与待确定图像对应的目标年龄。通过预先训练好的性别分类器和年龄分类器来对人待确定图像进行客户性别和年龄预估,以提升目标性别和目标年龄获取准确度。
S132:将目标年龄与适宜年龄进行匹配,并将目标性别与适宜性别进行匹配。
具体地,适宜年龄可以是一个年龄段,例如,20-24岁。服务端将目标年龄与适宜年龄进行匹配,主要是判断该目标年龄是否在适宜年龄范围内。适宜性别为女性和男性两种,将识别出的目标性别与适宜性别进行匹配。
S133:若目标年龄与适宜年龄匹配成功,且目标性别与适宜性别匹配成功,则将与目标年龄和目标性别对应的待确定图像作为待识别图像。
具体地,服务端判断出目标年龄在适宜年龄段范围内,且目标性别与适宜性别匹配成功,则将与目标年龄和目标性别对应的待确定图像作为待识别图像。
步骤S131-S132,采用预先训练好的分类器对至少两帧待确定图像进行识别,获取与每一待确定图像对应的目标年龄和目标性别,以实现通过分类器对目标年龄和目标性别的确定,提高目标展示商品的获取速度。若目标年龄与适宜年龄匹配成功,且目标性别与适宜性别匹配成功,则将与目标年龄和目标性别对应的待确定图像作为待识别图像,使得获取到的待识别图像与待展示商品的属性信息相对应,以提高与待展示产品相匹配的人群的吸引力,通过对待识别图像进行分析,使得获取到的目标展示商品更加准确,提高目标展示商品的获取准确率。
在一实施例中,如图5所示,步骤S20,即采用人脸检测模型对至少两帧待识别图像进行人脸识别和聚类,获取目标视频数据对应的客户数量和每一客户对应的图像聚类集合,具体包括如下步骤:
S21:采用人脸检测模型对至少两帧待识别图像进行人脸识别,获取每一待识别图像对应的人脸图像。
具体地,服务端获取目标视频数据,采用人脸检测模型对目标视频数据中每一帧待识别图像进行人脸识别,获取到目标视频数据中每一待识别图像对应的人脸图像。其中,人脸识别是指对于任意一帧给定的图像,采用一定的策略对其进行搜索以确定图像中是否含有人脸。进一步地,人脸检测模型是预先训练好的用于检测每一帧待识别图像是否包含人的面部区域的模型。具体地,服务端将每一帧待识别图像输入到人脸检测模型中,检测每一帧待识别图像中的是否包含人脸,若待识别图像中包含人脸,则获取目标视频数据中每一待识别图像对应的人脸图像。
S22:对待识别图像对应的人脸图像进行聚类,获取至少两个图像聚类集合,每一图像聚类集合包括至少一帧待识别图像。
具体地,服务端将获取到的待识别图像对应的人脸图像进行聚类,将包含相同客户的人脸图像进行聚类,获取至少两个图像聚类集合,其中,每一图像聚类集合中包括至少一帧待识别图像。更具体地,采用特征提取算法提取每一待识别图像对应的人脸图像的人脸特征,将人脸图像对应的人脸特征进行特征相似度计算,若特征相似度大于预设阈值,则说明为相同客户的人脸图像,并将相同客户的人脸图像对应的待识别图像进行聚类,以获取每一客户对应的图像聚类集合。即,一个客户对应一个图像聚类集合,每一图像聚类集合中包括至少一帧待识别图像。
S23:根据图像聚类集合的数量,获取目标视频数据对应的客户数量。
具体地,统计每一待展示商品对应的图像聚类集合的数量,将图像聚类集合的数量作为与目标视频数据对应的客户数量。
步骤S21-S23,采用人脸检测模型对至少两帧待识别图像进行人脸识别,获取每一待识别图像对应的人脸图像,以实现确定待识别图像是否为人脸图像,避免不包含人脸的待识别图像进行聚类,提高后续图像聚类集合的获取速度。对待识别图像对应的人脸图像进行聚类,获取至少两个图像聚类集合,根据图像聚类集合的数量,获取目标视频数据对应的客户数量,以实现客户数量的确定,保证客户数量获取的准确性。
在一实施例中,每一待识别图像对应一时间标识,时间标识是指采集到该待识别图像对应的时间。
如图6所示,步骤S22中,即对待识别图像对应的人脸图像进行聚类,获取至少两个图像聚类集合,具体包括如下步骤:
S221:根据时间标识,将至少两帧待识别图像中首次识别到的人脸图像作为基准图像。
其中,基准图像是指从待识别图像中首次识别到的人脸图像。
具体地,服务端获取至少两帧待识别图像对应的时间标识,根据时间标识,先确定至少两帧待识别图像中首次识别到的人脸图像,将该人脸图像作为基准图像。通过确定基准图像,以提高图像聚类集合的获取速度。
S222:根据时间标识,依次采用相似度算法计算基准图像与剩余待识别图像的特征相似度。
具体地,根据时间标识,采用相似度算法将基准图像与至少两帧待识别图像中除基准图像之外的剩余待识别图像进行特征相似度计算,以获取特征相似度。其中,相似度算法可以为欧几里得距离算法、曼哈顿距离算法、明可夫斯基距离算法或者余弦相似度算法等。在本实施例中,采用余弦相似度算法计算基准图像和剩余待识别图像的特性相似度,可加快图像聚类集合的获取速度,提高目标展示商品的获取效率。
S223:若特征相似度大于预设阈值,将特征相似度大于预设阈值的待识别图像和基准图像归属于同一图像聚类集合。
具体地,预设阈值为预先设定的值,若服务端判断出基准图像与剩余待识别图像的特征相似度大于预设阈值,则认为基准图像与剩余待识别图像匹配成功,基准图像与剩余待识别图像为同一客户的图像,则将特征相似度大于预设阈值的待识别图像和基准图像归属于同一图像聚类集合。例如,基准图像1与剩余待识别图像2对应的特征相似度为80%,基准图像1与剩余待识别图像3对应的特征相似度为99%,预设阈值为90%,那么基准图像1与剩余待识别图像3对应的特征相似度大于预设阈值,则将基准图像1与剩余待识别图像3归属于同一图像聚类集合。
S224:若特征相似度不大于预设阈值,根据时间标识,将特征相似度不大于预设阈值的剩余待识别图像中的第一张更新为新的基准图像,重复执行根据时间标识,依次采用相似度算法计算基准图像与剩余待识别图像的特征相似度的步骤,直至至少两帧待识别图像聚类集合完成,形成至少两个图像聚类集合。
具体地,服务端判断出基准图像与剩余待识别图像的特征相似度不大于预设阈值,则认为基准图像与剩余待识别图像匹配失败,基准图像对应的客户与剩余待识别图像对应的客户不为同一客户,则根据时间标识,将特征相似度不大于预设阈值的剩余待识别图像中的第一张更新为新的基准图像。例如,基准图像1与剩余待识别图像2对应的特征相似度为80%,预设阈值为90%,那么基准图像1与剩余待识别图像2对应的特征相似度不大于预设阈值,则根据时间标识,剩余待识别图像2更新为新的基准图像。重复执行根据时间标识,依次采用相似度算法计算基准图像与剩余待识别图像的特征相似度的步骤,直至至少两帧待识别图像中所有待识别图像聚类集合完成,形成至少两个图像聚类集合。
步骤S221-S224,根据时间标识,将至少两帧待识别图像中首次识别到的人脸图像作为基准图像,依次采用相似度算法计算基准图像与剩余待识别图像的特征相似度,以便确定基准图像与剩余待识别图像是否为同一客户。若特征相似度大于预设阈值,将特征相似度大于预设阈值的待识别图像和基准图像归属于同一图像聚类集合,以实现将同一客户的待识别图像进行聚类。若特征相似度不大于预设阈值,根据时间标识,将特征相似度不大于预设阈值的剩余待识别图像中的第一张更新为新的基准图像,重复执行根据时间标识,依次采用相似度算法计算基准图像与剩余待识别图像的特征相似度的步骤,直至至少两帧待识别图像聚类集合完成,形成至少两个图像聚类集合,以实现将同一客户的待识别图像进行聚类,以便后续确定每一客户对该待展示商品的目标情绪。
在一实施中,如图7所示,步骤S30中,即采用预先训练好的微表情识别模型对每一图像聚类集合中的待识别图像进行识别,获取每一待识别图像的单帧情绪,具体包括如下步骤:
S31:采用人脸关键点算法对每一图像聚类集合中的待识别图像进行人脸识别,获取与每一待识别图像对应的人脸关键点。
其中,人脸关键点算法可以是但不限于Ensemble ofRegression Tress(简称ERT)算法、SIFT(scale-invariant feature transform)算法,SURF(Speeded Up RobustFeatures)算法,LBP(Local Binary Patterns)算法和HOG(Histogram ofOrientedGridients)算法。本实施例中,采用ERT算法,对每一图像聚类集合中的待识别图像进行人脸识别,以获取到每一待识别图像对应的人脸关键点。其中,ERT算法是一种基于回归的方法,ERT算法用公式表示如下:其中,为第t+1次迭代所获得的待识别图像的特征点的形状或坐标,t表示级联序号,为预测出图像的特征点的形状或坐标,I为回归器输入的待识别图像,rt表示t级的回归器,每个回归器由很多棵回归树(tree)组成,通过训练可获得回归树,通过回归树获取到每一待识别图像对应的人脸关键点。
S32:采用特征提取算法对每一待识别图像对应的人脸关键点进行特征提取,获取人脸关键点对应的局部特征。
其中,特征提取算法可以CNN(Convolutional Neural Network,卷积神经网)算法,通过CNN算法提取待识别图像对应的人脸关键点位置的局部特征,具体是根据面部动作单元对应的位置,提取局部特征。其中,CNN算法是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,可以快速高效进行图像处理。在本实施例中,采用预先训练好的卷积神经网络,快速地提取人脸关键点对应的局部特征。
具体地,将每一待识别图像对应的人脸关键点,通过若干个卷积核进行卷积运算,卷积后的结果为人脸检测点对应的局部特征。具体是通过公式(0≤m<M,0≤n<N)进行卷积运算,以获取到局部特征。其中,y为输出的局部特征,x为一个大小为(M,N)的二维输入向量,即由L个人脸关键点的坐标所形成,wij是大小为I*J卷积核,b为偏置,大小为M*N,激活函数用f表示,每个卷积核均与上一层的输入待识别图像的人脸关键点进行卷积操作,每个卷积核都会有一个对应的局部特征,卷积核中权值共享,参数个数大大缩减,极大地提升了网络地训练速度。
进一步地,将人脸关键点输入到预设的卷积神经网络中进行识别后,可得到的面部动作单元对应的局部特征。例如,AU1、AU2、AU5和AU26,即内眉上扬、外眉上扬、上眼睑上扬和下颚张开对应的局部特征。本实施例中,采用卷积神经网络对待识别图像中人脸关键点的局部特征进行提取,以便后续根据局部特征确定目标面部动作单元,并根据识别到的目标面部动作单元来确定客户的情绪。在本提案中,相对于LBP-TOP算子,使用卷积神经网络进行识别的运算速度更快,且识别精度更高。
S33:采用预先训练好的分类器对局部特征进行识别,获取每一局部特征对应的目标面部动作单元。
具体地,通过预先训练好的微表情识别模型中每一SVM分类器对局部特征进行识别,其中,SVM分类器与可识别的面部动作单元的数量相同,即可识别的面部动作单元为54个,那么预先训练好的SVM分类器为54个,通过将局部特征输入至对应的SVM分类器中,获取到概率值,将获取到的概率值与预设概率阈值进行对比,将大于预设概率阈值的概率值对应的面部动作单元作为与局部特征对应的目标面部动作单元,并获取到与局部特征对应的所有目标面部动作单元。
S34:基于每一局部特征对应的目标面部动作单元,查找评估表,获取每一待识别图像的单帧情绪。
其中,评估表是预先配置的表,评估表中存储有面部动作单元组合与情绪的对应关系,例如,AU12、AU6和AU7组合,对应的情绪为欢乐,AU9、AU10、AU17和AU24,对应的情绪为厌恶。服务端通过每一局部特征对应的目标面部动作单元,查找评估表,获取与目标面部动作单元相匹配的组合,将该组合对应的情绪作为与待识别图像对应的单帧情绪。
步骤S31-S34中,采用人脸关键点算法对每一图像聚类集合中的待识别图像进行人脸识别,获取与每一待识别图像对应的人脸关键点,为后续提取局部特征提供技术协助,以提高局部特征提取的准确率;采用特征提取算法对人脸关键点进行特征提取,以快速获取到人脸关键点对应的局部特征,以便后续提取到的目标面部动作单元更加精准;采用预先训练好的分类器对局部特征进行识别,以快速获取每一局部特征对应的目标面部动作单元,实现目标面部动作单元的确定。基于每一局部特征对应的目标面部动作单元,查找评估表,获取每一待识别图像的单帧情绪,以便根据单帧情绪确定每一客户对应的情绪,根据每一客户对应的情绪确定目标展示商品,以提高目标展示商品的准确率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种基于图像识别的商品展示装置,该基于图像识别的商品展示装置与上述实施例中基于图像识别的商品展示方法一一对应。如图8所示,该基于图像识别的商品展示装置包数据获取模块10、图像聚类集合获取模块20、单帧情绪确定模块30、目标情绪获取模块40、最终情绪获取模块50和目标展示商品获取模块60。各功能模块详细说明如下:
数据获取模块10,用于获取待展示商品的目标视频数据,目标视频数据包含至少两帧待识别图像。
图像聚类集合获取模块20,用于采用人脸检测模型对至少两帧待识别图像进行人脸识别和聚类,获取目标视频数据对应的客户数量和每一客户对应的图像聚类集合,每一图像聚类集合包括至少一帧待识别图像。
单帧情绪确定模块30,用于若客户数量大于预设数量,则采用预先训练好的微表情识别模型对每一图像聚类集合中的待识别图像进行识别,获取每一待识别图像的单帧情绪。
目标情绪获取模块40,用于基于至少一帧待识别图像的单帧情绪,获取与图像聚类集合对应的客户的目标情绪。
最终情绪获取模块50,用于依据客户数量和每一图像聚类集合对应的客户的目标情绪,获取最终情绪。
目标展示商品获取模块60,用于依据待展示商品对应的最终情绪,获取目标展示商品。
在一实施例中,数据获取模块10,包括初始视频数据获取单元11、属性信息确定单元12和目标视频数据形成单元13。
初始视频数据获取单元11,用于获取待展示商品的初始视频数据,初始视频数据包括至少两帧初始视频图像。
属性信息确定单元12,用于获取待展示商品的属性信息,属性信息包括适宜年龄和适宜性别。
目标视频数据形成单元13,用于采用适宜年龄和适宜性别对初始视频图像进行筛选,获取待识别图像,基于至少两帧待识别图像形成目标视频数据。
在一实施例中,在目标视频数据形成单元之前,基于图像识别的商品展示装置还包括图像分辨率转换单元。
图像分辨率转换单元,用于采用超分辨率技术对至少两帧初始视频图像进行处理,获取与至少两帧初始视频图像对应的高分辨率图像,将高分辨率图像作为待确定图像。
目标视频数据形成单元,包括目标年龄和目标性别确定子单元、匹配子单元和待识别图像确定子单元。
目标年龄和目标性别确定子单元,用于采用预先训练好的分类器对至少两帧待确定图像进行识别,获取与每一待确定图像对应的目标年龄和目标性别。
匹配子单元,用于将目标年龄与适宜年龄进行匹配,并将目标性别与适宜性别进行匹配。
待识别图像确定子单元,用于若目标年龄与适宜年龄匹配成功,且目标性别与适宜性别匹配成功,则将与目标年龄和目标性别对应的待确定图像作为待识别图像。
在一实施例中,图像聚类集合获取模块20,包括人脸图像获取单元、图像聚类集合获取单元和客户数量确定单元。
人脸图像获取单元,用于采用人脸检测模型对至少两帧待识别图像进行人脸识别,获取每一待识别图像对应的人脸图像。
图像聚类集合获取单元,用于对待识别图像对应的人脸图像进行聚类,获取至少两个图像聚类集合,每一图像聚类集合包括至少一帧待识别图像。
客户数量确定单元,用于根据图像聚类集合的数量,获取目标视频数据对应的客户数量。
在一实施例中,每一待识别图像对应一时间标识。
图像聚类集合获取单元包括基准图像确定子单元、特征相似度计算单元、第一图像聚类集合确定子单元和第二图像聚类集合确定子单元。
基准图像确定子单元,用于根据时间标识,将至少两帧待识别图像中首次识别到的人脸图像作为基准图像。
特征相似度计算单元,用于根据时间标识,依次采用相似度算法计算基准图像与剩余待识别图像的特征相似度。
第一图像聚类集合确定子单元,用于若特征相似度大于预设阈值,将特征相似度大于预设阈值的待识别图像和基准图像归属于同一图像聚类集合。
第二图像聚类集合确定子单元,用于若特征相似度不大于预设阈值,根据时间标识,将特征相似度不大于预设阈值的剩余待识别图像中的第一张更新为新的基准图像,重复执行根据时间标识,依次采用相似度算法计算基准图像与剩余待识别图像的特征相似度的步骤,直至至少两帧待识别图像聚类集合完成,形成至少两个图像聚类集合。
在一实施例中,单帧情绪确定模块30,包括人脸关键点获取单元、局部特征提取单元、目标面部动作单元获取单元、单帧情绪获取单元。
人脸关键点获取单元,用于采用人脸关键点算法对每一图像聚类集合中的待识别图像进行人脸识别,获取与每一待识别图像对应的人脸关键点。
局部特征提取单元,用于采用特征提取算法对每一待识别图像对应的人脸关键点进行特征提取,获取人脸关键点对应的局部特征。
目标面部动作单元获取单元,用于采用预先训练好的分类器对局部特征进行识别,获取每一局部特征对应的目标面部动作单元。
单帧情绪获取单元,用于基于每一局部特征对应的目标面部动作单元,查找评估表,获取每一待识别图像的单帧情绪。
关于基于图像识别的商品展示装置的具体限定可以参见上文中对于基于图像识别的商品展示方法的限定,在此不再赘述。上述基于图像识别的商品展示装置中的各个模块可全部或部分通过软件、硬件及其组和来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务端,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储人脸检测模型和待展示商品的属性信息等。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于图像识别的商品展示方法。
在一实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中基于图像识别的商品展示方法的步骤,例如,图2所示的步骤S10至步骤S60,或者,图3至图7所示的步骤。处理器执行计算机程序时实现上述实施例中基于图像识别的商品展示装置中的各模块/单元的功能,例如,图8所示模块10至模块50的功能。为避免重复,此处不再赘述。
在一实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例中基于图像识别的商品展示方法,例如,图2所示的步骤S10至步骤S60,或者,图3至图7所示的步骤。该计算机程序被处理器执行时实现上述实施例中基于图像识别的商品展示装置中各模块/单元的功能,例如,图8所示模块10至模块60的功能。为避免重复,此处不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(RambuS)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于图像识别的商品展示方法,其特征在于,包括:
获取待展示商品的目标视频数据,所述目标视频数据包含至少两帧待识别图像;
采用人脸检测模型对至少两帧所述待识别图像进行人脸识别和聚类,获取所述目标视频数据对应的客户数量和每一客户对应的图像聚类集合,每一所述图像聚类集合包括至少一帧待识别图像;
若所述客户数量大于预设数量,则采用预先训练好的微表情识别模型对每一所述图像聚类集合中的待识别图像进行识别,获取每一所述待识别图像的单帧情绪;
基于至少一帧所述待识别图像的单帧情绪,获取与所述图像聚类集合对应的客户的目标情绪;
依据所述客户数量和每一所述图像聚类集合对应的客户的目标情绪,获取最终情绪;
依据所述待展示商品对应的最终情绪,获取目标展示商品。
2.如权利要求1所述的基于图像识别的商品展示方法,其特征在于,所述获取待展示商品的目标视频数据,所述目标视频数据包含至少两帧待识别图像,包括:
获取待展示商品的初始视频数据,所述初始视频数据包括至少两帧初始视频图像;
获取所述待展示商品的属性信息,所述属性信息包括适宜年龄和适宜性别;
采用所述适宜年龄和所述适宜性别对所述初始视频图像进行筛选,获取待识别图像,基于至少两帧所述待识别图像形成目标视频数据。
3.如权利要求1所述的基于图像识别的商品展示方法,其特征在于,在所述采用所述适宜年龄和所述适宜性别对所述初始视频图像进行筛选的步骤之前,所述基于图像识别的商品展示方法还包括:
采用超分辨率技术对至少两帧所述初始视频图像进行处理,获取与至少两帧所述初始视频图像对应的高分辨率图像,将所述高分辨率图像作为待确定图像;
所述采用所述适宜年龄和所述适宜性别对所述初始视频图像进行筛选,获取待识别图像,包括:
采用预先训练好的分类器对至少两帧所述待确定图像进行识别,获取与每一所述待确定图像对应的目标年龄和目标性别;
将所述目标年龄与所述适宜年龄进行匹配,并将所述目标性别与所述适宜性别进行匹配;
若所述目标年龄与所述适宜年龄匹配成功,且所述目标性别与所述适宜性别匹配成功,则将与所述目标年龄和所述目标性别对应的待确定图像作为待识别图像。
4.如权利要求1所述的基于图像识别的商品展示方法,其特征在于,所述采用人脸检测模型对至少两帧所述待识别图像进行人脸识别和聚类,获取所述目标视频数据对应的客户数量和每一客户对应的图像聚类集合,包括:
采用人脸检测模型对至少两帧所述待识别图像进行人脸识别,获取每一所述待识别图像对应的人脸图像;
对所述待识别图像对应的人脸图像进行聚类,获取至少两个图像聚类集合,每一图像聚类集合包括至少一帧待识别图像;
根据所述图像聚类集合的数量,获取所述目标视频数据对应的客户数量。
5.如权利要求4所述的基于图像识别的商品展示方法,其特征在于,每一所述待识别图像对应一时间标识;
所述对所述待识别图像对应的人脸图像进行聚类,获取至少两个图像聚类集合,包括:
根据时间标识,将至少两帧所述待识别图像中首次识别到的人脸图像作为基准图像;
根据时间标识,依次采用相似度算法计算所述基准图像与剩余待识别图像的特征相似度;
若所述特征相似度大于预设阈值,将所述特征相似度大于预设阈值的待识别图像和所述基准图像归属于同一图像聚类集合;
若所述特征相似度不大于预设阈值,根据时间标识,将所述特征相似度不大于预设阈值的剩余待识别图像中的第一张更新为新的基准图像,重复执行所述根据时间标识,依次采用相似度算法计算所述基准图像与剩余待识别图像的特征相似度的步骤,直至至少两帧所述待识别图像聚类集合完成,形成至少两个图像聚类集合。
6.如权利要求1所述的基于图像识别的商品展示方法,其特征在于,所述采用预先训练好的微表情识别模型对每一所述图像聚类集合中的待识别图像进行识别,获取每一所述待识别图像的单帧情绪,包括:
采用人脸关键点算法对每一所述图像聚类集合中的待识别图像进行人脸识别,获取与每一所述待识别图像对应的人脸关键点;
采用特征提取算法对每一所述待识别图像对应的人脸关键点进行特征提取,获取所述人脸关键点对应的局部特征;
采用预先训练好的分类器对所述局部特征进行识别,获取每一所述局部特征对应的目标面部动作单元;
基于每一所述局部特征对应的目标面部动作单元,查找评估表,获取每一所述待识别图像的单帧情绪。
7.一种基于图像识别的商品展示装置,其特征在于,包括:
数据获取模块,用于获取待展示商品的目标视频数据,所述目标视频数据包含至少两帧待识别图像;
图像聚类集合获取模块,用于采用人脸检测模型对至少两帧所述待识别图像进行人脸识别和聚类,获取所述目标视频数据对应的客户数量和每一客户对应的图像聚类集合,每一所述图像聚类集合包括至少一帧待识别图像;
单帧情绪确定模块,用于若所述客户数量大于预设数量,则采用预先训练好的微表情识别模型对每一所述图像聚类集合中的待识别图像进行识别,获取每一所述待识别图像的单帧情绪;
目标情绪获取模块,用于基于至少一帧所述待识别图像的单帧情绪,获取与所述图像聚类集合对应的客户的目标情绪;
最终情绪获取模块,用于依据所述客户数量和每一所述图像聚类集合对应的客户的目标情绪,获取最终情绪;
目标展示商品获取模块,用于依据所述待展示商品对应的最终情绪,获取目标展示商品。
8.如权利要求7所述的基于图像识别的商品展示装置,其特征在于,所述数据获取模块,包括:
初始视频数据获取单元,用于获取待展示商品的初始视频数据,所述初始视频数据包括至少两帧初始视频图像;
属性信息确定单元,用于获取所述待展示商品的属性信息,所述属性信息包括适宜年龄和适宜性别;
目标视频数据形成单元,用于采用所述适宜年龄和所述适宜性别对所述初始视频图像进行筛选,获取待识别图像,基于至少两帧所述待识别图像形成目标视频数据。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述基于图像识别的商品展示方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述基于图像识别的商品展示方法的步骤。
CN201910042541.3A 2019-01-17 2019-01-17 基于图像识别的商品展示方法、装置、设备及介质 Pending CN109815873A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910042541.3A CN109815873A (zh) 2019-01-17 2019-01-17 基于图像识别的商品展示方法、装置、设备及介质
PCT/CN2019/120988 WO2020147430A1 (zh) 2019-01-17 2019-11-26 基于图像识别的商品展示方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910042541.3A CN109815873A (zh) 2019-01-17 2019-01-17 基于图像识别的商品展示方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN109815873A true CN109815873A (zh) 2019-05-28

Family

ID=66604505

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910042541.3A Pending CN109815873A (zh) 2019-01-17 2019-01-17 基于图像识别的商品展示方法、装置、设备及介质

Country Status (2)

Country Link
CN (1) CN109815873A (zh)
WO (1) WO2020147430A1 (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110598790A (zh) * 2019-09-12 2019-12-20 北京达佳互联信息技术有限公司 一种图像的识别方法、装置、电子设备及存储介质
CN110650306A (zh) * 2019-09-03 2020-01-03 平安科技(深圳)有限公司 视频聊天中添加表情的方法、装置、计算机设备及存储介质
CN111062786A (zh) * 2019-12-25 2020-04-24 创新奇智(青岛)科技有限公司 一种基于建立商品外观特征映射表的模型更新方法
CN111144241A (zh) * 2019-12-13 2020-05-12 深圳奇迹智慧网络有限公司 基于图像校验的目标识别方法、装置和计算机设备
CN111291623A (zh) * 2020-01-15 2020-06-16 浙江连信科技有限公司 基于人脸信息的心生理特征预测方法及装置
CN111310602A (zh) * 2020-01-20 2020-06-19 北京正和恒基滨水生态环境治理股份有限公司 一种基于情绪识别的展品关注度分析系统及分析方法
WO2020147430A1 (zh) * 2019-01-17 2020-07-23 深圳壹账通智能科技有限公司 基于图像识别的商品展示方法、装置、设备及介质
CN111563503A (zh) * 2020-05-09 2020-08-21 南宁市第三中学 一种少数民族文化象征物识别方法
CN112363624A (zh) * 2020-11-16 2021-02-12 新之航传媒科技集团有限公司 一种基于情绪分析的互动展馆系统
CN113177603A (zh) * 2021-05-12 2021-07-27 中移智行网络科技有限公司 分类模型的训练方法、视频分类方法及相关设备
CN113269035A (zh) * 2021-04-12 2021-08-17 北京爱奇艺科技有限公司 一种图像处理方法、装置、设备和存储介质
CN113762156A (zh) * 2021-09-08 2021-12-07 北京优酷科技有限公司 观影数据处理方法、装置及存储介质
CN113947422A (zh) * 2021-09-13 2022-01-18 青岛颐中科技有限公司 基于多维度特征的营销方法、装置和电子设备
CN114153342A (zh) * 2020-08-18 2022-03-08 深圳市万普拉斯科技有限公司 视觉信息展示方法、装置、计算机设备和存储介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112215653A (zh) * 2020-10-12 2021-01-12 珠海格力电器股份有限公司 商品推荐方法、装置、服务器及存储介质
CN113761275B (zh) * 2020-11-18 2025-02-21 北京沃东天骏信息技术有限公司 视频预览动图生成方法、装置、设备及可读存储介质
CN112434711B (zh) * 2020-11-27 2023-10-13 杭州海康威视数字技术股份有限公司 一种数据管理方法、装置及电子设备
CN113705329B (zh) * 2021-07-07 2025-06-13 浙江大华技术股份有限公司 重识别方法、目标重识别网络的训练方法及相关设备
CN114255420B (zh) * 2021-12-10 2025-07-22 华院计算技术(上海)股份有限公司 情绪识别方法及装置、存储介质、终端
CN115512418A (zh) * 2022-09-29 2022-12-23 太保科技有限公司 基于动作单元au和微表情的问答情绪评估方法及装置
CN116310939A (zh) * 2022-12-28 2023-06-23 北京爱奇艺科技有限公司 一种商品匹配方法、装置、设备及存储介质
CN116665278A (zh) * 2023-06-09 2023-08-29 平安科技(深圳)有限公司 微表情识别方法、装置、计算机设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106843028A (zh) * 2016-12-04 2017-06-13 徐州乐泰机电科技有限公司 一种包含推送广告及其智能筛选的智能衣柜控制方法
WO2018143630A1 (ko) * 2017-02-01 2018-08-09 삼성전자 주식회사 상품을 추천하는 디바이스 및 방법
CN108509941A (zh) * 2018-04-20 2018-09-07 北京京东金融科技控股有限公司 情绪信息生成方法和装置
CN108858245A (zh) * 2018-08-20 2018-11-23 深圳威琳懋生物科技有限公司 一种导购机器人
CN109048934A (zh) * 2018-08-20 2018-12-21 深圳威琳懋生物科技有限公司 一种智能导购机器人系统
CN109191190A (zh) * 2018-08-20 2019-01-11 深圳威琳懋生物科技有限公司 一种导购机器人的控制方法及计算机可读存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815873A (zh) * 2019-01-17 2019-05-28 深圳壹账通智能科技有限公司 基于图像识别的商品展示方法、装置、设备及介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106843028A (zh) * 2016-12-04 2017-06-13 徐州乐泰机电科技有限公司 一种包含推送广告及其智能筛选的智能衣柜控制方法
WO2018143630A1 (ko) * 2017-02-01 2018-08-09 삼성전자 주식회사 상품을 추천하는 디바이스 및 방법
CN108509941A (zh) * 2018-04-20 2018-09-07 北京京东金融科技控股有限公司 情绪信息生成方法和装置
CN108858245A (zh) * 2018-08-20 2018-11-23 深圳威琳懋生物科技有限公司 一种导购机器人
CN109048934A (zh) * 2018-08-20 2018-12-21 深圳威琳懋生物科技有限公司 一种智能导购机器人系统
CN109191190A (zh) * 2018-08-20 2019-01-11 深圳威琳懋生物科技有限公司 一种导购机器人的控制方法及计算机可读存储介质

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020147430A1 (zh) * 2019-01-17 2020-07-23 深圳壹账通智能科技有限公司 基于图像识别的商品展示方法、装置、设备及介质
CN110650306A (zh) * 2019-09-03 2020-01-03 平安科技(深圳)有限公司 视频聊天中添加表情的方法、装置、计算机设备及存储介质
CN110598790A (zh) * 2019-09-12 2019-12-20 北京达佳互联信息技术有限公司 一种图像的识别方法、装置、电子设备及存储介质
CN111144241A (zh) * 2019-12-13 2020-05-12 深圳奇迹智慧网络有限公司 基于图像校验的目标识别方法、装置和计算机设备
CN111062786A (zh) * 2019-12-25 2020-04-24 创新奇智(青岛)科技有限公司 一种基于建立商品外观特征映射表的模型更新方法
CN111291623A (zh) * 2020-01-15 2020-06-16 浙江连信科技有限公司 基于人脸信息的心生理特征预测方法及装置
CN111310602A (zh) * 2020-01-20 2020-06-19 北京正和恒基滨水生态环境治理股份有限公司 一种基于情绪识别的展品关注度分析系统及分析方法
CN111563503A (zh) * 2020-05-09 2020-08-21 南宁市第三中学 一种少数民族文化象征物识别方法
CN114153342A (zh) * 2020-08-18 2022-03-08 深圳市万普拉斯科技有限公司 视觉信息展示方法、装置、计算机设备和存储介质
CN112363624A (zh) * 2020-11-16 2021-02-12 新之航传媒科技集团有限公司 一种基于情绪分析的互动展馆系统
CN112363624B (zh) * 2020-11-16 2022-09-09 新之航传媒科技集团有限公司 一种基于情绪分析的互动展馆系统
CN113269035A (zh) * 2021-04-12 2021-08-17 北京爱奇艺科技有限公司 一种图像处理方法、装置、设备和存储介质
CN113269035B (zh) * 2021-04-12 2025-01-17 北京爱奇艺科技有限公司 一种图像处理方法、装置、设备和存储介质
CN113177603A (zh) * 2021-05-12 2021-07-27 中移智行网络科技有限公司 分类模型的训练方法、视频分类方法及相关设备
CN113177603B (zh) * 2021-05-12 2022-05-06 中移智行网络科技有限公司 分类模型的训练方法、视频分类方法及相关设备
CN113762156A (zh) * 2021-09-08 2021-12-07 北京优酷科技有限公司 观影数据处理方法、装置及存储介质
CN113762156B (zh) * 2021-09-08 2023-10-24 北京优酷科技有限公司 观影数据处理方法、装置及存储介质
CN113947422A (zh) * 2021-09-13 2022-01-18 青岛颐中科技有限公司 基于多维度特征的营销方法、装置和电子设备

Also Published As

Publication number Publication date
WO2020147430A1 (zh) 2020-07-23

Similar Documents

Publication Publication Date Title
CN109815873A (zh) 基于图像识别的商品展示方法、装置、设备及介质
Pérez-Borrero et al. A fast and accurate deep learning method for strawberry instance segmentation
US11423076B2 (en) Image similarity-based group browsing
CN107633207B (zh) Au特征识别方法、装置及存储介质
Kao et al. Visual aesthetic quality assessment with a regression model
CN114359787B (zh) 目标属性识别方法、装置、计算机设备及存储介质
Fabian Benitez-Quiroz et al. Emotionet: An accurate, real-time algorithm for the automatic annotation of a million facial expressions in the wild
US20160350336A1 (en) Automated image searching, exploration and discovery
Franco et al. Grocery product detection and recognition
Liu et al. Age classification using convolutional neural networks with the multi-class focal loss
CN110298245B (zh) 兴趣收集方法、装置、计算机设备及存储介质
CN107633204A (zh) 人脸遮挡检测方法、装置及存储介质
WO2018228448A1 (zh) 搭配服饰的推荐方法和装置、电子设备、存储介质
CN109993595A (zh) 个性化推荐商品及服务的方法、系统及设备
CN107679448A (zh) 眼球动作分析方法、装置及存储介质
Gan et al. Detection and localization of defects on natural leather surfaces
CN109815920A (zh) 基于卷积神经网络和对抗卷积神经网络的手势识别方法
CN109829484B (zh) 一种服饰分类方法、设备及计算机可读存储介质
Sawant et al. Comprehensive Analysis of Fruit Variety Classification: Techniques, Challenges, and Application
Farajzadeh et al. Study on the performance of moments as invariant descriptors for practical face recognition systems
Sreekanth et al. Fruit detection using improved K-means algorithm
CN114495198B (zh) 图像处理方法、装置、计算机设备及存储介质
US12154315B2 (en) Grouping clothing images of brands using vector representations
Zhou et al. A framework for semantic people description in multi-camera surveillance systems
CN114463673A (zh) 素材推荐方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190528