CN119938968B - 基于复杂环境用户行为预测的智能推荐系统与方法 - Google Patents
基于复杂环境用户行为预测的智能推荐系统与方法Info
- Publication number
- CN119938968B CN119938968B CN202510000677.3A CN202510000677A CN119938968B CN 119938968 B CN119938968 B CN 119938968B CN 202510000677 A CN202510000677 A CN 202510000677A CN 119938968 B CN119938968 B CN 119938968B
- Authority
- CN
- China
- Prior art keywords
- user
- filter
- emotion
- coefficient
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及静态图形数据检索技术领域,且公开了基于复杂环境用户行为预测的智能推荐系统与方法包括用户行为识别模块、用户所处环境识别模块、用户情感识别模块、滤镜库统计检索模块、数据分析模块和智能推荐模块,数据分析模块包括用户行为综合性评价单元和用户环境数据评价单元。该系统通过对用户上传的静态图像数据进行分析,提取到用户所处的复杂环境中的主体因素,依据静态图像数据中人物的运动幅度和整体图像的情感状态来确定的用户行为滤镜,将环境滤镜和用户动作行为滤镜进行结合,生成智能推荐滤镜,将智能推荐滤镜应用到用户上传的静态图像数据中,实现了综合复杂环境中的主体因素、用户面部情绪以及用户的行为动作来智能推荐对应滤镜。
Description
技术领域
本发明涉及静态图形数据检索技术领域,具体为基于复杂环境用户行为预测的智能推荐系统与方法。
背景技术
在利用移动终端拍摄时,为了使得拍摄的作品质量更好,很多对象会在拍摄的照片或者视频上增加滤镜,以达到美化照片或视频的目的;
在相关技术中,对象在滤镜推荐列表中来选择要增加的滤镜。然而,滤镜推荐列表中滤镜的排列顺序是通过人工运营在后台定制的,但是,由于人工运营的主观性特点以及对象的个性化特点,导致现有的滤镜推荐方法的推荐结果不能满足对象需求,即,不能在不同场景需求时能够根据用户所处的复杂环境、用户面部情绪以及用户的行为动作来客观推荐对应滤镜。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了基于复杂环境用户行为预测的智能推荐系统与方法,具备准确向用户推荐滤镜等优点,解决了上述技术问题。
(二)技术方案
为实现上述目的,本发明提供如下技术方案:基于复杂环境用户行为预测的智能推荐系统,包括用户行为识别模块、用户所处环境识别模块、用户情感识别模块、滤镜库统计检索模块、数据分析模块和智能推荐模块;
所述用户行为识别模块基于用户上传的静态图像数据对用户在静态图像中的行为进行识别并进行评价,输出用户动作行为系数DZDF;
所述用户所处环境识别模块基于用户上传的静态图像数据对用户在静态图像中的环境进行识别并进行评价分析,输出用户所处环境数据集;
所述用户情感识别模块基于用户上传的静态图像数据对用户在静态图像中的情绪进行识别,并输入到情绪评级函数中计算,输出用户情绪行为系数QGDF,所述情绪评级函数的具体表达式如下:
其中,QXPJ表示情绪评级函数,QXPJ=1表示情绪强烈,QXPJ=0.5表示情绪起伏,QXPJ=0.25表示情绪中立,所述情绪强烈表示用户情感识别模块识别出的情绪为愤怒、厌恶、恐惧、喜悦和悲伤,所述情绪中立表示用户情感识别模块识别出的情绪为惊讶,所述情绪中立表示用户情感识别模块识别出的情绪为中立;
所述滤镜库统计检索模块中存储有滤镜库,所述滤镜库统计检索模块基于滤镜库中滤镜的应用环境构建环境滤镜库,所述滤镜库统计检索模块基于滤镜库中滤镜的应用人物动作构建动作滤镜库;
所述数据分析模块包括用户行为综合性评价单元和用户环境数据评价单元,所述用户行为综合性评价单元基于用户动作行为系数DZDF和用户情绪行为系数QGDF并结合动作滤镜库输出用户行为滤镜;
所述用户环境数据评价单元读取滤镜库统计检索模块中环境滤镜库内每一个滤镜的应用场景,并基于用户所处环境数据集输出环境滤镜;
所述智能推荐模块基于用户行为滤镜以及环境滤镜进行计算,并输出智能推荐滤镜。
作为本发明的优选技术方案,所述用户行为识别模块基于用户上传的静态图像数据对用户在静态图像中的行为进行识别并进行评价,输出用户动作行为系数DZDF的具体步骤如下:
步骤A1:读取用户上传的静态图像数据中的人物个数,并依据人物个数计算人物互动系数RWHD,其具体表达式如下:
其中,e表示自然常数,a表示修正系数,RS表示静态图像数据中的人物个数,表示向上取整;
步骤A2:读取静态图像数据中的人物的运动状态,并依据人物运动状态和人物数量的不同计算人物运动系数RWYD,其中,运动状态的评价包括手臂运动幅度SBDZFD和腿部运动幅度TBDZFD,所述手臂运动幅度SBDZFD和腿部运动幅度TBDZFD确定的具体步骤如下:
步骤A2.a1:通过openpose识别人物的手腕部位置坐标和脚腕位置坐标,以及人体中轴线位置;
步骤A2.a1:计算任意一个手腕部位置坐标和脚腕位置坐标与人体中轴线位置之间的最小距离,分别作为手臂运动幅度SBDZFD和腿部运动幅度TBDZFD;
步骤A3:基于步骤A1得到的人物互动系数RWHD与步骤A2得到的人物运动系数RWYD计算得到用户动作行为系数DZDF,其具体表达式如下:
DZDF=RWHD*RWYD
其中,RWHD表示人物互动系数,RWYD表示人物运动系数,DZDF表示用户动作行为系数。
作为本发明的优选技术方案,所述步骤A2中依据人物运动状态来计算人物运动系数RWYD时,当静态图像数据中人物数量为一个时,其具体表达式如下:
RWYD=w1*SBDZFD+w2*TBDZFD
其中,w1和w2分别为两个权重系数,SBDZFD表示手臂运动幅度,TBDZFD表示腿部运动幅度。
作为本发明的优选技术方案,所述步骤A2中依据人物运动状态来计算人物运动系数RWYD时,当静态图像数据中人物数量为多个时,其具体步骤如下:
步骤A2.b1:将静态图像数据中人物进行分割,并对应人数分割成I等份;
步骤A2.b2:计算每一个人物的手臂运动幅度SBDZFD和腿部运动幅度TBDZFD,并综合得到整体图像的人物运动系数RWYD,其具体表达式如下:
其中,w1和w2分别为两个权重系数,SBDZFDi表示第i个人物的手臂运动幅度,表示共I个人物手臂运动幅度进行求和,RWYD表示人物运动系数,TBDZFDi表示第i个人物的脚部运动幅度,表示共I个人物腿部运动幅度进行求和,i∈[1,I]。
作为本发明的优选技术方案,所述用户所处环境识别模块基于用户上传的静态图像数据对用户在静态图像中的环境进行识别并进行评价分析,输出用户所处环境数据集的具体步骤如下:
步骤B1:对静态图像数据的环境数据进行分析,通过DeepLab网络模型提取出静态图像数据中的所有环境因素;
步骤B2:计算每一个环境因素占静态图像数据的占比,并对所有环境因素占整体静态图像数据的占比进行排名,选出排名前三的环境因素,作为用户所处环境数据集,其具体计算表达式如下:
其中,ZBj表示第j个环境因素的占比,XSj表示第j个环境因素的像素总数,XSmax表示静态图像数据中去除人物后的总像素。
作为本发明的优选技术方案,当静态图像数据中人物数量为一个时,所述用户情感识别模块基于用户上传的静态图像数据对用户在静态图像中的情绪进行识别时,输出用户情绪行为系数QGDF的具体过程为:通过Pytorch模型进行表情识别,并输出用户情绪,并将用户情绪放置到情绪评级函数中得到用户情绪行为系数QGDF。
作为本发明的优选技术方案,所述当静态图像数据中人物数量为多个时,所述用户情感识别模块基于用户上传的静态图像数据对用户在静态图像中的情绪进行识别时,输出用户情绪行为系数QGDF的具体步骤如下:
步骤C1:将静态图像数据中人物进行分割,并对应人数分割成I等份;
步骤C2:通过Pytorch模型进行表情识别,并将Pytorch模型识别结果相同的情绪进行归类,并计算每一种情绪的占比,其具体表达式如下:
其中,QX1,…,QXk,…,QXK分别表示通过Pytorch模型进行表情识别输出并归类的第1种情绪、…、第k种情绪、…、第K种情绪,QXBF1,…,QXBFk,…,QXBFK分别表示第1种情绪占所有情绪的百分率、…、第k种情绪占所有情绪的百分率、…、第K种情绪占所有情绪的百分率,DRQX表示多人情绪数据集,k∈[1,K],K≤I,且第k种情绪占所有情绪的百分率QXBFk的具体表达式如下:
其中,QXSLk表示第k种情绪的识别数量,K表示归类后的情绪总数;
步骤C3:判断步骤C2中QXBF1,…,QXBFk,…,QXBFK是否有最大值,若有最大值,则选择最大值所对应的一组情绪以及该情绪占所有情绪的百分率作为用户情绪行为系数QGDF,若QXBF1,…,QXBFk,…,QXBFK中存在若干个相等的最大值,则随机在若干个相等的最大值中输出一个情绪以及该情绪占所有情绪的百分率;
步骤C4:将步骤C3得到的情绪输入到情绪评级函数中计算,输出用户情绪行为系数QGDF。
作为本发明的优选技术方案,所述用户行为综合性评价单元基于用户动作行为系数DZDF和用户情绪行为系数QGDF并结合动作滤镜库输出用户行为滤镜的具体步骤如下:
步骤D1:将用户情绪行为系数QGDF输出的情绪结合用户动作行为系数DZDF进行综合计算,得到用户综合评价系数,其具体表达式如下:
ZHPJXS=QGDF*DZDF
其中,ZHPJXS表示用户综合评价系数;
步骤D2:依据用户综合评价系数,计算动作滤镜库中每一个滤镜综合评价系数与用户综合评价系数的接近系数,从动作滤镜库筛选出接近程度最小的一个滤镜,并将该滤镜中存储的对应的对比度、曝光值、锐度和饱和度存储至作为用户行为滤镜YHLJ,计算动作滤镜库中每一个滤镜综合评价系数与用户综合评价系数的接近系数的表达式如下:
DZXSn=|ZHPJXS-DZKn|
其中,DZXSn表示动作滤镜库中第n个滤镜综合评价系数与用户综合评价系数的接近系数,DZKn表示动作滤镜库中第n个滤镜综合评价系数,所述动作滤镜库中第n个滤镜综合评价系数DZKn获取方式与用户综合评价系数ZHPJXS的获取方式一致;
所述用户环境数据评价单元读取滤镜库统计检索模块中环境滤镜库内每一个滤镜的应用场景,并基于用户所处环境数据集输出环境滤镜的具体步骤为:计算环境滤镜库中每一个滤镜的环境因素与步骤B2中输出的三个环境因素的相似度,并选取相似度最大的一个滤镜对应的对比度、曝光值、锐度和饱和度存储至环境滤镜HJLJ,计算环境滤镜库中每一个滤镜的环境因素与步骤B2中输出的三个环境因素的相似度的具体表达式如下:
HJXSDm=(1-|ZBx-ZBm,x|)+(1-|ZBy-ZBm,y|)+(1-|ZBz-ZBm,z|)
其中,|*|表示绝对值,HJXSDm表示环境滤镜库中第m个滤镜与步骤B2中输出的三个环境因素的相似度,ZBx、ZBy、ZBz表示步骤B2中筛选出的排名前三的环境因素,ZBm,x表示环境滤镜库中第m个滤镜使用场景中对应ZBx的环境因素,ZBm,y表示环境滤镜库中第m个滤镜使用场景中对应ZBy的环境因素,ZBm,z表示环境滤镜库中第m个滤镜使用场景中对应ZBz的环境因素。
作为本发明的优选技术方案,所述智能推荐模块基于用户行为滤镜以及环境滤镜进行综合分析,并输出智能推荐滤镜的具体过程为:将环境滤镜HJLJ和用户行为滤镜YHLJ中存储的对比度、曝光值、锐度和饱和度分别进行计算,并将计算结果作为智能推荐滤镜的对比度、曝光值、锐度和饱和度,并将智能推荐滤镜的对比度、曝光值、锐度和饱和度应用于用户上传的静态图像数据上,其具体表达式如下:
其中,DBDzz表示智能推荐滤镜的对比度,DBDHJLJ表示环境滤镜中存储的对比度,DBDYHLJ表示用户行为滤镜中存储的对比度,BGDzz表示智能推荐滤镜的曝光度,BGDHJLJ表示环境滤镜中存储的曝光度,BGDYHLJ表示用户行为滤镜中存储的曝光度,RDzz表示智能推荐滤镜的锐度,RDHJLJ表示环境滤镜中存储的锐度,RDYHLJ表示用户行为滤镜中存储的锐度,BHDzz表示智能推荐滤镜的饱和度,BHDHJLJ表示环境滤镜中存储的饱和度,BHDYHLJ表示用户行为滤镜中存储的饱和度。
本发明还提供一种基于复杂环境用户行为预测的智能推荐方法,应用了上述的基于复杂环境用户行为预测的智能推荐系统,包括以下步骤:
步骤一:基于用户上传的静态图像数据对用户在静态图像中的行为进行识别并进行评价,输出用户动作行为系数DZDF,基于用户上传的静态图像数据对用户在静态图像中的情绪进行识别,并输入到情绪评级函数中计算,输出用户情绪行为系数QGDF;
步骤二:基于用户上传的静态图像数据对用户在静态图像中的环境进行识别并进行评价分析,输出用户所处环境数据集;
步骤三:基于用户动作行为系数DZDF和用户情绪行为系数QGDF并结合动作滤镜库输出用户行为滤镜;
步骤四:读取滤镜库统计检索模块中环境滤镜库内每一个滤镜的应用场景,并基于用户所处环境数据集输出环境滤镜;
步骤五:基于用户行为滤镜以及环境滤镜进行计算,并输出智能推荐滤镜。
与现有技术相比,本发明提供了基于复杂环境用户行为预测的智能推荐系统与方法,具备以下有益效果:
1、本发明通过对用户上传的静态图像数据进行分析,首先提取到用户所处的复杂环境中的主体因素,从而保证了在后续的环境检索匹配的过程中能够快速对比到现有的环境滤镜库中最相似的一个环境滤镜,之后依据静态图像数据中人物的运动幅度和整体图像的情感状态来确定的用户行为滤镜,并将环境滤镜和用户动作行为滤镜进行结合,最终生成智能推荐滤镜,并将智能推荐滤镜应用到用户上传的静态图像数据中,实现了综合复杂环境中的主体因素、用户面部情绪以及用户的行为动作来智能客观推荐对应滤镜。
2、本发明通过对图像中的人物数量进行分类,当图像中的人物只有一个时,则依据流程结合复杂环境中的主体因素、用户面部情绪以及用户的行为动作来智能推荐对应滤镜,当图像中的人物为多人时,则在确定复杂环境中的主体因素后,依据每个人的用户面部情绪的不同,对图像中所有情绪进行归类,并选择一个作为图像的主体情绪,并计算用户综合的行为动作,并依据复杂环境中的主体因素、图像的主体情绪和用户综合的行为动作来智能推荐滤镜,从而可以保证在图像面对单人和多人情况时均能正常向用户智能推荐滤镜。
附图说明
图1为本发明系统框架示意图;
图2为本发明流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-图2,基于复杂环境用户行为预测的智能推荐系统,包括用户行为识别模块、用户所处环境识别模块、用户情感识别模块、滤镜库统计检索模块、数据分析模块和智能推荐模块;
用户行为识别模块基于用户上传的静态图像数据对用户在静态图像中的行为进行识别并进行评价,输出用户动作行为系数DZDF,用户行为识别模块基于用户上传的静态图像数据对用户在静态图像中的行为进行识别并进行评价,输出用户动作行为系数DZDF的具体步骤如下:
步骤A1:读取用户上传的静态图像数据中的人物个数,并依据人物个数计算人物互动系数RWHD,其具体表达式如下:
其中,e表示自然常数,a表示修正系数,修正系数的作用是为了保证人物互动系数RWHD的值为最接近的整数,当为整数时,修正系数a=0,RS表示静态图像数据中的人物个数,表示向上取整;
步骤A2:读取静态图像数据中的人物的运动状态,并依据人物运动状态和人物数量的不同计算人物运动系数RWYD,其中,运动状态的评价包括手臂运动幅度SBDZFD和腿部运动幅度TBDZFD,手臂运动幅度SBDZFD和腿部运动幅度TBDZFD确定的具体步骤如下:
步骤A2.a1:通过openpose识别人物的手腕部位置坐标和脚腕位置坐标,以及人体中轴线位置;
步骤A2.a1:计算任意一个手腕部位置坐标和脚腕位置坐标与人体中轴线位置之间的最小距离,当检测到两个手腕时,则选取其与人体中轴线位置之间的最小距离中较大的一个,当检测到一个手腕时仅计算手腕位置坐标与人体中轴线之间的最小距离,对于脚腕的判断同理,对于上述坐标计算的结果分别作为手臂运动幅度SBDZFD和腿部运动幅度TBDZFD,该处人体中轴线可以看成,从眼部中点和鼻尖位置连线的延伸线,从而保证了坐标的基准;
步骤A2中依据人物运动状态来计算人物运动系数RWYD时,当静态图像数据中人物数量为一个时,其具体表达式如下:
RWYD=w1*SBDZFD+w2*TBDZFD
其中,w1和w2分别为两个权重系数,SBDZFD表示手臂运动幅度,TBDZFD表示腿部运动幅度;
步骤A2中依据人物运动状态来计算人物运动系数RWYD时,当静态图像数据中人物数量为多个时,其具体步骤如下:
步骤A2.b1:将静态图像数据中人物进行分割,并对应人数分割成I等份;
步骤A2.b2:计算每一个人物的手臂运动幅度SBDZFD和腿部运动幅度TBDZFD,并综合得到整体图像的人物运动系数RWYD,其具体表达式如下:
其中,w1和w2分别为两个权重系数,SBDZFDi表示第i个人物的手臂运动幅度,表示共I个人物手臂运动幅度进行求和,RWYD表示人物运动系数,TBDZFDi表示第i个人物的脚部运动幅度,表示共I个人物腿部运动幅度进行求和,i∈[1,I],从而能够根据静态图像中人物的运动情况来计算得出人物的运动幅度的情况;
步骤A3:基于步骤A1得到的人物互动系数RWHD与步骤A2得到的人物运动系数RWYD计算得到用户动作行为系数DZDF,其具体表达式如下:
DZDF=RWHD*RWYD
其中,RWHD表示人物互动系数,RWYD表示人物运动系数,DZDF表示用户动作行为系数,由于当静态图片数据中有多个人物的时候,即合照情况下人物互动性相对单人进行拍摄时的互动性较强,所以,图像中人物数量与互动性是相对呈正相关的,所以在计算用户动作行为时,将人数和运动情况进行结合来对整体的用户动作行为进行反馈,可以得到较为准确的评估结果;
用户所处环境识别模块基于用户上传的静态图像数据对用户在静态图像中的环境进行识别并进行评价分析,输出用户所处环境数据集,用户所处环境识别模块基于用户上传的静态图像数据对用户在静态图像中的环境进行识别并进行评价分析,输出用户所处环境数据集的具体步骤如下:
步骤B1:对静态图像数据的环境数据进行分析,通过DeepLab网络模型提取出静态图像数据中的所有环境因素;
步骤B2:计算每一个环境因素占静态图像数据的占比,并对所有环境因素占整体静态图像数据的占比进行排名,选出排名前三的环境因素,作为用户所处环境数据集,其具体计算表达式如下:
其中,ZBj表示第j个环境因素的占比,XSj表示第j个环境因素的像素总数,XSmax表示静态图像数据中去除人物后的总像素,通过对图像中的环境因素进行提取可以保证选取当前图像中的主体因素,从而保证了在后续的环境检索匹配的过程中能够快速对比到现有的环境滤镜库中最相似的一个环境滤镜;
用户情感识别模块基于用户上传的静态图像数据对用户在静态图像中的情绪进行识别,并输入到情绪评级函数中计算,输出用户情绪行为系数QGDF,情绪评级函数的具体表达式如下:
其中,QXPJ表示情绪评级函数,QXPJ=1表示情绪强烈,QXPJ=0.5表示情绪起伏,QXPJ=0.25表示情绪中立,情绪强烈表示用户情感识别模块识别出的情绪为愤怒、厌恶、恐惧、喜悦和悲伤,情绪中立表示用户情感识别模块识别出的情绪为惊讶,情绪中立表示用户情感识别模块识别出的情绪为中立当静态图像数据中人物数量为一个时,用户情感识别模块基于用户上传的静态图像数据对用户在静态图像中的情绪进行识别时,输出用户情绪行为系数QGDF的具体过程为:通过Pytorch模型进行表情识别,并输出用户情绪,并将用户情绪放置到情绪评级函数中得到用户情绪行为系数QGDF。
当静态图像数据中人物数量为多个时,用户情感识别模块基于用户上传的静态图像数据对用户在静态图像中的情绪进行识别时,输出用户情绪行为系数QGDF的具体步骤如下:
步骤C1:将静态图像数据中人物进行分割,并对应人数分割成I等份;
步骤C2:通过Pytorch模型进行表情识别,并将Pytorch模型识别结果相同的情绪进行归类,并计算每一种情绪的占比,其具体表达式如下:
其中,QX1,…,QXk,…,QXK分别表示通过Pytorch模型进行表情识别输出并归类的第1种情绪、…、第k种情绪、…、第K种情绪,QXBF1,…,QXBFk,…,QXBFK分别表示第1种情绪占所有情绪的百分率、…、第k种情绪占所有情绪的百分率、…、第K种情绪占所有情绪的百分率,DRQX表示多人情绪数据集,k∈[1,K],K≤I,且第k种情绪占所有情绪的百分率QXBFk的具体表达式如下:
其中,QXSLk表示第k种情绪的识别数量,K表示归类后的情绪总数;
步骤C3:判断步骤C2中QXBF1,…,QXBFk,…,QXBFK是否有最大值,若有最大值,则选择最大值所对应的一组情绪以及该情绪占所有情绪的百分率作为用户情绪行为系数QGDF,若QXBF1,…,QXBFk,…,QXBFK中存在若干个相等的最大值,则随机在若干个相等的最大值中输出一个情绪以及该情绪占所有情绪的百分率;
步骤C4:将步骤C3得到的情绪输入到情绪评级函数中计算,输出用户情绪行为系数QGDF;
滤镜库统计检索模块中存储有滤镜库,滤镜库统计检索模块基于滤镜库中滤镜的应用环境构建环境滤镜库,滤镜库统计检索模块基于滤镜库中滤镜的应用人物动作构建动作滤镜库;
数据分析模块包括用户行为综合性评价单元和用户环境数据评价单元,用户行为综合性评价单元基于用户动作行为系数DZDF和用户情绪行为系数QGDF并结合动作滤镜库输出用户行为滤镜,用户行为综合性评价单元基于用户动作行为系数DZDF和用户情绪行为系数QGDF并结合动作滤镜库输出用户行为滤镜的具体步骤如下:
步骤D1:将用户情绪行为系数QGDF输出的情绪结合用户动作行为系数DZDF进行综合计算,得到用户综合评价系数,其具体表达式如下:
ZHPJXS=QGDF*DZDF
其中,ZHPJXS表示用户综合评价系数;
步骤D2:依据用户综合评价系数,计算动作滤镜库中每一个滤镜综合评价系数与用户综合评价系数的接近系数,从动作滤镜库筛选出接近程度最小的一个滤镜,并将该滤镜中存储的对应的对比度、曝光值、锐度和饱和度存储至作为用户行为滤镜YHLJ,计算动作滤镜库中每一个滤镜综合评价系数与用户综合评价系数的接近系数的表达式如下:
DZXSn=|ZHPJXS-DZKn|
其中,DZXSn表示动作滤镜库中第n个滤镜综合评价系数与用户综合评价系数的接近系数,DZKn表示动作滤镜库中第n个滤镜综合评价系数,动作滤镜库中第n个滤镜综合评价系数DZKn获取方式与用户综合评价系数ZHPJXS的获取方式一致;
用户环境数据评价单元读取滤镜库统计检索模块中环境滤镜库内每一个滤镜的应用场景,并基于用户所处环境数据集输出环境滤镜,用户环境数据评价单元读取滤镜库统计检索模块中环境滤镜库内每一个滤镜的应用场景,并基于用户所处环境数据集输出环境滤镜的具体步骤为:计算环境滤镜库中每一个滤镜的环境因素与步骤B2中输出的三个环境因素的相似度,并选取相似度最大的一个滤镜对应的对比度、曝光值、锐度和饱和度存储至环境滤镜HJLJ,计算环境滤镜库中每一个滤镜的环境因素与步骤B2中输出的三个环境因素的相似度的具体表达式如下:
HJXSDm=(1-|ZBx-ZBm,x|)+(1-|ZBy-ZBm,y|)+(1-|ZBz-ZBm,z|)
其中,|*|表示绝对值,HJXSDm表示环境滤镜库中第m个滤镜与步骤B2中输出的三个环境因素的相似度,ZBx、ZBy、ZBz表示步骤B2中筛选出的排名前三的环境因素,ZBm,x表示环境滤镜库中第m个滤镜使用场景中对应ZBx的环境因素,ZBm,y表示环境滤镜库中第m个滤镜使用场景中对应ZBy的环境因素,ZBm,z表示环境滤镜库中第m个滤镜使用场景中对应ZBz的环境因素;
智能推荐模块基于用户行为滤镜以及环境滤镜进行计算,并输出智能推荐滤镜,智能推荐模块基于用户行为滤镜以及环境滤镜进行综合分析,并输出智能推荐滤镜的具体过程为:将环境滤镜HJLJ和用户行为滤镜YHLJ中存储的对比度、曝光值、锐度和饱和度分别进行计算,并将计算结果作为智能推荐滤镜的对比度、曝光值、锐度和饱和度,并将智能推荐滤镜的对比度、曝光值、锐度和饱和度应用于用户上传的静态图像数据上,其具体表达式如下:
其中,DBDzz表示智能推荐滤镜的对比度,DBDHJLJ表示环境滤镜中存储的对比度,DBDYHLJ表示用户行为滤镜中存储的对比度,BGDzz表示智能推荐滤镜的曝光度,BGDHJLJ表示环境滤镜中存储的曝光度,BGDYHLJ表示用户行为滤镜中存储的曝光度,RDzz表示智能推荐滤镜的锐度,RDHJLJ表示环境滤镜中存储的锐度,RDYHLJ表示用户行为滤镜中存储的锐度,BHDzz表示智能推荐滤镜的饱和度,BHDHJLJ表示环境滤镜中存储的饱和度,BHDYHLJ表示用户行为滤镜中存储的饱和度。
本申请中记载的动作滤镜库和环境滤镜库实质上导向的数据为同一个滤镜库,将滤镜依据人物动作进行划分时得到动作滤镜库,对滤镜的使用环境因素进行提取得到环境滤镜库,其本质上实质上是一个滤镜库添加了两组不同的标签生成的;
实施例一:
本实施例中用户上传的静态图像数据为单人,通过Pytorch模型进行表情识别结果为喜悦,带入情绪评级函数输出QXPJ=1表示情绪强烈,修正系数a=0,w1=0.56,w2=0.44,且通过DeepLab网络模型提取出静态图像数据中的所有环境因素具体为:海洋ZB1=22.5%、沙滩ZB2=17%、树木ZB3=7.5%、天空ZB4=23%、礁石ZB5=6%、遮阳伞ZB6=6%和围栏ZB7=8%,此时用户所处环境数据集包括了上述所有环境因素,以及对应的百分比,此时筛选出排名前三的环境因素为海洋ZB1=22.5%、沙滩ZB2=17%和天空ZB4=23%,手臂运动幅度SBDZFD=5,腿部运动幅度TBDZFD=3;
此时计算人物互动系数人物运动系数RWYD=0.56*5+0.44*3=4.12,基于人物互动系数RWHD与人物运动系数RWYD计算得到用户动作行为系数DZDF=RWHD*RWYD=4.12*1=4.12,此时用户综合评价系数ZHPJXS=QGDF*DZDF=4.12,本实施例记载的动作滤镜库中每一个滤镜的综合评价系数参见下表1;
表1
选择滤镜5中存储的对比度、曝光值、锐度和饱和度存储至用户行为滤镜YHLJ中,环境滤镜库中存储的与静态图像中上传的环境因素的对应的环境因素所占比例如下表2;
表2
| 环境滤镜库 | 环境因素 |
| 滤镜1 | 海洋=30%、沙滩=7%,天空=2% |
| 滤镜2 | 海洋=0%、沙滩=37%,天空=15% |
| 滤镜3 | 海洋=0%、沙滩=0%,天空=18% |
| 滤镜4 | 海洋=23%、沙滩=21%,天空=19% |
| 滤镜5 | 海洋=5%、沙滩=0%,天空=7% |
HJXSD1=2.575、HJXSD2=2.495、HJXSD3=2.555、HJXSD4=2.915、HJXSD1=2.495,此时HJXSD4=2.915最大,选择滤镜4中存储的对比度、曝光值、锐度和饱和度存储至环境滤镜HJLJ中,对于滤镜4和滤镜5以及得出的智能推荐滤镜的具体参数见表3;
表3
| 滤镜名称 | 对比度 | 曝光值 | 锐度 | 饱和度 |
| 滤镜4 | 30 | 10 | 25 | 40 |
| 滤镜5 | 10 | 6 | 20 | 50 |
| 智能推荐滤镜 | 20 | 8 | 22.5 | 45 |
实施例二:
本实施例中用户上传的静态图像数据为三人,a=-0.389,通过Pytorch模型进行表情识别,并将Pytorch模型识别结果相同的情绪进行归类得到此时存在最大值为喜悦,并选择喜悦输入到情绪评级函数中计算,输出用户情绪行为系数QGDF=1,w1=0.56,w2=0.44,且通过DeepLab网络模型提取出静态图像数据中的所有环境因素具体为:动物ZB1=16%、沙滩ZB2=6%、树木ZB3=22%、天空ZB4=18%、长椅ZB5=10%、车辆ZB6=3%和建筑ZB7=25%,此时用户所处环境数据集包括了上述所有环境因素,以及对应的百分比,此时筛选出排名前三的环境因素为建筑ZB7=25%、树木ZB3=22%和天空ZB4=18%;
计算人物互动系数人物运动系数 基于人物互动系数RWHD与人物运动系数RWYD计算得到用户动作行为系数DZDF=RWHD*RWYD=7*2.86=20.02,本实施例记载的动作滤镜库中每一个滤镜的综合评价系数参见下表4;
表4
| 动作滤镜库 | 综合评价系数 |
| 滤镜1 | 8.15 |
| 滤镜2 | 15.46 |
| 滤镜3 | 25.76 |
| 滤镜4 | 13.08 |
| 滤镜5 | 4.29 |
选择滤镜3中存储的对比度、曝光值、锐度和饱和度存储至用户行为滤镜YHLJ中,环境滤镜库中存储的与静态图像中上传的环境因素的对应的环境因素所占比例如下表5;
表5
| 环境滤镜库 | 环境因素 |
| 滤镜1 | 建筑=12%、树木=45%和天空=10% |
| 滤镜2 | 建筑=24%、树木=53%和天空=17% |
| 滤镜3 | 建筑=56%、树木=0%和天空=13% |
| 滤镜4 | 建筑=80%、树木=0%和天空=0% |
| 滤镜5 | 建筑=0%、树木=0%和天空=86% |
HJXSD1=2.56、HJXSD2=2.67、HJXSD3=2.42、HJXSD4=2.05、HJXSD1=1.85,此时HJXSD2=2.67最大,选择滤镜2中存储的对比度、曝光值、锐度和饱和度存储至环境滤镜HJLJ中,对于滤镜2和滤镜3以及得出的智能推荐滤镜的具体参数见表6;
表6
| 滤镜名称 | 对比度 | 曝光值 | 锐度 | 饱和度 |
| 滤镜2 | 15 | -5 | 8 | 10 |
| 滤镜3 | 10 | -7 | 1 | 3 |
| 智能推荐滤镜 | 12.5 | -6 | 4.5 | 6.5 |
本发明还提供一种基于复杂环境用户行为预测的智能推荐方法,应用了上述的基于复杂环境用户行为预测的智能推荐系统,包括以下步骤:
步骤一:基于用户上传的静态图像数据对用户在静态图像中的行为进行识别并进行评价,输出用户动作行为系数DZDF,基于用户上传的静态图像数据对用户在静态图像中的情绪进行识别,并输入到情绪评级函数中计算,输出用户情绪行为系数QGDF;
步骤二:基于用户上传的静态图像数据对用户在静态图像中的环境进行识别并进行评价分析,输出用户所处环境数据集;
步骤三:基于用户动作行为系数DZDF和用户情绪行为系数QGDF并结合动作滤镜库输出用户行为滤镜;
步骤四:读取滤镜库统计检索模块中环境滤镜库内每一个滤镜的应用场景,并基于用户所处环境数据集输出环境滤镜;
步骤五:基于用户行为滤镜以及环境滤镜进行计算,并输出智能推荐滤镜。用户上传的静态图像数据与滤镜库统计检索模块中存储的滤镜库应用的图像数据大小一致
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (10)
1.基于复杂环境用户行为预测的智能推荐系统,其特征在于:包括用户行为识别模块、用户所处环境识别模块、用户情感识别模块、滤镜库统计检索模块、数据分析模块和智能推荐模块;
所述用户行为识别模块基于用户上传的静态图像数据对用户在静态图像中的行为进行识别并进行评价,输出用户动作行为系数DZDF;
所述用户所处环境识别模块基于用户上传的静态图像数据对用户在静态图像中的环境进行识别并进行评价分析,输出用户所处环境数据集;
所述用户情感识别模块基于用户上传的静态图像数据对用户在静态图像中的情绪进行识别,并输入到情绪评级函数中计算,输出用户情绪行为系数QGDF,所述情绪评级函数的具体表达式如下:
其中,QXPJ表示情绪评级函数,QXPJ=1表示情绪强烈,QXPJ=0.5表示情绪起伏,QXPJ=0.25表示情绪中立,所述情绪强烈表示用户情感识别模块识别出的情绪为愤怒、厌恶、恐惧、喜悦和悲伤,所述情绪中立表示用户情感识别模块识别出的情绪为惊讶,所述情绪中立表示用户情感识别模块识别出的情绪为中立;
所述滤镜库统计检索模块中存储有滤镜库,所述滤镜库统计检索模块基于滤镜库中滤镜的应用环境构建环境滤镜库,所述滤镜库统计检索模块基于滤镜库中滤镜的应用人物动作构建动作滤镜库;
所述数据分析模块包括用户行为综合性评价单元和用户环境数据评价单元,所述用户行为综合性评价单元基于用户动作行为系数DZDF和用户情绪行为系数QGDF并结合动作滤镜库输出用户行为滤镜;
所述用户环境数据评价单元读取滤镜库统计检索模块中环境滤镜库内每一个滤镜的应用场景,并基于用户所处环境数据集输出环境滤镜;
所述智能推荐模块基于用户行为滤镜以及环境滤镜进行计算,并输出智能推荐滤镜。
2.根据权利要求1所述的基于复杂环境用户行为预测的智能推荐系统,其特征在于:所述用户行为识别模块基于用户上传的静态图像数据对用户在静态图像中的行为进行识别并进行评价,输出用户动作行为系数DZDF的具体步骤如下:
步骤A1:读取用户上传的静态图像数据中的人物个数,并依据人物个数计算人物互动系数RWHD,其具体表达式如下:
其中,e表示自然常数,a表示修正系数,RS表示静态图像数据中的人物个数,表示向上取整;
步骤A2:读取静态图像数据中的人物的运动状态,并依据人物运动状态和人物数量的不同计算人物运动系数RWYD,其中,运动状态的评价包括手臂运动幅度SBDZFD和腿部运动幅度TBDZFD,所述手臂运动幅度SBDZFD和腿部运动幅度TBDZFD确定的具体步骤如下:
步骤A2.a1:通过openpose识别人物的手腕部位置坐标和脚腕位置坐标,以及人体中轴线位置;
步骤A2.a1:计算任意一个手腕部位置坐标和脚腕位置坐标与人体中轴线位置之间的最小距离,分别作为手臂运动幅度SBDZFD和腿部运动幅度TBDZFD;
步骤A3:基于步骤A1得到的人物互动系数RWHD与步骤A2得到的人物运动系数RWYD计算得到用户动作行为系数DZDF,其具体表达式如下:
DZDF=RWHD*RWYD
其中,RWHD表示人物互动系数,RWYD表示人物运动系数,DZDF表示用户动作行为系数。
3.根据权利要求2所述的基于复杂环境用户行为预测的智能推荐系统,其特征在于:所述步骤A2中依据人物运动状态来计算人物运动系数RWYD时,当静态图像数据中人物数量为一个时,其具体表达式如下:
RWYD=w1*SBDZFD+w2*TBDZFD
其中,w1和w2分别为两个权重系数,SBDZFD表示手臂运动幅度,TBDZFD表示腿部运动幅度。
4.根据权利要求2所述的基于复杂环境用户行为预测的智能推荐系统,其特征在于:所述步骤A2中依据人物运动状态来计算人物运动系数RWYD时,当静态图像数据中人物数量为多个时,其具体步骤如下:
步骤A2.b1:将静态图像数据中人物进行分割,并对应人数分割成I等份;
步骤A2.b2:计算每一个人物的手臂运动幅度SBDZFD和腿部运动幅度TBDZFD,并综合得到整体图像的人物运动系数RWYD,其具体表达式如下:
其中,w1和w2分别为两个权重系数,SBDZFDi表示第i个人物的手臂运动幅度,表示共I个人物手臂运动幅度进行求和,RWYD表示人物运动系数,TBDZFDi表示第i个人物的脚部运动幅度,表示共I个人物腿部运动幅度进行求和,i∈[1,I]。
5.根据权利要求1所述的基于复杂环境用户行为预测的智能推荐系统,其特征在于:所述用户所处环境识别模块基于用户上传的静态图像数据对用户在静态图像中的环境进行识别并进行评价分析,输出用户所处环境数据集的具体步骤如下:
步骤B1:对静态图像数据的环境数据进行分析,通过DeepLab网络模型提取出静态图像数据中的所有环境因素;
步骤B2:计算每一个环境因素占静态图像数据的占比,并对所有环境因素占整体静态图像数据的占比进行排名,选出排名前三的环境因素,作为用户所处环境数据集,其具体计算表达式如下:
其中,ZBj表示第j个环境因素的占比,XSj表示第j个环境因素的像素总数,XSmax表示静态图像数据中去除人物后的总像素。
6.根据权利要求3所述的基于复杂环境用户行为预测的智能推荐系统,其特征在于:当静态图像数据中人物数量为一个时,所述用户情感识别模块基于用户上传的静态图像数据对用户在静态图像中的情绪进行识别时,输出用户情绪行为系数QGDF的具体过程为:通过Pytorch模型进行表情识别,并输出用户情绪,并将用户情绪放置到情绪评级函数中得到用户情绪行为系数QGDF。
7.根据权利要求4所述的基于复杂环境用户行为预测的智能推荐系统,其特征在于:所述当静态图像数据中人物数量为多个时,所述用户情感识别模块基于用户上传的静态图像数据对用户在静态图像中的情绪进行识别时,输出用户情绪行为系数QGDF的具体步骤如下:
步骤C1:将静态图像数据中人物进行分割,并对应人数分割成I等份;
步骤C2:通过Pytorch模型进行表情识别,并将Pytorch模型识别结果相同的情绪进行归类,并计算每一种情绪的占比,其具体表达式如下:
其中,QX1,…,QXk,…,QXK分别表示通过Pytorch模型进行表情识别输出并归类的第1种情绪、…、第k种情绪、…、第K种情绪,QXBF1,…,QXBFk,…,QXBFK分别表示第1种情绪占所有情绪的百分率、…、第k种情绪占所有情绪的百分率、…、第K种情绪占所有情绪的百分率,DRQX表示多人情绪数据集,k∈[1,K],K≤I,且第k种情绪占所有情绪的百分率QXBFk的具体表达式如下:
其中,QXSLk表示第k种情绪的识别数量,K表示归类后的情绪总数;
步骤C3:判断步骤C2中QXBF1,…,QXBFk,…,QXBFK是否有最大值,若有最大值,则选择最大值所对应的一组情绪以及该情绪占所有情绪的百分率作为用户情绪行为系数QGDF,若QXBF1,…,QXBFk,…,QXBFK中存在若干个相等的最大值,则随机在若干个相等的最大值中输出一个情绪以及该情绪占所有情绪的百分率;
步骤C4:将步骤C3得到的情绪输入到情绪评级函数中计算,输出用户情绪行为系数QGDF。
8.根据权利要求5所述的基于复杂环境用户行为预测的智能推荐系统,其特征在于:所述用户行为综合性评价单元基于用户动作行为系数DZDF和用户情绪行为系数QGDF并结合动作滤镜库输出用户行为滤镜的具体步骤如下:
步骤D1:将用户情绪行为系数QGDF输出的情绪结合用户动作行为系数DZDF进行综合计算,得到用户综合评价系数,其具体表达式如下:
ZHPJXS=QGDF*DZDF
其中,ZHPJXS表示用户综合评价系数;
步骤D2:依据用户综合评价系数,计算动作滤镜库中每一个滤镜综合评价系数与用户综合评价系数的接近系数,从动作滤镜库筛选出接近程度最小的一个滤镜,并将该滤镜中存储的对应的对比度、曝光值、锐度和饱和度存储至作为用户行为滤镜YHLJ,计算动作滤镜库中每一个滤镜综合评价系数与用户综合评价系数的接近系数的表达式如下:
DZXSn=|ZHPJXS-DZKn|
其中,DZXSn表示动作滤镜库中第n个滤镜综合评价系数与用户综合评价系数的接近系数,DZKn表示动作滤镜库中第n个滤镜综合评价系数,所述动作滤镜库中第n个滤镜综合评价系数DZKn获取方式与用户综合评价系数ZHPJXS的获取方式一致;
所述用户环境数据评价单元读取滤镜库统计检索模块中环境滤镜库内每一个滤镜的应用场景,并基于用户所处环境数据集输出环境滤镜的具体步骤为:计算环境滤镜库中每一个滤镜的环境因素与步骤B2中输出的三个环境因素的相似度,并选取相似度最大的一个滤镜对应的对比度、曝光值、锐度和饱和度存储至环境滤镜HJLJ,计算环境滤镜库中每一个滤镜的环境因素与步骤B2中输出的三个环境因素的相似度的具体表达式如下:
HJXSDm=(1-|ZBx-ZBm,x|)+(1-|ZBy-ZBm,y|)+(1-|ZBz-ZBm,z|)
其中,|*|表示绝对值,HJXSDm表示环境滤镜库中第m个滤镜与步骤B2中输出的三个环境因素的相似度,ZBx、ZBy、ZBz表示步骤B2中筛选出的排名前三的环境因素,ZBm,x表示环境滤镜库中第m个滤镜使用场景中对应ZBx的环境因素,ZBm,y表示环境滤镜库中第m个滤镜使用场景中对应ZBy的环境因素,ZBm,z表示环境滤镜库中第m个滤镜使用场景中对应ZBz的环境因素。
9.根据权利要求8所述的基于复杂环境用户行为预测的智能推荐系统,其特征在于:所述智能推荐模块基于用户行为滤镜以及环境滤镜进行综合分析,并输出智能推荐滤镜的具体过程为:将环境滤镜HJLJ和用户行为滤镜YHLJ中存储的对比度、曝光值、锐度和饱和度分别进行计算,并将计算结果作为智能推荐滤镜的对比度、曝光值、锐度和饱和度,并将智能推荐滤镜的对比度、曝光值、锐度和饱和度应用于用户上传的静态图像数据上,其具体表达式如下:
其中,DBDzz表示智能推荐滤镜的对比度,DBDHJLJ表示环境滤镜中存储的对比度,DBDYHLJ表示用户行为滤镜中存储的对比度,BGDzz表示智能推荐滤镜的曝光度,BGDHJLJ表示环境滤镜中存储的曝光度,BGDYHLJ表示用户行为滤镜中存储的曝光度,RDzz表示智能推荐滤镜的锐度,RDHJLJ表示环境滤镜中存储的锐度,RDYHLJ表示用户行为滤镜中存储的锐度,BHDzz表示智能推荐滤镜的饱和度,BHDHJLJ表示环境滤镜中存储的饱和度,BHDYHLJ表示用户行为滤镜中存储的饱和度。
10.基于复杂环境用户行为预测的智能推荐方法,应用了权利要求1-9任意一项权利要求所述的基于复杂环境用户行为预测的智能推荐系统,其特征在于:包括以下步骤:
步骤一:基于用户上传的静态图像数据对用户在静态图像中的行为进行识别并进行评价,输出用户动作行为系数DZDF,基于用户上传的静态图像数据对用户在静态图像中的情绪进行识别,并输入到情绪评级函数中计算,输出用户情绪行为系数QGDF;
步骤二:基于用户上传的静态图像数据对用户在静态图像中的环境进行识别并进行评价分析,输出用户所处环境数据集;
步骤三:基于用户动作行为系数DZDF和用户情绪行为系数QGDF并结合动作滤镜库输出用户行为滤镜;
步骤四:读取滤镜库统计检索模块中环境滤镜库内每一个滤镜的应用场景,并基于用户所处环境数据集输出环境滤镜;
步骤五:基于用户行为滤镜以及环境滤镜进行计算,并输出智能推荐滤镜。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202510000677.3A CN119938968B (zh) | 2025-01-02 | 2025-01-02 | 基于复杂环境用户行为预测的智能推荐系统与方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202510000677.3A CN119938968B (zh) | 2025-01-02 | 2025-01-02 | 基于复杂环境用户行为预测的智能推荐系统与方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN119938968A CN119938968A (zh) | 2025-05-06 |
| CN119938968B true CN119938968B (zh) | 2025-10-14 |
Family
ID=95549454
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202510000677.3A Active CN119938968B (zh) | 2025-01-02 | 2025-01-02 | 基于复杂环境用户行为预测的智能推荐系统与方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN119938968B (zh) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103927372A (zh) * | 2014-04-24 | 2014-07-16 | 厦门美图之家科技有限公司 | 一种基于用户语义的图像处理方法 |
| CN106688305A (zh) * | 2015-02-03 | 2017-05-17 | 华为技术有限公司 | 滤镜的智能匹配方法和终端 |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10120880B2 (en) * | 2014-06-26 | 2018-11-06 | Amazon Technologies, Inc. | Automatic image-based recommendations using a color palette |
| CN109727208A (zh) * | 2018-12-10 | 2019-05-07 | 北京达佳互联信息技术有限公司 | 滤镜推荐方法、装置、电子设备及存储介质 |
| CN115797723B (zh) * | 2022-11-29 | 2023-10-13 | 北京达佳互联信息技术有限公司 | 滤镜推荐方法、装置、电子设备及存储介质 |
-
2025
- 2025-01-02 CN CN202510000677.3A patent/CN119938968B/zh active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103927372A (zh) * | 2014-04-24 | 2014-07-16 | 厦门美图之家科技有限公司 | 一种基于用户语义的图像处理方法 |
| CN106688305A (zh) * | 2015-02-03 | 2017-05-17 | 华为技术有限公司 | 滤镜的智能匹配方法和终端 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN119938968A (zh) | 2025-05-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN109544524B (zh) | 一种基于注意力机制的多属性图像美学评价系统 | |
| CN110532900B (zh) | 基于U-Net和LS-CNN的人脸表情识别方法 | |
| CN110516085A (zh) | 基于双向注意力的图像文本互检索方法 | |
| CN113761259A (zh) | 一种图像处理方法、装置以及计算机设备 | |
| CN111950655A (zh) | 一种基于多领域知识驱动的图像美学质量评价方法 | |
| Termritthikun et al. | NU-InNet: Thai food image recognition using convolutional neural networks on smartphone | |
| Khatun et al. | Fruits classification using convolutional neural network | |
| CN114170657A (zh) | 融合注意力机制与高阶特征表示的面部情感识别方法 | |
| Khairina et al. | Preserving cultural heritage through ai: Developing lenet architecture for wayang image classification | |
| Jassmann et al. | Leaf classification utilizing a convolutional neural network | |
| CN109992781A (zh) | 文本特征的处理、装置、存储介质和处理器 | |
| CN112926429A (zh) | 机审模型训练、视频机审方法、装置、设备及存储介质 | |
| CN115761356A (zh) | 图像识别方法、装置、电子设备和存储介质 | |
| CN113033693A (zh) | 一种融合用户主观属性的个性化图像美学评价方法及装置 | |
| Karlita et al. | Cat breeds classification using compound model scaling convolutional neural networks. | |
| CN116612409B (zh) | 一种基于视频时空特征的肉牛行为识别方法 | |
| Henri et al. | A deep transfer learning model for the identification of bird songs: A case study for Mauritius | |
| CN119938968B (zh) | 基于复杂环境用户行为预测的智能推荐系统与方法 | |
| CN110532869A (zh) | 表情识别方法、装置及计算机可读存储介质 | |
| CN120162459A (zh) | 一种基于用户情绪监测的音乐推荐方法、系统及设备 | |
| CN111860374A (zh) | 一种行人重识别方法、装置、设备及存储介质 | |
| Uddin et al. | A convolutional neural network for real-time face detection and emotion & gender classification | |
| CN119128205A (zh) | 基于人脸微表情识别的相关歌曲推送系统和方法 | |
| CN114742107B (zh) | 信息服务中的感知信号的识别方法及相关设备 | |
| CN114373192B (zh) | 根据动物视觉特征分类识别的方法、系统及可读存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |