CN112016398A - 手持物体识别方法及装置 - Google Patents
手持物体识别方法及装置 Download PDFInfo
- Publication number
- CN112016398A CN112016398A CN202010756462.1A CN202010756462A CN112016398A CN 112016398 A CN112016398 A CN 112016398A CN 202010756462 A CN202010756462 A CN 202010756462A CN 112016398 A CN112016398 A CN 112016398A
- Authority
- CN
- China
- Prior art keywords
- feature vector
- handheld
- label
- image
- handheld object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Library & Information Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了人工智能领域中的一种手持物体识别方法,包括:获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,并获取每个检测对象的第一标签,每个检测对象的位置信息为该检测对象在待识别图像中的位置信息,检测对象的第一标签用于指示检测对象的类型,检测对象的类型用于表征检测对象的手持关系;根据每个检测对象的第一标签从一个或多个检测对象中获取手持物体,并从一个或多个检测对象的位置信息获取手持物体的位置信息;根据手持物体的位置信息对待识别图像中手持物体进行识别,以得到手持物体的识别结果。采用本申请实施例可以在物体或手出现明显遮挡时可准确的确定出手持物体,从而识别出手持物体。
Description
技术领域
本申请涉及物体识别领域,尤其涉及一种手持物体识别方法及装置。
背景技术
近几年,随着深度学习、认知计算等人工智能技术的发展及在诸多领域的应用,人工智能逐渐使我们的工作生活变得更加智能化。智能机器人领域在人工智能大发展的浪潮中也实现了质的飞跃,其逐渐被应用于教育、安防、医疗和服务业等各个行业,并且越来越智能化地影响工业和服务业的发展,也潜移默化地提升了大众的生活水平。
对于服务型智能机器人而言,其在操作运行过程中,离不开视觉功能的支持。智能机器人在人机交互过程中,各种各样的物体扮演着非常重要的角色,智能机器人往往需要通过检测场景中相关的物体来增强对场景的理解,进而实现辅助机器人即时定位和地图构建(simultaneous localization and mapping,SLAM)、导航、运动控制,智能教育等功能。而一个完整的学习到应用的过程需要在交互的环境下进行。随着自然语言处理与理解技术的发展,机器人可以在与人的语音交互中解析语言,从而获取物体的概念以及属性等相关信息。在智能机器人学习了不同种类的物体之后,智能机器人能够被应用于更为广泛的室内场景中,并检测出更多认识的物体,实现从手持学习到复杂多变的室内场景的应用,这需要机器人自适应手持物体图像与实际室内场景中获取的物体图像的分布不匹配的问题,对智能机器人在场景中的实际应用而言是一项具有挑战性的任务。
该任务的核心部分,手持物体的定位。在手持物体定位相关方法上,可以大致分为两类,第一类是基于RGB-D的方法,其根据深度信息对场景进行重建,再对点云中的手和物体进行分割,得到手持物体,其明显不足在于深度信息的获取是代价高昂的,且在点云上获取分割结果精度也较低;第二类是基于RGB的方法,其进行2D物体的检测,显示的得到物体和手的位置,再通过分类的方式,确定并显示手持关系;但是这些方法在物体和手出现明显遮挡时是不可用的。
发明内容
本申请实施例提供一种手持物体识别方法及装置,采用本申请实施例可精准地确定出手持物体,实现了对于RGB图像,在物体或手出现明显遮挡时也可准确实现手持物体的识别,并且识别准确度也比较高。
第一方面,本申请实施例提供一种手持物体识别方法,包括:
获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,并获取每个检测对象的第一标签,每个检测对象的位置信息为该检测对象在待识别图像中的位置信息,检测对象的第一标签用于指示检测对象的类型,检测对象的类型用于表征检测对象的手持关系;根据每个检测对象的第一标签从一个或多个检测对象中获取手持物体,并从一个或多个检测对象的位置信息获取手持物体的位置信息;根据手持物体的位置信息对待识别图像中手持物体进行识别,以得到手持物体的识别结果。
在获取检测对象的位置信息后,通过用于指示检测对象的手持关系的第一标签确定出手持物体,在物体或手出现明显遮挡时可准确确定出手持物体,从而识别出手持物体。
在一个可选的实施例中,第一标签包括子类标签,子类标签用于指示检测对象的第一类型,获取每个检测对象的第一标签,包括:
在获取待识别图像的第一特征向量后,对待识别图像的第一特征向量进行第一卷积操作,以得到待识别图像的第二特征向量;对待识别图像的第二特征向量进行第一全连接操作,以得到每个检测对象的第一标签,其中,第一类型包括手持状态下的物体和非手持状态下的物体。
可选地,第一类型还包括持有物体的手和未持有物体的手。
在一个可选的实施例中,第一标签还包括超类标签,超类标签用于指示检测对象的第二类型,第一类型为第二类型的子类,获取每个检测对象的第一标签,还包括:
在获取待识别图像的第一特征向量后,对第一特征向量进行第二卷积操作,以得到待识别图像的第三特征向量;将第二特征向量和第三特征向量进行融合操作,以得到待识别图像的第四特征向量;对第四特征向量进行第三卷积操作,以得到待识别图像的第五特征向量;对第五特征向量进行第二全连接操作,以得到每个检测对象的超类标签;其中,第二类型包括手和物体。
通过引入超类标签,使得在进行区分检测对象的手持关系的同时,可保持其语义的一致性,进而保证检测对象的手持关系的准确性。
在一个可选的实施例中,获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,包括:
在获取待识别图像的第一特征向量后,根据待识别图像的第一特征向量对待识别图像中一个或多个检测对象进行边框回归操作,以得到一个或多个检测对象中每个检测对象的位置信息。
在一个可选的实施例中,根据手持物体的位置信息对的待识别图像中手持物体进行识别,以得到手持物体的识别结果,包括:
根据手持物体的位置信息从待识别图像中裁剪出包含手持物体的图像块,图像块为待识别图像的一部分;对图像块中的手持物体进行特征提取,以得到手持物体的第一特征向量;
根据手持物体的第一特征向量确定手持物体的参考标签及第一置信度,第一置信度为手持物体的标签为参考标签的概率;根据手持物体的参考标签和第一置信度获取手持物体的识别结果。
在一个可选的实施例中,识别结果包括手持物体的标签或者第二标签,第二标签用于指示未识别手持物体,增量特征库中包括S个特征向量及与S个特征向量中每个特征向量对应的标签,S为大于或者等于0的整数,根据手持物体的参考标签和第一置信度获取手持物体的识别结果,包括:
当第一置信度高于预设置信度时,将手持物体的参考标签确定为手持物体的标签;当第一置信度不高于预设置信度时,根据手持物体的第一特征向量和S个特征向量获取S个第二置信度,S个第二置信度与S个特征向量一一对应,S个特征向量中第j个特征向量所对应的第二置信度用于表征手持物体的标签为第j个特征向量对应的标签的概率;
若S个第二置信度均低于预设置信度,则将第二标签确定为手持物体的标签;若S个第二置信度中存在高于预设置信度的置信度,则将目标特征向量对应的标签确定为手持物体的标签,目标特征向量为高于预设置信度中的最高置信度对应的特征向量。
在一个可选的实施例中,S个特征向量中每个特征向量包括k个子特征向量,根据手持物体的第一特征向量和S个特征向量获取S个第二置信度,包括:
对于S个特征向量中的任一特征向量A,根据手持物体的第一特征向量和特征向量A的k个子特征向量计算得到k个第三置信度;第三置信度用于表征手持物体的标签为特征向量A对应的标签的概率;根据k个第三置信度计算得到特征向量A对应的第二置信度。
在一个可选的实施例中,根据手持物体的第一特征向量确定手持物体的识别结果后,本申请的方法还包括:
向用户展示手持物体的识别结果。
比如通过显示屏显示或者通过语音播放的方式向用户展示手持物体的识别结果。
在一个可选的实施例中,本申请的方法还包括:
接收用户的第一信息,该第一信息包括手持物体的第三标签;将手持物体的第三标签和手持物体的第一特征向量保存至增量识别库中。
可选地,用户的第一信息是通过语音方式输入的,或者通过手持物体识别装置的虚拟键盘输入的。
在向用户展示手持物体的识别结果后,若用户对识别结果不满意,获取用户输入的标签,将用户输入的标签和在识别时获取的手持物体的特征向量保持至增量特征库中,使得在进行下次识别时,能够从增量识别库中获取手持物体的标签。
在一个可选的实施例中,本申请的方法还包括:
接收用户的第二信息,该第二信息用于指示用户翻转手持物体,且第二信息包括手持物体的第三标签;获取手持物体的多帧第一图像,多帧第一图像为手持物体不同角度的图像;根据多帧第一图像获取手持物体的多个第三特征向量;多个第三特征向量与多帧第一图像一一对应;根据聚类算法对多个第三特征向量进行聚类,以得到k个子特征向量;将手持物体的第三标签和第二特征向量保存至增量识别库中,其中,第二特征向量是根据k个子特征向量得到的,或者第二特征向量包括k个子特征向量。
在向用户展示手持物体的识别结果后,若用户对识别结果不满意,获取用户输入的标签,并引导用户翻转手持物体,获取不同角度的手持物体的图像,并基于不同角度的手持物体的图像得到手持物体的特征向量,将该特征向量和用户输入的标签保存至增量特征库中,从而在后续识别时,能从增强特征库中获取手持物体的标签;由于新获取的手持物体的特征向量是基于不同角度的手持物体的图像获取的,因此使得不管图像块中手持物体属于何种角度,都能够准确得到手持物体的标签。
第二方面,本申请实施例提供另一种手持物体识别方法,包括:
获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,并获取每个检测对象的第一标签,每个检测对象的位置信息为该检测对象在待识别图像中的位置信息,检测对象的第一标签用于指示检测对象的类型,检测对象的类型用于表征检测对象的手持关系;根据每个检测对象的第一标签从一个或多个检测对象中获取手持物体,并从一个或多个检测对象的位置信息获取手持物体的位置信息;根据手持物体的位置信息从待识别图像中裁剪出包含手持物体的图像块,图像块为待识别图像的一部分;向物体识别服务器发送物体识别请求,物体识别请求携带有图像块;接收物体识别服务器的响应消息,响应消息携带有手持物体的识别结果。
在一个可选的实施例中,第一标签包括子类标签,子类标签用于指示检测对象的第一类型,获取每个检测对象的第一标签,包括:
在获取待识别图像的第一特征向量后,对待识别图像的第一特征向量进行第一卷积操作,以得到待识别图像的第二特征向量;
对待识别图像的第二特征向量进行第一全连接操作,以得到每个检测对象的第一标签,其中,第一类型包括手持状态下的物体和非手持状态下的物体。
进一步地,第一类型还包括持有物体的手和未持有物体的手。
在一个可选的实施例中,第一标签还包括超类标签,超类标签用于指示检测对象的第二类型,第一类型为第二类型的子类,获取每个检测对象的第一标签,还包括:
在获取待识别图像的第一特征向量后,对第一特征向量进行第二卷积操作,以得到待识别图像的第三特征向量;
将第二特征向量和第三特征向量进行融合操作,以得到待识别图像的第四特征向量;对第四特征向量进行第三卷积操作,以得到待识别图像的第五特征向量;对第五特征向量进行第二全连接操作,以得到每个检测对象的超类标签;其中,第二类型包括手和物体。
在一个可选的实施例中,获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,包括:
在获取待识别图像的第一特征向量后,根据待识别图像的第一特征向量对待识别图像中一个或多个检测对象进行边框回归操作,以得到一个或多个检测对象中每个检测对象的位置信息。
在一个可选的实施例中,接收物体识别服务器的响应消息之后,本申请的方法还包括:
向用户展示手持物体的识别结果。
在一个可选的实施例中,本申请的方法还包括:
接收用户的第一信息,第一信息包括手持物体的第三标签;向物体识别服务器发送第一消息,第一消息携带有手持物体的第三标签,第一消息用于指示物体识别服务器将手持物体的第三标签和手持物体的第一特征向量保存至增量识别库中。
在一个可选的实施例中,本申请的方法还包括:
接收用户的第二信息,第二信息用于指示用户翻转手持物体,且第二信息包括手持物体的第三标签;获取手持物体的多帧第一图像,多帧第一图像为手持物体不同角度的图像;向物体识别服务器发送第二消息,第二消息携带有手持物体的第三标签和多帧第一图像,第二消息用于指示物体识别服务器根据多帧第一图像获取手持物体的第二特征向量,并将手持物体的第三标签和手持物体的第二特征向量保存至增量识别库中。
第三方面,本申请实施例提供另一种手持物体识别方法,包括:
接收手持物体识别装置发送的物体识别请求,物体识别请求携带有包括手持物体的图像块;对图像块中的手持物体进行特征提取,以得到手持物体的第一特征向量;根据手持物体的第一特征向量确定手持物体的参考标签及第一置信度,第一置信度为手持物体的标签为参考标签的概率;根据手持物体的参考标签和第一置信度获取手持物体的识别结果;向手持物体识别装置发送用于响应物体识别请求的响应消息,该响应消息携带有手持物体的识别结果。
在一个可选的实施例中,识别结果包括手持物体的标签或者第二标签,第二标签用于指示未识别手持物体,增量特征库中包括S个特征向量及与S个特征向量中每个特征向量对应的标签,S为大于或者等于0的整数,根据手持物体的参考标签和第一置信度获取手持物体的识别结果,包括:
当第一置信度高于预设置信度时,将手持物体的参考标签确定为手持物体的标签;当第一置信度不高于预设置信度时,根据手持物体的第一特征向量和S个特征向量获取S个第二置信度,S个第二置信度与S个特征向量一一对应,S个特征向量中第j个特征向量所对应的第二置信度用于表征手持物体的标签为第j个特征向量对应的标签的概率;若S个第二置信度均低于预设置信度,则将第二标签确定为手持物体的标签;若S个第二置信度中存在高于预设置信度的置信度,则将目标特征向量对应的标签确定为手持物体的标签,目标特征向量为高于预设置信度中的最高置信度对应的特征向量。
在一个可选的实施例中,S个特征向量中每个特征向量包括k个子特征向量,根据手持物体的第一特征向量和S个特征向量获取S个第二置信度,包括:
对于S个特征向量中的任一特征向量A,根据手持物体的第一特征向量和特征向量A的k个子特征向量计算得到k个第三置信度;第三置信度用于表征手持物体的标签为特征向量A对应的标签的概率;根据k个第三置信度计算得到特征向量A对应的第二置信度。
在一个可选的实施例中,本申请的方法还包括:
接收手持物体识别装置发送的第一消息,第一消息携带有手持物体的第三标签,将手持物体的第三标签和手持物体的第一特征向量保存至增量识别库中。
在一个可选的实施例中,本申请的方法还包括:
接收手持物体识别装置发送的第二消息,第二消息携带有手持物体的第三标签和多帧第一图像,多帧第一图像为手持物体不同角度的图像,根据多帧第一图像获取手持物体的多个第三特征向量;多个第三特征向量与多帧第一图像一一对应;根据聚类算法对多个第三特征向量进行聚类,以得到k个子特征向量;将手持物体的第三标签和第二特征向量保存至增量识别库中,其中,第二特征向量是根据k个子特征向量得到的,或者第二特征向量包括k个子特征向量。
第四方面,本申请实施例还提供一种手持物体识别装置,包括:
存储器和与该存储器耦合的处理器,其中,存储器中存储有指令,当处理器执行该指令时,执行如第一方面或第二方面方法中的部分或者全部。
第五方面,本申请实施例还提供一种物体识别服务器,包括:
存储器和与该存储器耦合的处理器,其中,存储器中存储有指令,当处理器执行该指令时,执行如第三方面方法中的部分或者全部。
第六方面,本申请实施例提供一种芯片系统,该芯片系统应用于电子设备;芯片系统包括一个或多个接口电路,以及一个或多个处理器;所述接口电路和所述处理器通过线路互联;所述接口电路用于从所述电子设备的存储器接收信号,并向所述处理器发送所述信号,所述信号包括所述存储器中存储的计算机指令;当所述处理器执行所述计算机指令时,所述电子设备执行如第一方面或第二方面或第三方面所述方法的部分或全部。
第七方面,本申请实施例提供一种计算机可读存储介质,该计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行如第一方面或第二方面或第三方面所述方法的部分或全部。
第八方面,本申请实施例提供一种计算机程序产品,其特征在于,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如第一方面或第二方面或第三方面所述方法的部分或全部。
本申请的这些方面或其他方面在以下实施例的描述中会更加简明易懂。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出一种人工智能主体框架示意图;
图1a为本申请实施例提供的一种手持物体识别的应用场景示意图;
图1b为本申请实施例提供的另一种手持物体识别的应用场景示意图;
图2为本申请实施例提供了一种系统架构示意图;
图3为本申请实施例提供了另一种系统架构示意图;
图4为本申请实施例提供的一种手持物体识别方法的流程示意图;
图5为本申请实施例提供的一种手持物体定位模型的架构示意图;
图5a为本申请实施例提供的一种手持物体定位结果示意图;
图5b为本申请实施例提供的另一种手持物体定位结果示意图;
图5c为本申请实施例提供的一种增量特征库中的特征向量获取示意图;
图6为本申请实施例提供的一种具体的应用流程示意图;
图7为本申请实施例提供的另一种手持物体识别方法的流程示意图;
图8为本申请实施例提供的另一种手持物体识别方法的流程示意图;
图9为本申请实施例提供的一种手持物体识别装置的结构示意图;
图10为本申请实施例提供的另一种手持物体识别装置的结构示意图;
图11为本申请实施例提供的一种物体识别服务器的结构示意图;
图12为本申请实施例提供的另一种手持物体识别装置的结构示意图;
图13为本申请实施例提供的另一种物体识别服务器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1示出一种人工智能主体框架示意图,该主体框架描述了人工智能系统总体工作流程,适用于通用的人工智能领域需求。
下面从“智能信息链”(水平轴)和“IT价值链”(垂直轴)两个维度对上述人工智能主题框架进行阐述。
“智能信息链”反映从数据的获取到处理的一列过程。举例来说,可以是智能信息感知、智能信息表示与形成、智能推理、智能决策、智能执行与输出的一般过程。在这个过程中,数据经历了“数据—信息—知识—智慧”的凝练过程。
“IT价值链”从人智能的底层基础设施、信息(提供和处理技术实现)到系统的产业生态过程,反映人工智能为信息技术产业带来的价值。
(1)基础设施
基础设施为人工智能系统提供计算能力支持,实现与外部世界的沟通,并通过基础平台实现支撑。通过传感器与外部沟通;计算能力由智能芯片(CPU、NPU、GPU、ASIC、FPGA等硬件加速芯片)提供;基础平台包括分布式计算框架及网络等相关的平台保障和支持,可以包括云存储和计算、互联互通网络等。举例来说,传感器和外部沟通获取数据,这些数据提供给基础平台提供的分布式计算系统中的智能芯片进行计算。
(2)数据
基础设施的上一层的数据用于表示人工智能领域的数据来源。数据涉及到图形、图像、语音、文本,还涉及到传统设备的物联网数据,包括已有系统的业务数据以及力、位移、液位、温度、湿度等感知数据。
(3)数据处理
数据处理通常包括数据训练,机器学习,深度学习,搜索,推理,决策等方式。
其中,机器学习和深度学习可以对数据进行符号化和形式化的智能信息建模、抽取、预处理、训练等。
推理是指在计算机或智能系统中,模拟人类的智能推理方式,依据推理控制策略,利用形式化的信息进行机器思维和求解问题的过程,典型的功能是搜索与匹配。
决策是指智能信息经过推理后进行决策的过程,通常提供分类、排序、预测等功能。
(4)通用能力
对数据经过上面提到的数据处理后,进一步基于数据处理的结果可以形成一些通用的能力,比如可以是算法或者一个通用系统,例如,翻译,文本的分析,计算机视觉的处理,语音识别,图像的识别等等。
(5)智能产品及行业应用
智能产品及行业应用指人工智能系统在各领域的产品和应用,是对人工智能整体解决方案的封装,将智能信息决策产品化、实现落地应用,其应用领域主要包括:智能制造、智能交通、智能家居、智能医疗、智能安防、自动驾驶,平安城市,智能终端等。
参见图1a,图1a为本申请实施例提供的一种手持物体识别的应用场景示意图。如图1a所示的智能超市导航场景,在逛商城过程中,用户拿起商品,手动或者语音开启智能手机的手持物体识别功能;智能手机获取包含手持商品的图像,然后从包含手持商品的图像中确定出商品在包含手持商品的图像中的位置信息,根据该位置信息从包含手持商品的图像中获取包含商品的图像块,该图像块为包含手持商品的一部分;对该图像块中的手持商品进行特征提取,以得到手持商品的特征向量,根据手持商品的特征向量对该手持商品进行识别,以得到商品的名称。
可选地,智能手机在获取上述包含手持商品的图像块后,向物体识别服务器发送携带该图像块的物体识别请求,对该图像块中的手持商品进行特征提取,以得到手持商品的特征向量,根据手持商品的特征向量对该手持商品进行识别,以得到商品的名称;向智能手机发送用于响应物体识别请求的响应消息,该响应消息携带上述商品的名称。
可选地,智能手机基于商品的名称获取商品的相关信息,比如商品产地,功能等,并通过语音解说,比如“尊敬的顾客,您好!这是XX平台的台灯,具有XX功能……”;还可以通过智能手机的屏幕显示商品的相关信息;当然还可以通过其他方式告知商品的相关信息。
参见图1b,图1b为本申请实施例提供的另一种手持物体识别的应用场景示意图。如图1b所示的智能家庭教育机器人的场景:小朋友拿着一个物体,跑到智能机器人前,问智能机器人“你看我拿的是什么”,机器人开启手持物体识别功能,智能手机获取包含手持物体的图像,然后从包含手持物体的图像中确定出手持物体在包含手持物体的图像中的位置信息,根据该位置信息从包含手持物体的图像中获取包含手持物体的图像块,该图像块为包含手持物体的一部分;对该图像块中的手持物体进行特征提取,以得到手持物体的特征向量,根据手持物体的特征向量对该手持物体进行识别,以得到物体的名称。
可选地,智能手机在获取上述包含手持物体的图像块后,向物体识别服务器发送携带该图像块的物体识别请求,对该图像块中的手持物体进行特征提取,以得到手持物体的特征向量,根据手持物体的特征向量对该手持物体进行识别,以得到物体的名称;向智能手机发送用于响应物体识别请求的响应消息,该响应消息携带上述物体的名称。
机器人根据物体的名称获取该物体的相关信息,比如物体的名称和用途等,并通过语音方式告知小朋友该物体的名称和用途,比如“小朋友,你拿的是XX,它是XX”;若是未识别,则提示小朋友或者家长进行反馈该物体的相关信息,比如“小朋友,我不认识它,你能告诉我吗?”或者识别错误接收到用户反馈的物体的相关信息,机器人保存用户反馈的该物体的相关信息,以使下次检测到该物体时能准确识别。
参见附图2,本申请实施例提供了一种系统架构200。数据采集设备260用于采集训练数据并存入数据库230,训练设备220基于数据库230中维护的训练数据生成手持物体定位模型201。其中,对于手持物体定位模型,训练数据包括包含检测对象的图像样本、检测对象的位置信息样本、检测对象的子类标签样本、可选地,训练数据还包括检测对象的超类标签样本;下面将更详细地描述训练设备220如何基于训练数据得到手持物体定位模型,手持物体定位模型201能够从输入的图像中确定出手持物体在图像中的位置信息。
深度神经网络中的每一层的工作可以用数学表达式来描述:从物理层面深度神经网络中的每一层的工作可以理解为通过五种对输入空间(输入向量的集合)的操作,完成输入空间到输出空间的变换(即矩阵的行空间到列空间),这五种操作包括:1、升维/降维;2、放大/缩小;3、旋转;4、平移;5、“弯曲”。其中1、2、3的操作由完成,4的操作由+b完成,5的操作则由a()来实现。这里之所以用“空间”二字来表述是因为被分类的对象并不是单个事物,而是一类事物,空间是指这类事物所有个体的集合。其中,W是权重向量,该向量中的每一个值表示该层神经网络中的一个神经元的权重值。该向量W决定着上文所述的输入空间到输出空间的空间变换,即每一层的权重W控制着如何变换空间。训练深度神经网络的目的,也就是最终得到训练好的神经网络的所有层的权重矩阵(由很多层的向量W形成的权重矩阵)。因此,神经网络的训练过程本质上就是学习控制空间变换的方式,更具体的就是学习权重矩阵。
因为希望深度神经网络的输出尽可能的接近真正想要预测的值,所以可以通过比较当前网络的预测值和真正想要的目标值,再根据两者之间的差异情况来更新每一层神经网络的权重向量(当然,在第一次更新之前通常会有初始化的过程,即为深度神经网络中的各层预先配置参数),比如,如果网络的预测值高了,就调整权重向量让它预测低一些,不断的调整,直到神经网络能够预测出真正想要的目标值。因此,就需要预先定义“如何比较预测值和目标值之间的差异”,这便是损失函数(loss function)或目标函数(objectivefunction),它们是用于衡量预测值和目标值的差异的重要方程。其中,以损失函数举例,损失函数的输出值(loss)越高表示差异越大,那么深度神经网络的训练就变成了尽可能缩小这个loss的过程。
训练设备220得到的手持物体定位模型201可以应用不同的系统或设备中。在附图2中,执行设备210配置有I/O接口212,与外部设备进行数据交互,“用户”可以通过客户设备240向I/O接口212输入数据,比如待识别图像。
执行设备210可以调用数据存储系统250中的数据、代码等,也可以将数据、指令等存入数据存储系统250中。
计算模块211使用手持物体定位模型201对待识别图像进行处理,以得到手持物体在待识别图像中的位置信息;计算模块211根据手持物体在待识别图像中位置信息获取包含手持物体的图像块,该图像块为待识别图像中的一部分;计算模块211对图像块中的手持物体进行特征提取,以得到手持物体的特征向量;根据手持物体的特征向量获取手持物体的识别结果。
最后,I/O接口212将手持物体的识别结果返回给客户设备240,提供给用户。
更深层地,训练设备220可以针对不同的目标,基于不同的数据生成相应的手持物体定位模型201,以给用户提供更佳的结果。
在附图2中所示情况下,用户可以手动指定输入执行设备210中的数据,例如,在I/O接口212提供的界面中操作。另一种情况下,客户设备240可以自动地向I/O接口212输入数据并获得结果,如果客户设备240自动输入数据需要获得用户的授权,用户可以在客户设备240中设置相应权限。用户可以在客户设备240查看执行设备210输出的结果,比如手持物体的识别结果,具体的呈现形式可以是显示、声音、动作等具体方式。客户设备240也可以作为数据采集端将采集到训练数据存入数据库230。
值得注意的,附图2仅是本发明实施例提供的一种系统架构的示意图,图中所示设备、器件、模块等之间的位置关系不构成任何限制,例如,在附图2中,数据存储系统250相对执行设备210是外部存储器,在其它情况下,也可以将数据存储系统250置于执行设备210中。
参见附图3,本发明实施例提供了另一种系统架构300。执行设备210由一个或多个服务器实现,可选的,与其它计算设备配合,例如:数据存储、路由器、负载均衡器等设备;执行设备210可以布置在一个物理站点上,或者分布在多个物理站点上。执行设备210可以使用数据存储系统250中的数据,或者调用数据存储系统250中的程序代码实现训练得到手持物体定位模型,并将待识别图像输入到手持物体定位模型中进行处理,以得到手持物体在待识别图像中的位置信息。
用户可以操作各自的用户设备(例如本地设备301和本地设备302)与执行设备210进行交互。每个本地设备可以表示任何计算设备,例如个人计算机、计算机工作站、智能手机、平板电脑、智能摄像头、智能汽车或其他类型蜂窝电话、媒体消费设备、可穿戴设备、机顶盒、游戏机等。
每个用户的本地设备可以通过任何通信机制/通信标准的通信网络与执行设备210进行交互,通信网络可以是广域网、局域网、点对点连接等方式,或它们的任意组合。
在另一种实现中,执行设备210的一个方面或多个方面可以由每个本地设备实现,例如,本地设备301可以为执行设备210提供本地数据或反馈计算结果。
需要注意的,执行设备210的所有功能也可以由本地设备实现。例如,本地设备301实现执行设备210的功能并为自己的用户提供服务,或者为本地设备302的用户提供服务。
比如,本地设备301在获取包含手持物体的待识别图像后,向执行设备210发送携带待识别图像的物体识别请求;执行设备210根据手持物体定位模型获取手持物体在待识别图像中的位置信息;可选地,执行设备210根据手持物体在待识别图像中的位置信息获取包含手持物体的图像块,该图像块为待识别图像中的一部分;执行设备210该图像块中的手持物体进行特征提取,以得到手持物体的特征向量,根据手持物体的特征向量对该手持物体进行识别,以得到物体的名称;向本地设备301发送用于响应物体识别请求的响应消息,该响应消息携带上述物体的名称。
可选地,执行设备210在获取手持物体的位置信息后,本地设备301发送用于响应物体识别请求的响应消息,该响应消息携带上述手持物体的位置信息;本地设备301根据手持物体在待识别图像中的位置信息获取包含手持物体的图像块,该图像块为待识别图像中的一部分;执行设备210该图像块中的手持物体进行特征提取,以得到手持物体的特征向量,根据手持物体的特征向量对该手持物体进行识别,以得到手持物体的名称。
本地设备301在获取手持物体的名称后,向用户展示物体的名称。
下面具体介绍上述设备如何实现手持物体定位和识别的。
参见图4,图4为本申请实施例提供的一种手持物体识别方法的流程示意图。如图4所示,该方法包括:
S401、获取待识别图像中一个或多个检查对象中每个检测对象的位置信息,并获取检测每个检测对象的第一标签,每个检测对象的位置信息为该检测对象在待识别图像中的位置信息,检测对象的第一标签用于指示检测对象的类型,检测对象的类型用于表征检测对象的手持关系。
其中,上述检测对象包括手和非人物体。
可选地,在手持物体识别装置的手持物体识别功能开启后,通过该手持物体识别装置的摄像头或者从相册中获取待识别图像。比如说用户在逛超市时看到不认识的物品,用户拿起该物品;在唤起手持物体识别装置(比如智能手机、智能手表等)的手持物体识别功能后,识别装置获取上述待识别图像,该待识别图像包含上述不认识的图像。当然,也可以是先获取待识别图像,再开启手持物体识别功能;也可以是两者同时执行。
可选地,手持物体识别功能可以是用户通过语音唤起的或者是用户通过手动操作开启的。
在一个示例中,获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,包括:
在获取待识别图像的第一特征向量后,根据待识别图像的第一特征向量对待识别图像中的一个或多个检测对象进行边框回归操作,以得到一个或多个检测对象中每个检测对象的位置信息。
边框回归操作的具体流程:获取待识别图像中一个或多个检测对象中的每个检测对象的初始边框,该初始边框所覆盖的区域包括该检测对象;然后对初始边框不断进行平移和缩放,直至获取该检测对象的目标边框,该目标边框与该检测对象的最小边框的交并比大于预设交并比;其中,检测对象的最小边框为覆盖区域的面积最小,且覆盖区域包括该检测对象的边框。
其中,检测对象的位置信息以该检测对象的目标边框的信息表示;可选地,边框的信息可以包括边框对角线两端的坐标;还可以是边框中心点坐标和边框的尺寸;还可以是边框的左上角定点坐标、右上角定点坐标、左下角定点坐标或右上角定点坐标及边框的尺寸。
在一个可行的实施例中,第一标签包括子类标签,该子类标签用于指示检测对象的第一类型,获取检测每个检测对象的第一标签,包括:
在获取待识别图像的第一特征向量后,对该待识别图像的第一特征向量进行第一卷积操作,以得到待识别图像的第二特征向量;然后对该待识别图像的第二特征向量进行第一全连接操作,以得到待识别图像中一个或多个检测对象中每个检测对象的第一标签,其中,第一类型包括手持状态下的物体和非手持状态下的物体。
可选地,第一类型还包括持有物体的手和未持有物体的手。
进一步地,在一个可行的实施例中,第一标签还包括超类标签,该超类标签用于指示检测对象的第二类型,第一类型为第二类型的子类,获取每个检测对象的第一标签包括:
在获取待识别图像的第一特征向量后,对该第一特征向量进行第二卷积操作,以得到待识别图像的第三特征向量;将待识别图像的第二特征向量和第三特征向量进行融合,以得到待识别图像的第四特征向量;对该第四特征向量进行第三卷积操作,以得到待识别图像的第五特征向量;对该第五特征向量进行第二全连接操作,以得到待识别图像中一个或多个检测对象中每个检测对象的超类标签,其中,超类标签包括手和物体。
如图5所示,将待识别图像输入到骨干网络中进行处理,以得到不同尺度的特征向量;然后对不同尺度的特征向量进行堆叠操作,以得到待识别图像的第一特征向量。对待识别图像的第一特征向量进行边框回归操作,以得到待识别图像中一个或多个检测对象中每个检测对象的位置信息。具体地,如图5所示,将待识别图像的第一特征向量通过第一普通卷积神经网络、第一分离式卷积神经网络和第二普通卷积神经网络进行处理,以得到待识别图像中的一个或多个检测对象中每个检测对象的位置信息。
在此需要说明的是,边框回归的主要思想是:寻找一种函数关系使得输入初始边框P经过映射得到一个跟检测对象的最小边框G更接近的目标边框其中,检测对象的最小边框为覆盖区域的面积最小,且该覆盖区域包括该检测对象的边框。上述函数关系可通过上述第一普通卷积神经网络、第一分离式卷积神经网络和第二普通卷积神经网络来实现。
其中,检测对象的位置信息以该检测对象的目标边框的信息表示;可选地,边框的信息可以包括边框对角线两端的坐标;还可以是边框中心点坐标和边框的尺寸;还可以是边框的左上角定点坐标、右上角定点坐标、左下角定点坐标或右上角定点坐标及边框的尺寸。
如图5所示,将待识别图像的第一特征向量输入到第二分离式卷积神经网络和第三普通卷积神经网络中进行处理,实现对待识别图像的第一特征向量进行第一卷积操作,得到待识别图像的第二特征向量,再将待识别图像的第二特征向量输入第一全连接网络中进行处理,实现对待识别图像的第二特征向量的第一全连接操作,得到待识别图像的一个或多个检测对象中每个检测对象的子类标签,该子类标签用于指示检测对象的第一类型。
可选地,该第一类型包括被手持的物体或未被手持的物体,或者第一类型包括被手持的物体、未被手持的物体、手持物体的手或者未手持物体的手,如图5a所示。
假设第一类型包括四种类型,比如第一类型包括被手持的物体、未被手持的物体、手持物体的手和未手持物体的手时,将待识别图像的第二特征向量输入到第一全连接网络中进行处理,得到待识别图像中每个检测对象为上述四种类型中每种类型的概率,将最大概率所对应的类型确定为该检测对象的第一类型。
在此需要指出的是,获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,与获取每个检测对象的第一标签可以串行处理的,也可是并行处理的。
在一个可选的示例中,在确定手持物体的位置信息后,只显示被手持物体的边框及子类标签,如图5b所示。
可选地,如图5所示,将待识别图像的第一特征向量输入到第三分离式卷积神经网络和第四普通卷积神经网络中进行处理,实现对待识别图像的第一特征向量进行第二卷积操作,得到待识别图像的第三特征向量;对待识别图像的第二特征向量和第三特征向量进行融合操作,以得到待识别图像的第四特征向量;将待识别图像的第四特征向量输入到第四分离式卷积神经网络和第五普通卷积神经网络中进行处理,实现对待识别图像的第四特征向量进行第三卷积操作,得到待识别图像的第五特征向量;再将待识别图像的第五特征向量输入第二全连接网络中进行处理,实现对待识别图像的第五特征向量的第二全连接操作,得到待识别图像的一个或多个检测对象中每个检测对象的超类标签,该超类标签用于指示检测对象的第二类型,其中,第一类型为第二类型的子类。
可选地,第二类型包括手或物体。手持物体的手和未手持物体的手均属于手,被手持的物体和未被手持的物体均属于物体。
其中,图5所示的第二分离式卷积神经网络、第三普通卷积神经网络、第三分离式卷积神经网络、第四普通卷积神经网络、第四分离式卷积神经网络、第五普通卷积神经网络、第一全连接网络和第二全连接网络构成分类检测网络。通过分类检测网络,可以对RBG图像进行手持物体定位,进而可以隐式判断出手持关系并确定出手持物体。
在一个可选的实施例中,获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,并获取每个检测对象的第一标签具体可通过手持物体定位模型来实现,基于手持物体定位模型获取每个检测对象的位置信息和第一标签具体参加上述相关描述在此不再叙述。手持物体定位模型的具体架构如图5所示。
在使用手持物体定位模型之前,本申请的方法还包括:
获取手持物体定位模型。
其中,手持物体定位模型包括上述骨干网络、执行上述堆叠操作的堆叠模块、上述普通卷积神经网络、分离式卷积神经网络、执行上述融合操作的融合模块和全连接神经网络。
其中,手持物体定位模型是使用mobilenetV3作为基础网络架构,采用SSD的Head结构实现的。下表1示意了mobilenetV3的网络结构。
表1
其中,SE表示在该块中是否有挤压和激发;NL表示使用的非线性类型;HS表示激活函数h-swish,RE表示激活函数ReLU;NBN表示无批次归一化,s表示步长。
可选地,手持物体定位模型可以是手持物体识别装置训练得到的,还可以是其他设备训练好后,手持物体识别装置从其他设备中获取的。
具体地,手持物体识别装置训练得到手持物体定位模型,具体包括:
获取初始模型和训练数据,训练数据包括样本图像和样本图像中的一个或多个检测对象的位置信息样本和第一标签样本;将样本图像输入到初始模型中进行处理,以得到样本图像中一个或多个检测对象的位置信息预测结果和第一标签预测结果;基于第一损失函数及样本图像的一个或多个检测对象的位置信息样本和位置信息预测结果计算得到第一损失值;基于聚焦损失(focal loss)函数及样本图像中一个或多个检测对象的第一标签样本和第一标签预测结果计算得到第二损失值;然后基于第一损失值和第二损失值调整初始模型中的参数,从而得到调整后的模型;然后判断调整后的模型是否满足预设条件,比如调整后的模型的精度是否达到预设精度等;若调整后的模型满足预设条件,则将该调整后的模型确定为手持物体定位模型;若调整后的模型不满足预设条件,则重新按照上述方法对上述调整后的模型进行训练,直至得到上述手持物体定位模型。
可选地,第一损失函数可以为回归损失函数,比如L1loss,第二损失函数为聚焦损失(focal loss)函数。
通过上述方法,可以显示地检测手和物体,并隐式地识别出手持物体,并且在手不可见或较难被检测出时,依然可以检测物体并确认手持关系。
S402、根据每个检测对象的第一标签从一个或多个检测对象获取手持物体,并从一个或多个检测对象的位置信息中获取手持物体的位置信息。
其中,手持物体的位置信息为手持物体在待识别图像中的位置信息。
S403、根据手持物体的位置信息对待识别图像中的手持物体进行识别,以得到手持物体的识别结果。
具体地,根据上述手持物体的位置信息从待识别图像中裁剪出包含该手持物体的图像块,该图像块为待识别图像中的一部分;对该图像块中的手持图像进行特征提取,以得到手持物体的第一特征向量;根据该手持物体的第一特征向量确定出手持物体的参考标签和第一置信度,该第一置信度为手持物体的标签为参考标签的概率;根据该手持物体的参考标签和第一置信度获取手持物体的识别结果。
在一个可选的示例中,根据该手持物体的第一特征向量与确定出手持物体的参考标签和第一置信度,包括:
计算手持物体的第一特征向量与第一特征库中每个第一特征向量之间的距离,其中,第一特征库中包括一个或多个特征向量及其对应的标签,并根据手持物体的第一特征向量与第一特征库中每个特征向量之间的距离确定手持物体的第一特征向量与第一特征库中每个特征向量之间的置信度,将第一特征库中,与手持物体的第一特征向量之间置信度最大的特征向量对应的标签确定为手持物体的参考标签,该手持物体的特征向量与第一特征向量之间的置信度越大,该手持物体的特征向量与第一特征向量之间的距离越小,第一置信度为持物体的第一特征向量与第一特征库中每个特征向量之间的置信度中的最大置信度。
在一个可选的示例中,手持物体的识别结果包括手持物体的目标标签或者第二标签,该第二标签用于指示未识别出手持物体,增量特征库中包括S个特征向量及与S个特征向量中每个特征向量对应的标签,S为大于或者等于0的整数,根据手持物体的参考标签和第一置信度获取手持物体的识别结果,包括:
当第一置信度高于预设置信度时,将手持物体的参考标签确定为手持物体的标签;当第一置信度不高于预设置信度时,根据手持物体的第一特征向量和S个特征向量获取S个第二置信度,S个第二置信度与S个特征向量一一对应,S个特征向量中第j个特征向量所对应的第二置信度用于表征手持物体的标签为第j个特征向量对应的标签的概率;
若S个第二置信度均低于预设置信度,则将第二标签确定为手持物体的标签;若S个第二置信度中存在高于预设置信度的置信度,则将目标特征向量对应的标签确定为手持物体的标签,目标特征向量为高于预设置信度中的最高置信度对应的特征向量。
在一个可选的示例中,增量特征库中的每个特征向量包括k个子特征向量,计算手持物体的特征向量与增量特征库中每个特征向量之间的第二置信度,得到S个第二置信度,包括:
对于增量特征库中任一特征向量A,分别计算该特征向量A的k个子特征向量与手持物体的特征向量之间的置信度,得到k个第三置信度;根据该k个第三置信度获取该特征向量A的第二置信度。
可选地,特征向量A的第二置信度为上述k个第三置信度中的最大置信度;或者对该k个第三置信度进行加权求平均得到的。
在一个可选的示例中,在获取手持物体的目标标签,比如手持物体的名称后,根据手持物体的目标标签获取手持物体的相关信息,比如手持物体的功能、工作原理等。
在一个可选的实施例中,在对待识别视频进行手持物体识别时,按照上述方法对待识别视频中的图像逐帧进行手持物体识别;对于待识别视频的非最后一帧图像中的任一帧图像,若按照上述方法获取该图像中的手持物体的标签,则停止后续图像的识别;若按照上述方法未获取该图像中的手持物体的标签,则按照上述方法对该图像的后一帧继续进行识别,直到获取手持物体的标签;对于待识别视频的最后一帧图像,若按照上述方法未获取手持物体的标签,则第二标签确定为手持物体识别结果。
在一个示例中,在获取手持物体的识别结果后,向用户展示手持物体的识别结果。
具体地,在手持物体识别装置的显示屏幕上显示手持物体和手持物体的识别结果,或者通过语音的方式,以告知用户手持物体的识别结果,比如手持物体识别装置播放“您手上拿的是XX”,或者“无法识别出您手上拿的物体”;进一步地,在手持物体识别装置的显示屏幕上显示手持物体的相关信息,或者通过语音的方式告知用户手持物体的相关信息。
在一个可行的实施例中,在向用户展示手持物体的识别结果后,接收用户的第一信息,该第一信息包括手持物体的第三标签;将第三标签和手持物体的特征向量保存至第二特征库中。
在一个示例中,用户对于手持物体识别装置识别出的结果不满意时,比如手持物体为“茶杯”,手持物体识别装置识别出来的结果为“碗”,此时用户通过语音的方式或者通过手动输入方式告知手持物体识别装置用户手持的物体为“茶杯”,手持物体识别装置将手持物体的第三标签(比如茶杯)和手持物体的第一特征向量保存至第二特征库,以使手持物体识别装置后续能够正确识别出标签为第三标签的手持物体。
在一个可行的实施例中,接收用户的第二信息,该第二信息用于指示用户翻转手持物体,该第二信息包括手持物体的第三标签;在用户翻转手持物体时,获取手持物体的多帧第一图像,该多帧第一图像为手持物体不同角度的图像;根据多帧第一图像获取手持物体的第二特征向量。
可选地,对多帧第一图像中的手持物体进行特征提取,以得到手持物体的多个第三特征向量;对该多个第三特征向量进行聚类,以得到k个子特征向量;将k个子特征向量作为手持物体的第二特征向量和第三标签保存至增量特征库中。
可选地,对多帧第一图像中的手持物体进行特征提取,以得到手持物体的多个第三特征向量;对该多个第三特征向量进行聚类,以得到k个子特征向量;对该k个子特征向量进行求平均或者加权求平均,以得到手持物体的第二特征向量,并将该手持物体的第二特征向量和第三标签保存至增量特征库中。
在一个具体的示例中,手持物体识别装置通过语音方式引导用户对手持物体进行多视觉旋转,手持物体识别装置的摄像头获取多帧第一图像;该多帧第一图像为手持物体不同角度的图像;比如手持物体的正视图、左视图、右视图、后视图和下视图等;如图5c所示,对手持物体的多帧第一图像进行CNN语义特征提取,以得到多帧第一图像分别对应的多个参考特征向量;可选地,多个参考特征向量为将多帧第一图像输入到物体识别模型中后,从该物体识别模型的最后池化层的输出的特征向量;对多个参考特征向量进行多视角聚类,聚类中心个数为k,得到k个聚类中心的特征,该k个聚类中心的特征为上述手持物体的第二特征向量的k个子特征向量,并将k个子特征向量和手持式物体的标签保存至第二特征库中,或者对k个聚类中心的特征进行求平均或者加权求平均得到手持物体的第二特征向量,将手持物体的第二特征向量和手持物体的标签保存至第二特征库中。在用户下次需要对该手持物体进行识别时,手持物体识别装置在第二特征库中成功匹配到手持物体,并获取该手持物体的标签。
可选地,对多个参考特征向量进行多视角聚类,具体可采用k-means聚类算法;当然还可以采用其他聚类算法,在此不做具体限定。
在此需要指出的是,聚类中心个数与多帧第一图像中手持物体的角度相关联;比如多帧第一图像包括手持物体的5个角度的图像,则聚类中心的个数为5。
在将手持物体的第二特征向量保存至增量特征库中后,后续再进行手持物体的识别时,就可以从增量识别库中的特征向量匹配成功,从而得到手持物体的标签。
举例说明,如图6所示,用户通过语音方式触发机器人开启手持物体识别功能,比如用户对机器人说:“小艺,看看我手里拿的是什么”;机器人通过其摄像头获取包含手持物体的待识别图像;然后机器人的手持物体定位模块基于待识别图像获取手持物体在该待识别图像中的位置信息;机器人根据手持物体的位置信息从待识别图像中裁剪出包含手持物体的图像块,从该图像块中提取出手持物体的第一特征向量;基于手持物体的第一特征向量进行物体识别,得到手持物体的参考标签和第一置信度,第一置信度用于表征手持物体的标签为参考标签的概率;若手持物体的第一置信度超过预设置信度,则将手持物体的参考标签确定为手持物体的标签;若手持物体的第一置信度低于预设置信度,根据手持物体的第一特征向量检索增量特征库,获取手持物体的第一特征向量与增量特征库中每个特征向量的第二置信度,该第二置信度用于表征手持物体的标签为该特征向量所对应标签的概率;将手持物体的第一特征向量与增量特征库中每个特征向量的第二置信度中,高于预设置信度且最大置信度的特征向量所对应的标签确定为手持物体的标签;若手持物体的第一特征向量与增量特征库中每个特征向量的第二置信度均低于预设置信度,则将手持物体的标签确定第二标签,第二用于指示未识别出手持物体,具体过程参见上述实施例的相关描述,在此不再叙述;机器人在获取手持物体的标签后,若机器人识别出手持物体,在通过语音的方式告知用户:小艺说:“我猜这是B,对不对啊”;用户说:“答对了”,此时机器人结束此次物体识别;用户说:“答错了,这是A”;若机器人未识别出手持物体,也通过语音的方式告知用户:小艺说:“哎呀,我不认识啊,告知我这是什么,下次我就认识了”,用户说:“这是A”;在机器人识别错了或者未识别出手持物体,机器人的增量模块将手持物体的第一特征向量和从用户处获取的手持物体的标签保存至是增量特征库中,或者机器人引导用户翻转手持物体,同时通过摄像头获取手持物体的多帧第一图像,该多帧第一图像为手持物体不同角度的图像;增量模块根据多帧第一图像获取手持物体的第二特征向量,具体过程参见上述实施例的相关描述,在此不再叙述;将手持物体的第二特征向量和从用户处获取的手持物体的标签保存至是增量特征库中。
可以看出,在获取检测对象的位置信息后,通过用于指示检测对象的手持关系的第一标签确定出手持物体,在物体或手出现明显遮挡时可准确的确定出手持物体,从而识别出手持物体。通过引入超类标签,使得在进行区分检测对象的手持关系的同时,可保持其语义的一致性,进而保证检测对象的手持关系的准确性。在向用户展示手持物体的识别结果后,若用户对识别结果不满意,获取用户输入的标签,将用户输入的标签和在识别时获取的手持物体的特征向量保持至增量特征库中,使得在进行下次识别时,能够从增量识别库中获取手持物体的标签。其中,手持物体的特征向量是在向用户展示手持物体的识别结果后,若用户对识别结果不满意,获取用户输入的标签,并引导用户翻转手持物体,获取不同角度的手持物体的图像,并基于不同角度的手持物体的图像得到的,由于新获取的手持物体的特征向量是基于不同角度的手持物体的图像获取的,因此使得不管图像块中手持物体属于何种角度,都能够准确得到手持物体的标签。
参见图7,图7为本申请实施例提供的另一种手持物体识别方法流程示意图。如图7所示,该方法包括:
S701、获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,并获取每个检测对象的第一标签,每个检测对象的位置信息为该检测对象在待识别图像中的位置信息,检测对象的第一标签用于指示检测对象的类型,检测对象的类型用于表征检测对象的手持关系。
在一个可行的实施例中,第一标签包括子类标签,子类标签用于指示检测对象的第一类型,获取每个检测对象的第一标签,包括:
在获取待识别图像的第一特征向量后,对待识别图像的第一特征向量进行第一卷积操作,以得到待识别图像的第二特征向量;对待识别图像的第二特征向量进行第一全连接操作,以得到每个检测对象的第一标签,其中,第一类型包括手持状态下的物体和非手持状态下的物体。
在一个可行的实施例中,第一类型还包括持有物体的手和未持有物体的手。
在一个可行的实施例中,第一标签还包括超类标签,超类标签用于指示检测对象的第二类型,第一类型为第二类型的子类,获取每个检测对象的第一标签,还包括:
在获取待识别图像的第一特征向量后,对第一特征向量进行第二卷积操作,以得到待识别图像的第三特征向量;将第二特征向量和第三特征向量进行融合操作,以得到待识别图像的第四特征向量;对第四特征向量进行第三卷积操作,以得到待识别图像的第五特征向量;对第五特征向量进行第二全连接操作,以得到每个检测对象的超类标签;其中,第二类型包括手和物体。
在一个可行的实施例中,获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,包括:
在获取待识别图像的第一特征向量后,根据待识别图像的第一特征向量对待识别图像中一个或多个检测对象进行边框回归操作,以得到一个或多个检测对象中每个检测对象的位置信息。
S702、根据每个检测对象的第一标签从一个或多个检测对象中获取手持物体,并从一个或多个检测对象的位置信息获取手持物体的位置信息。
S703、根据手持物体的位置信息从待识别图像中裁剪出包含手持物体的图像块,图像块为待识别图像的一部分。
S704、向物体识别服务器发送物体识别请求,物体识别请求携带有图像块;接收物体识别服务器的响应消息,响应消息携带有手持物体的识别结果。
在一个可行的实施例中,接收物体识别服务器的响应消息之后,本申请的方法还包括:
向用户展示手持物体的识别结果。
在一个可行的实施例中,本申请的方法还包括:
接收用户的第一信息,第一信息包括手持物体的第三标签;向物体识别服务器发送第一消息,第一消息携带有手持物体的第三标签,第一消息用于指示物体识别服务器将手持物体的第三标签和手持物体的第一特征向量保存至增量识别库中。
在一个可行的实施例中,本申请的方法还包括:
接收用户的第二信息,第二信息用于指示用户翻转手持物体,且第二信息包括手持物体的第三标签;获取手持物体的多帧第一图像,多帧第一图像为手持物体不同角度的图像;向物体识别服务器发送第二消息,第二消息携带有手持物体的第三标签和多帧第一图像,第二消息用于指示物体识别服务器根据多帧第一图像获取手持物体的第二特征向量,并将手持物体的第三标签和手持物体的第二特征向量保存至增量识别库中。
在此需要说明的是,S701-S704的具体实现过程可参见上述步骤S401和S403的相关描述,在此不再叙述。
参见图8,图8为本申请实施例提供的另一种手持物体识别方法流程示意图。如图8所示,该方法包括:
S801、接收手持物体识别装置发送的物体识别请求,物体识别请求携带有包括手持物体的图像块。
在一个可选的实施例中,物体识别请求中包括手持物体的位置信息和待识别图像,物体识别服务器根据手持物体的位置信息从待识别图像中获取包括手持物体的图像块。
在一个可选的实施例中,图4所示实施例里中的手持物体定位模型运行在物体识别服务器中,在手持物体识别装置需要进行手持物体识别时,向物体识别服务器发送包含待识别图像的物体识别请求,物体识别服务器基于手持物体定位模型从待识别图像中获取手持物体信息,并基于手持物体的位置信息从待识别图像中获取包含手持物体的图像块,并按照图8所示实施例的方法获取手持物体的识别结果,并向手持物体识别装置发送包含手持物体识别结果,且用于响应上述物体识别请求的响应消息。
S802、对图像块中的手持物体进行特征提取,以得到手持物体的第一特征向量。
S803、根据手持物体的第一特征向量确定手持物体的参考标签及第一置信度,第一置信度为手持物体的标签为参考标签的概率。
S804、根据手持物体的参考标签和第一置信度获取手持物体的识别结果。
在一个可行的实施例中,识别结果包括手持物体的标签或者第二标签,第二标签用于指示未识别手持物体,增量特征库中包括S个特征向量及与S个特征向量中每个特征向量对应的标签,S为大于或者等于0的整数,根据手持物体的参考标签和第一置信度获取手持物体的识别结果,包括:
当第一置信度高于预设置信度时,将手持物体的参考标签确定为手持物体的标签;当第一置信度不高于预设置信度时,根据手持物体的第一特征向量和S个特征向量获取S个第二置信度,S个第二置信度与S个特征向量一一对应,S个特征向量中第j个特征向量所对应的第二置信度用于表征手持物体的标签为第j个特征向量对应的标签的概率;若S个第二置信度均低于预设置信度,则将第二标签确定为手持物体的标签;若S个第二置信度中存在高于预设置信度的置信度,则将目标特征向量对应的标签确定为手持物体的标签,目标特征向量为高于预设置信度中的最高置信度对应的特征向量。
可选地,S个特征向量中每个特征向量包括k个子特征向量,根据手持物体的第一特征向量和S个特征向量获取S个第二置信度,包括:
对于S个特征向量中的任一特征向量A,根据手持物体的第一特征向量和特征向量A的k个子特征向量计算得到k个第三置信度;第三置信度用于表征手持物体的标签为特征向量A对应的标签的概率;根据k个第三置信度计算得到特征向量A对应的第二置信度。
S805、向手持物体识别装置发送用于响应物体识别请求的响应消息,响应消息携带有手持物体的识别结果。
在一个可行的实施例中,本实施例的方法还包括:
接收手持物体识别装置发送的第一消息,第一消息携带有手持物体的第三标签,将手持物体的第三标签和手持物体的第一特征向量保存至增量识别库中。
在一个可行的实施例中,本实施例的方法还包括:
接收手持物体识别装置发送的第二消息,第二消息携带有手持物体的第三标签和多帧第一图像,多帧第一图像为手持物体不同角度的图像,根据多帧第一图像获取手持物体的多个第三特征向量;多个第三特征向量与多帧第一图像一一对应;根据聚类算法对多个第三特征向量进行聚类,以得到k个子特征向量;将手持物体的第三标签和第二特征向量保存至增量识别库中,其中,第二特征向量是根据k个子特征向量得到的,或者第二特征向量包括k个子特征向量。
在此需要说明的是,S801-S805的具体实现过程可参见上述步骤S402和S403的相关描述,在此不再叙述。
参见图9,图9为本申请实施例提供的一种手持物体识别装置的结构示意图。如图9所示,该手持物体识别装置900包括:
获取单元901,用于获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,并获取每个检测对象的第一标签,每个检测对象的位置信息为该检测对象在待识别图像中的位置信息,检测对象的第一标签用于指示检测对象的类型,检测对象的类型用于表征检测对象的手持关系;根据每个检测对象的第一标签从一个或多个检测对象中获取手持物体,并从一个或多个检测对象的位置信息获取手持物体的位置信息;
识别单元902,用于根据手持物体的位置信息对待识别图像中手持物体进行识别,以得到手持物体的识别结果。
在一个可行的实施例中,第一标签包括子类标签,子类标签用于指示检测对象的第一类型,在获取每个检测对象的第一标签的方面,获取单元901具体用于:
在获取待识别图像的第一特征向量后,对待识别图像的第一特征向量进行第一卷积操作,以得到待识别图像的第二特征向量;对待识别图像的第二特征向量进行第一全连接操作,以得到每个检测对象的第一标签,其中,第一类型包括手持状态下的物体和非手持状态下的物体。
在一个可行的实施例中,第一类型还包括持有物体的手和未持有物体的手。
在一个可行的实施例中,第一标签还包括超类标签,超类标签用于指示检测对象的第二类型,第一类型为第二类型的子类,在获取每个检测对象的第一标签的方面,获取单元901还用于:
在获取待识别图像的第一特征向量后,对第一特征向量进行第二卷积操作,以得到待识别图像的第三特征向量;将第二特征向量和第三特征向量进行融合操作,以得到待识别图像的第四特征向量;对第四特征向量进行第三卷积操作,以得到待识别图像的第五特征向量;对第五特征向量进行第二全连接操作,以得到每个检测对象的超类标签;其中,第二类型包括手和物体。
在一个可行的实施例中,在获取待识别图像中一个或多个检测对象中每个检测对象的位置信息的方面,获取单元901具体用于:
在获取待识别图像的第一特征向量后,根据待识别图像的第一特征向量对待识别图像中一个或多个检测对象进行边框回归操作,以得到一个或多个检测对象中每个检测对象的位置信息。
在一个可行的实施例中,识别单元902具体用于:
根据手持物体的位置信息从待识别图像中裁剪出包含手持物体的图像块,图像块为待识别图像的一部分;对图像块中的手持物体进行特征提取,以得到手持物体的第一特征向量;根据手持物体的第一特征向量确定手持物体的参考标签及第一置信度,第一置信度为手持物体的标签为参考标签的概率;根据手持物体的参考标签和第一置信度获取手持物体的识别结果。
在一个可行的实施例中,识别结果包括手持物体的标签或者第二标签,第二标签用于指示未识别手持物体,增量特征库中包括S个特征向量及与S个特征向量中每个特征向量对应的标签,S为大于或者等于0的整数,在根据手持物体的参考标签和第一置信度获取手持物体的识别结果的方面,识别单元902具体用于:
当第一置信度高于预设置信度时,将手持物体的参考标签确定为手持物体的标签;当第一置信度不高于预设置信度时,根据手持物体的第一特征向量和S个特征向量获取S个第二置信度,S个第二置信度与S个特征向量一一对应,S个特征向量中第j个特征向量所对应的第二置信度用于表征手持物体的标签为第j个特征向量对应的标签的概率;若S个第二置信度均低于预设置信度,则将第二标签确定为手持物体的标签;若S个第二置信度中存在高于预设置信度的置信度,则将目标特征向量对应的标签确定为手持物体的标签,目标特征向量为高于预设置信度中的最高置信度对应的特征向量。
在一个可行的实施例中,S个特征向量中每个特征向量包括k个子特征向量,在根据手持物体的第一特征向量和S个特征向量获取S个第二置信度的方面,识别单元902具体用于:
对于S个特征向量中的任一特征向量A,根据手持物体的第一特征向量和特征向量A的k个子特征向量计算得到k个第三置信度;第三置信度用于表征手持物体的标签为特征向量A对应的标签的概率;根据k个第三置信度计算得到特征向量A对应的第二置信度。
在一个可行的实施例中,手持物体识别装置900还包括:
展示单元903,用于在识别单元根据手持物体的第一特征向量确定手持物体的识别结果后,向用户展示手持物体的识别结果。
在一个可行的实施例中,手持物体识别装置900还包括:
接收单元904,用于接收用户的第一信息,第一信息包括手持物体的第三标签;
保存单元905,用于将手持物体的第三标签和手持物体的第一特征向量保存至增量识别库中。
在一个可行的实施例中,手持物体识别装置900还包括:
接收单元904,用于接收用户的第二信息,第二信息用于指示用户翻转手持物体,且第二信息包括手持物体的第三标签;
获取单元901,还用于获取手持物体的多帧第一图像,多帧第一图像为手持物体不同角度的图像;根据多帧第一图像获取手持物体的多个第三特征向量;多个第三特征向量与多帧第一图像一一对应;
聚类单元906,用于根据聚类算法对多个第三特征向量进行聚类,以得到k个子特征向量;
保存单元905,用于将手持物体的第三标签和第二特征向量保存至增量识别库中,其中,第二特征向量是根据k个子特征向量得到的,或者第二特征向量包括k个子特征向量。
需要说明的是,上述各单元(获取单元901、识别单元902、展示单元903、接收单元904、保存单元905和聚类单元906)用于执行上述步骤S401-S403的相关内容,在此不再叙述。
在本实施例中,手持物体识别装置900是以单元的形式来呈现。这里的“单元”可以指特定应用集成电路(application-specific integrated circuit,ASIC),执行一个或多个软件或固件程序的处理器和存储器,集成逻辑电路,和/或其他可以提供上述功能的器件。此外,以上获取单元901、识别单元902、保存单元905和聚类单元906可通过图12所示的手持物体识别装置的处理器1201来实现。
参见图10,图10为本申请实施例提供的另一种手持物体识别装置的结构示意图。如图10所示,包括:
获取单元1001,用于获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,并获取每个检测对象的第一标签,每个检测对象的位置信息为该检测对象在待识别图像中的位置信息,检测对象的第一标签用于指示检测对象的类型,检测对象的类型用于表征检测对象的手持关系;
获取单元1001,还用于根据每个检测对象的第一标签从一个或多个检测对象中获取手持物体,并从一个或多个检测对象的位置信息获取手持物体的位置信息;
裁剪单元1002,用于根据手持物体的位置信息从待识别图像中裁剪出包含手持物体的图像块,图像块为待识别图像的一部分;
发送单元1003,用于向物体识别服务器发送物体识别请求,物体识别请求携带有图像块;
接收单元1004,用于接收物体识别服务器的响应消息,响应消息携带有手持物体的识别结果。
在一个可行的实施例中,第一标签包括子类标签,子类标签用于指示检测对象的第一类型,在获取每个检测对象的第一标签的方面,获取单元1001具体用于:
在获取待识别图像的第一特征向量后,对待识别图像的第一特征向量进行第一卷积操作,以得到待识别图像的第二特征向量;
对待识别图像的第二特征向量进行第一全连接操作,以得到每个检测对象的第一标签,其中,第一类型包括手持状态下的物体和非手持状态下的物体。
在一个可行的实施例中,第一类型还包括持有物体的手和未持有物体的手。
在一个可行的实施例中,第一标签还包括超类标签,超类标签用于指示检测对象的第二类型,第一类型为第二类型的子类,在获取每个检测对象的第一标签的方面,获取单元1001还具体用于:
在获取待识别图像的第一特征向量后,对第一特征向量进行第二卷积操作,以得到待识别图像的第三特征向量;将第二特征向量和第三特征向量进行融合操作,以得到待识别图像的第四特征向量;对第四特征向量进行第三卷积操作,以得到待识别图像的第五特征向量;对第五特征向量进行第二全连接操作,以得到每个检测对象的超类标签;其中,第二类型包括手和物体。
在一个可行的实施例中,在获取待识别图像中一个或多个检测对象中每个检测对象的位置信息的方面,获取单元1001还用于:
在获取待识别图像的第一特征向量后,根据待识别图像的第一特征向量对待识别图像中一个或多个检测对象进行边框回归操作,以得到一个或多个检测对象中每个检测对象的位置信息。
在一个可行的实施例中,手持物体识别装置1000还包括:
展示单元1005,用于接收单元接收物体识别服务器的响应消息之后,向用户展示手持物体的识别结果。
在一个可行的实施例中,接收单元1004,还用于接收用户的第一信息,第一信息包括手持物体的第三标签;
发送单元1003,还用于向物体识别服务器发送第一消息,第一消息携带有手持物体的第三标签,第一消息用于指示物体识别服务器将手持物体的第三标签和手持物体的第一特征向量保存至增量识别库中。
在一个可行的实施例中,手持物体识别装置1000还包括:
接收单元1004,还用于接收用户的第二信息,第二信息用于指示用户翻转手持物体,且第二信息包括手持物体的第三标签;
获取单元1001,还用于获取手持物体的多帧第一图像,多帧第一图像为手持物体不同角度的图像;
发送单元1003,还用于向物体识别服务器发送第二消息,第二消息携带有手持物体的第三标签和多帧第一图像,第二消息用于指示物体识别服务器根据多帧第一图像获取手持物体的第二特征向量,并将手持物体的第三标签和手持物体的第二特征向量保存至增量识别库中。
需要说明的是,上述各单元(获取单元1001、裁剪单元1002、发送单元1003、接收单元1004和展示单元1005)用于执行上述步骤S701-S704的相关内容,在此不再叙述。
在本实施例中,手持物体识别装置1000是以单元的形式来呈现。这里的“单元”可以指特定应用集成电路(application-specific integrated circuit,ASIC),执行一个或多个软件或固件程序的处理器和存储器,集成逻辑电路,和/或其他可以提供上述功能的器件。此外,以上获取单元1001、裁剪单元1002和展示单元1005可通过图12所示的手持物体识别装置的处理器1201来实现。
参见图11,图11为本申请实施例提供的一种物体识别服务器的结构示意图。如图11所示,物体识别服务器1100包括:
接收单元1101,用于接收手持物体识别装置发送的物体识别请求,物体识别请求携带有包括手持物体的图像块;
特征提取单元1102,用于对图像块中的手持物体进行特征提取,以得到手持物体的第一特征向量;
确定单元1103,用于根据手持物体的第一特征向量确定手持物体的参考标签及第一置信度,第一置信度为手持物体的标签为参考标签的概率;
获取单元1104,用于根据手持物体的参考标签和第一置信度获取手持物体的识别结果;
发送单元1105,用于向手持物体识别装置发送用于响应物体识别请求的响应消息,该响应消息携带有手持物体的识别结果。
在一个可行的实施例中,识别结果包括手持物体的标签或者第二标签,第二标签用于指示未识别手持物体,增量特征库中包括S个特征向量及与S个特征向量中每个特征向量对应的标签,S为大于或者等于0的整数,获取单元1104具体用于:
当第一置信度高于预设置信度时,将手持物体的参考标签确定为手持物体的标签;
当第一置信度不高于预设置信度时,根据手持物体的第一特征向量和S个特征向量获取S个第二置信度,S个第二置信度与S个特征向量一一对应,S个特征向量中第j个特征向量所对应的第二置信度用于表征手持物体的标签为第j个特征向量对应的标签的概率;
若S个第二置信度均低于预设置信度,则将第二标签确定为手持物体的标签;若S个第二置信度中存在高于预设置信度的置信度,则将目标特征向量对应的标签确定为手持物体的标签,目标特征向量为高于预设置信度中的最高置信度对应的特征向量。
在一个可行的实施例中,S个特征向量中每个特征向量包括k个子特征向量,在根据手持物体的第一特征向量和S个特征向量获取S个第二置信度的方面,获取单元1104具体用于:
对于S个特征向量中的任一特征向量A,根据手持物体的第一特征向量和特征向量A的k个子特征向量计算得到k个第三置信度;第三置信度用于表征手持物体的标签为特征向量A对应的标签的概率;根据k个第三置信度计算得到特征向量A对应的第二置信度。
在一个可行的实施例中,物体识别服务器1100还包括:
接收单元1101,还用于接收手持物体识别装置发送的第一消息,第一消息携带有手持物体的第三标签,
保存单元1106,用于将手持物体的第三标签和手持物体的第一特征向量保存至增量识别库中。
在一个可行的实施例中,物体识别服务器1100还包括:
接收单元1101,还用于接收手持物体识别装置发送的第二消息,第二消息携带有手持物体的第三标签和多帧第一图像,多帧第一图像为手持物体不同角度的图像,
获取单元1104,还用于根据多帧第一图像获取手持物体的多个第三特征向量;多个第三特征向量与多帧第一图像一一对应;
聚类单元1107,用于根据聚类算法对多个第三特征向量进行聚类,以得到k个子特征向量;
保存单元1106,用于将手持物体的第三标签和第二特征向量保存至增量识别库中,其中,第二特征向量是根据k个子特征向量得到的,或者第二特征向量包括k个子特征向量。
需要说明的是,上述各单元(接收单元1101、特征提取单元1102、确定单元1103、获取单元1104、发送单元1105、保存单元1106和聚类单元1107)用于执行上述步骤S801-S805的相关内容,在此不再叙述。
在本实施例中,物体识别服务器1100是以单元的形式来呈现。这里的“单元”可以指特定应用集成电路(application-specific integrated circuit,ASIC),执行一个或多个软件或固件程序的处理器和存储器,集成逻辑电路,和/或其他可以提供上述功能的器件。此外,以上特征提取单元1102、确定单元1103、获取单元1104、保存单元1106和聚类单元1107可通过图13所示的物体识别服务器的处理器1301来实现。
如图12所示手持物体识别装置1200可以以图12中的结构来实现,该手持物体识别装置1200包括至少一个处理器1201,至少一个存储器1202、至少一个通信接口1203以及至少一个显示屏1204。所述处理器1201、所述存储器1202、所述通信接口1203和显示器1204通过所述通信总线连接并完成相互间的通信。
处理器1201可以是通用中央处理器(CPU),微处理器,特定应用集成电路(application-specific integrated circuit,ASIC),或一个或多个用于控制以上方案程序执行的集成电路。
通信接口1203,用于与其他设备或通信网络通信,如以太网,无线接入网(RAN),无线局域网(Wireless Local Area Networks,WLAN)等。
显示器1024,可以用于显示处理器1201处理的结果,比如手持物体的识别结果等。
存储器1202可以是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器可以是独立存在,通过总线与处理器相连接。存储器也可以和处理器集成在一起。
其中,所述存储器1202用于存储执行以上方案的应用程序代码,并由处理器1201来控制执行。所述处理器1201用于执行所述存储器1202中存储的应用程序代码,并在显示器1204上显示处理器1201的处理结果。
存储器1202存储的代码可执行以上提供的任一种手持物体识别方法,比如:
获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,并获取每个检测对象的第一标签,每个检测对象的位置信息为该检测对象在待识别图像中的位置信息,检测对象的第一标签用于指示检测对象的类型,检测对象的类型用于表征检测对象的手持关系;根据每个检测对象的第一标签从一个或多个检测对象中获取手持物体,并从一个或多个检测对象的位置信息获取手持物体的位置信息;根据手持物体的位置信息对待识别图像中手持物体进行识别,以得到手持物体的识别结果;
或者,
获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,并获取每个检测对象的第一标签,每个检测对象的位置信息为该检测对象在待识别图像中的位置信息,检测对象的第一标签用于指示检测对象的类型,检测对象的类型用于表征检测对象的手持关系;根据每个检测对象的第一标签从一个或多个检测对象中获取手持物体,并从一个或多个检测对象的位置信息获取手持物体的位置信息;根据手持物体的位置信息从待识别图像中裁剪出包含手持物体的图像块,图像块为待识别图像的一部分;向物体识别服务器发送物体识别请求,物体识别请求携带有图像块;接收物体识别服务器的响应消息,响应消息携带有手持物体的识别结果。
在此需要说明的是,对于上述手持物体识别方法的过程可参见S301-S304及S801-S806的相关描述,在此不再叙述。
如图13所示物体识别服务器1300可以以图13中的结构来实现,该物体识别服务器1300包括至少一个处理器1301,至少一个存储器1302以及至少一个通信接口1303。所述处理器1301、所述存储器1302和所述通信接口1303通过所述通信总线连接并完成相互间的通信。
处理器1301可以是通用中央处理器(CPU),微处理器,特定应用集成电路(application-specific integrated circuit,ASIC),或一个或多个用于控制以上方案程序执行的集成电路。
通信接口1303,用于与其他设备或通信网络通信,如以太网,无线接入网(RAN),无线局域网(Wireless Local Area Networks,WLAN)等。
存储器1302可以是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)或者可存储信息和指令的其他类型的动态存储设备,也可以是电可擦可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器可以是独立存在,通过总线与处理器相连接。存储器也可以和处理器集成在一起。
其中,所述存储器1302用于存储执行以上方案的应用程序代码,并由处理器1301来控制执行。所述处理器1301用于执行所述存储器1302中存储的应用程序代码。
存储器1302存储的代码可执行以上提供的任一种手持物体识别方法,比如:
接收手持物体识别装置发送的物体识别请求,物体识别请求携带有包括手持物体的图像块;对图像块中的手持物体进行特征提取,以得到手持物体的第一特征向量;根据手持物体的第一特征向量确定手持物体的参考标签及第一置信度,第一置信度为手持物体的标签为参考标签的概率;根据手持物体的参考标签和第一置信度获取手持物体的识别结果;向手持物体识别装置发送用于响应物体识别请求的响应消息,该响应消息携带有手持物体的识别结果。
在此需要说明的是,对于上述手持物体识别方法的过程可参见S401-S403、S701-S704及S801-S805的相关描述,在此不再叙述。
本申请实施例还提供一种计算机存储介质,其中,该计算机存储介质可存储有程序,该程序执行时包括上述方法实施例中记载的任何一种手持物体识别方法的部分或全部步骤。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,可通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储器中,存储器可以包括:闪存盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取器(英文:Random Access Memory,简称:RAM)、磁盘或光盘等。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (53)
1.一种手持物体识别方法,其特征在于,包括:
获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,并获取所述每个检测对象的第一标签,所述每个检测对象的位置信息为该检测对象在所述待识别图像中的位置信息,所述检测对象的第一标签用于指示所述检测对象的类型,所述检测对象的类型用于表征所述检测对象的手持关系;
根据所述每个检测对象的第一标签从所述一个或多个检测对象中获取所述手持物体,并从所述一个或多个检测对象的位置信息获取所述手持物体的位置信息;
根据所述手持物体的位置信息对所述待识别图像中所述手持物体进行识别,以得到所述手持物体的识别结果。
2.根据权利要求1所述的方法,其特征在于,所述第一标签包括子类标签,所述子类标签用于指示所述检测对象的第一类型,所述获取所述每个检测对象的第一标签,包括:
在获取所述待识别图像的第一特征向量后,对所述待识别图像的第一特征向量进行第一卷积操作,以得到所述待识别图像的第二特征向量;
对所述待识别图像的第二特征向量进行第一全连接操作,以得到所述每个检测对象的第一标签,其中,所述第一类型包括手持状态下的物体和非手持状态下的物体。
3.根据权利要求2所述的方法,其特征在于,所述第一类型还包括持有物体的手和未持有物体的手。
4.根据权利要求3所述的方法,其特征在于,所述第一标签还包括超类标签,所述超类标签用于指示所述检测对象的第二类型,所述第一类型为所述第二类型的子类,所述获取所述每个检测对象的第一标签还包括:
在获取所述待识别图像的第一特征向量后,对所述第一特征向量进行第二卷积操作,以得到所述待识别图像的第三特征向量;
将所述第二特征向量和所述第三特征向量进行融合操作,以得到所述待识别图像的第四特征向量;
对所述第四特征向量进行第三卷积操作,以得到所述待识别图像的第五特征向量;
对所述第五特征向量进行第二全连接操作,以得到所述每个检测对象的超类标签;其中,第二类型包括手和物体。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述获取所述待识别图像中一个或多个检测对象中每个检测对象的位置信息,包括:
在获取待识别图像的第一特征向量后,根据所述待识别图像的第一特征向量对所述待识别图像中一个或多个检测对象进行边框回归操作,以得到所述一个或多个检测对象中每个检测对象的位置信息。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述根据所述手持物体的位置信息对所述待识别图像中所述手持物体进行识别,以得到所述手持物体的识别结果,包括:
根据所述手持物体的位置信息从所述待识别图像中裁剪出包含所述手持物体的图像块,所述图像块为所述待识别图像的一部分;
对所述图像块中的所述手持物体进行特征提取,以得到所述手持物体的第一特征向量;
根据所述手持物体的第一特征向量确定所述手持物体的参考标签及第一置信度,所述第一置信度为所述手持物体的标签为所述参考标签的概率;
根据所述手持物体的参考标签和第一置信度获取所述手持物体的识别结果。
7.根据权利要求6所述的方法,其特征在于,所述识别结果包括所述手持物体的标签或者第二标签,所述第二标签用于指示未识别所述手持物体,增量特征库中包括S个特征向量及与S个特征向量中每个特征向量对应的标签,所述S为大于或者等于0的整数,所述根据所述手持物体的参考标签和第一置信度获取所述手持物体的识别结果,包括:
当所述第一置信度高于预设置信度时,将所述手持物体的参考标签确定为所述手持物体的标签;
当所述第一置信度不高于所述预设置信度时,根据所述手持物体的第一特征向量和所述S个特征向量获取S个第二置信度,所述S个第二置信度与所述S个特征向量一一对应,所述S个特征向量中第j个特征向量所对应的第二置信度用于表征所述手持物体的标签为所述第j个特征向量对应的标签的概率;
若所述S个第二置信度均低于所述预设置信度,则将所述第二标签确定为所述手持物体的标签;若S个第二置信度中存在高于所述预设置信度的置信度,则将目标特征向量对应的标签确定为所述手持物体的标签,所述目标特征向量为所述高于所述预设置信度中的最高置信度对应的特征向量。
8.根据权利要求7所述的方法,其特征在于,所述S个特征向量中每个特征向量包括k个子特征向量,所述根据所述手持物体的第一特征向量和所述S个特征向量获取S个第二置信度,包括:
对于所述S个特征向量中的任一特征向量A,根据所述手持物体的第一特征向量和所述特征向量A的k个子特征向量计算得到k个第三置信度;所述第三置信度用于表征所述手持物体的标签为所述特征向量A对应的标签的概率;
根据所述k个第三置信度计算得到所述特征向量A对应的第二置信度。
9.根据权利要求7或8所述的方法,其特征在于,所述根据所述手持物体的第一特征向量确定所述手持物体的识别结果后,所述方法还包括:
向用户展示所述手持物体的识别结果。
10.根据权利要求9所述的方法,其特征在于,所述方法还包括:
接收所述用户的第一信息,所述第一信息包括所述手持物体的第三标签;
将所述手持物体的第三标签和所述手持物体的第一特征向量保存至所述增量识别库中。
11.根据权利要求9所述的方法,其特征在于,所述方法还包括:
接收所述用户的第二信息,所述第二信息用于指示所述用户翻转所述手持物体,且所述第二信息包括所述手持物体的第三标签;
获取所述手持物体的多帧第一图像,所述多帧第一图像为所述手持物体不同角度的图像;
根据所述多帧第一图像获取所述手持物体的多个第三特征向量;所述多个第三特征向量与所述多帧第一图像一一对应;
根据聚类算法对所述多个第三特征向量进行聚类,以得到k个子特征向量;
将所述手持物体的第三标签和第二特征向量保存至所述增量识别库中,其中,所述第二特征向量是根据k个子特征向量得到的,或者所述第二特征向量包括所述k个子特征向量。
12.一种手持物体识别方法,其特征在于,包括:
获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,并获取所述每个检测对象的第一标签,所述每个检测对象的位置信息为该检测对象在所述待识别图像中的位置信息,所述检测对象的第一标签用于指示所述检测对象的类型,所述检测对象的类型用于表征所述检测对象的手持关系;
根据所述每个检测对象的第一标签从所述一个或多个检测对象中获取所述手持物体,并从所述一个或多个检测对象的位置信息获取所述手持物体的位置信息;
根据所述手持物体的位置信息从所述待识别图像中裁剪出包含所述手持物体的图像块,所述图像块为所述待识别图像的一部分;
向物体识别服务器发送物体识别请求,所述物体识别请求携带有所述图像块;
接收所述物体识别服务器的响应消息,所述响应消息携带有所述手持物体的识别结果。
13.根据权利要求12所述的方法,其特征在于,所述第一标签包括子类标签,所述子类标签用于指示所述检测对象的第一类型,所述获取所述每个检测对象的第一标签,包括:
在获取所述待识别图像的第一特征向量后,对所述待识别图像的第一特征向量进行第一卷积操作,以得到所述待识别图像的第二特征向量;
对所述待识别图像的第二特征向量进行第一全连接操作,以得到所述每个检测对象的第一标签,其中,所述第一类型包括手持状态下的物体和非手持状态下的物体。
14.根据权利要求13所述的方法,其特征在于,所述第一类型还包括持有物体的手和未持有物体的手。
15.根据权利要求14所述的方法,其特征在于,所述第一标签还包括超类标签,所述超类标签用于指示所述检测对象的第二类型,所述第一类型为所述第二类型的子类,所述获取所述每个检测对象的第一标签,还包括:
在获取所述待识别图像的第一特征向量后,对所述第一特征向量进行第二卷积操作,以得到所述待识别图像的第三特征向量;
将所述第二特征向量和所述第三特征向量进行融合操作,以得到所述待识别图像的第四特征向量;
对所述第四特征向量进行第三卷积操作,以得到所述待识别图像的第五特征向量;
对所述第五特征向量进行第二全连接操作,以得到所述每个检测对象的超类标签;其中,第二类型包括手和物体。
16.根据权利要求12-15任一项所述的方法,其特征在于,所述获取所述待识别图像中一个或多个检测对象中每个检测对象的位置信息,包括:
在获取所述待识别图像的第一特征向量后,根据所述待识别图像的第一特征向量对所述待识别图像中一个或多个检测对象进行边框回归操作,以得到所述一个或多个检测对象中每个检测对象的位置信息。
17.根据权利要求12-16任一项所述的方法,其特征在于,所述接收所述物体识别服务器的响应消息之后,所述方法还包括:
向用户展示所述手持物体的识别结果。
18.根据权利要求17所述的方法,其特征在于,所述方法还包括:
接收所述用户的第一信息,所述第一信息包括所述手持物体的第三标签;
向所述物体识别服务器发送第一消息,所述第一消息携带有所述手持物体的第三标签,所述第一消息用于指示所述物体识别服务器将所述手持物体的第三标签和所述手持物体的第一特征向量保存至所述增量识别库中。
19.根据权利要求17所述的方法,其特征在于,所述方法还包括:
接收所述用户的第二信息,所述第二信息用于指示所述用户翻转所述手持物体,且所述第二信息包括所述手持物体的第三标签;
获取所述手持物体的多帧第一图像,所述多帧第一图像为所述手持物体不同角度的图像;
向所述物体识别服务器发送第二消息,所述第二消息携带有所述手持物体的第三标签和所述多帧第一图像,所述第二消息用于指示所述物体识别服务器根据所述多帧第一图像获取所述手持物体的第二特征向量,并将所述手持物体的第三标签和所述手持物体的第二特征向量保存至所述增量识别库中。
20.一种手持物体识别方法,其特征在于,包括:
接收手持物体识别装置发送的物体识别请求,所述物体识别请求携带有包括手持物体的图像块;
对所述图像块中的所述手持物体进行特征提取,以得到所述手持物体的第一特征向量;
根据所述手持物体的第一特征向量确定所述手持物体的参考标签及第一置信度,所述第一置信度为所述手持物体的标签为所述参考标签的概率;
根据所述手持物体的参考标签和第一置信度获取所述手持物体的识别结果;
向所述手持物体识别装置发送用于响应所述物体识别请求的响应消息,所述响应消息携带有所述手持物体的识别结果。
21.根据权利要求20所述的方法,其特征在于,所述识别结果包括所述手持物体的标签或者第二标签,所述第二标签用于指示未识别所述手持物体,增量特征库中包括S个特征向量及与S个特征向量中每个特征向量对应的标签,所述S为大于或者等于0的整数,所述根据所述手持物体的参考标签和第一置信度获取所述手持物体的识别结果,包括:
当所述第一置信度高于预设置信度时,将所述手持物体的参考标签确定为所述手持物体的标签;
当所述第一置信度不高于所述预设置信度时,根据所述手持物体的第一特征向量和所述S个特征向量获取S个第二置信度,所述S个第二置信度与所述S个特征向量一一对应,所述S个特征向量中第j个特征向量所对应的第二置信度用于表征所述手持物体的标签为所述第j个特征向量对应的标签的概率;
若所述S个第二置信度均低于所述预设置信度,则将所述第二标签确定为所述手持物体的标签;若S个第二置信度中存在高于所述预设置信度的置信度,则将目标特征向量对应的标签确定为所述手持物体的标签,所述目标特征向量为所述高于所述预设置信度中的最高置信度对应的特征向量。
22.根据权利要求21所述的方法,其特征在于,所述S个特征向量中每个特征向量包括k个子特征向量,所述根据所述手持物体的第一特征向量和所述S个特征向量获取S个第二置信度,包括:
对于所述S个特征向量中的任一特征向量A,根据所述手持物体的第一特征向量和所述特征向量A的k个子特征向量计算得到k个第三置信度;所述第三置信度用于表征所述手持物体的标签为所述特征向量A对应的标签的概率;
根据所述k个第三置信度计算得到所述特征向量A对应的第二置信度。
23.根据权利要求20-22任一项所述的方法,其特征在于,所述方法还包括:
接收所述手持物体识别装置发送的第一消息,所述第一消息携带有所述手持物体的第三标签,
将所述手持物体的第三标签和所述手持物体的第一特征向量保存至所述增量识别库中。
24.根据权利要求20-22任一项所述的方法,其特征在于,所述方法还包括:
接收所述手持物体识别装置发送的第二消息,所述第二消息携带有所述手持物体的第三标签和多帧第一图像,所述多帧第一图像为所述手持物体不同角度的图像,
根据所述多帧第一图像获取所述手持物体的多个第三特征向量;所述多个第三特征向量与所述多帧第一图像一一对应;
根据聚类算法对所述多个第三特征向量进行聚类,以得到k个子特征向量;
将所述手持物体的第三标签和第二特征向量保存至所述增量识别库中,其中,所述第二特征向量是根据k个子特征向量得到的,或者所述第二特征向量包括所述k个子特征向量。
25.一种手持物体识别装置,其特征在于,包括:
获取单元,用于获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,并获取所述每个检测对象的第一标签,所述每个检测对象的位置信息为该检测对象在所述待识别图像中的位置信息,所述检测对象的第一标签用于指示所述检测对象的类型,所述检测对象的类型用于表征所述检测对象的手持关系;
所述获取单元,还用于根据所述每个检测对象的第一标签从所述一个或多个检测对象中获取所述手持物体,并从所述一个或多个检测对象的位置信息获取所述手持物体的位置信息;
识别单元,用于根据所述手持物体的位置信息对所述待识别图像中所述手持物体进行识别,以得到所述手持物体的识别结果。
26.根据权利要求25所述的装置,其特征在于,所述第一标签包括子类标签,所述子类标签用于指示所述检测对象的第一类型,在所述获取所述每个检测对象的第一标签的方面,所述获取单元具体用于:
在获取所述待识别图像的第一特征向量后,对所述待识别图像的第一特征向量进行第一卷积操作,以得到所述待识别图像的第二特征向量;
对所述待识别图像的第二特征向量进行第一全连接操作,以得到所述每个检测对象的第一标签,其中,所述第一类型包括手持状态下的物体和非手持状态下的物体。
27.根据权利要求26所述的装置,其特征在于,所述第一类型还包括持有物体的手和未持有物体的手。
28.根据权利要求27所述的装置,其特征在于,所述第一标签还包括超类标签,所述超类标签用于指示所述检测对象的第二类型,所述第一类型为所述第二类型的子类,在所述获取所述每个检测对象的第一标签的方面,所述获取单元还用于:
在获取所述待识别图像的第一特征向量后,对所述第一特征向量进行第二卷积操作,以得到所述待识别图像的第三特征向量;
将所述第二特征向量和所述第三特征向量进行融合操作,以得到所述待识别图像的第四特征向量;
对所述第四特征向量进行第三卷积操作,以得到所述待识别图像的第五特征向量;
对所述第五特征向量进行第二全连接操作,以得到所述每个检测对象的超类标签;其中,第二类型包括手和物体。
29.根据权利要求25-28任一项所述的装置,其特征在于,在所述获取所述待识别图像中一个或多个检测对象中每个检测对象的位置信息的方面,所述获取单元具体用于:
在获取待识别图像的第一特征向量后,根据所述待识别图像的第一特征向量对所述待识别图像中一个或多个检测对象进行边框回归操作,以得到所述一个或多个检测对象中每个检测对象的位置信息。
30.根据权利要求25-29任一项所述的装置,其特征在于,所述识别单元具体用于:
根据所述手持物体的位置信息从所述待识别图像中裁剪出包含所述手持物体的图像块,所述图像块为所述待识别图像的一部分;
对所述图像块中的所述手持物体进行特征提取,以得到所述手持物体的第一特征向量;
根据所述手持物体的第一特征向量确定所述手持物体的参考标签及第一置信度,所述第一置信度为所述手持物体的标签为所述参考标签的概率;
根据所述手持物体的参考标签和第一置信度获取所述手持物体的识别结果。
31.根据权利要求30所述的装置,其特征在于,所述识别结果包括所述手持物体的标签或者第二标签,所述第二标签用于指示未识别所述手持物体,增量特征库中包括S个特征向量及与S个特征向量中每个特征向量对应的标签,所述S为大于或者等于0的整数,在所述根据所述手持物体的参考标签和第一置信度获取所述手持物体的识别结果的方面,所述识别单元具体用于:
当所述第一置信度高于预设置信度时,将所述手持物体的参考标签确定为所述手持物体的标签;
当所述第一置信度不高于所述预设置信度时,根据所述手持物体的第一特征向量和所述S个特征向量获取S个第二置信度,所述S个第二置信度与所述S个特征向量一一对应,所述S个特征向量中第j个特征向量所对应的第二置信度用于表征所述手持物体的标签为所述第j个特征向量对应的标签的概率;
若所述S个第二置信度均低于所述预设置信度,则将所述第二标签确定为所述手持物体的标签;若S个第二置信度中存在高于所述预设置信度的置信度,则将目标特征向量对应的标签确定为所述手持物体的标签,所述目标特征向量为所述高于所述预设置信度中的最高置信度对应的特征向量。
32.根据权利要求31所述的装置,其特征在于,所述S个特征向量中每个特征向量包括k个子特征向量,在所述根据所述手持物体的第一特征向量和所述S个特征向量获取S个第二置信度的方面,所述识别单元具体用于:
对于所述S个特征向量中的任一特征向量A,根据所述手持物体的第一特征向量和所述特征向量A的k个子特征向量计算得到k个第三置信度;所述第三置信度用于表征所述手持物体的标签为所述特征向量A对应的标签的概率;
根据所述k个第三置信度计算得到所述特征向量A对应的第二置信度。
33.根据权利要求31或32所述的装置,其特征在于,所述装置还包括:
展示单元,用于在所述识别单元根据所述手持物体的第一特征向量确定所述手持物体的识别结果后,向用户展示所述手持物体的识别结果。
34.根据权利要求33所述的装置,其特征在于,所述装置还包括:
接收单元,用于接收所述用户的第一信息,所述第一信息包括所述手持物体的第三标签;
保存单元,用于将所述手持物体的第三标签和所述手持物体的第一特征向量保存至所述增量识别库中。
35.根据权利要求33所述的装置,其特征在于,所述装置还包括:
接收单元,用于接收所述用户的第二信息,所述第二信息用于指示所述用户翻转所述手持物体,且所述第二信息包括所述手持物体的第三标签;
所述获取单元,还用于获取所述手持物体的多帧第一图像,所述多帧第一图像为所述手持物体不同角度的图像;根据所述多帧第一图像获取所述手持物体的多个第三特征向量;所述多个第三特征向量与所述多帧第一图像一一对应;
聚类单元,用于根据聚类算法对所述多个第三特征向量进行聚类,以得到k个子特征向量;
保存单元,用于将所述手持物体的第三标签和第二特征向量保存至所述增量识别库中,其中,所述第二特征向量是根据k个子特征向量得到的,或者所述第二特征向量包括所述k个子特征向量。
36.一种手持物体识别装置,其特征在于,包括:
获取单元,用于获取待识别图像中一个或多个检测对象中每个检测对象的位置信息,并获取所述每个检测对象的第一标签,所述每个检测对象的位置信息为该检测对象在所述待识别图像中的位置信息,所述检测对象的第一标签用于指示所述检测对象的类型,所述检测对象的类型用于表征所述检测对象的手持关系;
所述获取单元,还用于根据所述每个检测对象的第一标签从所述一个或多个检测对象中获取所述手持物体,并从所述一个或多个检测对象的位置信息获取所述手持物体的位置信息;
裁剪单元,用于根据所述手持物体的位置信息从所述待识别图像中裁剪出包含所述手持物体的图像块,所述图像块为所述待识别图像的一部分;
发送单元,用于向物体识别服务器发送物体识别请求,所述物体识别请求携带有所述图像块;
接收单元,用于接收所述物体识别服务器的响应消息,所述响应消息携带有所述手持物体的识别结果。
37.根据权利要求36所述的装置,其特征在于,所述第一标签包括子类标签,所述子类标签用于指示所述检测对象的第一类型,在所述获取所述每个检测对象的第一标签的方面,所述获取单元具体用于:
在获取所述待识别图像的第一特征向量后,对所述待识别图像的第一特征向量进行第一卷积操作,以得到所述待识别图像的第二特征向量;
对所述待识别图像的第二特征向量进行第一全连接操作,以得到所述每个检测对象的第一标签,其中,所述第一类型包括手持状态下的物体和非手持状态下的物体。
38.根据权利要求37所述的装置,其特征在于,所述第一类型还包括持有物体的手和未持有物体的手。
39.根据权利要求38所述的装置,其特征在于,所述第一标签还包括超类标签,所述超类标签用于指示所述检测对象的第二类型,所述第一类型为所述第二类型的子类,在所述获取所述每个检测对象的第一标签的方面,所述获取单元还具体用于:
在获取所述待识别图像的第一特征向量后,对所述第一特征向量进行第二卷积操作,以得到所述待识别图像的第三特征向量;
将所述第二特征向量和所述第三特征向量进行融合操作,以得到所述待识别图像的第四特征向量;
对所述第四特征向量进行第三卷积操作,以得到所述待识别图像的第五特征向量;
对所述第五特征向量进行第二全连接操作,以得到所述每个检测对象的超类标签;其中,第二类型包括手和物体。
40.根据权利要求36-39任一项所述的装置,其特征在于,在所述获取所述待识别图像中一个或多个检测对象中每个检测对象的位置信息的方面,所述获取单元还用于:
在获取待识别图像的第一特征向量后,根据所述待识别图像的第一特征向量对所述待识别图像中一个或多个检测对象进行边框回归操作,以得到所述一个或多个检测对象中每个检测对象的位置信息。
41.根据权利要求36-40任一项所述的装置,其特征在于,所述装置还包括:
展示单元,用于所述接收单元接收所述物体识别服务器的响应消息之后,向用户展示所述手持物体的识别结果。
42.根据权利要求41所述的装置,其特征在于,
所述接收单元,还用于接收所述用户的第一信息,所述第一信息包括所述手持物体的第三标签;
所述发送单元,还用于向所述物体识别服务器发送第一消息,所述第一消息携带有所述手持物体的第三标签,所述第一消息用于指示所述物体识别服务器将所述手持物体的第三标签和所述手持物体的第一特征向量保存至所述增量识别库中。
43.根据权利要求41所述的装置,其特征在于,所述装置还包括:
所述接收单元,还用于接收所述用户的第二信息,所述第二信息用于指示所述用户翻转所述手持物体,且所述第二信息包括所述手持物体的第三标签;
所述获取单元,还用于获取所述手持物体的多帧第一图像,所述多帧第一图像为所述手持物体不同角度的图像;
所述发送单元,还用于向所述物体识别服务器发送第二消息,所述第二消息携带有所述手持物体的第三标签和所述多帧第一图像,所述第二消息用于指示所述物体识别服务器根据所述多帧第一图像获取所述手持物体的第二特征向量,并将所述手持物体的第三标签和所述手持物体的第二特征向量保存至所述增量识别库中。
44.一种物体识别服务器,其特征在于,包括:
接收单元,用于接收手持物体识别装置发送的物体识别请求,所述物体识别请求携带有包括手持物体的图像块;
特征提取单元,用于对所述图像块中的所述手持物体进行特征提取,以得到所述手持物体的第一特征向量;
确定单元,用于根据所述手持物体的第一特征向量确定所述手持物体的参考标签及第一置信度,所述第一置信度为所述手持物体的标签为所述参考标签的概率;
获取单元,用于根据所述手持物体的参考标签和第一置信度获取所述手持物体的识别结果;
发送单元,用于向所述手持物体识别装置发送用于响应所述物体识别请求的响应消息,所述响应消息携带有所述手持物体的识别结果。
45.根据权利要求44所述的服务器,其特征在于,所述识别结果包括所述手持物体的标签或者第二标签,所述第二标签用于指示未识别所述手持物体,增量特征库中包括S个特征向量及与S个特征向量中每个特征向量对应的标签,所述S为大于或者等于0的整数,所述获取单元具体用于:
当所述第一置信度高于预设置信度时,将所述手持物体的参考标签确定为所述手持物体的标签;
当所述第一置信度不高于所述预设置信度时,根据所述手持物体的第一特征向量和所述S个特征向量获取S个第二置信度,所述S个第二置信度与所述S个特征向量一一对应,所述S个特征向量中第j个特征向量所对应的第二置信度用于表征所述手持物体的标签为所述第j个特征向量对应的标签的概率;
若所述S个第二置信度均低于所述预设置信度,则将所述第二标签确定为所述手持物体的标签;若S个第二置信度中存在高于所述预设置信度的置信度,则将目标特征向量对应的标签确定为所述手持物体的标签,所述目标特征向量为所述高于所述预设置信度中的最高置信度对应的特征向量。
46.根据权利要求45所述的服务器,其特征在于,所述S个特征向量中每个特征向量包括k个子特征向量,在所述根据所述手持物体的第一特征向量和所述S个特征向量获取S个第二置信度的方面,所述获取单元具体用于:
对于所述S个特征向量中的任一特征向量A,根据所述手持物体的第一特征向量和所述特征向量A的k个子特征向量计算得到k个第三置信度;所述第三置信度用于表征所述手持物体的标签为所述特征向量A对应的标签的概率;
根据所述k个第三置信度计算得到所述特征向量A对应的第二置信度。
47.根据权利要求44-46任一项所述的服务器,其特征在于,所述服务器还包括:
所述接收单元,还用于接收所述手持物体识别装置发送的第一消息,所述第一消息携带有所述手持物体的第三标签,
保存单元,用于将所述手持物体的第三标签和所述手持物体的第一特征向量保存至所述增量识别库中。
48.根据权利要求44-46任一项所述的服务器,其特征在于,所述服务器还包括:
所述接收单元,还用于接收所述手持物体识别装置发送的第二消息,所述第二消息携带有所述手持物体的第三标签和多帧第一图像,所述多帧第一图像为所述手持物体不同角度的图像,
所述获取单元,还用于根据所述多帧第一图像获取所述手持物体的多个第三特征向量;所述多个第三特征向量与所述多帧第一图像一一对应;
聚类单元,用于根据聚类算法对所述多个第三特征向量进行聚类,以得到k个子特征向量;
保存单元,用于将所述手持物体的第三标签和第二特征向量保存至所述增量识别库中,其中,所述第二特征向量是根据所述k个子特征向量得到的,或者所述第二特征向量包括所述k个子特征向量。
49.一种手持物体识别装置,其特征在于,包括:
存储器,用于存储指令;以及
处理器,与所述存储器耦合;
其中,当所述处理器执行所述指令时,执行如权利要求1-19任一项所述的方法。
50.一种物体识别服务器,其特征在于,包括:
存储器,用于存储指令;以及
处理器,与所述存储器耦合;
其中,当所述处理器执行所述指令时,执行如权利要求20-24任一项所述的方法。
51.一种芯片系统,其特征在于,所述芯片系统应用于电子设备;所述芯片系统包括一个或多个接口电路,以及一个或多个处理器;所述接口电路和所述处理器通过线路互联;所述接口电路用于从所述电子设备的存储器接收信号,并向所述处理器发送所述信号,所述信号包括所述存储器中存储的计算机指令;当所述处理器执行所述计算机指令时,所述电子设备执行如权利要求1-24中任意一项所述方法。
52.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行如权利要求1-24任一项所述的方法。
53.一种计算机程序产品,其特征在于,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求1-24任一项所述的方法。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010756462.1A CN112016398B (zh) | 2020-07-29 | 2020-07-29 | 手持物体识别方法及装置 |
| EP21849301.3A EP4181015A4 (en) | 2020-07-29 | 2021-07-15 | METHOD AND DEVICE FOR RECOGNIZING PORTABLE OBJECT |
| PCT/CN2021/106463 WO2022022292A1 (zh) | 2020-07-29 | 2021-07-15 | 手持物体识别方法及装置 |
| US18/161,469 US20230177800A1 (en) | 2020-07-29 | 2023-01-30 | Handheld Object Recognition Method and Apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202010756462.1A CN112016398B (zh) | 2020-07-29 | 2020-07-29 | 手持物体识别方法及装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN112016398A true CN112016398A (zh) | 2020-12-01 |
| CN112016398B CN112016398B (zh) | 2024-06-28 |
Family
ID=73499782
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202010756462.1A Active CN112016398B (zh) | 2020-07-29 | 2020-07-29 | 手持物体识别方法及装置 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20230177800A1 (zh) |
| EP (1) | EP4181015A4 (zh) |
| CN (1) | CN112016398B (zh) |
| WO (1) | WO2022022292A1 (zh) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112767484A (zh) * | 2021-01-25 | 2021-05-07 | 脸萌有限公司 | 定位模型的融合方法、定位方法、电子装置 |
| WO2022022292A1 (zh) * | 2020-07-29 | 2022-02-03 | 华为技术有限公司 | 手持物体识别方法及装置 |
| CN115393791A (zh) * | 2022-08-11 | 2022-11-25 | 浙江大华技术股份有限公司 | 一种异物检测方法、设备和计算机可读存储介质 |
| CN115661590A (zh) * | 2022-10-21 | 2023-01-31 | 上海汉时信息科技有限公司 | 一种识别目标商品的方法和装置 |
| CN116685033A (zh) * | 2023-06-21 | 2023-09-01 | 惠州兴通成机电技术有限公司 | 灯具用智能控制系统 |
| WO2023128866A3 (zh) * | 2021-12-28 | 2023-10-26 | 脸萌有限公司 | 视频处理方法及设备 |
| CN117095339A (zh) * | 2023-10-20 | 2023-11-21 | 江西师范大学 | 一种基于深度学习的rgb视频帧手持物检测方法 |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113505700A (zh) * | 2021-07-12 | 2021-10-15 | 北京字跳网络技术有限公司 | 一种图像处理方法、装置、设备及存储介质 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018108129A1 (zh) * | 2016-12-16 | 2018-06-21 | 北京市商汤科技开发有限公司 | 用于识别物体类别的方法及装置、电子设备 |
| CN108921645A (zh) * | 2018-06-07 | 2018-11-30 | 深圳码隆科技有限公司 | 一种商品购买判定方法、装置和用户终端 |
| CN110781752A (zh) * | 2019-09-27 | 2020-02-11 | 上海数烨数据科技有限公司 | 一种动态视觉智能柜多品类场景下的物体识别方法 |
| CN111079699A (zh) * | 2019-12-30 | 2020-04-28 | 北京每日优鲜电子商务有限公司 | 商品识别方法及装置 |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10289910B1 (en) * | 2014-07-10 | 2019-05-14 | Hrl Laboratories, Llc | System and method for performing real-time video object recognition utilizing convolutional neural networks |
| CN108229411A (zh) * | 2018-01-15 | 2018-06-29 | 上海交通大学 | 基于rgb彩色图像的人体手持刀行为检测系统及方法 |
| CN109657537A (zh) * | 2018-11-05 | 2019-04-19 | 北京达佳互联信息技术有限公司 | 基于目标检测的图像识别方法、系统和电子设备 |
| CN112016398B (zh) * | 2020-07-29 | 2024-06-28 | 华为技术有限公司 | 手持物体识别方法及装置 |
-
2020
- 2020-07-29 CN CN202010756462.1A patent/CN112016398B/zh active Active
-
2021
- 2021-07-15 WO PCT/CN2021/106463 patent/WO2022022292A1/zh not_active Ceased
- 2021-07-15 EP EP21849301.3A patent/EP4181015A4/en active Pending
-
2023
- 2023-01-30 US US18/161,469 patent/US20230177800A1/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018108129A1 (zh) * | 2016-12-16 | 2018-06-21 | 北京市商汤科技开发有限公司 | 用于识别物体类别的方法及装置、电子设备 |
| CN108921645A (zh) * | 2018-06-07 | 2018-11-30 | 深圳码隆科技有限公司 | 一种商品购买判定方法、装置和用户终端 |
| CN110781752A (zh) * | 2019-09-27 | 2020-02-11 | 上海数烨数据科技有限公司 | 一种动态视觉智能柜多品类场景下的物体识别方法 |
| CN111079699A (zh) * | 2019-12-30 | 2020-04-28 | 北京每日优鲜电子商务有限公司 | 商品识别方法及装置 |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022022292A1 (zh) * | 2020-07-29 | 2022-02-03 | 华为技术有限公司 | 手持物体识别方法及装置 |
| CN112767484A (zh) * | 2021-01-25 | 2021-05-07 | 脸萌有限公司 | 定位模型的融合方法、定位方法、电子装置 |
| CN112767484B (zh) * | 2021-01-25 | 2023-09-05 | 脸萌有限公司 | 定位模型的融合方法、定位方法、电子装置 |
| WO2023128866A3 (zh) * | 2021-12-28 | 2023-10-26 | 脸萌有限公司 | 视频处理方法及设备 |
| CN115393791A (zh) * | 2022-08-11 | 2022-11-25 | 浙江大华技术股份有限公司 | 一种异物检测方法、设备和计算机可读存储介质 |
| CN115661590A (zh) * | 2022-10-21 | 2023-01-31 | 上海汉时信息科技有限公司 | 一种识别目标商品的方法和装置 |
| CN116685033A (zh) * | 2023-06-21 | 2023-09-01 | 惠州兴通成机电技术有限公司 | 灯具用智能控制系统 |
| CN116685033B (zh) * | 2023-06-21 | 2024-01-12 | 惠州兴通成机电技术有限公司 | 灯具用智能控制系统 |
| CN117095339A (zh) * | 2023-10-20 | 2023-11-21 | 江西师范大学 | 一种基于深度学习的rgb视频帧手持物检测方法 |
| CN117095339B (zh) * | 2023-10-20 | 2024-01-30 | 江西师范大学 | 一种基于深度学习的rgb视频帧手持物检测方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20230177800A1 (en) | 2023-06-08 |
| WO2022022292A1 (zh) | 2022-02-03 |
| EP4181015A1 (en) | 2023-05-17 |
| EP4181015A4 (en) | 2023-11-22 |
| CN112016398B (zh) | 2024-06-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112016398B (zh) | 手持物体识别方法及装置 | |
| US10824916B2 (en) | Weakly supervised learning for classifying images | |
| US12165327B2 (en) | Image processing method, apparatus, and device, and storage medium | |
| US11216971B2 (en) | Three-dimensional bounding box from two-dimensional image and point cloud data | |
| CN111563502B (zh) | 图像的文本识别方法、装置、电子设备及计算机存储介质 | |
| TWI746674B (zh) | 識別圖像中物件的類型預測方法、裝置及電子設備 | |
| CN115797706B (zh) | 目标检测方法、目标检测模型训练方法及相关装置 | |
| CN111832447B (zh) | 建筑图纸构件识别方法、电子设备及相关产品 | |
| JP2020135852A (ja) | 画像に基づくデータ処理方法、装置、電子機器、コンピュータ可読記憶媒体およびコンピュータプログラム | |
| JP7393472B2 (ja) | 陳列シーン認識方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
| CN115100643B (zh) | 融合三维场景语义的单目视觉定位增强方法和设备 | |
| CN115797736B (zh) | 目标检测模型的训练和目标检测方法、装置、设备和介质 | |
| CN104881673B (zh) | 基于信息整合的模式识别的方法和系统 | |
| CN112633276A (zh) | 训练方法、识别方法、装置、设备、介质 | |
| CN114170688B (zh) | 人物交互关系识别方法、装置、电子设备 | |
| CN113378712B (zh) | 物体检测模型的训练方法、图像检测方法及其装置 | |
| US20240029332A1 (en) | Apparatus for generating an augmented reality | |
| CN115205806A (zh) | 生成目标检测模型的方法、装置和自动驾驶车辆 | |
| WO2024175099A1 (zh) | 图像处理方法、装置和存储介质 | |
| CN115424346A (zh) | 一种人体坐姿检测方法、装置、计算机设备及系统 | |
| CN114495912A (zh) | 一种音频数据处理方法和音频处理装置 | |
| CN113887423A (zh) | 目标检测方法、装置、电子设备和存储介质 | |
| CN117635715B (zh) | 位姿确定方法、虚拟形象生成方法及模型的训练方法 | |
| US20250131660A1 (en) | Displaying information based on gaze | |
| CN116152819B (zh) | 文本关系检测、模型的训练方法、装置、设备及介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |