CN117009816A - 激光雷达和视觉启发式学习的目标检测系统及方法 - Google Patents
激光雷达和视觉启发式学习的目标检测系统及方法 Download PDFInfo
- Publication number
- CN117009816A CN117009816A CN202310978208.XA CN202310978208A CN117009816A CN 117009816 A CN117009816 A CN 117009816A CN 202310978208 A CN202310978208 A CN 202310978208A CN 117009816 A CN117009816 A CN 117009816A
- Authority
- CN
- China
- Prior art keywords
- target
- model
- laser radar
- visual
- vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明涉及一种激光雷达和视觉启发式学习的目标检测系统,属于自主无人系统环境感知技术领域,包括视觉目标检测模块:用于实时采集视觉数据,通过视觉模型‑1进行目标检测,将检测结果作为视觉伪标签数据发送给启发式学习模块;激光雷达目标检测模块:用于实时采集激光雷达数据,通过激光雷达模型‑1进行目标检测,将检测结果作为激光雷达伪标签数据发送给启发式学习模块;启发式学习模块:使用评估器对视觉和激光雷达目标输出伪标签信息进行评估,根据评估结果,利用伪标签信息对视觉模型‑2和激光雷达模型‑2进行训练,将训练好的视觉模型‑2和激光雷达模型‑2分别用以更新视觉模型‑1和激光雷达模型‑1。还包括一种方法。
Description
技术领域
本发明属于自主无人系统环境感知技术领域,涉及一种激光雷达和视觉启发式学习的目标检测系统及方法。
背景技术
环境感知是自主无人系统(包括无人驾驶车辆、智能机器人等)的关键技术之一,是决策规划与控制的基础。激光雷达和相机作为其中主要的环境感知传感器,其目标检测方法在自主无人系统中具有重要作用。
中国专利申请:基于点云数据与多视图图像数据融合的3D目标检测方法(申请号:CN202211250323.7),公开了一种点云数据与多视图图像数据融合的3D目标检测方法,其特征在于,包括:从Nuscenes数据集中获取点云数据及多视图图像数据;生成点云BEV特征和图像BEV特征,输入图像及点云融合网络处理生成图像和点云融合特征,得到初始预测边界框及生成最终的目标边界框。该方法需要标注的数据进行学习。
中国专利申请:三维物体检测模型的训练与三维物体检测方法、装置(申请号:CN202211259102.6),公开了一种三维物体检测模型的训练与三维物体检测方法,获取数据对的检测框标注信息;将数据对中的点云数据输入教师网络、将双目图像输入学生网络;计算第一损失函数值;计算第二损失函数值;根据损失函数值调整学生网络的参数,得到三维物体检测模型。该方法需要人工标注检测框信息。
发明内容
有鉴于此,本发明的目的在于利用激光雷达和视觉传感器在不同场景或特征下检测能力的差异性,构造一种启发式学习方法来提高两种传感器检测模型的检测能力,实现检测模型无监督学习,减少人工数据标注的工作量,提高检测模型训练效率。
为达到上述目的,本发明提供如下技术方案:
一方面,本发明提供一种激光雷达和视觉启发式学习的目标检测系统,包括视觉目标检测模块、激光雷达目标检测模块及启发式学习模块;
所述视觉目标检测模块用于实时采集视觉数据,通过视觉模型-1进行目标检测,将检测结果作为视觉伪标签数据发送给启发式学习模块;
所述激光雷达目标检测模块用于实时采集激光雷达数据,通过激光雷达模型-1进行目标检测,将检测结果作为激光雷达伪标签数据发送给启发式学习模块;
所述启发式学习模块使用评估器对视觉和激光雷达目标输出伪标签信息进行评估,根据评估结果,利用伪标签信息对视觉模型-2和激光雷达模型-2进行训练,将训练好的视觉模型-2和激光雷达模型-2分别用以更新视觉模型-1和激光雷达模型-1。
另一方面,本发明提供一种激光雷达和视觉启发式学习的目标检测方法,包括以下步骤:
S1:视觉实时数据采集:在时刻k,采集视觉数据,通过视觉模型-1进行目标检测,得到视觉目标检测结果以及视觉伪标签数据;
S2:激光雷达实时数据采集:在时刻k,采集激光雷达数据,通过激光雷达模型-1进行目标检测,得到激光雷达目标检测结果以及激光雷达伪标签数据;
S3:使用评估器对视觉与激光雷达目标输出伪标签数据进行评估,将伪标签数据进行目标数据关联,得到激光雷达与视觉伪标签目标关联矩阵,再通过目标关联矩阵进行决策判断,得到激光雷达与视觉目标检测一致性向量;
S4:根据激光雷达与视觉目标检测一致性向量进行训练,得到训练更新检测模型,包括视觉模型-2与激光雷达模型-2,并分别用以更新视觉模型-1和激光雷达模型-1。
进一步,步骤S3所述使用评估器对视觉与激光雷达目标输出伪标签数据进行评估,具体包括以下步骤:
S31:目标关联:对视觉与激光雷达目标输出伪标签数据TK、TL分别建立目标特征向量xi,计算目标相似度star,根据目标相似度计算目标关联矩阵Aij;
S32:计算目标检测一致性向量:根据关联矩阵Aij,将TK、TL中的目标分别放入集合PY K、PN K、PY L、PN L中,判断PN K、PN L是否为计算目标检测一致性向量yi。
进一步,所述步骤S31具体包括以下步骤:
S311:根据激光雷达与视觉伪标签信息,分别建立目标的特征向量:
xi=[p,s]T
其中位姿特征p=[x,y,α]表示目标中心点的x位置、y位置以及目标朝向信息,形状特征s=[l,w]表示目标检测框的长、宽;
建立目标状态模型和量测模型:
xk=Buk+wk
zk=Hxk+vk
其中xk表示k时刻的目标状态,zk表示k时刻的目标量测,uk为系统输入,B为将输入转换为状态的矩阵,H为量测矩阵,wk和vk分别为相互独立的过程噪声和量测噪声;
S312:加权计算目标位姿、形状特征相似度得出目标相似度,具体包括:
特征相似度衡量方法使用欧氏距离,设有两个n维特征向量,通过设定距离阈值dmax,若特征向量之间欧式距离超过距离阈值,则特征向量之间相似度s为零,达到对量测的筛选作用,向量计算方法如下:
其中d(x,y)为向量x和向量y之间的欧式距离,n表示向量的维数,从而计算出目标的位姿、形状相似度sp、ss;
然后通过加权计算得出目标相似度star:
star=l1sp+l2ss
其中l1,l2为各个特征所占权重,且l1+l2=1。
(3)利用相似度做目标数据关联,具体包括:
假设目标轨迹数量和目标量测数量分别为p和q,由目标相似度计算方法获得一个p×q维的相似度矩阵Sp×q:
其中star,i,j表示目标轨迹i和目标量测j的相似度,设定阈值δ,当star,i,j<δ时,令star,i,j=0,然后筛选出全零行和全零列,分别代表无量测关联轨迹与无可关联的量测,降低后续计算量,得到相似度矩阵S′p×q,定义一个关联矩阵Aij:
其中aij∈{0,1},aij=0表示相互不关联,aij=1表示相互关联,在设定的约束条件下调整关联矩阵的元素取值,使得相似度矩阵与关联矩阵对应元素乘积之和最大,此时的关联矩阵为最优解。
进一步,所述最优分配问题公式如下:
目标函数:
约束条件:
进一步,所述步骤S32具体包括以下步骤:
S321:将视觉伪标签目标数据划分为TK={T1 K,TK 2,T3 K,...,TK n},将激光雷达伪标签目标数据划分为TL={T1 L,TL 2,T3 L,...,TL m};
S322:设置4类目标集合:
PY K={PY1 K,PY2 K,PY3 K,...,PYn K}
PN K={PN1 K,PN2 K,PN3 K,...,PNm K}
PY L={PY1 L,PY2 L,PY3 L,...,PYu L}
PN L={PN1 L,PN2 L,PN3 L,...,PNv L}
其中PY K为视觉伪标签目标TK中成功关联的目标集合,PN K为视觉伪标签目标TK中未成功关联的目标集合,PY L为激光雷达伪标签目标TL中成功关联的目标集合,PN L为激光雷达伪标签目标TL中未成功关联的目标集合;
S323:定义一个目标检测一致性向量:
yi=[t1,t2,t3,t4]T
其中tj∈{0,1},j∈[1,4],当tk=1时,ti=0,
S324:若PN K与PN L均为令t1=1,本组伪标签数据具备一致性;
若PN K为PN L不为/>令t2=1,本组伪标签数据不具备一致性,用激光雷达网络模型Al训练视觉网络模型Ak;
若PN K不为PN L为/>令t3=1,本组伪标签数据不具备一致性,用视觉网络模型Ak训练激光雷达网络模型Al;
若PN K与PN L均不为令t4=1,本组伪标签数据不具备一致性,用激光雷达网络模型Al训练视觉网络模型Ak,同时用视觉网络模型Ak训练激光雷达网络模型Al。
进一步,步骤S4所述得到训练更新检测模型,具体包括:
(1)情况一:yi=[t1,t2,t3,t4]T中t1=1,不进行数据传输;
(2)情况二:yi=[t1,t2,t3,t4]T中t2=1,将TL传输给Ak进行进一步训练;
(3)情况三:yi=[t1,t2,t3,t4]T中t3=1,将TK传输给Al进行进一步训练;
(4)情况四:yi=[t1,t2,t3,t4]T中t4=1,将TL传输给Ak,同时将TK传输给Al进行进一步训练;
(5)样本数量累积到训练阈值ω之后,进行新一轮训练,得到训练更新检测模型,包括视觉模型-2与激光雷达模型-2,并分别用以更新视觉模型-1和激光雷达模型-1。
本发明的有益效果在于:本发明提出一种激光雷达和视觉启发式学习的目标检测系统及方法,该系统利用激光雷达和视觉传感器在不同场景或特征下检测能力的差异性,将各自检测样本进行交互启发学习来提高两种传感器检测模型的检测能力;同时加入评估器,减少交互样本数量,以此来降低训练成本;在评估器中使用数据关联方法,提升评估准确性。该系统利用激光雷达和视觉传感器在不同场景或特征下检测能力的差异性,构造一种启发式学习方法来提高两种传感器检测模型的检测能力,实现检测模型无监督学习,减少人工数据标注的工作量,提高检测模型训练效率。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1是本发明提供优选实施例一种激光雷达和视觉启发式学习的目标检测系统及方法总体架构图;
图2是评估器工作整体流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
如图1所示为本发明一种激光雷达和视觉启发式学习的目标检测系统及方法总体架构图。该系统包括视觉目标检测模块、激光雷达目标检测模块及启发式学习模块三个模块:
所述视觉目标检测模块用于实时采集视觉数据,通过视觉模型-1进行目标检测,检测结果同时作为视觉伪标签数据发送给启发式学习模块;
所述激光雷达目标检测模块用于实时采集激光雷达数据,通过激光雷达模型-1进行目标检测,检测结果同时作为激光雷达伪标签数据发送给启发式学习模块;
所述启发式学习模块使用评估器对视觉和激光雷达目标输出伪标签信息进行评估,将伪标签信息进行目标数据关联,得到激光雷达与视觉伪标签目标关联矩阵;通过目标关联矩阵进行决策判断,得到激光雷达与视觉目标检测一致性向量;根据激光雷达与视觉目标检测一致性向量,利用伪标签信息对视觉模型-2和激光雷达模型-2进行训练,训练好的视觉模型-2和激光雷达模型-2分别用以更新视觉模型-1和激光雷达模型-1,以提高视觉目标检测模块及激光雷达目标检测模块性能。
如图2所示为评估器工作整体流程图。
(1)目标关联。建立目标的特征向量:
xi=[p,s]T (1)
其中位姿特征p=[x,y,α]表示目标中心点的x位置、y位置以及目标朝向信息,形状特征s=[l,w]表示目标检测框的长、宽;
建立目标状态模型和量测模型:
xk=Buk+wk (2)
zk=Hxk+vk (3)
其中xk表示k时刻的目标状态,zk表示k时刻的目标量测,uk为系统输入,B为将输入转换为状态的矩阵,H为量测矩阵,wk和vk分别为相互独立的过程噪声和量测噪声。
(2)计算目标相似度,特征相似度衡量方法使用欧氏距离,设有两个n维特征向量,通过设定距离阈值dmax,若特征向量之间欧式距离超过距离阈值,则特征向量之间相似度s为零,达到对量测的筛选作用,向量计算方法如下:
其中d(x,y)为向量x和向量y之间的欧式距离,n表示向量的维数,利用该方法可计算出目标的位姿、形状相似度sp、ss。
然后通过加权计算得出目标相似度star:
star=l1sp+l2ss (6)
其中l1,l2为各个特征所占权重,且l1+l2=1。
(3)利用相似度做目标数据关联,假设目标轨迹数量和目标量测数量分别为p和q,由目标相似度计算方法获得一个p×q维的相似度矩阵Sp×q:
其中star,i,j表示目标轨迹i和目标量测j的相似度,设定阈值δ,当star,i,j<δ时,令star,i,j=0,然后筛选出全零行和全零列,分别代表无量测关联轨迹与无可关联的量测,降低后续计算量,得到相似度矩阵S′p×q,定义一个关联矩阵Aij:
其中aij∈{0,1},aij=0表示相互不关联,aij=1表示相互关联,在设定的约束条件下调整关联矩阵的元素取值,使得相似度矩阵与关联矩阵对应元素乘积之和最大,此时的关联矩阵为最优解。
该最优分配问题公式如下:
目标函数:
约束条件:
(4)目标检测一致性向量计算。将视觉伪标签目标信息划分为TK={T1 K,TK 2,T3 K,...,TK n},将激光雷达伪标签目标信息划分为TL={T1 L,TL 2,T3 L,...,TL m};
(5)设置4类目标集合:
PY K={PY1 K,PY2 K,PY3 K,...,PYn K} (11)
PN K={PN1 K,PN2 K,PN3 K,...,PNm K} (12)
PY L={PY1 L,PY2 L,PY3 L,...,PYu L} (13)
PN L={PN1 L,PN2 L,PN3 L,...,PNv L} (14)
其中PY K为视觉伪标签目标TK中成功关联的目标集合,PN K为视觉伪标签目标TK中未成功关联的目标集合,PY L为激光雷达伪标签目标TL中成功关联的目标集合,PN L为激光雷达伪标签目标TL中未成功关联的目标集合;
(6)定义一个目标检测一致性向量:
yi=[t1,t2,t3,t4]T (15)
其中tj∈{0,1},j∈[1,4],当tk=1时,ti=0,
(7)若PN K与PN L均为令t1=1,本组伪标签数据具备一致性;
(8)若PN K为PN L不为/>令t2=1,本组伪标签数据不具备一致性,需用激光雷达网络模型Al训练视觉网络模型Ak;
(9)若PN K不为PN L为/>令t3=1,本组伪标签数据不具备一致性,需用视觉网络模型Ak训练激光雷达网络模型Al;
(10)若PN K与PN L均不为令t4=1,本组伪标签数据不具备一致性,需用激光雷达网络模型Al训练视觉网络模型Ak,同时用视觉网络模型Ak训练激光雷达网络模型Al。
(11)训练决策。根据激光雷达与视觉目标检测一致性向量yi=[t1,t2,t3,t4]T,得到四种处理情况,具体包括:
情况一:yi=[t1,t2,t3,t4]T中t1=1,不需要进行数据传输;
情况二:yi=[t1,t2,t3,t4]T中t2=1,将TL传输给Ak进行进一步训练;
情况三:yi=[t1,t2,t3,t4]T中t3=1,将TK传输给Al进行进一步训练;
情况四:yi=[t1,t2,t3,t4]T中t4=1,将TL传输给Ak,同时将TK传输给Al进行进一步训练;
(12)样本数量累积到训练阈值ω之后,进行新一轮训练,得到训练更新检测模型,包括视觉模型-2与激光雷达模型-2,并分别用以更新视觉模型-1和激光雷达模型-1。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (7)
1.一种激光雷达和视觉启发式学习的目标检测系统,其特征在于:包括视觉目标检测模块、激光雷达目标检测模块及启发式学习模块;
所述视觉目标检测模块用于实时采集视觉数据,通过视觉模型-1进行目标检测,将检测结果作为视觉伪标签数据发送给启发式学习模块;
所述激光雷达目标检测模块用于实时采集激光雷达数据,通过激光雷达模型-1进行目标检测,将检测结果作为激光雷达伪标签数据发送给启发式学习模块;
所述启发式学习模块使用评估器对视觉和激光雷达目标输出伪标签信息进行评估,根据评估结果,利用伪标签信息对视觉模型-2和激光雷达模型-2进行训练,将训练好的视觉模型-2和激光雷达模型-2分别用以更新视觉模型-1和激光雷达模型-1。
2.一种激光雷达和视觉启发式学习的目标检测方法,其特征在于:包括以下步骤:
S1:视觉实时数据采集:在时刻k,采集视觉数据,通过视觉模型-1进行目标检测,得到视觉目标检测结果以及视觉伪标签数据;
S2:激光雷达实时数据采集:在时刻k,采集激光雷达数据,通过激光雷达模型-1进行目标检测,得到激光雷达目标检测结果以及激光雷达伪标签数据;
S3:使用评估器对视觉与激光雷达目标输出伪标签数据进行评估,将伪标签数据进行目标数据关联,得到激光雷达与视觉伪标签目标关联矩阵,再通过目标关联矩阵进行决策判断,得到激光雷达与视觉目标检测一致性向量;
S4:根据激光雷达与视觉目标检测一致性向量进行训练,得到训练更新检测模型,包括视觉模型-2与激光雷达模型-2,并分别用以更新视觉模型-1和激光雷达模型-1。
3.根据权利要求2所述的激光雷达和视觉启发式学习的目标检测方法,其特征在于:步骤S3所述使用评估器对视觉与激光雷达目标输出伪标签数据进行评估,具体包括以下步骤:
S31:目标关联:对视觉与激光雷达目标输出伪标签数据TK、TL分别建立目标特征向量xi,计算目标相似度star,根据目标相似度计算目标关联矩阵Aij;
S32:计算目标检测一致性向量:根据关联矩阵Aij,将TK、TL中的目标分别放入集合PY K、PN K、PY L、PN L中,判断PN K、PN L是否为计算目标检测一致性向量yi。
4.根据权利要求3所述的激光雷达和视觉启发式学习的目标检测方法,其特征在于:所述步骤S31具体包括以下步骤:
S311:根据激光雷达与视觉伪标签信息,分别建立目标的特征向量:
xi=[p,s]T
其中位姿特征p=[x,y,α]表示目标中心点的x位置、y位置以及目标朝向信息,形状特征s=[l,w]表示目标检测框的长、宽;
建立目标状态模型和量测模型:
xk=Buk+wk
zk=Hxk+vk
其中xk表示k时刻的目标状态,zk表示k时刻的目标量测,uk为系统输入,B为将输入转换为状态的矩阵,H为量测矩阵,wk和vk分别为相互独立的过程噪声和量测噪声;
S312:加权计算目标位姿、形状特征相似度得出目标相似度,具体包括:
特征相似度衡量方法使用欧氏距离,设有两个n维特征向量,通过设定距离阈值dmax,若特征向量之间欧式距离超过距离阈值,则特征向量之间相似度s为零,达到对量测的筛选作用,向量计算方法如下:
其中d(x,y)为向量x和向量y之间的欧式距离,n表示向量的维数,从而计算出目标的位姿、形状相似度sp、ss;
然后通过加权计算得出目标相似度star:
star=l1sp+l2ss
其中l1,l2为各个特征所占权重,且l1+l2=1;
(3)利用相似度做目标数据关联,具体包括:
假设目标轨迹数量和目标量测数量分别为p和q,由目标相似度计算方法获得一个p×q维的相似度矩阵Sp×q:
其中star,i,j表示目标轨迹i和目标量测j的相似度,设定阈值δ,当star,i,j<δ时,令star,i,j=0,然后筛选出全零行和全零列,分别代表无量测关联轨迹与无可关联的量测,降低后续计算量,得到相似度矩阵S′p×q,定义一个关联矩阵Aij:
其中aij∈{0,1},aij=0表示相互不关联,aij=1表示相互关联,在设定的约束条件下调整关联矩阵的元素取值,使得相似度矩阵与关联矩阵对应元素乘积之和最大,此时的关联矩阵为最优解。
5.根据权利要求4所述的激光雷达和视觉启发式学习的目标检测方法,其特征在于:所述最优分配问题公式如下:
目标函数:
约束条件:
6.根据权利要求3所述的激光雷达和视觉启发式学习的目标检测方法,其特征在于:所述步骤S32具体包括以下步骤:
S321:将视觉伪标签目标数据划分为TK={T1 K,TK 2,T3 K,...,TK n},将激光雷达伪标签目标数据划分为TL={T1 L,TL 2,T3 L,...,TL m};
S322:设置4类目标集合:
PY K={PY1 K,PY2 K,PY3 K,...,PYn K}
PN K={PN1 K,PN2 K,PN3 K,...,PNm K}
PY L={PY1 L,PY2 L,PY3 L,...,PYu L}
PN L={PN1 L,PN2 L,PN3 L,...,PNv L}
其中PY K为视觉伪标签目标TK中成功关联的目标集合,PN K为视觉伪标签目标TK中未成功关联的目标集合,PY L为激光雷达伪标签目标TL中成功关联的目标集合,PN L为激光雷达伪标签目标TL中未成功关联的目标集合;
S323:定义一个目标检测一致性向量:
yi=[t1,t2,t3,t4]T
其中tj∈{0,1},j∈[1,4],当tk=1时,ti=0,
S324:若PN K与PN L均为令t1=1,本组伪标签数据具备一致性;
若PN K为PN L不为/>令t2=1,本组伪标签数据不具备一致性,用激光雷达网络模型Al训练视觉网络模型Ak;
若PN K不为PN L为/>令t3=1,本组伪标签数据不具备一致性,用视觉网络模型Ak训练激光雷达网络模型Al;
若PN K与PN L均不为令t4=1,本组伪标签数据不具备一致性,用激光雷达网络模型Al训练视觉网络模型Ak,同时用视觉网络模型Ak训练激光雷达网络模型Al。
7.根据权利要求6所述的激光雷达和视觉启发式学习的目标检测方法,其特征在于:步骤S4所述得到训练更新检测模型,具体包括:
(1)情况一:yi=[t1,t2,t3,t4]T中t1=1,不进行数据传输;
(2)情况二:yi=[t1,t2,t3,t4]T中t2=1,将TL传输给Ak进行进一步训练;
(3)情况三:yi=[t1,t2,t3,t4]T中t3=1,将TK传输给Al进行进一步训练;
(4)情况四:yi=[t1,t2,t3,t4]T中t4=1,将TL传输给Ak,同时将TK传输给Al进行进一步训练;
(5)样本数量累积到训练阈值ω之后,进行新一轮训练,得到训练更新检测模型,包括视觉模型-2与激光雷达模型-2,并分别用以更新视觉模型-1和激光雷达模型-1。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202310978208.XA CN117009816B (zh) | 2023-08-04 | 2023-08-04 | 激光雷达和视觉启发式学习的目标检测系统及方法 |
| PCT/CN2024/108031 WO2025031178A1 (zh) | 2023-08-04 | 2024-07-29 | 激光雷达和视觉启发式学习的目标检测系统及方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202310978208.XA CN117009816B (zh) | 2023-08-04 | 2023-08-04 | 激光雷达和视觉启发式学习的目标检测系统及方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN117009816A true CN117009816A (zh) | 2023-11-07 |
| CN117009816B CN117009816B (zh) | 2025-09-30 |
Family
ID=88561501
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202310978208.XA Active CN117009816B (zh) | 2023-08-04 | 2023-08-04 | 激光雷达和视觉启发式学习的目标检测系统及方法 |
Country Status (2)
| Country | Link |
|---|---|
| CN (1) | CN117009816B (zh) |
| WO (1) | WO2025031178A1 (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025031178A1 (zh) * | 2023-08-04 | 2025-02-13 | 重庆邮电大学 | 激光雷达和视觉启发式学习的目标检测系统及方法 |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN120357971B (zh) * | 2025-06-26 | 2025-08-29 | 南京纳特通信电子有限公司 | 一种emi发射综合性能评分计算方法、系统及应用 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106707293A (zh) * | 2016-12-01 | 2017-05-24 | 百度在线网络技术(北京)有限公司 | 用于车辆的障碍物识别方法和装置 |
| KR102336500B1 (ko) * | 2021-03-02 | 2021-12-07 | 국방과학연구소 | 의사-레이블 데이터 생성 방법 및 장치, 의사-레이블 데이터를 이용한 심층 신경망 학습 방법 및 장치 |
| CN116148801A (zh) * | 2023-04-18 | 2023-05-23 | 深圳市佰誉达科技有限公司 | 一种基于毫米波雷达的目标检测方法及系统 |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108846336B (zh) * | 2018-05-31 | 2022-03-15 | 深圳市易成自动驾驶技术有限公司 | 目标检测方法、装置及计算机可读存储介质 |
| US20230061830A1 (en) * | 2021-09-02 | 2023-03-02 | Canoo Technologies Inc. | Metamorphic labeling using aligned sensor data |
| CN117009816B (zh) * | 2023-08-04 | 2025-09-30 | 重庆邮电大学 | 激光雷达和视觉启发式学习的目标检测系统及方法 |
-
2023
- 2023-08-04 CN CN202310978208.XA patent/CN117009816B/zh active Active
-
2024
- 2024-07-29 WO PCT/CN2024/108031 patent/WO2025031178A1/zh active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106707293A (zh) * | 2016-12-01 | 2017-05-24 | 百度在线网络技术(北京)有限公司 | 用于车辆的障碍物识别方法和装置 |
| KR102336500B1 (ko) * | 2021-03-02 | 2021-12-07 | 국방과학연구소 | 의사-레이블 데이터 생성 방법 및 장치, 의사-레이블 데이터를 이용한 심층 신경망 학습 방법 및 장치 |
| CN116148801A (zh) * | 2023-04-18 | 2023-05-23 | 深圳市佰誉达科技有限公司 | 一种基于毫米波雷达的目标检测方法及系统 |
Non-Patent Citations (3)
| Title |
|---|
| HAORAN XU 等: "Lidar and Camera Heuristic Learning Method for Target Detection", 《2024 36TH CHINESE CONTROL AND DECISION CONFERENCE》, 17 July 2024 (2024-07-17), pages 311 - 316 * |
| LUCA CALTAGIRONE 等: "Lidar-Camera Semi-Supervised Learning for Semantic Segmentation", 《SENSORS》, vol. 21, no. 14, 14 July 2021 (2021-07-14), pages 1 - 13 * |
| 丁俊杰: "雷达视频融合的交通信息感知关键技术及应用研究", 《中国优秀硕士学位论文全文数据库工程科技II辑》, 15 February 2023 (2023-02-15), pages 034 - 1840 * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025031178A1 (zh) * | 2023-08-04 | 2025-02-13 | 重庆邮电大学 | 激光雷达和视觉启发式学习的目标检测系统及方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2025031178A1 (zh) | 2025-02-13 |
| CN117009816B (zh) | 2025-09-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111709409B (zh) | 人脸活体检测方法、装置、设备及介质 | |
| CN111061277B (zh) | 一种无人车全局路径规划方法和装置 | |
| CN112766244B (zh) | 目标对象检测方法、装置、计算机设备和存储介质 | |
| CN109117731B (zh) | 一种课堂教学认知负荷测量系统 | |
| CN113283334B (zh) | 一种课堂专注度分析方法、装置和存储介质 | |
| CN114937066B (zh) | 基于交叉偏移特征与空间一致性的点云配准系统及方法 | |
| CN114332578A (zh) | 图像异常检测模型训练方法、图像异常检测方法和装置 | |
| CN113177559B (zh) | 结合广度和密集卷积神经网络的图像识别方法、系统、设备及介质 | |
| CN117009816B (zh) | 激光雷达和视觉启发式学习的目标检测系统及方法 | |
| CN113743417A (zh) | 语义分割方法和语义分割装置 | |
| CN109886356A (zh) | 一种基于三分支神经网络的目标追踪方法 | |
| US20230237774A1 (en) | Data collection system, sensor device, data collection device, and data collection method | |
| CN117437615A (zh) | 雾天交通标志检测方法、装置、存储介质和电子设备 | |
| CN118351410B (zh) | 一种基于稀疏代理注意力的多模态三维检测方法 | |
| Feng | Mask RCNN-based single shot multibox detector for gesture recognition in physical education | |
| CN104700105A (zh) | 非结构化室外地形全局检测方法 | |
| Zhong | A convolutional neural network based online teaching method using edge-cloud computing platform | |
| CN111008622A (zh) | 一种图像对象检测方法、装置以及计算机可读存储介质 | |
| CN116090557B (zh) | 认知诊断模型的训练方法、题目推荐方法、装置及设备 | |
| CN114842388A (zh) | 基于随机通道自适应注意力机制的多目标跟踪方法和系统 | |
| CN120164258A (zh) | 一种基于多视图深度行为识别的在线学习行为识别方法及系统 | |
| Ocegueda-Hernandez et al. | A lightweight convolutional neural network for pose estimation of a planar model | |
| CN116189275B (zh) | 一种基于面部地标热图的线上考试监考方法 | |
| CN117456480B (zh) | 一种基于多源信息融合的轻量化车辆再辨识方法 | |
| Pang | Table tennis capture system based on image recognition and modeling |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |