CN116912322A - 一种基于图像序列分析的目标打击结果自评估方法 - Google Patents
一种基于图像序列分析的目标打击结果自评估方法 Download PDFInfo
- Publication number
- CN116912322A CN116912322A CN202310849835.3A CN202310849835A CN116912322A CN 116912322 A CN116912322 A CN 116912322A CN 202310849835 A CN202310849835 A CN 202310849835A CN 116912322 A CN116912322 A CN 116912322A
- Authority
- CN
- China
- Prior art keywords
- target
- matrix
- image
- sigma
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30212—Military
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于导引头图像序列分析的目标打击结果自评估方法,属于打击结果评估技术领域。本发明针对导引头采集的图像序列,通过目标识别算法处理,获取每一帧图像中的目标位置信息,并采用二维高斯模型预测导弹落点位置估计值;进一步将落点位置估计值与实际目标位置相比较,实现对打击结果的初步评估。本发明解决了打击后图像获取难、无法支撑实时评估等困难,为打击目标临机分配提供支撑。
Description
技术领域
本发明涉及打击结果评估领域,特别涉及一种基于导引头图像序列分析的目标打击结果自评估方法。
背景技术
打击结果评估是精确作战必不可少的环节,为打击目标再分配提供基本数据支撑。一般来说,打击结果评估是指对目标实施打击后,利用一定的侦查手段获取其毁伤信息,评估毁伤情况,并据此决定后续作战计划。随着遥感技术的发展,基于图像的打击结果评估技术受到越来越广泛的关注,具有良好的应用前景。
基于图像的打击结果评估方法按照毁伤信息提取方式可以分为三类:一是基于变化检测的打击结果评估,该方法通过对比打击前后图像中目标的变化情况进行评估。典型进展包括:在像素级尺度上,通过对比打击前后雷达影像,实现打击结果评估(Yu S H,Srivastava A,Mehra R K.Automatic Battle Damage Assessment based on LaserRadar Imagery);通过基于特征对比方法,实现了对于建筑、机场等目标的打击结果评估(苏娟,鲜勇,刘代志.基于图像变化检测的打击效果自动评估算法)等。二是基于自动目标识别的打击结果评估,仅利用打击后图像,通过目标识别提取特征,评估毁伤效果。典型进展包括:实现基于遥感图像的打击结果评估(于国荣,凡根喜,于辉.基于遥感图像处理和计算的导弹打击效果物理评估方法研究);利用基于邻域灰度差值的弹坑识别算法实现打击结果评估(蒲刚,许鹏,任平,等.基于图像分析的机场跑道毁伤效果评估研究)等。三是基于专家知识库的打击结果评估,利用先验知识,结合打击后图像,开展打击结果评估。典型进展包括:通过标注关键部位模板,采用图像匹配方式提取特征信息,评估毁伤情况(席大春,周成平,娄联堂.基于图像理解的桥梁自动打击效果评估系统研究)等。
通过上述方法,能够实现对打击结果较为精确地评估,指导打击目标再分配。但上述方法仍存在不足之处,最核心的问题表现在:打击后图像获取难,无法支撑实时评估,进而影响后续作战计划即时决策。
为解决上述问题,提升评估实时性,本发明提出了基于图像序列分析的目标打击结果自评估方法。
发明内容
本发明的目的是提供一种基于图像序列分析的目标打击结果自评估方法,本发明解决了打击后图像获取难、无法支撑实时评估等困难,为打击目标临机分配提供支撑。
为达到上述目的,解决上述技术问题,本发明主要采用了位置信息融合与预测技术方法,基于导引头采集图像序列数据,获得导弹落点位置估计值,结合导弹毁伤特性,实现打击结果自评估。
本发明目标打击结果自评估总体流程框图如图1所示。受限于导引头性能,导弹在接近目标过程中,目标在图像中占比会逐渐增大,直至超过一定限度导致无法识别锁定并获取目标位置,此时需要通过图像序列中每一帧图像的目标位置信息拟合得到最新一帧图像中的目标位置估计值;而基于导弹末制导能够锁定并指向目标的基本假设(一般导弹均具备此能力),可以利用目标位置估计值代表落点位置估计值,从而实现对落点位置的估计;进一步通过比较落点位置估计值与实际目标位置(利用导引头回传的最后一帧图像人为分析得到),判断打击结果。
本发明的技术方案如下:
一种基于图像序列分析的目标打击结果自评估方法,包括如下步骤:
步骤1、采用目标识别算法对导引头采集到的图像进行检测处理,获得每一帧图像中的目标位置,以像素坐标表示;
步骤2、采用二维高斯模型对落点位置进行估计
2.1建立二维高斯模型
使用目标区域的亮度信息,建立目标区域的二维高斯分布模型,模型中心即为目标位置估计值,也即为落点位置估计值;
2.2计算高斯模型参数
高斯模型参数包括均值和方差,均值即为目标的初始估计位置,方差描述了目标在图像中的分布范围和定位精度;
2.3对目标进行跟踪
从上一帧图像的目标位置出发,使用高斯模型估计目标在当前图像中的位置;
首先,获取当前图像中以前一帧目标位置为中心的一定范围内的像素值;
然后,对这些像素值进行二维高斯滤波,得到一个加权平均值;
最后,将得到的加权平均值作为当前目标的位置;
2.4更新高斯模型参数
根据当前帧计算得到的目标位置,更新高斯模型的参数,包括均值和方差;如此下一帧目标的位置估计将以更新高斯模型的参数为准,不断修正目标位置以提高定位精度;
步骤3、采用动量算法优化权重
在计算目标位置x时,各个时间点得到的结果非等权:
当只有一包数据时:
x=x1
当有多包数据时:
x=(1-α)*xt+α*xrst
xrst=x
其中,α为动量因子,默认值为0.9,xt代表最新一帧的目标位置,其中t=1、2、3…,xrst为数据更新后当前的目标位置,也即落点位置估计值;
步骤4、利用落点估计值评估打击结果
通过上述步骤获得基于图像序列的落点位置估计值,将此估计值与最后一帧图像上目标位置进行比较:
当二者相对距离大于阈值时,评判为未击中目标;
小于等于阈值时,评判为击中目标;
所述阈值根据不同导弹与打击目标,依据任务需求设定。
本发明和现有技术相比的有效收益:
现有技术一般需要比对打击前后目标图像,但打击后图像获取较难,无法支撑实时评估。本发明针对导引头采集的序列图像数据,通过目标识别算法处理,获取每一帧图像中的目标位置信息,并采用二维高斯模型对导弹落点位置进行估计,进一步将落点位置估计值与实际目标位置相比较,实现对打击结果初步评估。
附图说明
图1目标打击结果自评估总体流程框图;
图2目标位置的二维高斯分布示意图;
图3目标位置序列图。
具体实施方式
下面结合附图对本发明的实现过程进行详细的解释和说明。
受限于导引头性能,导弹在接近目标过程中,目标在图像中占比会逐渐增大,直至超过一定限度导致无法识别锁定并获取目标位置,因此,无法直接采用导引头图像评估是否击中目标。本发明基于导弹末制导能够锁定并指向目标的基本假设(一般导弹均具备此能力),通过对导引头序列图像进行处理分析,采用二维高斯模型对目标位置在图像中的变化趋势进行评估,并以此作为导弹落点位置估计值;进一步对比落点估计值与实际目标位置,判断打击结果。
具体方案如下:一种基于图像序列分析的目标打击结果自评估方法,包括如下步骤:
步骤1、采用目标识别算法对导引头采集到的图像进行检测处理,获得每一帧图像中的目标位置,以像素坐标表示;
步骤2、采用二维高斯模型对落点位置进行估计
2.1建立二维高斯模型
使用目标区域的亮度信息,建立目标区域的二维高斯分布模型,模型中心即为目标位置估计值,也即为落点位置估计值;
2.2计算高斯模型参数
高斯模型参数包括均值和方差,均值即为目标的初始估计位置,方差描述了目标在图像中的分布范围和定位精度;
2.3对目标进行跟踪
从上一帧图像的目标位置出发,使用高斯模型估计目标在当前图像中的位置;
首先,获取当前图像中以前一帧目标位置为中心的一定范围内的像素值;
然后,对这些像素值进行二维高斯滤波,得到一个加权平均值;
最后,将得到的加权平均值作为当前目标的位置;
2.4更新高斯模型参数
根据当前帧计算得到的目标位置,更新高斯模型的参数,包括均值和方差;如此下一帧目标的位置估计将以更新高斯模型的参数为准,不断修正目标位置以提高定位精度。
具体计算过程如下:
二维高斯模型的概率密度函数为:
其中μ1,μ2,σ1,σ2,ρ都是常数,(x,y)表示二维随机变量,服从参数为μ1,μ2,σ1,σ2,ρ的二维高斯分布,把这个分布记作N(μ1,μ2,σ1,σ2,ρ)。μ1,μ2,σ1,σ2,ρ的范围分别为-∞<μ1<∞;-∞<μ2<∞;-1<ρ<1;σ1>0;σ2>0,由于横坐标与纵坐标分布相互独立,因此ρ=0;二维高斯分布的图像如图2所示:
本发明认为,落点位置数据样本服从ρ=0的二维高斯分布,二维高斯分布为多维高斯分布的特殊情况,因此只要求得独立多维高斯分布的极大似然估计值,也就求得了落点位置估值。
如图3所示,每一个黑色点代表单个位置数据,包含横坐标、纵坐标和它的预测置信度。同心圆环的圆心为需要求得的落点位置估计μ,半径为待估计的标准差σ的一定倍数。位置数据样本服从ρ=0的二维高斯分布,二维高斯分布为多维高斯分布的特殊情况,因此只要求得独立多维高斯分布的极大似然估计值,也就求得了固定目标的落点位置。
对于n维随机变量:
当ρ=0时,概率密度函数可表示为:
在①中:
表示xi的方差,其矩阵是协方差矩阵的逆矩阵:
根据行列式的性质,上三角矩阵的行列式等于主对角线所有元素的乘积,斜对角矩阵是一个上三角矩阵,因此协方差矩阵的行列式是:
将②、③代入①中,得到最终结果:
假设有m个可观察样本,那么最大似然函数是:
其对数似然函数是:
其中m和n是已知的,C是一个常数。求极值需要对μ和∑求偏导:
μ和∑是矩阵,涉及到矩阵的求导法则。先看对μ的求导,lnL由将该结论代入中,μ和∑是矩阵,根据矩阵的求导法则因为∑-1是一个对称矩阵,因此:
根据矩阵的求导法则,然后再对∑求偏导(即为b2)。设ωpq是∑第p行第q列的元素,Epq是一个第p行第q列元素为1,其它元素全为0的矩阵,E与∑-1同阶。根据矩阵的求导公式:
已经知道了∑-1是一个对称矩阵,矩阵乘法满足结合律,在不改变矩阵顺序的条件下可以任意加括号:
其中Σ-1(x(i)-μ)T是一个1*n的矩阵,Σ-1(x(i)-μ))T p表示矩阵中的第p个元素;Σ-1(x(i)-μ)是一个n*1的矩阵,(Σ-1(x(i)-μ))q表示矩阵中的第q个元素。将该结论推广到矩阵对矩阵的求导,根据矩阵对矩阵的求导公式,在A1中,∑-1(x(i)-μ)T是一个1*n的矩阵,(∑-1(x(i)-μ))Ti表示矩阵中的第i个元素,是一个标量;Σ-1(x(i)-μ)是一个n*1的矩阵,(Σ-1(x(i)-μ))i表示矩阵中的第i个元素,也是一个标量,因此:
(∑-1(x(i)-μ))T i=(∑-1(x(i)-μ))i
A1=∑-1(x(i)-μ)
最终求得b2:
最终的似然函数为:
I是单位矩阵,∑-1I=∑-1:
等号两侧同时左乘∑再右乘∑,最终解得:
因此,多维高斯分布的最大似然估计量是:
上式中,没有考虑到位置序列的置信度P,因此所有位置序列的置信度P=1。考虑置信度0<P<1,且高斯分布维度为2的情况,有最大似然估计量:
上式中,为最终估计的落点位置,m为样本量,p(i)为第i个样本的置信度,x(i)为第i个样本的二维坐标向量。∑为最终估计的二维方差向量乘积/>
步骤3、采用动量算法优化权重
在计算目标位置时,各个时间点得到的结果不应该是等权的。具体来说,前面所有时刻的坐标点占权重应该大于当前坐标的权重,而越接近当前坐标点,占的权重应该更大。这种做法可以抑制某一帧偏差较大的检测结果对整体结果的影响;
具体公式如下:
当只有一包数据时:
x=x1
当有多包数据时:
x=(1-α)*xt+α*xrst
xrst=x
其中,α为动量因子,默认值为0.9,xt代表最新一帧的目标位置,其中t=1、2、3…,xrst为数据更新后当前的目标位置,也即落点位置估计值;
步骤4、利用落点估计值评估打击结果
通过上述步骤获得基于图像序列的落点位置估计值,将此估计值与最后一帧图像上目标位置进行比较,当二者相对距离大于阈值时,评判为未击中目标;小于等于阈值时,评判为击中目标;所述阈值根据经验设定,不同导弹与打击目标,阈值不同。
以上内容是结合具体的实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (2)
1.一种基于图像序列分析的目标打击结果自评估方法,其特征在于,包括如下步骤:
步骤1、采用目标识别算法对导引头采集到的图像进行检测处理,获得每一帧图像中的目标位置,以像素坐标表示;
步骤2、采用二维高斯模型对落点位置进行估计
2.1建立二维高斯模型
使用目标区域的亮度信息,建立目标区域的二维高斯分布模型,模型中心即为目标位置估计值,也即为落点位置估计值;
2.2计算高斯模型参数
高斯模型参数包括均值和方差,均值即为目标的初始估计位置,方差描述了目标在图像中的分布范围和定位精度;
2.3对目标进行跟踪
从上一帧图像的目标位置出发,使用高斯模型估计目标在当前图像中的位置;
首先,获取当前图像中以前一帧目标位置为中心的一定范围内的像素值;
然后,对这些像素值进行二维高斯滤波,得到一个加权平均值;
最后,将得到的加权平均值作为当前目标的位置;
2.4更新高斯模型参数
根据当前帧计算得到的目标位置,更新高斯模型的参数,包括均值和方差;如此下一帧目标的位置估计将以更新高斯模型的参数为准,不断修正目标位置以提高定位精度;
步骤3、采用动量算法优化权重
在计算目标位置x时,各个时间点得到的结果非等权:
当只有一包数据时:
x=x1
当有多包数据时:
x=(1-α)*xt+α*xrst
xrst=x
其中,α为动量因子,默认值为0.9,xt代表最新一帧的目标位置,其中t=1、2、3…,xrst为数据更新后当前的目标位置,也即落点位置估计值;
步骤4、利用落点估计值评估打击结果
通过上述步骤获得基于图像序列的落点位置估计值,将此估计值与最后一帧图像上目标位置进行比较:
当二者相对距离大于阈值时,评判为未击中目标;
小于等于阈值时,评判为击中目标;
所述阈值根据不同导弹与打击目标,依据任务需求设定。
2.根据权利要求1所述的一种基于图像序列分析的目标打击结果自评估方法,其特征在于,所述步骤2的具体计算过程表述如下:
二维高斯模型的概率密度函数为:
其中μ1,μ2,σ1,σ2,ρ都是常数,(x,y)表示二维随机变量,服从参数为μ1,μ2,σ1,σ2,ρ的二维高斯分布,把这个分布记作N(μ1,μ2,σ1,σ2,ρ);μ1,μ2,σ1,σ2,ρ的范围分别为-∞<μ1<∞;-∞<μ2<∞;-1<ρ<1;σ1>0;σ2>0,由于横坐标与纵坐标分布相互独立,因此ρ=0;
落点位置数据样本服从ρ=0的二维高斯分布,获得独立多维高斯分布的极大似然估计值,也就求得了落点位置估值,具体过程如下:
对于n维随机变量:
当ρ=0时,概率密度函数可表示为:
在①中:
表示xi的方差,其矩阵是协方差矩阵的逆矩阵:
∑∑-1=I
根据行列式的性质,上三角矩阵的行列式等于主对角线所有元素的乘积,斜对角矩阵是一个上三角矩阵,因此协方差矩阵的行列式是:
将②、③代入①中,得到最终结果:
假设有m个可观察样本,那么最大似然函数是:
其对数似然函数是:
其中m和n是已知的,C是一个常数;求极值需要对μ和∑求偏导:
μ和∑是矩阵,涉及到矩阵的求导法则;先看对μ的求导,lnL由将该结论代入中,μ和∑是矩阵,根据矩阵的求导法则因为∑-1是一个对称矩阵,因此:
根据矩阵的求导法则,然后再对∑求偏导(即为b2);设ωpq是∑第p行第q列的元素,Epq是一个第p行第q列元素为1,其它元素全为0的矩阵,E与∑-1同阶;根据矩阵的求导公式:
已经知道了∑-1是一个对称矩阵,矩阵乘法满足结合律,在不改变矩阵顺序的条件下可以任意加括号:
其中∑-1(x(i)-μ)T是一个1*n的矩阵,∑-1(x(i)-μ))T p表示矩阵中的第p个元素;∑-1(x(i)-μ)是一个n*1的矩阵,(∑-1(x(i)-μ))q表示矩阵中的第q个元素;将该结论推广到矩阵对矩阵的求导,根据矩阵对矩阵的求导公式,在A1中,∑-1(x(i)-μ)T是一个1*n的矩阵,(∑-1(x(i)-μ))Ti表示矩阵中的第i个元素,是一个标量;∑-1(x(i)-μ)是一个n*1的矩阵,(∑-1(x(i)-μ))i表示矩阵中的第i个元素,也是一个标量,因此:
(∑-1(x(i)-μ))T i=(∑-1(x(i)-μ))i
A1=∑-1(x(i)-μ)
最终求得b2:
最终的似然函数为:
I是单位矩阵,∑-1I=∑-1:
等号两侧同时左乘∑再右乘∑,最终解得:
因此,多维高斯分布的最大似然估计量是:
上式中,没有考虑到位置序列的置信度P,因此所有位置序列的置信度P=1;考虑置信度0<P<1,且高斯分布维度为2的情况,有最大似然估计量:
上式中,为最终估计的落点位置,m为样本量,p(i)为第i个样本的置信度,x(i)为第i个样本的二维坐标向量;∑为最终估计的二维方差向量乘积/>
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202310849835.3A CN116912322A (zh) | 2023-07-12 | 2023-07-12 | 一种基于图像序列分析的目标打击结果自评估方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202310849835.3A CN116912322A (zh) | 2023-07-12 | 2023-07-12 | 一种基于图像序列分析的目标打击结果自评估方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN116912322A true CN116912322A (zh) | 2023-10-20 |
Family
ID=88362161
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202310849835.3A Pending CN116912322A (zh) | 2023-07-12 | 2023-07-12 | 一种基于图像序列分析的目标打击结果自评估方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN116912322A (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119441817A (zh) * | 2025-01-10 | 2025-02-14 | 北京中科智易科技股份有限公司 | 生成式人工智能弹药毁伤评估方法、系统及程序产品 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20100246977A1 (en) * | 2009-03-27 | 2010-09-30 | Life Technologies Corporation | Systems and methods for assessing images |
| CN115409786A (zh) * | 2022-08-16 | 2022-11-29 | 昆山丘钛光电科技有限公司 | 一种用于检测激光坏点的方法、装置、介质及设备 |
| CN115761522A (zh) * | 2022-11-22 | 2023-03-07 | 中国空间技术研究院 | 一种基于天基信息的毁伤分析方法及毁伤评估系统 |
| CN115984590A (zh) * | 2022-12-27 | 2023-04-18 | 中船重工奥蓝托无锡软件技术有限公司 | 基于图像识别的目标易损性评估方法、装置及电子设备 |
-
2023
- 2023-07-12 CN CN202310849835.3A patent/CN116912322A/zh active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20100246977A1 (en) * | 2009-03-27 | 2010-09-30 | Life Technologies Corporation | Systems and methods for assessing images |
| CN115409786A (zh) * | 2022-08-16 | 2022-11-29 | 昆山丘钛光电科技有限公司 | 一种用于检测激光坏点的方法、装置、介质及设备 |
| CN115761522A (zh) * | 2022-11-22 | 2023-03-07 | 中国空间技术研究院 | 一种基于天基信息的毁伤分析方法及毁伤评估系统 |
| CN115984590A (zh) * | 2022-12-27 | 2023-04-18 | 中船重工奥蓝托无锡软件技术有限公司 | 基于图像识别的目标易损性评估方法、装置及电子设备 |
Non-Patent Citations (1)
| Title |
|---|
| 赵本东: "红外探测系统中点目标的检测与识别技术研究", 《中国博士学位论文全文数据库 信息科技辑》, 15 January 2022 (2022-01-15) * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119441817A (zh) * | 2025-01-10 | 2025-02-14 | 北京中科智易科技股份有限公司 | 生成式人工智能弹药毁伤评估方法、系统及程序产品 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108447080B (zh) | 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质 | |
| CN111127518B (zh) | 基于无人机的目标跟踪方法及装置 | |
| CN104282020B (zh) | 一种基于目标运动轨迹的车辆速度检测方法 | |
| CN111626194B (zh) | 一种使用深度关联度量的行人多目标跟踪方法 | |
| CN109143224B (zh) | 一种多目标关联方法和装置 | |
| CN114063056A (zh) | 一种船舶航迹融合方法、系统、介质和设备 | |
| CN110211160B (zh) | 一种基于改进Camshift算法的人脸跟踪方法 | |
| CN114627362B (zh) | 基于改进加权增强局部对比度测量的红外小目标检测方法 | |
| CN110781785A (zh) | 基于Faster RCNN算法改进的交通场景下行人检测方法 | |
| CN108288290B (zh) | 一种应用于智能狙击枪的靶心在线自动标定方法 | |
| CN112307897A (zh) | 一种社区监控场景下基于局部特征识别和邻帧匹配的宠物跟踪方法 | |
| CN116912322A (zh) | 一种基于图像序列分析的目标打击结果自评估方法 | |
| CN112991390B (zh) | 一种基于背景感知的多跟踪器融合目标跟踪方法 | |
| CN114037650A (zh) | 变化检测及目标检测的地面目标可见光毁伤图像处理方法 | |
| CN109508674A (zh) | 基于区域划分的机载下视异构图像匹配方法 | |
| CN117036740A (zh) | 一种用于运动目标的抗遮挡性跟踪方法 | |
| CN119445239B (zh) | 导引头识别跟踪机动目标的方法、装置、电子设备及介质 | |
| CN116245866B (zh) | 一种移动人脸追踪方法及系统 | |
| CN113316080A (zh) | 基于Wi-Fi与图像融合指纹的室内定位方法 | |
| CN115661586B (zh) | 模型训练和人流量统计方法、装置及设备 | |
| CN114973143B (zh) | 一种融合运动特征的低空飞行器鲁棒检测方法 | |
| CN118134972A (zh) | 基于强度像与点云数据融合的目标跟踪方法 | |
| CN113673373B (zh) | 基于自适应角约束的空地红外时敏弱小移动目标检测方法 | |
| CN117953245A (zh) | 基于模板匹配与kcf算法的红外无人机尾翼检测与跟踪方法 | |
| CN113920391B (zh) | 一种基于生成尺度自适应真值图的目标计数方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination |