CN111161306B - 一种基于运动注意力的视频目标分割方法 - Google Patents
一种基于运动注意力的视频目标分割方法 Download PDFInfo
- Publication number
- CN111161306B CN111161306B CN201911402450.2A CN201911402450A CN111161306B CN 111161306 B CN111161306 B CN 111161306B CN 201911402450 A CN201911402450 A CN 201911402450A CN 111161306 B CN111161306 B CN 111161306B
- Authority
- CN
- China
- Prior art keywords
- feature map
- current frame
- frame
- segmentation
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于运动注意力的视频目标分割方法,该方法将通道注意力模块输出的通道特征图和运动注意力模块输出的位置特征图进行相加,获得当前帧的分割结果。其中,通道注意力模块的输入为当前帧特征图Ft和第一帧提供的目标物体的外观特征图F0,通道注意力模块通过计算输入特征图Ft和F0通道之间的关联,输出的通道特征图反映了当前帧中外观最接近目标物体的物体;运动注意力模块的输入为当前帧特征图Ft和前一帧运动注意力网络中的记忆模块预测的目标物体的位置信息Ht‑1,运动注意力模块通过计算输入特征图Ft和Ht‑1位置之间的关联,输出的位置特征图反映了当前帧中目标物体的大致位置。本发明结合外观和位置两个因素,实现了对视频目标更精确的分割。
Description
技术领域
本发明属于图像处理和计算机视觉领域,涉及视频目标分割的方法,尤其涉及一种基于运动注意力的视频目标分割方法。
背景技术
视频目标分割是解决很多视频任务的先决条件,在目标识别、视频压缩等领域都起到举足轻重的作用。视频目标分割可定义为根据目标掩码,对目标进行跟踪并分割目标物体。而根据有无初始掩码,视频目标分割可分为半监督和无监督两种方式,半监督分割方法是在视频的第一帧手动初始化分割掩码,随即对目标对象进行跟踪分割。无监督方法在无任何先验信息的基础上,依据某种机制自动分割给定视频中的目标对象。
在视频场景中,背景杂乱无章、物体形变以及目标的快速运动都将影响分割结果。传统的视频目标分割技术采用刚性背景运动模型,并结合场景先验实现对目标物体的分割。然而,传统的视频目标分割技术所基于的假设在实际运用中存在一定的局限性。现有的视频目标分割技术多采用卷积神经网络,但其也存在着各种缺陷,如依赖帧与帧之间的光流分割视频中的运动物体,这使得分割效果容易受到光流估计错误的影响。此外,这些方法没有充分利用视频中的时序信息,未对场景中目标物体相关特征进行记忆。
为了解决上述问题,本发明研究了半监督方式下运动目标的分割问题,提出一种带有记忆模块的基于运动注意力的视频目标分割方法。
发明内容
本发明要解决的问题是:在视频目标分割中,仅仅依靠前一帧的分割结果确定当前帧的目标物体,无法获取目标物体的精确位置,甚至由于对前一帧分割结果的过度依赖,致使目标物体发生漂移;而现有的基于运动信息的视频目标分割方法,大多数基于当前帧及前一帧之间的光流信息进行目标物体的分割,不仅计算量大,更使得分割结果受限于特定的运动模式。因此需要提出一种新的基于运动信息的视频目标分割方法,提高分割效果。
为了解决上述问题,本发明提供了一种基于运动注意力的视频目标分割方法,融合视频序列中的运动时序信息,基于注意力机制实现视频目标分割,包括以下步骤:
1)构建分割主干网络,将当前帧It以及第一帧I0分别输入主干网络,获得对应的特征图Ft,F0;
2)构建运动注意力网络,将当前帧的特征图Ft、第一帧的特征图F0,以及前一帧记忆模块的隐藏状态Ht-1作为运动注意力网络的输入,运动注意力网络的输出Fout,即为当前帧的分割结果;
3)构造损失函数,损失函数由两部分组成。第一部分是像素级损失函数;第二部分是结构相似性损失函数。
进一步,所属步骤1)中的构建分割主干网络,获得特征图Ft和F0,具体为:
1.1)修改Resnet-50网络并融合空洞卷积。首先,设置Resnet-50中的conv_1的膨胀因子dilated=2;其次,删除Resnet-50中的池化层;再然后设置Resnet-50中的conv_3和conv_4这两层的步长stride=1;最后将修改后的Resnet-50作为主干网络,此时,主干网络输出的特征图是原始图像尺寸的1/8;
1.2)将当前帧It输入主干网络,得到关于当前帧的特征图Ft;
1.3)将第一帧I0输入主干网络,得到关于第一帧的特征图F0。
进一步,所属步骤2)中的构建运动注意力网络,获得当前帧的分割结果。
所述运动注意力网络由通道注意力模块、运动注意力模块以及记忆模块三部分组成。通道注意力模块、运动注意力模块以及记忆模块的构建具体为:
2.1)构建通道注意力模块,将Ft,F0作为通道注意力模块的输入。F0提供目标物体的颜色、姿态等外观信息。首先,Ft,F0经过矩阵相乘,以及softmax函数,得到目标物体的通道权重注意力图Xc,Xc刻画了当前帧和第一帧中通道之间的关联性,关联性越高,其响应值越高,特征越相似;然后,将Xc与Ft相乘,进行特征强化,其结果与Ft进行残差相加,得到通道特征图;
2.2)构建运动注意力模块,将Ft,Ht-1作为当前模块的输入,Ht-1提供基于前一帧分割结果和时序信息所预测的当前帧目标物体的位置信息。首先,将特征图Ft分别经过两个卷积核为1×1的卷积层,得到两个特征图记为Fa和Fb;然后,Fa与Ht-1经过矩阵相乘,并通过softmax函数,得到目标物体的位置权重注意力图;最后,再将Xs与Fb相乘,进行特征强化,其结果与Ft进行残差相加,得到位置特征图;
2.3)将通道特征图和位置特征图相加,得到当前帧的最终分割结果Fout。
2.4)构建记忆模块convLSTM,将当前帧的分割结果Fout和前一帧记忆模块输出的记忆细胞Ct-1,前一帧记忆模块的隐藏状态Ht-1作为当前模块的输入,该模块的输出是记忆细胞Ct和隐藏状态Ht;
所述的convLSTM由输入门、遗忘门、输出门组成。
进一步,所述步骤2.4)构建记忆模块convLSTM,具体为:
2.4.1)首先,遗忘门遗弃前一帧记忆模块的记忆细胞Ct-1中部分状态信息,然后,输入门将当前帧分割结果Fout中有用信息保存到前一帧记忆细胞Ct-1中,最后,更新并输出当前帧记忆细胞Ct;
2.4.2)首先,输出门通过Sigmoid函数对当前帧分割结果Fout和前一帧记忆模块的隐藏状态Ht-1进行过滤,确定待输出的信息,然后,调用tanh激活函数修改当前帧记忆细胞Ct中的值,最后,将待输出的部分信息与修改后的当前帧记忆细胞Ct矩阵相乘,获得并输出当前帧隐藏状态Ht。
有益效果
本发明提供了一种基于运动注意力的视频目标分割方法,该方法首先获取第一帧和当前帧的特征图,然后将当前帧特征图Ft、第一帧提供的目标物体的外观特征F0以及前一帧运动注意力网络中的记忆模块预测的目标物体的位置信息Ht-1,输入当前帧运动注意力网络,获取当前帧的分割结果。应用本发明专利,可解决其它分割方法无法解决的运动模式多样化问题。本发明适用于视频目标分割,具有很好的鲁棒性,分割效果精确。
本发明的特点:首先,本发明不再单纯关注前一帧的分割结果,而是借助第一帧中目标物体的外观信息,以及目标物体在视频序列中的时序信息,能够更准确地分割目标物体;其次,运动注意力网络的使用,大大减少了无用特征,提高了模型的鲁棒性。
附图说明
图1是本发明基于运动注意力的视频目标分割方法的流程图。
图2是本发明基于运动注意力的视频目标分割方法的网络结构图;
图3是Resnet-50结构图
图4是本发明基于运动注意力的视频目标分割方法使用的修改之后的Resnet-50结构图
具体实施方式
本发明提出了一种基于运动注意力的视频目标分割方法,该方法首先获取第一帧和当前帧的特征图,再将第一帧特征图、当前帧特征图以及前一帧运动注意力网络中记忆模块预测的目标物体位置信息,输入至运动注意力网络,获取当前帧的分割结果。本发明适用于视频目标分割,具有很好的鲁棒性,分割效果精确。
下面结合具体实例以及附图对本发明作出更详细阐述。
本发明包括以下步骤:
1)获取YouTube和Davis数据集,分别作为模型的训练集和测试集;
2)对训练数据进行预处理。对每个训练样例(视频帧)以及视频序列的第一帧掩码进行裁剪,将图像调整至224×224的分辨率,再使用旋转等方式进行数据增强;
3)构建分割主干网络,输入视频序列第一帧分割掩码以及当前帧,得到第一帧分割掩码和当前帧的分割特征图;
3.1)首先,设置Resnet-50中的conv_1的膨胀因子dilated=2;其次,删除Resnet-50中的池化层;再然后设置Resnet-50中的conv_3和conv_4这两层的步长stride=1;最后将修改后的Resnet-50作为主干网络,此时,主干网络输出的特征图是原始图像尺寸的1/8,如图4所示;
3.2)第一帧分割掩码的分辨率为224×224,将其输入主干网络,得到第一帧分割掩码的特征图F0,大小为2048×28×28;
3.3)当前帧的分辨率为224×224,将其输入主干网络,得到当前帧的特征图Ft,大小为2048×28×28。
4)构建运动注意力网络,输入当前帧特征图Ft,前一帧记忆力模块的隐藏状态Ht-1,以及第一帧的特征图F0,得到当前帧的分割结果Fout。所述运动注意力网络由通道注意力模块、运动注意力模块以及记忆模块三部分组成。
4.1)构建通道注意力模块。输入当前帧特征图Ft,以及第一帧特征图F0,得到通道特征图Ec,具体如下:
4.1.1)调用python中的reshape函数,调整Ft大小,将其转化为特征图F′t,大小为n×2048;调用python中的reshape函数,调整F0大小,将其转化为特征图F′0,大小为2048×n,其中,n表示当前帧的像素点总数;
4.1.2)F′0与F′t矩阵相乘,并调用softmax函数,其数学表述如下:
矩阵乘法可实现全局信息的利用与融合,其作用类似于全连接操作。全连接操作虽然可以考虑到所有位置的数据关系,但却破坏空间结构,因此使用矩阵乘法替代全连接操作,在使用全局信息的基础上,尽可能多地保留空间信息;
4.1.3)得到通道权重注意力图Xc,大小为2048×2048,通道权重注意力图Xc中第j行i列的元素xji的数学表述如下:
其中,F′ti表示F′t第i列,表示当前帧特征图Ft第i个通道,F′0j表示F′0第j行,表示第一帧特征图F0第j个通道,xji表示第一帧特征图F0的第i个通道对当前帧特征图Ft的第j个通道的影响,C表示当前帧特征图Ft通道个数。
4.1.4)通道权重注意力图Xc与特征图F′t相乘,强化当前帧特征图Ft的特征,其结果与当前帧特征图Ft进行残差相加,得到通道特征图Ec,其数学表述如下:
其中,β表示通道注意力权重,初始值设置为零,模型通过学习,为β分配更大更合理的权重,F′ti表示F′t第i列,表示当前帧特征图Ft第i个通道,C表示当前帧特征图Ft通道个数。
4.2)构建运动注意力模块。输入当前帧特征图Ft,以及前一帧记忆力模块的隐藏状态Ht-1,得到位置特征图Es,具体如下:
4.2.1)Ft分别经过两个卷积核为1×1的卷积层,得到两个特征图记为Fa和Fb,大小均为2048×28×28;
4.2.2)调用python中的reshape函数,调整Fa大小,将其转化为特征图F′a,大小为2048×n;调用python中的reshape函数,调整Fb大小,将其转化为特征图F′b,大小为2048×n;调用python中的reshape和transpose函数,调整Ht-1大小,将其转化为特征图H′t-1,大小为n×2048,其中,n表示当前帧的像素点总数;
4.2.3)H′t-1与F′a矩阵相乘,调用softmax函数,得到位置权重注意力图Xs,大小为28×28,其数学表述如下:
其中,N表示当前帧的像素点个数,Faj表示F′a第j列,表示Fa的第j个位置,hj表示H′t-1的第i行,表示Ht-1第i个位置,sji是位置权重注意力图Xs第j行i列的元素值,sji表示隐藏状态Ht-1第i位置对当前帧特征图Ft第j个位置的影响。
4.2.4)位置权重注意力图和特征图Fb矩阵相乘,强化当前帧特征图Ft的特征,其结果与Ft进行残差相加,得到融合之后位置特征图Es,数学公式表述如下:
其中,α表示位置注意力权重,初始值设置为零,模型通过学习,为α分配更大更合理的权重,Fbi表示特征图Fb第i列,表示当前帧特征图Ft第i个位置,N表示当前帧的像素点总数。
4.3)将位置特征图Es与通道特征图Ec相加,得到当前帧的最终分割结果Fout。
4.4)构建记忆力模块,输入当前帧分割结果Fout,前一帧记忆模块的隐藏状态Ht-1,以及前一帧记忆模块的记忆细胞Ct-1,当前帧的记忆力模块convLSTM由遗忘门ft、输入门it、输出门ot组成;
4.4.1)遗忘门的输出张量中每个数值均在0到1之间,0表示完全遗忘,1表示完全保留,因此,遗忘门可实现选择性丢弃前一帧记忆细胞Ct-1中的信息,数学公式表述如下:
ft=σ(Wxf*Fout+Whf*Ht-1+bf)
其中,*表示卷积操作,σ表示sigmoid函数,Fout表示当前帧的分割结果,Ht-1表示前一帧记忆模块的隐藏状态。Wxf,Whf为权重参数,取值为0到1之间,bf为偏置量,初值设置为0.1,模型通过学习为bf分配更合理数值;
4.4.2)输入门将从当前帧分割结果Fout中选择出待更新内容,数学公式表述如下:
it=σ(Wxi*Fout+Whi*Ht-1+bi)
其中,*表示卷积操作,σ表示sigmoid函数,Fout表示当前帧的分割结果,Ht-1表示前一帧记忆模块的隐藏状态。Wxi,Whi为权重参数,取值为0到1之间,bi为偏置量,初值设置为0.1,模型通过学习为bi分配更合理数值;
4.4.3)使用遗忘门丢弃前一帧记忆细胞Ct-1中的部分信息,并将有用信息保存到前一帧记忆细胞Ct-1中,输出更新之后的当前帧记忆细胞Ct,数学公式表述如下:
其中,*表示卷积操作,为哈达玛积,Fout表示当前帧的分割结果,Ht-1表示前一帧记忆模块的隐藏状态。Wxc,Whc为权重参数,取值为0到1之间bc为偏置量,初值设置为0.1,模型通过学习为bc分配更合理数值;
4.4.4)当前帧记忆模块输出的隐藏状态Ht,数学公式表述如下:
ot=σ(Wxo*Fout+Who*Ht-1+bo)
其中,tanh为激活函数,为哈达玛积,ot表示当前帧记忆模块中的输出门,*表示卷积操作,Fout表示当前帧的分割结果,Ht-1表示前一帧记忆模块的隐藏状态,Who,Wxo为权重参数,取值为0到1之间,bo为偏置量,初值设置为0.1,模型通过学习为bo分配更合理数值。
6)本分割模型所采用的损失函数由两部分组成。第一部分是像素级损失函数,第二部分是结构相似性损失函数,具体设计如下:
l=lcross+lssim
6.1)lcross表示像素级交叉熵损失函数,数学公式表述如下:
其中,T(r,c)表示目标掩码第r行第c列处的像素值,S(r,c)表示分割结果第r行第c列处的像素值;
6.2)lssim表示结构相似性损失函数,从亮度、对比度以及结构三个方面比较目标掩码以及分割结果之间的差异,数学公式表述如下:
其中,Ax,Ay分别表示从模型预测的分割图以及目标掩码上截取的相同大小区域,xi表示Ax区域中第i像素点的像素值,yi表示Ay区域中第i像素点的像素值,N表示所截取区域的像素点总数,C1和C2是防止分母为零的常数,C1设置为6.5025,C2设置为58.5225,μx表示Ax的平均亮度,μy表Ay的平均亮度,σx代表Ax中明暗的变化程度,σy代表Ay中明暗的变化程度,σxy表示与结构相关的协方差公式。
7)对模型进行训练,选取步骤1)中的YouTube作为训练集,每批次训练样本数batch-size设置为4,学习率设置为1e-4,YouTube在上迭代训练30万次后,将学习率修改为1e-5,在YouTube再次迭代训练10万次,权重衰减率设置为0.0005,使用上述步骤6)中的损失函数训练模型,直至模型收敛。
本发明在视频目标分割和计算机视觉领域有着广泛的应用,例如:目标跟踪、图像识别等。下面参照附图,对本发明进行详尽的描述。
(1)构建分割主干网络,将当前帧It以及第一帧I0分别输入主干网络,获得对应的特征图Ft,F0;
(2)构建运动注意力网络,将当前帧特征图Ft,第一帧特征图F0,作为运动注意力网络中通道注意力模块的输入,得到通道特征图,将Ft和前一帧记忆模块的隐藏状态Ht-1作为运动注意力网络中运动注意力模块的输入,得到位置特征图,位置特征图和通道特征图相加得到运动注意力网络的输出Fout,即为当前帧的分割结果,将当前帧的分割结果Fout、前一帧记忆模块输出的记忆细胞Ct-1以及前一帧记忆模块的隐藏状态Ht-1作为运动注意力网络中记忆模块的输入,得到记忆细胞Ct和隐藏状态Ht。记忆细胞Ct用于保存目标物体的时序信息并根据当前帧的分割结果对时序信息进行更新,Ht提供基于当前分割结果和时序信息所预测的下一帧目标物体的位置信息。记忆模块convLSTM不仅保留了当前帧目标物体的空间信息,也保留了目标物体的时序信息,因此能获得目标物体的远距离位置依赖关系。
在GTX 1080Ti GPU和Ubuntu14.04 64位操作系统下,采用PyTorch框架和Python语言实现该方法。
本发明提供了一种基于运动注意力的视频目标分割方法,适用于视频中的的运动物体分割,鲁棒性好,分割结果准确。实验表明该方法能够有效地进行运动物体分割。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的包含范围应该以权力书的保护范围为准。
Claims (3)
1.一种基于运动注意力的视频目标分割方法,其特征在于包括以下步骤:
(2)构建运动注意力网络,将当前帧特征图,第一帧特征图,作为运动注意力网络中通道注意力模块的输入,得到通道特征图,将和前一帧记忆模块的隐藏状态作为运动注意力网络中运动注意力模块的输入,得到位置特征图,位置特征图和通道特征图相加得到运动注意力网络的输出,为当前帧的分割结果,将当前帧的分割结果、前一帧记忆模块输出的记忆细胞以及前一帧记忆模块的隐藏状态作为运动注意力网络中记忆模块的输入,得到记忆细胞和隐藏状态;记忆细胞用于保存目标物体的时序信息并根据当前帧的分割结果对时序信息进行更新,提供基于当前分割结果和时序信息所预测的下一帧目标物体的位置信息;
所述的通道注意力模块具体工作过程为:
所述记忆模块包括遗忘门、输入门、输出门,具体工作过程为:
1)构建分割主干网络,具体为:修改Resnet-50网络并融合空洞卷积:
1.1.1)设置Resnet-50中的conv_1的膨胀因子dilated=2;
1.1.2)删除Resnet-50中的池化层;
1.1.3)设置Resnet-50中的conv_3和conv_4这两层的步长stride=1;
1.1.4)将修改后的Resnet-50作为主干网络,此时,主干网络输出的特征图是原始图像尺寸的1/8;
3.根据权利要求1所述的一种基于运动注意力的视频目标分割方法,其特征在于损失函数由两部分组成:第一部分是像素级损失函数;第二部分是结构相似性损失函数。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201911402450.2A CN111161306B (zh) | 2019-12-31 | 2019-12-31 | 一种基于运动注意力的视频目标分割方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201911402450.2A CN111161306B (zh) | 2019-12-31 | 2019-12-31 | 一种基于运动注意力的视频目标分割方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN111161306A CN111161306A (zh) | 2020-05-15 |
| CN111161306B true CN111161306B (zh) | 2023-06-02 |
Family
ID=70559471
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201911402450.2A Active CN111161306B (zh) | 2019-12-31 | 2019-12-31 | 一种基于运动注意力的视频目标分割方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111161306B (zh) |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20230214447A1 (en) * | 2020-06-10 | 2023-07-06 | Nec Corporation | Data processing apparatus, data processing method, and recording medium |
| CN111968123B (zh) * | 2020-08-28 | 2024-02-02 | 北京交通大学 | 一种半监督视频目标分割方法 |
| CN112580473B (zh) * | 2020-12-11 | 2024-05-28 | 北京工业大学 | 一种融合运动特征的视频超分辨率重构方法 |
| CN112669324B (zh) * | 2020-12-31 | 2022-09-09 | 中国科学技术大学 | 基于时序特征聚合和条件卷积的快速视频目标分割方法 |
| CN112784750B (zh) * | 2021-01-22 | 2022-08-09 | 清华大学 | 基于像素和区域特征匹配的快速视频物体分割方法和装置 |
| US11501447B2 (en) * | 2021-03-04 | 2022-11-15 | Lemon Inc. | Disentangled feature transforms for video object segmentation |
| CN113570607B (zh) * | 2021-06-30 | 2024-02-06 | 北京百度网讯科技有限公司 | 目标分割的方法、装置及电子设备 |
| CN113436199B (zh) * | 2021-07-23 | 2022-02-22 | 人民网股份有限公司 | 半监督视频目标分割方法及装置 |
| CN115272394A (zh) * | 2022-08-16 | 2022-11-01 | 中国工商银行股份有限公司 | 待跟踪目标对象的位置确定方法、装置、设备及存储介质 |
| CN115880767B (zh) * | 2022-10-11 | 2025-12-05 | 电子科技大学长三角研究院(湖州) | 基于类脑记忆网络的目标运动跟踪方法 |
| CN116740423A (zh) * | 2023-05-26 | 2023-09-12 | 国网黑龙江省电力有限公司牡丹江供电公司 | 一种配电室烟雾异常自动识别方法与系统 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018128741A1 (en) * | 2017-01-06 | 2018-07-12 | Board Of Regents, The University Of Texas System | Segmenting generic foreground objects in images and videos |
| CN109784261A (zh) * | 2019-01-09 | 2019-05-21 | 深圳市烨嘉为技术有限公司 | 基于机器视觉的行人分割与识别方法 |
| CN109919044A (zh) * | 2019-02-18 | 2019-06-21 | 清华大学 | 基于预测进行特征传播的视频语义分割方法及装置 |
| CN110059662A (zh) * | 2019-04-26 | 2019-07-26 | 山东大学 | 一种深度视频行为识别方法及系统 |
| CN110321761A (zh) * | 2018-03-29 | 2019-10-11 | 中国科学院深圳先进技术研究院 | 一种行为识别方法、终端设备及计算机可读存储介质 |
| CN110532955A (zh) * | 2019-08-30 | 2019-12-03 | 中国科学院宁波材料技术与工程研究所 | 基于特征注意力和子上采样的实例分割方法和装置 |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| TWI381717B (zh) * | 2008-03-31 | 2013-01-01 | Univ Nat Taiwan | 數位視訊動態目標物體分割處理方法及系統 |
-
2019
- 2019-12-31 CN CN201911402450.2A patent/CN111161306B/zh active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018128741A1 (en) * | 2017-01-06 | 2018-07-12 | Board Of Regents, The University Of Texas System | Segmenting generic foreground objects in images and videos |
| CN110321761A (zh) * | 2018-03-29 | 2019-10-11 | 中国科学院深圳先进技术研究院 | 一种行为识别方法、终端设备及计算机可读存储介质 |
| CN109784261A (zh) * | 2019-01-09 | 2019-05-21 | 深圳市烨嘉为技术有限公司 | 基于机器视觉的行人分割与识别方法 |
| CN109919044A (zh) * | 2019-02-18 | 2019-06-21 | 清华大学 | 基于预测进行特征传播的视频语义分割方法及装置 |
| CN110059662A (zh) * | 2019-04-26 | 2019-07-26 | 山东大学 | 一种深度视频行为识别方法及系统 |
| CN110532955A (zh) * | 2019-08-30 | 2019-12-03 | 中国科学院宁波材料技术与工程研究所 | 基于特征注意力和子上采样的实例分割方法和装置 |
Non-Patent Citations (1)
| Title |
|---|
| 结合目标色彩特征的基于注意力的图像分割;张建兴 等;计算机工程与应用;全文 * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN111161306A (zh) | 2020-05-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111161306B (zh) | 一种基于运动注意力的视频目标分割方法 | |
| CN109949255B (zh) | 图像重建方法及设备 | |
| JP6504590B2 (ja) | 画像のセマンティックセグメンテーションのためのシステム及びコンピューター実施方法、並びに非一時的コンピューター可読媒体 | |
| US10535141B2 (en) | Differentiable jaccard loss approximation for training an artificial neural network | |
| CN109583340B (zh) | 一种基于深度学习的视频目标检测方法 | |
| CN111507993A (zh) | 一种基于生成对抗网络的图像分割方法、装置及存储介质 | |
| WO2021057056A1 (zh) | 神经网络架构搜索方法、图像处理方法、装置和存储介质 | |
| CN109712165B (zh) | 一种基于卷积神经网络的同类前景图像集分割方法 | |
| CN114882493B (zh) | 一种基于图像序列的三维手部姿态估计与识别方法 | |
| CN110781776A (zh) | 一种基于预测和残差细化网络的道路提取方法 | |
| CN110110689B (zh) | 一种行人重识别方法 | |
| WO2020062299A1 (zh) | 一种神经网络处理器、数据处理方法及相关设备 | |
| CN109544559B (zh) | 图像语义分割方法、装置、计算机设备和存储介质 | |
| CN117058456B (zh) | 一种基于多相注意力机制的视觉目标跟踪方法 | |
| CN112561028A (zh) | 训练神经网络模型的方法、数据处理的方法及装置 | |
| CN115249313B (zh) | 一种基于元模块融合增量学习的图像分类方法 | |
| CN112883806A (zh) | 基于神经网络的视频风格迁移方法、装置、计算机设备和存储介质 | |
| CN119131085B (zh) | 一种基于门控注意力机制和时空记忆网络的目标跟踪方法 | |
| CN114743069B (zh) | 一种对两帧图像进行自适应密集匹配计算的方法 | |
| WO2023040740A1 (zh) | 神经网络模型优化方法及相关设备 | |
| CN116703707A (zh) | 训练肤色迁移模型的方法、生成美肤图像的方法及相关装置 | |
| CN108537820A (zh) | 动态预测方法、系统及所适用的设备 | |
| CN108537825A (zh) | 一种基于迁移学习回归网络的目标跟踪方法 | |
| CN113869396B (zh) | 基于高效注意力机制的pc屏幕语义分割方法 | |
| CN119600446B (zh) | 一种高光谱图像重建方法及系统 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant | ||
| OL01 | Intention to license declared | ||
| OL01 | Intention to license declared |