[go: up one dir, main page]

CN107798687B - 一种基于稀疏时变图的幻灯片切换检测方法 - Google Patents

一种基于稀疏时变图的幻灯片切换检测方法 Download PDF

Info

Publication number
CN107798687B
CN107798687B CN201710878115.4A CN201710878115A CN107798687B CN 107798687 B CN107798687 B CN 107798687B CN 201710878115 A CN201710878115 A CN 201710878115A CN 107798687 B CN107798687 B CN 107798687B
Authority
CN
China
Prior art keywords
graph
video
adjacency matrix
frame
slide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710878115.4A
Other languages
English (en)
Other versions
CN107798687A (zh
Inventor
李凯
刘致金
沈礼权
安平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201710878115.4A priority Critical patent/CN107798687B/zh
Publication of CN107798687A publication Critical patent/CN107798687A/zh
Application granted granted Critical
Publication of CN107798687B publication Critical patent/CN107798687B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于稀疏时变图的幻灯片切换检测方法。对多摄像机拍摄的有演讲者,幻灯片和观众的演讲视频,首先通过特征点检测和匹配将视频分段,通过对每个时间点将每段视频作为节点建立稀疏图,可以将幻灯片切换检测问题转化为推测图邻接矩阵问题。邻接矩阵间的变化反映出了幻灯片切换。本发明是一种准确性更好的克服演讲视频有镜头移动、演讲者移动和多个PTZ镜头切换干扰的方法,利用每个时刻推断出的邻接矩阵,得到的检测结果没有出现检测到人以及人和幻灯片切换的问题。并且比现有方法精确度高,扩大了可处理的演讲视频种类的范围。

Description

一种基于稀疏时变图的幻灯片切换检测方法
技术领域
本发明涉及一种演讲视频幻灯片切换检测方法,尤其涉及一种基于稀疏时变图的幻灯片切换检测方法。
背景技术
现在,在线学习已经成为了一种很重要的获取知识的方法。由于演讲视频的可视性、方便性以及能传递丰富的信息的特性,使它成为目前知识分享和学习的重要手段。人们能够通过网络免费获取演讲视频并进行学习。然而,由于消费类电子设备的普及以及互联网的发展,带来了视频数据的爆炸式增长。例如,视频分享网站YouTube的视频总数据量已达到拍字节数量级(1PB=106GB),而且还在以每分钟300小时的上传量不断递增。如果对这些视频不加筛选与总结就直接呈现给用户,那么用户会把大把时间浪费在无用的信息上面。例如,当用户想要回顾之前演讲中的某一特定部分时,他可能会回去浏览整个演讲视频或者多次的向前、向后播放来寻找该部分的位置。因此为了让用户根据自己的喜好选择视频,有必要对视频进行基于内容的浓缩与提炼。此外,结构化的内容在形式上更加简洁,提取演讲视频内容后可以对该视频建立标签,关键词等特性,从而方便网站后台根据视频特征建立易于检索的数据库。
在演讲视频摘要问题中,幻灯片切换检测是很重要的研究课题。演讲视频分为多种,例如,通过单个PTZ相机同时拍摄了包含了投影幻灯片和演讲者的视频,有的直接记录电脑屏幕作为视频,或者两者结合,从PTZ相机直接切换到电脑屏幕。在记录过程中,幻灯片内容可能会发生切换,而用户不得不看整个视频才能发现这些切换点。有很多干扰会导致视频帧之间发生变化,如相机平移,相机转换和演讲者移动。因此很难从这些干扰中判断视频是否发生了幻灯片切换。
现有技术提出的方法通常是比较相邻帧之间的视觉相似度来提取幻灯片切换帧。通过比较图像特征,例如颜色直方图,SIFT特征和小波特征来描述外观相似度。如果视频中包含噪声干扰,如人物移动和相机移动,就会极大的影响到检测精度。为了客服这种干扰,很多改进算法被提出。例如一种追踪匹配特征点轨迹的方法检测幻灯片切换,但是这种方法无法处理相机切换的情况,应用受到限制。
发明内容
本发明的目的在于克服现有技术的不足,提出一种基于推断稀疏时变图的方法检测演讲视频幻灯片切换。该方法能有效处理多镜头切换下的幻灯片切换检测问题。
为实现上述目的,本发明采用如下技术方案:
一种基于稀疏时变图的幻灯片切换检测方法,包括以下步骤:
步骤1:视频分段:提取各视频帧的SIFT特征点,将视频帧与当前段首帧的特征点匹配,若相似度高于m,则认为图像匹配,归于同一段;其中,m为判断两视频帧是否相似的阈值。通过特征点匹配将视频分段,视频分段后,用相同长度的稀疏矢量表示图像,矢量非零值位置表示图像属于该段;
步骤2:定义图Gi=(V,Ei),i∈{1,…,N-1},N是帧总数;图G包括顶点集V和边集E,顶点集由步骤1产生的各视频段组成,边集中的非零值表示顶点集中各点相互转换;
步骤3:推断稀疏时变图:建立图模型并利用最大似然估计方法推断稀疏时变图;
步骤4:图全局优化:满足邻接矩阵需要满足最大似然估计,非零值有限,邻近帧时域一致这三个条件。
步骤5:幻灯片切换检测:每帧推断得到邻接矩阵Ai,Ai为第i帧下图Gi的邻接矩阵。若幻灯片发生切换,邻接矩阵的非零值将出现在非对角线的位置。即,
Figure GDA0003070472120000021
若diss≠0,则认为第i帧发生了切换。
所述步骤1中的确定相似度高于m的方法是:
计算全部视频帧特征点匹配相似度,并建立分布直方图;在直方图峰值附近使用MLE方法估计一高斯分布N(μrr),并定义m=μr+3σr,其中,μr是高斯分布的均值,σr是高斯分布标准差。
所述步骤3中的推断稀疏时变图,利用最大似然估计方法推断稀疏时变图的方法是:
演讲视频I={I1,…,IN}经过视频分割后表示为I={x1,…,xN},基于马尔科夫假设序列的似然度定义为:
Figure GDA0003070472120000022
其中,f(xi+1|xi)是从帧Ii到帧Ii+1的条件转移似然模型,f(x1)是第一帧的似然度,xi是分段后的第i帧的矢量表示。若给定xi,假设
Figure GDA0003070472120000023
Figure GDA0003070472120000024
条件独立,m,n∈{1,…,D},每个矢量的维度是D;因此f(xi+1|xi)表示为:
Figure GDA0003070472120000031
其中,
Figure GDA0003070472120000032
是i+1帧矢量下第d维值;使用一个线性动态模型来简化转移模型:
Figure GDA0003070472120000033
其中,ζ是零均值,
Figure GDA0003070472120000034
为方差的高斯噪声;
总和各公式,转移似然变形为:
Figure GDA0003070472120000035
其中,
Figure GDA0003070472120000036
表示邻接矩阵Ai的第d行;对数似然估计函数值最终表示为:
Figure GDA0003070472120000037
所述步骤4中的图全局优化,得到优化图的邻接矩阵的方法为:
期望得到图中的邻接矩阵需要满足以下三个准则:
(1)邻接矩阵要与MLE解近似相同;假定临近的帧有相似的外观,将转移矩阵加到邻近的帧对(xi+k,xi-k+1),k∈N+中来获取冗余约束;用公式表示为:
Figure GDA0003070472120000038
Figure GDA0003070472120000039
其中,权重因子
Figure GDA00030704721200000310
用来约束邻近帧的邻接矩阵的相似度,σt是用来约束矢量对(xi +k,xi-k+1)的权重,随着时间的推移,矢量对之间的关系变得越来越弱,σf是用来约束(xi+k-xi-k+1)和(xi+k+1-xi-k)差异的权重,设置较低值来规避噪声,K=min(min(N-i-1,i-1),2σt)是邻近集的大小;
(2)邻接矩阵有较少的非零值;用l1正则化矩阵控制邻接矩阵的稀疏性,l1是范数规则下的L1范数;
(3)相邻帧的邻接矩阵要保持时域一致性,最小化
Figure GDA0003070472120000041
控制时域一致;
应用优化准则得到最终邻接矩阵:
Figure GDA0003070472120000042
其中,λ和α分别是约束邻接矩阵稀疏度和平滑项的权重因子。
本发明与已有技术相比较,具有如下显而易见的突出实质性特点和显著优点:
本发明是一种准确性更好的克服演讲视频中有镜头移动、演讲者移动和多个PTZ镜头切换干扰的方法,利用每个时刻推断出的邻接矩阵,得到的检测结果没有出现检测到人以及人和幻灯片切换的问题。并且比现有方法精确度高,扩大了可处理的演讲视频种类的范围。另外本发明不需要附加的资料,如文本、语音、电子幻灯片等。
附图说明
图1为本发明的流程图。
图2为本发明实施例中输入的演讲视频。
图3为本发明实施例中幻灯片切换检测结果。
具体实施方式
以下结合附图对本发明的实施例作详细说明。本实施例以本发明的技术方案为前提进行实施,但本发明的保护范围不限于下述的实施例。
本发明实施例的应用环境如下:参见图2,输入演讲视频镜头可在演讲者和幻灯片之间切换。
参见图1,一种基于稀疏时变图的幻灯片切换检测方法,包括以下步骤:
步骤1:视频分段:提取各视频帧的SIFT特征点,将视频帧与当前段首帧的特征点匹配,若相似度高于m,则认为图像匹配,归于同一段;其中,m为判断两视频帧是否相似的阈值。通过特征点匹配将视频分段,视频分段后,用相同长度的稀疏矢量表示图像,矢量非零值位置表示图像属于该段;
步骤2:定义图Gi=(V,Ei),i∈{1,…,N-1},N是帧总数;图G包括顶点集V和边集E,顶点集由步骤1产生的各视频段组成,边集中的非零值表示顶点集中各点相互转换;
步骤3:推断稀疏时变图:建立图模型并利用最大似然估计方法推断稀疏时变图;
步骤4:图全局优化:满足邻接矩阵需要满足最大似然估计,非零值有限,邻近帧时域一致这三个条件。
步骤5:幻灯片切换检测:每帧推断得到邻接矩阵Ai,Ai为第i帧下图Gi的邻接矩阵。若幻灯片发生切换,邻接矩阵的非零值将出现在非对角线的位置。即,
Figure GDA0003070472120000051
若diss≠0,则认为第i帧发生了切换。
所述步骤1中的确定相似度高于m的方法是:
计算全部视频帧特征点匹配相似度,并建立分布直方图;在直方图峰值附近使用MLE方法估计一高斯分布N(μrr),并定义m=μr+3σr,其中,μr是高斯分布的均值,σr是高斯分布标准差。
所述步骤3中的推断稀疏时变图,利用最大似然估计方法推断稀疏时变图的方法是:
演讲视频I={I1,…,IN}经过视频分割后表示为I={x1,…,xN},基于马尔科夫假设序列的似然度定义为:
Figure GDA0003070472120000052
其中,f(xi+1|xi)是从帧Ii到帧Ii+1的条件转移似然模型,f(x1)是第一帧的似然度,xi是分段后的第i帧的矢量表示。若给定xi,假设
Figure GDA0003070472120000053
Figure GDA0003070472120000054
条件独立,m,n∈{1,…,D},每个矢量的维度是D;因此f(xi+1|xi)表示为:
Figure GDA0003070472120000055
其中,
Figure GDA0003070472120000056
是i+1帧矢量下第d维值;使用一个线性动态模型来简化转移模型:
Figure GDA0003070472120000057
其中,ζ是零均值,
Figure GDA0003070472120000058
为方差的高斯噪声;
总和各公式,转移似然变形为:
Figure GDA0003070472120000059
其中,
Figure GDA00030704721200000510
表示邻接矩阵Ai的第d行;对数似然估计函数值最终表示为:
Figure GDA00030704721200000511
所述步骤4中的图全局优化,得到优化图的邻接矩阵的方法为:
期望得到图中的邻接矩阵需要满足以下三个准则:
(1)邻接矩阵要与MLE解近似相同;假定临近的帧有相似的外观,将转移矩阵加到邻近的帧对(xi+k,xi-k+1),k∈N+中来获取冗余约束;用公式表示为:
Figure GDA0003070472120000061
Figure GDA0003070472120000062
其中,权重因子
Figure GDA0003070472120000065
用来约束邻近帧的邻接矩阵的相似度,σt是用来约束矢量对(xi +k,xi-k+1)的权重,随着时间的推移,矢量对之间的关系变得越来越弱,σf是用来约束(xi+k-xi-k+1)和(xi+k+1-xi-k)差异的权重,设置较低值来规避噪声,K=min(min(N-i-1,i-1),2σt)是邻近集的大小;
(2)邻接矩阵有较少的非零值;用l1正则化矩阵控制邻接矩阵的稀疏性,l1是范数规则下的L1范数;
(3)相邻帧的邻接矩阵要保持时域一致性,最小化
Figure GDA0003070472120000063
控制时域一致;
应用优化准则得到最终邻接矩阵:
Figure GDA0003070472120000064
其中,λ和α分别是约束邻接矩阵稀疏度和平滑项的权重因子。
本实施例基于稀疏时变图的幻灯片切换检测方法的输入演讲视频参见图2,最终检测幻灯片切换后的检测结果参见图3。输入演讲视频中由于镜头在演讲者和幻灯片的切换,存在很大的干扰,而基于稀疏时变图的方法处理了这些干扰,使得检测的结果没有出现检测到人以及人和幻灯片切换的问题。
本文所描述的具体实施例仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (4)

1.一种基于稀疏时变图的幻灯片切换检测方法,其特征在于,包括以下步骤:
步骤1:视频分段:提取各视频帧的SIFT特征点,将视频帧与当前段首帧的特征点匹配,若相似度高于m,则认为图像匹配,归于同一段;其中,m为判断两视频帧是否相似的阈值;通过特征点匹配将视频分段,视频分段后,用相同长度的稀疏矢量表示图像,矢量非零值位置表示图像属于该段;
步骤2:定义图Gi=(V,Ei),i∈{1,…,N-1},N是帧总数;图G包括顶点集V和边集E,顶点集由步骤1产生的各视频段组成,边集中的非零值表示顶点集中各点相互转换;
步骤3:推断稀疏时变图:建立图模型并利用最大似然估计方法推断稀疏时变图;
步骤4:图全局优化:满足邻接矩阵需要满足最大似然估计,非零值有限,邻近帧时域一致这三个条件;
步骤5:幻灯片切换检测:每帧推断得到邻接矩阵Ai,Ai为第i帧下图Gi的邻接矩阵;若幻灯片发生切换,邻接矩阵的非零值将出现在非对角线的位置,即,
Figure FDA0003070472110000011
若diss≠0,则认为第i帧发生了切换。
2.根据权利要求1所述基于稀疏时变图的幻灯片切换检测方法,其特征在于,所述步骤1中的确定相似度高于m的方法是:
计算全部视频帧特征点匹配相似度,并建立分布直方图;在直方图峰值附近使用MLE方法估计一高斯分布N(μrr),并定义m=μr+3σr,其中,μr是高斯分布的均值,σr是高斯分布标准差。
3.根据权利要求1所述基于稀疏时变图的幻灯片切换检测方法,其特征在于,所述步骤3中的推断稀疏时变图,利用最大似然估计方法推断稀疏时变图的方法是:
演讲视频I={I1,…,IN}经过视频分割后表示为I={x1,…,xN},基于马尔科夫假设序列的似然度定义为:
Figure FDA0003070472110000012
其中,f(xi+1|xi)是从帧Ii到帧Ii+1的条件转移似然模型,f(x1)是第一帧的似然度,xi是分段后的第i帧的矢量表示;若给定xi,假设
Figure FDA0003070472110000013
Figure FDA0003070472110000014
条件独立,m,n∈{1,…,D},每个矢量的维度是D;因此f(xi+1|xi)表示为:
Figure FDA0003070472110000021
其中,
Figure FDA0003070472110000022
是i+1帧矢量下第d维值;使用一个线性动态模型来简化转移模型:
xi+1=Aixi+ζ,ζ~N(0,σI 2)
其中,ζ是零均值,σI 2为方差的高斯噪声;
总和各公式,转移似然变形为:
Figure FDA0003070472110000023
其中,
Figure FDA0003070472110000024
表示邻接矩阵Ai的第d行;对数似然估计函数值最终表示为:
Figure FDA0003070472110000025
4.根据权利要求1所述基于稀疏时变图的幻灯片切换检测方法,其特征在于,所述步骤4中的图全局优化,得到优化图的邻接矩阵的方法为:
期望得到图中的邻接矩阵需要满足以下三个准则:
(1)邻接矩阵要与MLE解近似相同;假定临近的帧有相似的外观,将转移矩阵加到邻近的帧对(xi+k,xi-k+1),k∈N+中来获取冗余约束;用公式表示为:
Figure FDA0003070472110000026
Figure FDA0003070472110000027
其中,权重因子
Figure FDA0003070472110000028
用来约束邻近帧的邻接矩阵的相似度,σt是用来约束矢量对(xi+k,xi -k+1)的权重,随着时间的推移,矢量对之间的关系变得越来越弱,σf是用来约束(xi+k-xi-k+1)和(xi+k+1-xi-k)差异的权重,设置较低值来规避噪声,K=min(min(N-i-1,i-1),2σt)是邻近集的大小;
(2)邻接矩阵有较少的非零值;用l1正则化矩阵控制邻接矩阵的稀疏性,l1是范数规则下的L1范数;
(3)相邻帧的邻接矩阵要保持时域一致性,最小化
Figure FDA0003070472110000031
控制时域一致;
应用优化准则得到最终邻接矩阵:
Figure FDA0003070472110000032
其中,λ和α分别是约束邻接矩阵稀疏度和平滑项的权重因子。
CN201710878115.4A 2017-09-26 2017-09-26 一种基于稀疏时变图的幻灯片切换检测方法 Active CN107798687B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710878115.4A CN107798687B (zh) 2017-09-26 2017-09-26 一种基于稀疏时变图的幻灯片切换检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710878115.4A CN107798687B (zh) 2017-09-26 2017-09-26 一种基于稀疏时变图的幻灯片切换检测方法

Publications (2)

Publication Number Publication Date
CN107798687A CN107798687A (zh) 2018-03-13
CN107798687B true CN107798687B (zh) 2021-08-06

Family

ID=61532364

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710878115.4A Active CN107798687B (zh) 2017-09-26 2017-09-26 一种基于稀疏时变图的幻灯片切换检测方法

Country Status (1)

Country Link
CN (1) CN107798687B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934188B (zh) * 2019-03-19 2020-10-30 上海大学 一种幻灯片切换检测方法、系统、终端及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1601531A (zh) * 2003-09-26 2005-03-30 精工爱普生株式会社 用于为视听演示内容制作摘要和索引的方法与设备
WO2011081646A1 (en) * 2009-12-15 2011-07-07 Thomson Licensing Stereo-image quality and disparity/depth indications
CN102663772A (zh) * 2012-03-15 2012-09-12 浙江大学 一种针对多视频序列的运动推断结构方法
CN103024349A (zh) * 2012-11-13 2013-04-03 大连民族学院 一种基于稀疏限制的mle视频目标跟踪方法
CN103139568A (zh) * 2013-02-05 2013-06-05 上海交通大学 基于稀疏度和保真度约束的视频稳像方法
CN103870839A (zh) * 2014-03-06 2014-06-18 江南大学 视频目标在线多特征跟踪方法
CN103970868A (zh) * 2014-05-09 2014-08-06 清华大学深圳研究生院 含幻灯片的教学视频的索引建立方法及幻灯片定位方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1601531A (zh) * 2003-09-26 2005-03-30 精工爱普生株式会社 用于为视听演示内容制作摘要和索引的方法与设备
WO2011081646A1 (en) * 2009-12-15 2011-07-07 Thomson Licensing Stereo-image quality and disparity/depth indications
CN102663772A (zh) * 2012-03-15 2012-09-12 浙江大学 一种针对多视频序列的运动推断结构方法
CN103024349A (zh) * 2012-11-13 2013-04-03 大连民族学院 一种基于稀疏限制的mle视频目标跟踪方法
CN103139568A (zh) * 2013-02-05 2013-06-05 上海交通大学 基于稀疏度和保真度约束的视频稳像方法
CN103870839A (zh) * 2014-03-06 2014-06-18 江南大学 视频目标在线多特征跟踪方法
CN103970868A (zh) * 2014-05-09 2014-08-06 清华大学深圳研究生院 含幻灯片的教学视频的索引建立方法及幻灯片定位方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Matching slides to presentation videos using sift and scene background matching;Quanfu Fan等;《Proceedings of ACM International Workshop on Multimedia Information Retrieval》;20061031;239-248 *
Slide identification for lecture movies by matching characters and images;Noriaki Ozawa等;《Proc. SPIE 5296, Document Recognition and Retrieval XI》;20031215;74-81 *
基于内容的流媒体课件检索系统的实现;王志梅等;《计算机系统应用》;20060630(第6期);14-17 *
视频序列图像中运动目标检测与跟踪算法研究;宋佳声;《中国博士学位论文全文数据库_信息科技辑》;20141215;I138-47 *

Also Published As

Publication number Publication date
CN107798687A (zh) 2018-03-13

Similar Documents

Publication Publication Date Title
KR102683700B1 (ko) 비디오 처리 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램
Zhang et al. A Bayesian approach to camouflaged moving object detection
Dang et al. RPCA-KFE: Key frame extraction for video using robust principal component analysis
CN108804578B (zh) 基于一致性片段生成的无监督视频摘要方法
US8692940B2 (en) Method for producing a blended video sequence
CN101477633B (zh) 自动估计图像和视频的视觉显著度的方法
CN109948721B (zh) 一种基于视频描述的视频场景分类方法
CN110866563B (zh) 相似视频检测、推荐方法、电子设备和存储介质
CN109934188B (zh) 一种幻灯片切换检测方法、系统、终端及存储介质
Martin et al. Optimal choice of motion estimation methods for fine-grained action classification with 3d convolutional networks
US20250191613A1 (en) Automatic Non-Linear Editing Style Transfer
CN114332711A (zh) 面部动作识别及模型训练的方法、装置、设备和存储介质
CN117727093A (zh) 一种基于实例跨帧一致性的视频人体姿态估计方法与系统
CN107798687B (zh) 一种基于稀疏时变图的幻灯片切换检测方法
Bae et al. Dual-dissimilarity measure-based statistical video cut detection
CN113347381B (zh) 预测不雅举止轨迹的方法及系统
CN114943549A (zh) 一种广告投放方法及装置
CN112131991A (zh) 一种基于事件相机的数据关联方法
CN114155255B (zh) 一种基于特定人物时空轨迹的视频横屏转竖屏方法
CN116340568A (zh) 一种基于跨场景知识迁移的在线视频摘要生成方法
Hao et al. Research of grabcut algorithm for single camera video synopsis
Tan et al. Differential video coding of face and gesture events in presentation videos
CN113486914B (zh) 图像特征提取的神经网络训练的方法、装置和存储介质
US20230319225A1 (en) Automatic Environment Removal For Human Telepresence
Liu et al. Sparse time-varying graphs for slide transition detection in lecture videos

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant