[go: up one dir, main page]

CN118646857A - 一种测量视频监测系统云台摄像头响应时延的方法 - Google Patents

一种测量视频监测系统云台摄像头响应时延的方法 Download PDF

Info

Publication number
CN118646857A
CN118646857A CN202410661248.6A CN202410661248A CN118646857A CN 118646857 A CN118646857 A CN 118646857A CN 202410661248 A CN202410661248 A CN 202410661248A CN 118646857 A CN118646857 A CN 118646857A
Authority
CN
China
Prior art keywords
pan
video
tilt camera
monitoring system
video monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410661248.6A
Other languages
English (en)
Inventor
王健
孟琮凯
于涛
韩旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Metro Information Development Co ltd
Original Assignee
Beijing Metro Information Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Metro Information Development Co ltd filed Critical Beijing Metro Information Development Co ltd
Priority to CN202410661248.6A priority Critical patent/CN118646857A/zh
Publication of CN118646857A publication Critical patent/CN118646857A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0852Delays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computational Linguistics (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明公开了一种测量视频监测系统云台摄像头响应时延的方法,包括以下步骤:获取测试点位信息,基于所述测试点位信息确定待检测视频区域;基于鼠标单击操作对云台下达控制指令,捕获鼠标单击操作的时刻为开始时刻;基于特征匹配和背景减除算法,检测所述待检测视频区域内的视频变化并进行轮廓计算,获得视频变化轮廓面积;预设阈值,所述视频变化轮廓面积占比满足阈值的第一时刻为结束时刻;基于所述结束时刻与开始时刻的时间差,获得云台摄像头的响应时延。本发明提出的测量方法不仅简化了测试过程,还提高了测试的可操作性和实用性,为视频监测系统的云台摄像头的控制响应性能评估提供了一种便捷而可靠的时延测量手段。

Description

一种测量视频监测系统云台摄像头响应时延的方法
技术领域
本发明属于电子设备技术领域,尤其涉及一种测量视频监测系统云台摄像头响应时延的方法。
背景技术
随着技术的迅速发展,视频监测系统在安防、监控以及其他领域中的应用变得日益广泛。这些系统通常由摄像头、图像处理单元和中央服务器等组成,用于捕捉、处理和存储监测场景的图像和视频数据。其中,云台摄像头作为视频监测系统的关键组件之一,具备远程控制和调整视角的功能,为监控人员提供了极大的灵活性。
云台摄像头的应用涵盖了安防领域、交通监管、工业监测以及智能城市建设等多个领域。其远程可控性和灵活性使得云台摄像头成为处理各种监测场景的理想选择,为实现有效的监控和管理提供了技术支持。
然而,随着对监测场景复杂性的不断增加,远程控制云台摄像头所涉及的系统响应时延成为一个日益突出的技术挑战。这种时延受到多种因素的影响,包括但不限于网络延迟、系统处理速度和通信协议。这种响应时延的存在直接影响了监控人员对实时场景的迅速反应能力,从而可能影响到监测系统的实时性和响应性。
尽管目前已经有一些方法用于测量系统响应时延,如人工使用秒表记录时延的方法,但在视频监测系统中云台摄像头的特殊情境下,现有技术可能存在一定的局限性。因此,迫切需要提出一种新的方法,以更准确地测量云台摄像头的响应时延,并有针对性地解决当前技术面临的问题。
发明内容
为解决上述技术问题,本发明提出了一种测量视频监测系统云台摄像头响应时延的方法,旨在利用计算机视觉有效测量和优化云台摄像头的响应时延,提高远程控制云台摄像头的效率,从而更好地满足不断增长的监测需求,以解决上述现有技术存在的问题。
为实现上述目的,本发明提供了一种测量视频监测系统云台摄像头响应时延的方法,包括以下步骤:
获取测试点位信息,基于所述测试点位信息确定待检测视频区域;
基于鼠标单击操作对云台下达控制指令,捕获鼠标单击操作的时刻为开始时刻;
基于特征匹配和背景减除算法,检测所述待检测视频区域内的视频变化并进行轮廓计算,获得视频变化轮廓面积;
预设阈值,所述视频变化轮廓面积占比满足阈值的第一时刻为结束时刻;
基于所述结束时刻与开始时刻的时间差,获得云台摄像头的响应时延。
可选地,确定开始时刻的过程包括:测试开始,视频监测系统对鼠标单击操作进行监听,当监听到基于鼠标单击操作进行云台摄像头控制时,记录当前的视频监测系统时间戳,确定下达云台摄像头控制指令的时刻为开始时刻。
可选地,确定结束时刻的过程包括:在待检测视频区域内,基于特征匹配算法对云台摄像头移动前后的两帧图像进行特征提取,基于提取的特征参数计算图像空间坐标变换参数,基于变换参数排除云台摄像头抖动干扰;然后采用基于OpenCV库的背景减除法算法,将云台视频监控画面中视频帧的前景与后景分离,获取前景图像的物体轮廓,基于所述前景图像的物体轮廓计算视频变化轮廓面积,预设阈值,所述视频变化轮廓面积满足阈值的第一时刻为结束时刻。
可选地,排除云台摄像头抖动干扰的过程包括:
采用基于ORB关键点的特征匹配方法对图像进行特征描述,在图像中找到与周围像素存在明显差异的像素作为关键点,并计算每个关键点的描述子;
通过描述子集合中每个描述子与查询描述子之间的汉明距离,对图像进行特征匹配;
对所有汉明距离按照从小到大的顺序排序,选择排序序列中前90%的描述子作为匹配结果;
计算单应性矩阵,判断画面水平和竖直两个方面的移动距离,通过视差的方法排除云台摄像头抖动干扰。
可选地,基于单应性矩阵获取移动距离的过程包括:基于同一点在不同两张图像中的位置表示,获取两张图像之间的单应性矩阵;基于最小二乘法求解所述单应性矩阵,获得两个图像之间的映射关系,基于所述映射关系获得水平方位和垂直方位图像的移动距离。
可选地,获取视频变化轮廓面积之前还包括:将前景图像转换为灰度图,并进行高斯模糊和二值化的预处理。
可选地,获取视频变化轮廓面积的过程包括:基于OpenCV库的finfContours()函数和drawContours()函数描绘出预处理后的前景图像的物体轮廓,然后基于所述物体轮廓,通过contourArea()函数计算视频变化轮廓面积。
可选地,所述测试点位信息包括测试点位名称以及测试数据次数。
与现有技术相比,本发明具有如下优点和技术效果:
相较于传统的人工方法,本发明准确获取测试人员在视频监测系统上进行云台摄像头的控制时刻和云台摄像头成功响应的时刻,即开始时刻和结束时刻,并通过开始时刻和结束时刻的时刻差来获取云台摄像头的控制响应时延,不仅简化了测试过程,还提高了测试的可操作性和实用性,为视频监测系统的云台摄像头的控制响应性能评估提供了一种便捷而可靠的时延测量手段。
本发明通过捕获测试人员的鼠标单击操作获取开始时刻,通过图像视频帧的变化获取结束时刻,从而提高了时延测量的准确性,能实现更高效、更准确的测量时延。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明实施例的测量云台摄像头控制响应时延方法的流程示意图;
图2为本发明实施例的排除云台摄像头抖动对视频画面变化检测干扰的流程示意图;
图3为本发明实施例的检测云台视频监测画面中图像变化的流程示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
实施例一
本实施例中提供一种测量视频监测系统云台摄像头响应时延的方法,通过准确获取测试人员在视频监测系统上进行云台摄像头的控制时刻和云台摄像头成功响应的时刻之差,来获取云台摄像头的控制响应时延。该操作过程包括从测试人员开始鼠标单击云台摄像头操作按钮至视频监测系统画面中云台视频监控区域画面变化满足阈值要求。首先,捕获测试人员在视频监测系统通过鼠标单击对云台摄像头的控制事件,确定出针对云台摄像头控制操作的开始时刻ts。然后,基于特征匹配技术对待检视频区域S进行侦测,从移动的视频帧画面中确定出云台监控画面到达稳定画面的最后一帧的结束时刻te,将结束时刻和开始时刻之间的时间差确定为视频监测系统调用实时视频的时延。
具体的,图1为本实施例提供的测量云台摄像头控制响应时延方法的流程示意图,包括以下步骤:
S101、输入测试点位信息,并框选视频监控系统中的云台视频监控的画面显示区域,即确定待检视频区域S。
具体实施时,测试点位信息包括测试点位名称以及测试数据次数。测试人员需要根据具体控制的云台摄像头及测试需求的需要,确定并输入本次响应时延测试的点位基本信息。
S102、点击开始测试后,监听测试人员对云台下达控制指令的鼠标单击操作,并捕获鼠标单击操作的时刻为开始时刻ts
具体实施时,测试人员对云台下达控制指令为测试人员的鼠标单击视频监控系统中云台摄像头转动的按钮操作。本实施例使用pynput.mouse来监听测试人员的鼠标单击事件。一旦测试人员开始测试,系统开始监听鼠标单击事件。当检测到鼠标单击操作进行云台摄像头控制的事件后,记录当前的系统时间戳,确定出测试人员下达云台摄像头转动的控制指令的开始时刻ts
S103、基于特征匹配和背景减除法算法,检测待检视频区域S的画面变化,确定待检视频区域云台摄像头完成指令,并成功转动摄像头的时刻为结束时刻te。所述云台摄像头开始响应控制指令,转动摄像头的时刻是云台摄像头成功响应测试人员的操作指示,测试人员所视的云台视频监控画面图像变化面积比,满足阈值的第一时刻为结束时刻te。所述测试人员所视的云台视频监控画面图像变化面积比满足阈值的第一时刻是指相邻前后两帧前景画面的视频变化轮廓面积差异比大于25%。
具体的,当测试人员对云台下达控制指令后,系统将对测试人员待检视频区域S进行截图和分析。首先利用特征匹配的方法对云台摄像头移动前后两帧图像进行特征提取,根据提取的特征参数计算图像空间坐标变换参数,再以参数设定阈值,排除摄像头抖动的干扰。
同时采用背景减除法对云台视频监控画面中视频帧的前景与后景分离,减少光照阴影等因素的干扰。然后对提取得到的前景图像中的物体进行轮廓面积计算,根据前景图像轮廓面积的占比,确定云台摄像头是否发生了转动。将前景图像视频变化轮廓面积占比满足阈值要求的第一时刻确定为结束时刻te
S104、将结束时刻te和开始时刻ts之间的时间差确定为视频监测系统中云台摄像头控制响应时延Δt=te-ts
图2为本发明一实施例提供的排除云台摄像头抖动对视频画面变化检测干扰的流程示意图。
云台摄像头响应判断利用基于图像移动距离检测和动态物体前景画面中物体轮廓面积的方式实现,具体包括以下步骤:
通过基于ORB关键点的特征匹配方法对云台摄像头移动前后两帧图像的特征提取和比较。具体地,首先提取图像的特征参数,然后计算图像空间坐标变换参数,并设定了阈值来排除摄像头抖动干扰。
S201、在进行图像特征点匹配时通过在图像中检测到的关键点上提取图像特征来找到图像关键点,本实施例选用ORB特征点进行图像特征描述,通过在图像中找到与周围像素存在明显差异的像素作为关键点,并计算每个关键点的BRIEF描述子来唯一确定ORB特征点。
S202、然后使用BF匹配方法进行初步的特征匹配。该算法会计算训练描述子集合中每个描述子与查询描述子之间的汉明距离;
S203、通过对所有汉明距离按照从小到大的顺序排序,选择排序序列中前90%的描述子作为匹配结果。
S204、计算转换矩阵,判断画面水平和竖直两个方面的移动距离,通过视差的方法来排除摄像头抖动对测试结果的影响。
可实施的,所述汉明距离就是一组二进制数据变成另一组数据所需的步骤数,显然,这个数值可以衡量两张图片的差异,汉明距离越小,则代表相似度越高。
所述转换矩阵采用单应性矩阵来说实现,单应性矩阵是计算机视觉中一种重要的变换矩阵,用于描述平面上两个不同视角或者不同姿态下的相机所观测到的同一个物体的投影关系。在实际应用中,单应性矩阵广泛应用于图像对齐、图像配准、三维重建和虚拟现实等领域。
单应性矩阵的求解方式如下:
设第一张图像中的一个点p1=(x1,y1,1)T,它在第二张图像中对应点为p2=(x2,y2,1)T。两张图像之间的单应变换关系可以表示为:p2~Hp1
式中p1、p2是同一点在不同两张图像中的位置表示;H是单应性矩阵;“~”表示两个向量等比例。
由于p2和p1都是齐次坐标,所以H是一个3×3的齐次矩阵,即:
将p2和p1的坐标带入可得:
本实施例使用齐次坐标系进行计算,也就是hij乘以任意一个非零常数k并不改变等式结果,所以单应性矩阵H只有8个自由度,在下面的计算中本实施例令h33=1:
通过最小二乘法求解单应性矩阵H,可以得到两个图像之间的映射关系,最后根据单应性矩阵H来计算水平方位与竖直方位图像移动的距离。
图3为本实施例提供的检测云台视频监测画面中图像变化的流程示意图。
采用基于OpenCV库对移动物体进行识别以及轮廓面积计算的方法来实现粗略确定摄像头成功响应的功能,具体包括以下步骤:
S301、使用OpenCV对移动物体进行识别就是将动态的前景从静态的背景中分离出来,将当前画面与假设是静态背景进行比较发现有明显的变化的区域,就可以认为该区域出现移动的物体。
但是在实际情况中,由于光照阴影等因素干扰比较大,通过像素直接进行比较很容易造成误检,因此本实施例采用基于OpenCV库的背景减除算法对云台视频监测画面图像的前后景分离,实现对运动物体和其他因素造成的变动的区分;
S302、当对轮廓面积进行计算前,首先将图片转换为灰度图,并进行高斯模糊处理、二值化得到一个清晰的二值图来减少背景干扰;
S303、利用OpenCV库的finfContours()函数和drawContours()函数绘出前景图像中的物体轮廓,最后通过contourArea()函数计算视频变化轮廓面积C。
如果相邻前后两帧前景视频变化轮廓面积差异比超过25%,则认为云台摄像头响应成功。
根据《铁路综合视频监控系统技术规范》的要求,云台摄像头控制的响应时延不应超过500毫秒。在实验中,本实施例设定开始测试后的等待时间为500毫秒。若在此期间视频监控区域未发生变化,即视为云台摄像头响应失败。本实施例以某车站的铁路视频监测系统为对象,采用实际操作录屏视频进行云台摄像头控制的测试。
以下为某一次时延测试的数据结果。操作人员在框选待检测区域后点击“开始”进行测试,获得开始系统时间戳ts=1683114014127,结束系统时间戳te=1683114014316,因此本次云台摄像头控制响应的时延为t=te-ts=189ms。测试时延满足《铁路综合视频监控系统技术规范》要求。
以上,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (8)

1.一种测量视频监测系统云台摄像头响应时延的方法,其特征在于,包括以下步骤:
获取测试点位信息,基于所述测试点位信息确定待检测视频区域;
基于鼠标单击操作对云台下达控制指令,捕获鼠标单击操作的时刻为开始时刻;
基于特征匹配和背景减除算法,检测所述待检测视频区域内的视频变化并进行轮廓计算,获得视频变化轮廓面积;
预设阈值,所述视频变化轮廓面积占比满足阈值的第一时刻为结束时刻;
基于所述结束时刻与开始时刻的时间差,获得云台摄像头的响应时延。
2.根据权利要求1所述的测量视频监测系统云台摄像头响应时延的方法,其特征在于,
确定开始时刻的过程包括:测试开始,视频监测系统对鼠标单击操作进行监听,当监听到基于鼠标单击操作进行云台摄像头控制时,记录当前的视频监测系统时间戳,确定下达云台摄像头控制指令的时刻为开始时刻。
3.根据权利要求1所述的测量视频监测系统云台摄像头响应时延的方法,其特征在于,
确定结束时刻的过程包括:在待检测视频区域内,基于特征匹配算法对云台摄像头移动前后的两帧图像进行特征提取,基于提取的特征参数计算图像空间坐标变换参数,基于变换参数排除云台摄像头抖动干扰;然后采用基于OpenCV库的背景减除法算法,将云台视频监控画面中视频帧的前景与后景分离,获取前景图像的物体轮廓,基于所述前景图像的物体轮廓计算视频变化轮廓面积,预设阈值,所述视频变化轮廓面积满足阈值的第一时刻为结束时刻。
4.根据权利要求3所述的测量视频监测系统云台摄像头响应时延的方法,其特征在于,
排除云台摄像头抖动干扰的过程包括:
采用基于ORB关键点的特征匹配方法对图像进行特征描述,在图像中找到与周围像素存在明显差异的像素作为关键点,并计算每个关键点的描述子;
通过描述子集合中每个描述子与查询描述子之间的汉明距离,对图像进行特征匹配;
对所有汉明距离按照从小到大的顺序排序,选择排序序列中前90%的描述子作为匹配结果;
计算单应性矩阵,判断画面水平和竖直两个方面的移动距离,通过视差的方法排除云台摄像头抖动干扰。
5.根据权利要求4所述的测量视频监测系统云台摄像头响应时延的方法,其特征在于,
基于单应性矩阵获取移动距离的过程包括:基于同一点在不同两张图像中的位置表示,获取两张图像之间的单应性矩阵;基于最小二乘法求解所述单应性矩阵,获得两个图像之间的映射关系,基于所述映射关系获得水平方位和垂直方位图像的移动距离。
6.根据权利要求3所述的测量视频监测系统云台摄像头响应时延的方法,其特征在于,
获取视频变化轮廓面积之前还包括:将前景图像转换为灰度图,并进行高斯模糊和二值化的预处理。
7.根据权利要求6所述的测量视频监测系统云台摄像头响应时延的方法,其特征在于,
获取视频变化轮廓面积的过程包括:基于OpenCV库的finfContours()函数和drawContours()函数描绘出预处理后的前景图像的物体轮廓,然后基于所述物体轮廓,通过contourArea()函数计算视频变化轮廓面积。
8.根据权利要求1所述的测量视频监测系统云台摄像头响应时延的方法,其特征在于,
所述测试点位信息包括测试点位名称以及测试数据次数。
CN202410661248.6A 2024-05-27 2024-05-27 一种测量视频监测系统云台摄像头响应时延的方法 Pending CN118646857A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410661248.6A CN118646857A (zh) 2024-05-27 2024-05-27 一种测量视频监测系统云台摄像头响应时延的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410661248.6A CN118646857A (zh) 2024-05-27 2024-05-27 一种测量视频监测系统云台摄像头响应时延的方法

Publications (1)

Publication Number Publication Date
CN118646857A true CN118646857A (zh) 2024-09-13

Family

ID=92666424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410661248.6A Pending CN118646857A (zh) 2024-05-27 2024-05-27 一种测量视频监测系统云台摄像头响应时延的方法

Country Status (1)

Country Link
CN (1) CN118646857A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN120499508A (zh) * 2025-07-21 2025-08-15 深圳市永泰光电有限公司 一种全景镜头的配对方法和全景镜头

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN120499508A (zh) * 2025-07-21 2025-08-15 深圳市永泰光电有限公司 一种全景镜头的配对方法和全景镜头

Similar Documents

Publication Publication Date Title
CN112669344B (zh) 一种运动物体的定位方法、装置、电子设备及存储介质
US9277165B2 (en) Video surveillance system and method using IP-based networks
AU2018379393B2 (en) Monitoring systems, and computer implemented methods for processing data in monitoring systems, programmed to enable identification and tracking of human targets in crowded environments
WO2021017882A1 (zh) 图像坐标系的转换方法、装置、设备及存储介质
WO2020094091A1 (zh) 一种图像抓拍方法、监控相机及监控系统
CN110264493A (zh) 一种针对运动状态下的多目标对象追踪方法和装置
TW200818916A (en) Wide-area site-based video surveillance system
KR102614895B1 (ko) 동적 카메라 영상 내의 객체를 실시간 추적하는 시스템 및 방법
CN111383204A (zh) 视频图像融合方法、融合装置、全景监控系统及存储介质
CN109905641B (zh) 一种目标监控方法、装置、设备及系统
CN108229475A (zh) 车辆跟踪方法、系统、计算机设备及可读存储介质
CN112422909B (zh) 一种基于人工智能的视频行为分析管理系统
CN113763466A (zh) 一种回环检测方法、装置、电子设备和存储介质
CN111753587A (zh) 一种倒地检测方法及装置
Ren et al. Multi-camera video surveillance for real-time analysis and reconstruction of soccer games
CN114511592B (zh) 一种基于rgbd相机和bim系统的人员轨迹追踪方法及系统
CN109934873B (zh) 标注图像获取方法、装置及设备
CN106558069A (zh) 一种基于视频监控下的目标跟踪方法及系统
CN118646857A (zh) 一种测量视频监测系统云台摄像头响应时延的方法
CN102291568A (zh) 一种大视场智能化视频监控系统的加速处理方法
CN111708907B (zh) 一种目标人员的查询方法、装置、设备及存储介质
CN104202533B (zh) 移动检测装置及移动检测方法
CN113887384B (zh) 基于多轨迹融合的行人轨迹分析方法、装置、设备及介质
CN112565630B (zh) 一种用于视频拼接的视频帧同步方法
Cho et al. A benchmark dataset for event-guided human pose estimation and tracking in extreme conditions

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination