CN118799710A - 一种能见度检测方法、装置、电子设备和存储介质 - Google Patents
一种能见度检测方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN118799710A CN118799710A CN202410583922.3A CN202410583922A CN118799710A CN 118799710 A CN118799710 A CN 118799710A CN 202410583922 A CN202410583922 A CN 202410583922A CN 118799710 A CN118799710 A CN 118799710A
- Authority
- CN
- China
- Prior art keywords
- image
- visibility
- reference object
- dimensional matrix
- generate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
- G06V20/38—Outdoor scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Image Processing (AREA)
Abstract
本申请公开了一种能见度检测方法、装置、电子设备和存储介质,只需要少量训练样本的累计和模型训练,即可赋予新的视频监控点位能见度识别的能力。本申请能见度检测方法包括:通过目标摄像头获取参考拍摄图像,所述参考拍摄图像为在高能见度下拍摄的图像;从所述参考拍摄图像中确定至少三个距离不同的能见度参照物,并为三个距离不同的所述能见度参照物关联距离信息;构建一个视频图像静态目标识别模型;通过所述目标摄像头获取实时拍摄图像;通过所述视频图像静态目标识别模型对所述实时拍摄图像进行分析,生成参照物识别结果;根据所述参照物识别结果和所述参考拍摄图像关联距离信息生成能见度数据。
Description
技术领域
本申请实施例涉及能见度检测领域,尤其涉及一种能见度检测方法、装置、电子设备和存储介质。
背景技术
公路、机场等交通场景下,能见度是一个影响交通安全的重要因素,因此需要及时掌握能见度的变化。一般测定能见度需要专门的能见度仪,但是能见度仪并非密集分布的,难以满足实际的需求。现在已经有一些研究和发明被公布出来,使用监控视频图像来测定能见度。
现有技术中,可以使用固定机位参照标志的方法进行能见度的检测。对于固定机位的监控视频,需要预先设置一些参考标志,如数字标记或显著颜色的标杆等,然后开发图像处理算法对这些参照标志进行检测,根据参照标志的可见性来确定能见度的范围。这种技术路线常应用于机场等变化较小且具有标准间隔参照物的固定机位场景。无法适用于缺少特定距离参照物的环境。
为了解决上述问题,出现了深度学习模型检测能见度的方法。对于研究区域内的多个目标摄像头,收集较长时间序列的实际视频图像,然后根据时间和距离匹配临近气象观测站观测到的能见度数据,建立能见度图像数据集。基于能见度图像数据集构建和训练深度学习模型,经过评估后应用到实际能见度估计场景中。这种技术路线常应用于一般交通场景下,但需要收集大量图片,即需要花费大量的时间来采集不同能见度的视频图像数据。此外,由于低能见度事件较少出现,并且不同的能见度情况下(雾霾、大雾、车辆烟尘等)这类深度学习模型得到的结果会存在差异,如果训练样本少,则会导致误差加大,由此能见度图像数据集在能见度分布上常常是严重不均衡的。即能见度深度学习模型的训练样本过少,需要大量训练样本的累计和模型训练,才能赋予新的视频监控点位能见度识别的能力。
发明内容
本申请公开了一种能见度检测方法、装置、电子设备和存储介质,只需要少量训练样本的累计和模型训练,即可赋予新的视频监控点位能见度识别的能力。
本申请第一方面公开了一种能见度检测方法,包括:
通过目标摄像头获取参考拍摄图像,参考拍摄图像为在高能见度下拍摄的图像;
从参考拍摄图像中确定至少三个距离不同的能见度参照物,并为三个距离不同的能见度参照物关联距离信息;
构建一个视频图像静态目标识别模型;
通过目标摄像头获取实时拍摄图像;
通过视频图像静态目标识别模型对实时拍摄图像进行分析,生成参照物识别结果;
根据参照物识别结果和参考拍摄图像关联距离信息生成能见度数据。
可选的,视频图像静态目标识别模型为计算机视觉模型;
通过视频图像静态目标识别模型对实时拍摄图像进行分析,生成参照物识别结果,包括:
将实时拍摄图像输入计算机视觉模型;
对实时拍摄图像进行灰度转化,生成灰度转化图像;
对灰度转化图像进行图像叠加操作和平图像移操作,生成第一二维矩阵;
使用算子对第一二维矩阵进行图像叠加操作和平图像移操作,生成第二二维矩阵;
通过水漫法对第二二维矩阵的封闭区域进行填充,并转为二值图,生成第三二维矩阵;
将实时拍摄图像的能见度参照物中框定区域分割,并转为二值图,生成第四二维矩阵,确定第四二维矩阵中数值为1的个数为数值S1;
将第三二维矩阵和第四二维矩阵相乘,并确定相乘后的矩阵数值为1的个数为数值C1;
根据数值S1和数值C1并结合IoU公式确定能见度参照物的参照物识别结果。
可选的,在对实时拍摄图像进行灰度转化,生成灰度转化图像之后,对灰度转化图像进行图像叠加操作和平图像移操作,生成第一二维矩阵之前,能见度检测方法还包括:
根据卷积核的位置信息生成高斯卷积核;
对灰度转化图像使用高斯卷积核进行滤波。
可选的,在使用算子对第一二维矩阵进行图像叠加操作和平图像移操作,生成第二二维矩阵之后,通过水漫法对第二二维矩阵的封闭区域进行填充,并转为二值图,生成第三二维矩阵之前,能见度检测方法还包括:
对第二二维矩阵进行膨胀处理和腐蚀处理。
可选的,视频图像静态目标识别模型为深度神经网络模型;
通过视频图像静态目标识别模型对实时拍摄图像进行分析,生成参照物识别结果,包括:
对实时拍摄图像进行归一化处理,生成三维数组;
将三维数组输入深度神经网络模型,生成二维数组M;
对二维数组M进行二值化处理,生成二维的二维数组mask;
将实时拍摄图像的能见度参照物中框定区域分割,并转为二值图,生成第五二维矩阵,确定第五二维矩阵中数值为1的个数为数值S2;
将第五二维矩阵和二维数组mask相乘,并确定相乘后的矩阵数值为1的个数为数值C2;
根据数值S2和数值C2并结合IoU公式确定能见度参照物的参照物识别结果。
可选的,从参考拍摄图像中确定至少三个距离不同的能见度参照物,并为三个距离不同的能见度参照物关联距离信息,包括:
确定目标摄像头所在位置附近的电子地图;
从参考拍摄图像中确定至少三个不同的初始参照物,为各个初始物分配唯一的ID;
在电子地图上标注目标摄像头的摄像头位置和各个初始参照物的参照物位置;
根据摄像头位置和参照物位置计算各个初始参照物与目标摄像头的距离,生成距离信息集合;
根据初始参照物的距离信息集合和参照物特征对初始参照物进行筛选,将符合的初始参照物作为能见度参照物,并为能见度参照物关联距离信息。
本申请第二方面公开了一种能见度检测方法,包括:
第一获取单元,用于通过目标摄像头获取参考拍摄图像,参考拍摄图像为在高能见度下拍摄的图像;
确定单元,用于从参考拍摄图像中确定至少三个距离不同的能见度参照物,并为三个距离不同的能见度参照物关联距离信息;
构建单元,用于构建一个视频图像静态目标识别模型;
第二获取单元,用于通过目标摄像头获取实时拍摄图像;
第一生成单元,用于通过视频图像静态目标识别模型对实时拍摄图像进行分析,生成参照物识别结果;
第二生成单元,用于根据参照物识别结果和参考拍摄图像关联距离信息生成能见度数据。
可选的,视频图像静态目标识别模型为计算机视觉模型;
第一生成单元,包括:
第一输入模块,用于输入模块,用于将实时拍摄图像输入计算机视觉模型;
第一生成模块,用于对实时拍摄图像进行灰度转化,生成灰度转化图像;
第二生成模块,用于对灰度转化图像进行图像叠加操作和平图像移操作,生成第一二维矩阵;
第三生成模块,用于使用算子对第一二维矩阵进行图像叠加操作和平图像移操作,生成第二二维矩阵;
第四生成模块,用于通过水漫法对第二二维矩阵的封闭区域进行填充,并转为二值图,生成第三二维矩阵;
第五生成模块,用于将实时拍摄图像的能见度参照物中框定区域分割,并转为二值图,生成第四二维矩阵,确定第四二维矩阵中数值为1的个数为数值S1;
第一确定模块,用于将第三二维矩阵和第四二维矩阵相乘,并确定相乘后的矩阵数值为1的个数为数值C1;
第二确定模块,用于根据数值S1和数值C1并结合IoU公式确定能见度参照物的参照物识别结果。
可选的,在第一生成模块之后,第二生成模块之前,能见度检测装置还包括:
第六生成模块,用于根据卷积核的位置信息生成高斯卷积核;
滤波模块,用于对灰度转化图像使用高斯卷积核进行滤波。
可选的,在第三生成模块之后,第四生成模块之前,能见度检测装置还包括:
膨胀腐蚀模块,用于对第二二维矩阵进行膨胀处理和腐蚀处理。
可选的,视频图像静态目标识别模型为深度神经网络模型;
第一生成单元,包括:
第七生成模块,用于对实时拍摄图像进行归一化处理,生成三维数组;
第八生成模块,用于将三维数组输入深度神经网络模型,生成二维数组M;
第九生成模块,用于对二维数组M进行二值化处理,生成二维的二维数组mask;
第十生成模块,用于将实时拍摄图像的能见度参照物中框定区域分割,并转为二值图,生成第五二维矩阵,确定第五二维矩阵中数值为1的个数为数值S2;
第三确定模块,用于将第五二维矩阵和二维数组mask相乘,并确定相乘后的矩阵数值为1的个数为数值C2;
第四确定模块,用于根据数值S2和数值C2并结合IoU公式确定能见度参照物的参照物识别结果。
可选的,第一获取单元,包括:
确定目标摄像头所在位置附近的电子地图;
从参考拍摄图像中确定至少三个不同的初始参照物,为各个初始物分配唯一的ID;
在电子地图上标注目标摄像头的摄像头位置和各个初始参照物的参照物位置;
根据摄像头位置和参照物位置计算各个初始参照物与目标摄像头的距离,生成距离信息集合;
根据初始参照物的距离信息集合和参照物特征对初始参照物进行筛选,将符合的初始参照物作为能见度参照物,并为能见度参照物关联距离信息。
本申请第三方面提供了一种电子设备,包括:
处理器、存储器、输入输出单元以及总线;
处理器与存储器、输入输出单元以及总线相连;
存储器保存有程序,处理器调用程序以执行如第一方面以及第一方面的任意可选的能见度检测方法。
本申请第四方面提供了一种计算机可读存储介质,计算机可读存储介质上保存有程序,程序在计算机上执行时执行如第一方面以及第一方面的任意可选的能见度检测方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请中,通过目标摄像头获取参考拍摄图像,参考拍摄图像为在高能见度下拍摄的图像。从参考拍摄图像中确定至少三个距离不同的能见度参照物,并为三个距离不同的能见度参照物关联距离信息。构建一个视频图像静态目标识别模型。通过目标摄像头获取实时拍摄图像。通过视频图像静态目标识别模型对实时拍摄图像进行分析,生成参照物识别结果。根据参照物识别结果和参考拍摄图像关联距离信息生成能见度数据。
不需要使用视频图像静态目标识别模型针对图像整体的能见度进行分析,只需要对于实时拍摄图像多个能见度参照物区域进行检测,分析该区域中是否能检测出能见度参照物,通过针对不同距离的能见度参照物进行分析,以此得到分析结果,再与参考拍摄图像中的能见度参照物进行对比,通过关联的距离信息来分析当前目标摄像头区域的能见度。这种方式下的视频图像静态目标识别模型要求进行大规模视频图像数据训练,即可达到针对不同环境下的较高的能见度识别精准度。将本方法运用到新的视频监控位点时,只需对视频图像进行简单的目标标定,不需要大量训练样本的累计和模型训练,即可赋予新的视频监控点位能见度识别的能力。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请能见度检测方法的第一个实施例示意图;
图2为本申请能见度检测方法的第二个实施例第一阶段示意图;
图3为本申请能见度检测方法的第二个实施例第二阶段示意图;
图4为本申请能见度检测方法的第二个实施例第三阶段示意图;
图5为本申请能见度检测方法的第三个实施例第一阶段示意图;
图6为本申请能见度检测方法的第三个实施例第二阶段示意图;
图7为本申请能见度检测装置的第一个实施例示意图;
图8为本申请第一生成单元的第一个实施例示意图;
图9为本申请第一生成单元的第二个实施例示意图;
图10为本申请电子设备的一个实施例示意图;
图11为本申请VGG-16模型网络结构的一个实施例示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
现有技术中,通常使用固定机位参照标志的方法进行能见度的检测。对于固定机位的监控视频,需要预先设置一些参考标志,如数字标记或显著颜色的标杆等,然后开发图像处理算法对这些参照标志进行检测,根据参照标志的可见性来确定能见度的范围。这种技术路线常应用于机场等变化较小且具有标准间隔参照物的固定机位场景。无法适用于缺少特定距离参照物的环境。为了解决上述问题,出现了深度学习模型检测能见度的方法。对于研究区域内的多个目标摄像头,收集较长时间序列的实际视频图像,然后根据时间和距离匹配临近气象观测站观测到的能见度数据,建立能见度图像数据集。基于能见度图像数据集构建和训练深度学习模型,经过评估后应用到实际能见度估计场景中。这种技术路线常应用于一般交通场景下,但需要收集大量图片,即需要花费大量的时间来采集不同能见度的视频图像数据。此外,由于低能见度事件较少出现,并且不同的能见度情况下这类深度学习模型得到的结果会存在差异,如果训练样本少,则会导致误差加大,由此能见度图像数据集在能见度分布上常常是严重不均衡的。即能见度深度学习模型的训练样本过少,需要大量训练样本的累计和模型训练,才能赋予新的视频监控点位能见度识别的能力。
基于此,本申请公开了一种能见度检测方法、装置、电子设备和存储介质,只需要少量训练样本的累计和模型训练,即可赋予新的视频监控点位能见度识别的能力。
下面将结合本申请实施例中的附图,对本申请中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的方法可以应用于服务器、设备、终端或者其它具备逻辑处理能力的设备,对此,本申请不作限定。为方便描述,下面以执行主体为终端为例进行描述。
请参阅图1,本申请提供了一种能见度检测方法的一个实施例,包括:
101、通过目标摄像头获取参考拍摄图像,参考拍摄图像为在高能见度下拍摄的图像;
终端首先需要针对特定区域的摄像头进行图像获取,该图像作为参考图像需要再能见度相当高的情况下拍摄,具体的,可以根据自身要求,获取能见度达到多少米的图像进行拍摄,也可以仅以当时的环境状态来进行拍摄,此处不作限定。
此外关于对焦和分辨率情况,目标摄像头除了直接拍摄外,还可以根据对焦点的不同进行多次拍摄,取不同的对焦区域组成心得的拍摄图像,此处不作限定。
目标摄像头的拍摄区域,既可以使用原始环境的拍摄图像,也可以先在原始环境中加入人为设置的距离参照物,并且在电子地图上对这类参照物进行标注,减少距离检测的时间,提高效率。
102、从参考拍摄图像中确定至少三个距离不同的能见度参照物,并为三个距离不同的能见度参照物关联距离信息;
终端从参考拍摄图像中首先确定多个参照物,对参照物进行距离分析,确定至少三个距离不同的能见度参照物。
此处的能见度参照物的距离分析可以是直接根据实地测量,也可以是通过图像算法进行距离分析,还可以是根据电子地图分析,此处不作限定。
103、构建一个视频图像静态目标识别模型;
终端构建一个视频图像静态目标识别模型,该视频图像静态目标识别模型需要可以分析出图像中对应区域对应物体的存在与否即可。
构建一个视频图像静态目标识别模型,这个模型可以基于传统计算机视觉,也可以基于深度学习理论。这个模型的作用主要是识别图像中的相应能见度参照物,判断在某一特定的视频图像中,能检测到哪些能见度参照物和不能检测到哪些能见度参照物,检测到记为1,没有检测到记为0(flag),每次识别记为一次检测事件,保存检测到的能见度参照物ID。
104、通过目标摄像头获取实时拍摄图像;
终端通过目标摄像头获取实时拍摄图像,具体需要角度尽可能相同,一方是角度不同带来的差异。
105、通过视频图像静态目标识别模型对实时拍摄图像进行分析,生成参照物识别结果;
终端通过视频图像静态目标识别模型对实时拍摄图像进行分析,生成参照物识别结果,即对实时拍摄图像中每一个能见度参照物的区域进行物体分析,分析是否存在该能见度参照物,存在即代表1,不存在则代表0。每一个参照物的距离不同,如果无法检测到,则表示能见度低于这个距离。
106、根据参照物识别结果和参考拍摄图像关联距离信息生成能见度数据。
终端根据上述的参照物识别结果和参考拍摄图像关联距离信息,确定能够被检测到的能见度参照物,以及不能被检测到的参照物,根据其关联的距离生成能见度数据。
本实施例中,基于目标可见性的能见度估计方法,根据能见度参照物这一目标群的视频图像静态目标识别模型,可在一段时间内,对某一目标摄像头,产生的检测事件集。
本实施例中,还可以对检测事件集内计算综合估计。首先计算t时间时能识别到的能见度参照物其对应的距离最小值,然后在时段内取所有目标最小值的平均值作为这段时间的综合估计能见度。
本实施例中,终端通过目标摄像头获取参考拍摄图像,其中,参考拍摄图像为在高能见度下拍摄的图像。终端从参考拍摄图像中确定至少三个距离不同的能见度参照物,并为三个距离不同的能见度参照物关联距离信息。终端构建一个视频图像静态目标识别模型。终端通过目标摄像头获取实时拍摄图像。终端通过视频图像静态目标识别模型对实时拍摄图像进行分析,生成参照物识别结果。终端根据参照物识别结果和参考拍摄图像关联距离信息生成能见度数据。
本实施例中,不需要使用视频图像静态目标识别模型针对图像整体的能见度进行分析,只需要对于实时拍摄图像多个能见度参照物区域进行检测,分析该区域中是否能检测出能见度参照物,通过针对不同距离的能见度参照物进行分析,以此得到分析结果,再与参考拍摄图像中的能见度参照物进行对比,通过关联的距离信息来分析当前目标摄像头区域的能见度。这种方式下的视频图像静态目标识别模型不需要通过大量的能见度图像数据进行训练,也可以训练处针对不同环境下的分析精准度。极大程度的减少了训练样本的需求,提高模型的适用领域的同时提高摄像头区域的能见度检测精度。
其次,相对于传统的模型检测能见度,本实施例中既可以使用多种能见度的摄像头图像作为训练样本,也可以仅使用清晰的摄像头图像作为训练样本,训练样本的可选性高。传统的模型检测能见度依赖大量的能见度训练样本,而这类样本采集困难大,使得这类模型训练样本的成本非常高。并且,相对于本实施例的识别模型来说,传统的模型检测能见度所使用的模型需要进行的计算量更大,因为本实施例的识别模型可以根据拍摄图像中固定几个参照物区域进行能见度分析,而不需要对整个图像进行分析,这就使得在同样的分析精度下,获取一个传统的能见度检测模型的成本相对于本实施例的识别模型的成本会高出很多。
请参阅图2、图3和图4,本申请提供了一种能见度检测方法的一个实施例,包括:
201、通过目标摄像头获取参考拍摄图像,参考拍摄图像为在高能见度下拍摄的图像;
本实施例中的步骤201与前述实施例中步骤101类似,此处不再赘述。
202、确定目标摄像头所在位置附近的电子地图;
203、从参考拍摄图像中确定至少三个不同的初始参照物,为各个初始物分配唯一的ID;
204、在电子地图上标注目标摄像头的摄像头位置和各个初始参照物的参照物位置;
205、根据摄像头位置和参照物位置计算各个初始参照物与目标摄像头的距离,生成距离信息集合;
206、根据初始参照物的距离信息集合和参照物特征对初始参照物进行筛选,将符合的初始参照物作为能见度参照物,并为能见度参照物关联距离信息;
本实施例中,终端可以通过构建数据库,收录需要应用能见度估计目标摄像头,还包括目标摄像头的经纬度、高度和传感器参数等信息。并且实时收录目标摄像头的拍摄图像。
并且终端在电子地图上展示目标摄像头位置,展示遥感影像地图,电子地图提供常用的GIS功能,如标记、测距等功能。
本实施例中,使用人为设置的距离参照物,并且通过地图标注的方式,可以建立更精准的距离关联数据。其次,还可以选用目标区域内部原有的距离参照物,例如人行横道、道路标识线、警示牌等,这类距离参照物无需额外的人为设置,也无需担心像花草树木这类参照物因为时间而变化,影响检测效果,不仅提高效率的同时减少了成本。
然后提供交互式标记功能,以使得能见度参照物能够被标记。终端确定目标摄像头所在位置附近的电子地图。从参考拍摄图像中确定至少三个不同的初始参照物,为各个初始物分配唯一的ID。在电子地图上标注目标摄像头的摄像头位置和各个初始参照物的参照物位置。根据摄像头位置和参照物位置计算各个初始参照物与目标摄像头的距离,生成距离信息集合。根据初始参照物的距离信息集合和参照物特征对初始参照物进行筛选,将符合的初始参照物作为能见度参照物,并为能见度参照物关联距离信息。
具体的,终端在web页面上同时显示目标摄像头(C)拍摄画面视图(View1)和所在位置附近的电子地图(View2)。在View1上框选能见度参照物,系统为其分配一个唯一ID,记为R,在View2上找到R在地图上的位置,添加位置标记,然后系统自动计算C-R的距离D。重复上述动作,直到用户认为对该目标摄像头的标记完成,最后保存所有跟C有关的能见度参照物及其距离集合。则对于某目标摄像头C,都对应一个能见度参照物距离集合。交互式标记的原则:
a)3个以上的能见度参照物;
b)能见度参照物之间距离分布比较均匀;
c)能够涵盖低能见度、中能见度、高能见度等不同能见度等级,以及细分的能见度等级;
d)能见度参照物特征明确,能够与天空背景及周边地物显著区分。
207、构建一个视频图像静态目标识别模型;
208、通过目标摄像头获取实时拍摄图像;
本实施例中的步骤207至208与前述实施例中步骤103至104类似,此处不再赘述。
209、将实时拍摄图像输入计算机视觉模型;
210、对实时拍摄图像进行灰度转化,生成灰度转化图像;
211、根据卷积核的位置信息生成高斯卷积核;
212、对灰度转化图像使用高斯卷积核进行滤波;
213、对灰度转化图像进行图像叠加操作和平图像移操作,生成第一二维矩阵;
214、使用算子对第一二维矩阵进行图像叠加操作和平图像移操作,生成第二二维矩阵;
215、对第二二维矩阵进行膨胀处理和腐蚀处理;
216、通过水漫法对第二二维矩阵的封闭区域进行填充,并转为二值图,生成第三二维矩阵;
217、将实时拍摄图像的能见度参照物中框定区域分割,并转为二值图,生成第四二维矩阵,确定第四二维矩阵中数值为1的个数为数值S1;
218、将第三二维矩阵和第四二维矩阵相乘,并确定相乘后的矩阵数值为1的个数为数值C1;
219、根据数值S1和数值C1并结合IoU公式确定能见度参照物的参照物识别结果;
本实施例中,构建一个视频图像静态目标识别模型,这个模型可以基于传统计算机视觉,也可以基于深度学习理论。这个模型的作用主要是识别视频监控图像中的相应能见度参照物,判断在某一特定的视频图像中,能检测到哪些能见度参照物和不能检测到哪些能见度参照物,检测到记为1,没有检测到记为0(flag),每次识别记为一次检测事件,保存检测到的能见度参照物ID。
这个静态目标识别模型主要有两种技术路线:
本实施例中是传统机器视觉检测方法,线面进行详细介绍。
首先在能见度极高的时间,使用目标摄像头拍摄一张参照图像,要求其上所有纳入对比的目标均清晰可见,能够很容易地分辨,即步骤201至步骤206的内容。
在实际的能见度检测中,首先对t时刻目标摄像头拍摄的画面(实时拍摄图像)进行灰度转化,转化公式如下:
Gray(i,j)=0.299*Ri,j+0.587Gi,j+0.114Bi,j
其中,i和j对应实时拍摄图像的坐标,R、G、B分别代表图像的三色通道:红、绿、蓝,将三通道(X,Y,N)的图像转化为(X,Y)的平面图像(灰度转化图像)。Gray(i,j)为灰度转化图像。灰度转换参数是测试实验中效果相对较好的,可以适用于较多的场景。
如果需要加强精准度,在灰度转化中,需要根据地区能见度历史变化的数据进行调整,如果能见度普遍较低,R的系数需要高于G和B的系数总和。
接下来,对灰度转化图像使用高斯卷积核g进行滤波,过滤灰度转化图像中的高频,减少噪声,使图像平滑。高斯卷积核计算公式如下:
当中,x和y为卷积核的坐标位置,δ是一个常量,δ的数值可以根据不同的能见度场景进行变化,本实施例中,能见度越低,δ数值取值越低,在实际运用场景中,首先使用一个居中的δ值进行一次检测,检测出初始的能见度数据,然后根据初始的能见度数据从数据库中选择δ,重新进行一次计算,如果第二次的能见度数据和第一次相符,则输出数据,否则重新选取δ进行三次检测。g(x,y)即为高斯卷积核,Π为求积运算或直积运算。再将高斯卷积核与灰度转化图像进行滤波计算。
其中,包括叠加和平移,获得第一二维矩阵Gray即为灰度转化图像简写,g为高斯卷积核简写。采用Laplace8邻域算子提取图像边缘,算子定义为将算子与第一二维矩阵进行下式操作,获取第二二维矩阵I。
对第二二维矩阵进行膨胀、腐蚀进行,使检测到的边缘连续。经过水漫法对封闭区域进行填充,并转为二值图,获得第三二维矩阵I1。将参照物中框定区域分割,并转为二值图,获得第四二维矩阵I2,并计算第四二维矩阵中1的个数为S1。
计算I1*I2,并统计矩阵I1*I2为1的个数为C1,计算IoU公式,以及F公式。
本实施例中,设置阈值H为0.05,当F=1时,表示该能见度参照物可见。当F=0时,表示能见度参照物不可见。再对应目标距离,表示当前时刻的能见度。
220、根据参照物识别结果和参考拍摄图像关联距离信息生成能见度数据。
本实施例中的步骤220与前述实施例中步骤106类似,此处不再赘述。
本实施例中,终端通过目标摄像头获取参考拍摄图像,其中,参考拍摄图像为在高能见度下拍摄的图像。终端确定目标摄像头所在位置附近的电子地图。从参考拍摄图像中确定至少三个不同的初始参照物,为各个初始物分配唯一的ID。在电子地图上标注目标摄像头的摄像头位置和各个初始参照物的参照物位置。根据摄像头位置和参照物位置计算各个初始参照物与目标摄像头的距离,生成距离信息集合。根据初始参照物的距离信息集合和参照物特征对初始参照物进行筛选,将符合的初始参照物作为能见度参照物,并为能见度参照物关联距离信息。终端构建一个视频图像静态目标识别模型。终端通过目标摄像头获取实时拍摄图像。终端将实时拍摄图像输入计算机视觉模型。对实时拍摄图像进行灰度转化,生成灰度转化图像。根据卷积核的位置信息生成高斯卷积核。对灰度转化图像使用高斯卷积核进行滤波。对灰度转化图像进行图像叠加操作和平图像移操作,生成第一二维矩阵。使用算子对第一二维矩阵进行图像叠加操作和平图像移操作,生成第二二维矩阵。对第二二维矩阵进行膨胀处理和腐蚀处理。通过水漫法对第二二维矩阵的封闭区域进行填充,并转为二值图,生成第三二维矩阵。将实时拍摄图像的能见度参照物中框定区域分割,并转为二值图,生成第四二维矩阵,确定第四二维矩阵中数值为1的个数为数值S1。将第三二维矩阵和第四二维矩阵相乘,并确定相乘后的矩阵数值为1的个数为数值C1。根据数值S1和数值C1并结合IoU公式确定能见度参照物的参照物识别结果。终端根据参照物识别结果和参考拍摄图像关联距离信息生成能见度数据。
本实施例中,不需要使用视频图像静态目标识别模型针对图像整体的能见度进行分析,只需要对于实时拍摄图像多个能见度参照物区域进行检测,分析该区域中是否能检测出能见度参照物,通过针对不同距离的能见度参照物进行分析,以此得到分析结果,再与参考拍摄图像中的能见度参照物进行对比,通过关联的距离信息来分析当前目标摄像头区域的能见度。这种方式下的视频图像静态目标识别模型不需要通过大量的能见度图像数据进行训练,也可以训练处针对不同环境下的分析精准度。极大程度的减少了训练样本的需求,提高模型的适用领域的同时提高摄像头区域的能见度检测精度。
其次,本实施例中参数要求少,普适性强。对于一般监控摄像头,只要能满足交互式标记的原则,即可适用本实施例。
其次,本实施例不需要积累大量能见度图像数据集。本实施例中需要首先对图像标记获取参照目标物,然后基于对参照目标物的可见性进行能见度估计。对于参照目标群检测模型,其基本技术是可选的,开放的。可以选择一种传统计算机视觉算法,也可以基于一个深度学习预训练的目标检测模型。对于有数据集条件的场景下,也可以选择训练一个专门的目标检测模型,但不是必须的。
其次,本实施例具有较强的定量特性。本实施例通过确定参照目标物的可见性进行能见度估计,能够在确定目标物可见性时调取其与摄像头的距离,可作为能见度估计的定量参考,而已公开的方案常常是需要将观测的能见度进行粗略分级,以便创建数据集并训练分类模型。
请参阅图5和图6,本申请提供了一种能见度检测方法的一个实施例,包括:
501、通过目标摄像头获取参考拍摄图像,参考拍摄图像为在高能见度下拍摄的图像;
502、确定目标摄像头所在位置附近的电子地图;
503、从参考拍摄图像中确定至少三个不同的初始参照物,为各个初始物分配唯一的ID;
504、在电子地图上标注目标摄像头的摄像头位置和各个初始参照物的参照物位置;
505、根据摄像头位置和参照物位置计算各个初始参照物与目标摄像头的距离,生成距离信息集合;
506、根据初始参照物的距离信息集合和参照物特征对初始参照物进行筛选,将符合的初始参照物作为能见度参照物,并为能见度参照物关联距离信息;
507、构建一个视频图像静态目标识别模型;
508、通过目标摄像头获取实时拍摄图像;
本实施例中的步骤501至508与前述实施例中步骤201至508类似,此处不再赘述。
509、对实时拍摄图像进行归一化处理,生成三维数组;
510、将三维数组输入深度神经网络模型,生成二维数组M;
511、对二维数组M进行二值化处理,生成二维的二维数组mask;
512、将实时拍摄图像的能见度参照物中框定区域分割,并转为二值图,生成第五二维矩阵,确定第五二维矩阵中数值为1的个数为数值S2;
513、将第五二维矩阵和二维数组mask相乘,并确定相乘后的矩阵数值为1的个数为数值C2;
514、根据数值S2和数值C2并结合IoU公式确定能见度参照物的参照物识别结果;
本实施例中,构建一个视频图像静态目标识别模型,这个模型可以基于传统计算机视觉,也可以基于深度学习理论。这个模型的作用主要是识别视频监控图像中的相应能见度参照物,判断在某一特定的视频图像中,能检测到哪些能见度参照物和不能检测到哪些能见度参照物,检测到记为1,没有检测到记为0(flag),每次识别记为一次检测事件,保存检测到的能见度参照物ID。
这个静态目标识别模型主要有两种技术路线:
本实施例中是深度神经网络模型目标检测,线面进行详细介绍。
首先获取一个建筑识别预训练VGG-16模型,模型网络结构如下图11所示。在能见度极高的时间拍摄一幅参考拍摄图像。选取t时刻所述拍摄图像。
对目标图像进行归一化处理,即I=(RImg,GImg,BImg)/255,其中R、G、B是图片的三色通道,经过处理生成三维数组I。将I输入预训练好的VGG-16模型Model(),获得一个二维数组M,并对二维数组M二值化获得二维的二值数组mask,公式如下:
将参照物中框定区域分割,并转为二值图,获得第五二维矩阵并计算第五二维矩阵中1的个数为S2。计算完成之后,将三维数组I输入VGG-16模型Model(),再结合第五二维矩阵计算二维数组M。对二维数组M进行二值化处理,生成二维的二维数组mask。
计算并统计矩阵为1的个数为C2,计算IoU公式,以及F公式。
本实施例中,设置阈值H为0.05,当F=1时,表示该能见度参照物可见。当F=0时,表示能见度参照物不可见。再对应目标距离,表示当前时刻的能见度。
515、根据参照物识别结果和参考拍摄图像关联距离信息生成能见度数据。
本实施例中的步骤515与前述实施例中步骤106类似,此处不再赘述。
本实施例中,终端通过目标摄像头获取参考拍摄图像,其中,参考拍摄图像为在高能见度下拍摄的图像。终端确定目标摄像头所在位置附近的电子地图。从参考拍摄图像中确定至少三个不同的初始参照物,为各个初始物分配唯一的ID。在电子地图上标注目标摄像头的摄像头位置和各个初始参照物的参照物位置。根据摄像头位置和参照物位置计算各个初始参照物与目标摄像头的距离,生成距离信息集合。根据初始参照物的距离信息集合和参照物特征对初始参照物进行筛选,将符合的初始参照物作为能见度参照物,并为能见度参照物关联距离信息。终端构建一个视频图像静态目标识别模型。终端通过目标摄像头获取实时拍摄图像。终端对实时拍摄图像进行归一化处理,生成三维数组。将三维数组输入深度神经网络模型,生成二维数组M。对二维数组M进行二值化处理,生成二维的二维数组mask。将实时拍摄图像的能见度参照物中框定区域分割,并转为二值图,生成第五二维矩阵,确定第五二维矩阵中数值为1的个数为数值S2。将第五二维矩阵和二维数组mask相乘,并确定相乘后的矩阵数值为1的个数为数值C2。根据数值S2和数值C2并结合IoU公式确定能见度参照物的参照物识别结果。终端根据参照物识别结果和参考拍摄图像关联距离信息生成能见度数据。
本实施例中,不需要使用视频图像静态目标识别模型针对图像整体的能见度进行分析,只需要对于实时拍摄图像多个能见度参照物区域进行检测,分析该区域中是否能检测出能见度参照物,通过针对不同距离的能见度参照物进行分析,以此得到分析结果,再与参考拍摄图像中的能见度参照物进行对比,通过关联的距离信息来分析当前目标摄像头区域的能见度。这种方式下的视频图像静态目标识别模型不需要通过大量的能见度图像数据进行训练,也可以训练处针对不同环境下的分析精准度。极大程度的减少了训练样本的需求,提高模型的适用领域的同时提高摄像头区域的能见度检测精度。
其次,本实施例中参数要求少,普适性强。对于一般监控摄像头,只要能满足交互式标记的原则,即可适用本实施例。
其次,本实施例不需要积累大量能见度图像数据集。本实施例中需要首先对图像标记获取参照目标物,然后基于对参照目标物的可见性进行能见度估计。对于参照目标群检测模型,其基本技术是可选的,开放的。可以选择一种传统计算机视觉算法,也可以基于一个深度学习预训练的目标检测模型。对于有数据集条件的场景下,也可以选择训练一个专门的目标检测模型,但不是必须的。
其次,本实施例具有较强的定量特性。本实施例通过确定参照目标物的可见性进行能见度估计,能够在确定目标物可见性时调取其与摄像头的距离,可作为能见度估计的定量参考,而已公开的方案常常是需要将观测的能见度进行粗略分级,以便创建数据集并训练分类模型。
请参阅图7,本申请提供了一种能见度检测装置的一个实施例,包括:
第一获取单元701,用于通过目标摄像头获取参考拍摄图像,参考拍摄图像为在高能见度下拍摄的图像;
确定单元702,用于从参考拍摄图像中确定至少三个距离不同的能见度参照物,并为三个距离不同的能见度参照物关联距离信息;
构建单元703,用于构建一个视频图像静态目标识别模型;
第二获取单元704,用于通过目标摄像头获取实时拍摄图像;
第一生成单元705,用于通过视频图像静态目标识别模型对实时拍摄图像进行分析,生成参照物识别结果;
第二生成单元706,用于根据参照物识别结果和参考拍摄图像关联距离信息生成能见度数据。
可选的,第一获取单元706,包括:
确定目标摄像头所在位置附近的电子地图;
从参考拍摄图像中确定至少三个不同的初始参照物,为各个初始物分配唯一的ID;
在电子地图上标注目标摄像头的摄像头位置和各个初始参照物的参照物位置;
根据摄像头位置和参照物位置计算各个初始参照物与目标摄像头的距离,生成距离信息集合;
根据初始参照物的距离信息集合和参照物特征对初始参照物进行筛选,将符合的初始参照物作为能见度参照物,并为能见度参照物关联距离信息。
请参阅图8,本申请提供了第一生成单元的一个实施例,包括:
第一输入模块801,用于输入模块,用于将实时拍摄图像输入计算机视觉模型;
第一生成模块802,用于对实时拍摄图像进行灰度转化,生成灰度转化图像;
第六生成模块803,用于根据卷积核的位置信息生成高斯卷积核;
滤波模块804,用于对灰度转化图像使用高斯卷积核进行滤波;
第二生成模块805,用于对灰度转化图像进行图像叠加操作和平图像移操作,生成第一二维矩阵;
第三生成模块806,用于使用算子对第一二维矩阵进行图像叠加操作和平图像移操作,生成第二二维矩阵;
膨胀腐蚀模块807,用于对第二二维矩阵进行膨胀处理和腐蚀处理;
第四生成模块808,用于通过水漫法对第二二维矩阵的封闭区域进行填充,并转为二值图,生成第三二维矩阵;
第五生成模块809,用于将实时拍摄图像的能见度参照物中框定区域分割,并转为二值图,生成第四二维矩阵,确定第四二维矩阵中数值为1的个数为数值S1;
第一确定模块810,用于将第三二维矩阵和第四二维矩阵相乘,并确定相乘后的矩阵数值为1的个数为数值C1;
第二确定模块811,用于根据数值S1和数值C1并结合IoU公式确定能见度参照物的参照物识别结果。
请参阅图9,本申请提供了第一生成单元的另一个实施例,包括:
第七生成模块901,用于对实时拍摄图像进行归一化处理,生成三维数组;
第八生成模块902,用于将三维数组输入深度神经网络模型,生成二维数组M;
第九生成模块903,用于对二维数组M进行二值化处理,生成二维的二维数组mask;
第十生成模块904,用于将实时拍摄图像的能见度参照物中框定区域分割,并转为二值图,生成第五二维矩阵,确定第五二维矩阵中数值为1的个数为数值S2;
第三确定模块905,用于将第五二维矩阵和二维数组mask相乘,并确定相乘后的矩阵数值为1的个数为数值C2;
第四确定模块906,用于根据数值S2和数值C2并结合IoU公式确定能见度参照物的参照物识别结果。
请参阅图10,本申请提供了一种电子设备,包括:
处理器1001、存储器1002、输入输出单元1003以及总线1004。
处理器1001与存储器1002、输入输出单元1003以及总线1004相连。
存储器1002保存有程序,处理器1001调用程序以执行如图1、图2、图3、图4、图5和图6中的能见度检测方法。
本申请提供了一种计算机可读存储介质,计算机可读存储介质上保存有程序,程序在计算机上执行时执行如图1、图2、图3、图4、图5和图6中的能见度检测方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,read-onlymemory)、随机存取存储器(RAM,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (10)
1.一种能见度检测方法,其特征在于,包括:
通过目标摄像头获取参考拍摄图像,所述参考拍摄图像为在高能见度下拍摄的图像;
从所述参考拍摄图像中确定至少三个距离不同的能见度参照物,并为三个距离不同的所述能见度参照物关联距离信息;
构建一个视频图像静态目标识别模型;
通过所述目标摄像头获取实时拍摄图像;
通过所述视频图像静态目标识别模型对所述实时拍摄图像进行分析,生成参照物识别结果;
根据所述参照物识别结果和所述参考拍摄图像关联距离信息生成能见度数据。
2.根据权利要求1所述的能见度检测方法,其特征在于,所述视频图像静态目标识别模型为计算机视觉模型;
通过所述视频图像静态目标识别模型对所述实时拍摄图像进行分析,生成参照物识别结果,包括:
将所述实时拍摄图像输入所述计算机视觉模型;
对所述实时拍摄图像进行灰度转化,生成灰度转化图像;
对所述灰度转化图像进行图像叠加操作和平图像移操作,生成第一二维矩阵;
使用算子对所述第一二维矩阵进行图像叠加操作和平图像移操作,生成第二二维矩阵;
通过水漫法对所述第二二维矩阵的封闭区域进行填充,并转为二值图,生成第三二维矩阵;
将所述实时拍摄图像的能见度参照物中框定区域分割,并转为二值图,生成第四二维矩阵,确定所述第四二维矩阵中数值为1的个数为数值S1;
将所述第三二维矩阵和所述第四二维矩阵相乘,并确定相乘后的矩阵数值为1的个数为数值C1;
根据所述数值S1和所述数值C1并结合IoU公式确定能见度参照物的参照物识别结果。
3.根据权利要求2所述的能见度检测方法,其特征在于,在对所述实时拍摄图像进行灰度转化,生成灰度转化图像之后,对所述灰度转化图像进行图像叠加操作和平图像移操作,生成第一二维矩阵之前,所述能见度检测方法还包括:
根据卷积核的位置信息生成高斯卷积核;
对所述灰度转化图像使用高斯卷积核进行滤波。
4.根据权利要求2所述的能见度检测方法,其特征在于,在使用算子对所述第一二维矩阵进行图像叠加操作和平图像移操作,生成第二二维矩阵之后,通过水漫法对所述第二二维矩阵的封闭区域进行填充,并转为二值图,生成第三二维矩阵之前,所述能见度检测方法还包括:
对所述第二二维矩阵进行膨胀处理和腐蚀处理。
5.根据权利要求1所述的能见度检测方法,其特征在于,所述视频图像静态目标识别模型为深度神经网络模型;
通过所述视频图像静态目标识别模型对所述实时拍摄图像进行分析,生成参照物识别结果,包括:
对所述实时拍摄图像进行归一化处理,生成三维数组;
将所述三维数组输入所述深度神经网络模型,生成二维数组M;
对所述二维数组M进行二值化处理,生成二维的二维数组mask;
将所述实时拍摄图像的能见度参照物中框定区域分割,并转为二值图,生成第五二维矩阵,确定所述第五二维矩阵中数值为1的个数为数值S2;
将所述第五二维矩阵和所述二维数组mask相乘,并确定相乘后的矩阵数值为1的个数为数值C2;
根据所述数值S2和所述数值C2并结合IoU公式确定能见度参照物的参照物识别结果。
6.根据权利要求1至5中任一项所述的能见度检测方法,其特征在于,从所述参考拍摄图像中确定至少三个距离不同的能见度参照物,并为三个距离不同的所述能见度参照物关联距离信息,包括:
确定所述目标摄像头所在位置附近的电子地图;
从所述参考拍摄图像中确定至少三个不同的初始参照物,为各个初始物分配唯一的ID;
在所述电子地图上标注所述目标摄像头的摄像头位置和各个初始参照物的参照物位置;
根据所述摄像头位置和所述参照物位置计算各个初始参照物与所述目标摄像头的距离,生成距离信息集合;
根据所述初始参照物的所述距离信息集合和参照物特征对所述初始参照物进行筛选,将符合的初始参照物作为能见度参照物,并为所述能见度参照物关联距离信息。
7.一种能见度检测装置,其特征在于,包括:
第一获取单元,用于通过目标摄像头获取参考拍摄图像,所述参考拍摄图像为在高能见度下拍摄的图像;
确定单元,用于从所述参考拍摄图像中确定至少三个距离不同的能见度参照物,并为三个距离不同的所述能见度参照物关联距离信息;
构建单元,用于构建一个视频图像静态目标识别模型;
第二获取单元,用于通过所述目标摄像头获取实时拍摄图像;
第一生成单元,用于通过所述视频图像静态目标识别模型对所述实时拍摄图像进行分析,生成参照物识别结果;
第二生成单元,用于根据所述参照物识别结果和所述参考拍摄图像关联距离信息生成能见度数据。
8.根据权利要求1所述的能见度检测装置,其特征在于,所述视频图像静态目标识别模型为计算机视觉模型;
第一生成单元,包括:
第一输入模块,用于输入模块,用于将所述实时拍摄图像输入所述计算机视觉模型;
第一生成模块,用于对所述实时拍摄图像进行灰度转化,生成灰度转化图像;
第二生成模块,用于对所述灰度转化图像进行图像叠加操作和平图像移操作,生成第一二维矩阵;
第三生成模块,用于使用算子对所述第一二维矩阵进行图像叠加操作和平图像移操作,生成第二二维矩阵;
第四生成模块,用于通过水漫法对所述第二二维矩阵的封闭区域进行填充,并转为二值图,生成第三二维矩阵;
第五生成模块,用于将所述实时拍摄图像的能见度参照物中框定区域分割,并转为二值图,生成第四二维矩阵,确定所述第四二维矩阵中数值为1的个数为数值S1;
第一确定模块,用于将所述第三二维矩阵和所述第四二维矩阵相乘,并确定相乘后的矩阵数值为1的个数为数值C1;
第二确定模块,用于根据所述数值S1和所述数值C1并结合IoU公式确定能见度参照物的参照物识别结果。
9.一种电子设备,其特征在于,包括:
处理器、存储器、输入输出单元以及总线;
所述处理器与所述存储器、所述输入输出单元以及所述总线相连;
所述存储器保存有程序,所述处理器调用所述程序以执行如权利要求1至6任意一项所述的能见度检测方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上保存有程序,所述程序在计算机上执行时执行如权利要求1至6中任一项所述的能见度检测方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202410583922.3A CN118799710A (zh) | 2024-05-11 | 2024-05-11 | 一种能见度检测方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202410583922.3A CN118799710A (zh) | 2024-05-11 | 2024-05-11 | 一种能见度检测方法、装置、电子设备和存储介质 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN118799710A true CN118799710A (zh) | 2024-10-18 |
Family
ID=93030514
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202410583922.3A Pending CN118799710A (zh) | 2024-05-11 | 2024-05-11 | 一种能见度检测方法、装置、电子设备和存储介质 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN118799710A (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN120823548A (zh) * | 2025-09-16 | 2025-10-21 | 江苏长天智远交通科技有限公司 | 一种基于视频分析的道路低能见度监测方法及系统 |
-
2024
- 2024-05-11 CN CN202410583922.3A patent/CN118799710A/zh active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN120823548A (zh) * | 2025-09-16 | 2025-10-21 | 江苏长天智远交通科技有限公司 | 一种基于视频分析的道路低能见度监测方法及系统 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Münzinger et al. | Mapping the urban forest in detail: From LiDAR point clouds to 3D tree models | |
| US11455805B2 (en) | Method and apparatus for detecting parking space usage condition, electronic device, and storage medium | |
| CN106127204B (zh) | 一种全卷积神经网络的多方向水表读数区域检测算法 | |
| CN109598794B (zh) | 三维gis动态模型的构建方法 | |
| CN107256225B (zh) | 一种基于视频分析的热度图生成方法及装置 | |
| CN110659546B (zh) | 一种违法摊位检测方法及装置 | |
| CN111210399B (zh) | 一种成像质量评价方法、装置及设备 | |
| CN109508583B (zh) | 一种人群分布特征的获取方法和装置 | |
| CN110636248B (zh) | 目标跟踪方法与装置 | |
| CN111914767B (zh) | 一种基于多源遥感数据的散乱污企业检测方法及系统 | |
| CN111476314B (zh) | 一种融合光流算法与深度学习的模糊视频检测方法 | |
| CN119246518B (zh) | 基于激光点云与视觉图像融合的桥梁表观病害检测方法及系统 | |
| CN114022804A (zh) | 一种泄漏的检测方法、装置、系统及存储介质 | |
| Lu et al. | A volumetric approach to population estimation using LiDAR remote sensing | |
| CN112541403B (zh) | 一种利用红外摄像头的室内人员跌倒检测方法 | |
| JP2020160840A (ja) | 路面標示不具合検出装置、路面標示不具合検出方法及び路面標示不具合検出プログラム | |
| KR102416714B1 (ko) | 3차원 이미지 및 딥러닝을 활용한 도시 규모 나무 지도 작성 시스템 및 방법 | |
| CN113505643B (zh) | 违章目标物检测方法及相关装置 | |
| CN114255384A (zh) | 一种人数检测方法、装置、电子设备及存储介质 | |
| CN118941507A (zh) | 无人机巡检光伏阵列的缺陷检测方法、装置、电子设备及存储介质 | |
| CN118351459A (zh) | 基于卫星遥感的城市工地和裸地扬尘管控成效评估方法 | |
| CN117197050B (zh) | 判断井盖异常情况的方法及计算设备 | |
| CN111797832B (zh) | 一种图像感兴趣区域自动生成方法及系统及图像处理方法 | |
| CN118799710A (zh) | 一种能见度检测方法、装置、电子设备和存储介质 | |
| Ou et al. | Building an annotated damage image database to support AI-assisted hurricane impact analysis |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination |