CN111353481A - 基于激光点云与视频图像的道路障碍物识别方法 - Google Patents
基于激光点云与视频图像的道路障碍物识别方法 Download PDFInfo
- Publication number
- CN111353481A CN111353481A CN202010385222.5A CN202010385222A CN111353481A CN 111353481 A CN111353481 A CN 111353481A CN 202010385222 A CN202010385222 A CN 202010385222A CN 111353481 A CN111353481 A CN 111353481A
- Authority
- CN
- China
- Prior art keywords
- video image
- feature map
- point cloud
- laser point
- method based
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及无人驾驶领域,是指基于激光点云与视频图像的道路障碍物识别方法,解决了现有技术中障碍物检测不够快速准确的问题。本发明包括以下步骤:A.使用YOLOv3算法对图像中的障碍物,车辆和行人,进行检测;B.原始视频图像经过Darknet‑53卷积网络之后,在经过卷积生成尺度为13*13的特征图;借鉴残差网络,生成尺度为26*26的特征图及尺度52*52的特征图;C.将特征图进行逻辑回归得到最终的检测结果目标框。本发明实现更高的检测率,改变网络结构,增加尺寸更大的特征图,有效改进损失函数;提高检测速度;通过快速准确地判断出视频图像里的障碍物,以供后续的路线规划和避障等处理。
Description
技术领域
本发明涉及无人驾驶领域,特别是指基于激光点云与视频图像的道路障碍物识别方法。
背景技术
传统的视频图像障碍物检测方法主要分为光流法、帧差法、背景差分法、匹配法。这些传统方法有诸多的局限性,例如:光流法易受噪声、光源及阴影变化等外界因素的影响;帧差法对运动速度较为敏感,对于速度慢的障碍物,不易检测,而对速度快的障碍物,检测轮廓偏大,并误差随速度增大而增加;背景差分法则局限于静态检测,不适用于智能驾驶技术;匹配法则较依赖视角与目标运动方向的变化,若其一因素发生较大改变,则导致算法失效。
目前先进的目标检测算法可以分为两类:two-stage类和one-stage类。two-stage类是基于Region Proposal的R-CNN系列(R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN等),先产生目标候选框(即目标位置),再对候选框进行分类,但是需要分阶段训练并且运行速度较慢。one-stage类是YOLO、SSD等算法,直接使用一个卷积神经网络对目标位置和类别进行检测,相比于two-stage类算法,其速度更快,训练更方便,但是精度较差。无人驾驶对实时性有较高的要求,YOLO算法经过YOLOv1、YOLOv2、YOLOv3的改进,检测速度和准确率均取得了不错的效果,但是YOLOv3中提取特征的最小尺寸为13*13,最大为52*52,造成YOLOv3对中等或大尺寸的物体检测效果不好,为了实现更高的检测率,改变网络结构,增加尺寸更大的特征图,改进损失函数等研究均取得了一定的效果。由于YOLOv3在检测速度上的优势,已有很多基于YOLOv3的应用的研究;,这些研究大多是对YOLOv3算法的部分内容进行改进,其困难在于神经网络算法的复杂性使改进很难有明确的原理指导。另外,YOLOv3算法仅针对图像中的目标检测,而无人驾驶系统并不局限于摄像头这一种传感器,其他传感器例如雷达、陀螺仪等也可以为目标检测提供帮助。
亟待出现一种可解决上述问题的新型的障碍物检测方法。
本发明提出基于激光点云与视频图像的道路障碍物识别方法,解决了现有技术中障碍物检测不够快速准确的问题。
本发明的技术方案是这样实现的:基于激光点云与视频图像的道路障碍物识别方法,包括以下步骤:A 使用YOLOv3算法对图像中的障碍物,车辆和行人,进行检测;B 原始视频图像经过Darknet-53卷积网络之后,在经过卷积生成尺度为13*13的特征图;借鉴残差网络,生成尺度为26*26的特征图及尺度52*52的特征图;C 将特征图进行逻辑回归得到最终的检测结果目标框。
进一步地,步骤B具体的是将Darknet-53中的中间层输出与上一尺度的特征图进行维度上的拼接,再经过卷积生成特征图。
优选地,还包括步骤D 将检测结果中有较多部分处于地面部分的目标框排除,得到最终的检测结果。
进一步地,还包括E,设置于步骤C与步骤D之间,具体的是,使用同一时刻的激光点云数据,根据激光点相对于地面的高度,设定阈值;将接近地面部分的点的坐标映射到二维视频图像中,进分割出图片中的地面部分。
本发明公开的基于激光点云与视频图像的道路障碍物识别方法, 实现更高的检测率,改变网络结构,增加尺寸更大的特征图,有效改进损失函数;提高检测速度;通过快速准确地判断出视频图像里的障碍物,以供后续的路线规划和避障等处理。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1:YOLOv3检测算法流程图;
图2:激光点云地面分割算法流程图;
图3:总流程图;
图4: 背景占比≥70%下精度曲线图-检测结果正误统计图;
图5: 背景占比≤50%下精度曲线图-检测结果正误统计图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明公开的基于激光点云与视频图像的道路障碍物识别方法,包括以下步骤:A使用YOLOv3算法对图像中的障碍物,车辆和行人,进行检测;B 原始视频图像经过Darknet-53卷积网络之后,在经过卷积生成尺度为13*13的特征图;借鉴残差网络,生成尺度为26*26的特征图及尺度52*52的特征图;C 将特征图进行逻辑回归得到最终的检测结果目标框。
进一步地,步骤B具体的是将Darknet-53中的中间层输出与上一尺度的特征图进行维度上的拼接,再经过卷积生成特征图。
优选地,还包括步骤D 将检测结果中有较多部分处于地面部分的目标框排除,得到最终的检测结果。
进一步地,还包括E,设置于步骤C与步骤D之间,具体的是,使用同一时刻的激光点云数据,根据激光点相对于地面的高度,设定阈值;将接近地面部分的点的坐标映射到二维视频图像中,进分割出图片中的地面部分。
本发明基于YOLOv3算法,使用激光点云数据辅助判断障碍物。首先使用YOLOv3算法对图像中的障碍物(车辆和行人)进行检测,将原始视频图像经过Darknet-53卷积网络之后,在经过卷积生成尺度为13*13的特征图,YOLOv3借鉴了残差网络,将Darknet-53中的中间层输出与上一尺度的特征图进行维度上的拼接,再经过卷积生成尺度为26*26的特征图,同理生成尺度尺度52*52的特征图,最后将特征图进行逻辑回归得到最终的检测结果目标框。然后使用同一时刻的激光点云数据,根据激光点相对于地面的高度,设定阈值,将接近地面部分的点的坐标映射到二维视频图像中,进而分割出图片中的地面部分。最后将YOLOv3的检测结果中有较多部分处于地面部分的目标框排除,得到最终的检测结果。
本发明在KITTI数据集上测试,该数据集由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办,是目前国际上最大的自动驾驶场景下的计算机视觉算法评测数据集。KITTI包含市区、乡村和高速公路等场景采集的真实图像数据,每张图像中最多达15辆车和30个行人,还有各种程度的遮挡与截断。从KITTI数据集的目标检测视频图像数据集的7481张图片中选取了背景(非道路区域)占比超过70%的图片1286张,以及背景占比小于50%的图片990张进行测试,其中图片包含了城市、公路、校园、乡村等多种场景,测试类别转化为两类:车辆(car)和行人(person)。
使用KITTI数据集中的:
rawData\residential\0003\2011_09_26\2011_09_26_drive_0022_sync\image_02\data\0000000079.png做示例图片:
首先使用YOLOv3神经网络进行初步检测,直接使用官方给出的在COCO数据集上训练好的网络进行检测,并排除了车辆和行人以外的目标;
之后使用图片对应的激光点云数据,先排除位于摄像机后方的点,再分割出地面部分。经过测试,以低于雷达1.3米为阈值效果较好,即保留x坐标大于0且z坐标小于-1.3的点。激光点云是以雷达为原点的三维坐标,为了分割图片中的地面部分,需要进行坐标映射,根据KITTI数据集给出的雷达和摄像机的标定数据,按照如下公式将激光点x映射为图像中的点y:
y = P_rect_2 * R0_rect *Tr_velo_to_cam * x
其中,Tr_velo_to_cam将激光点映射到0号摄像机,R0_rect将0号摄像机映射为修正后的0号摄像机,P_rect_2再将其映射到2号摄像机的图像平面,这3个变换矩阵均由KITTI数据集提供;
进行上述处理以后的图进行形态学上的膨胀操作,即可得到最终的地面分割结果;
之后计算每个目标检测框中地面部分占比P:
P=半透明黄色部分面积/目标检测框面积
通过对检测框内地面部分的像素计数即可得到半透明黄色部分(地面部分)面积。
计算结果如下,设置50%为阈值,即可排除地面部分的误检。
排除误检的目标框之后,得到最终结果。
测试结果如下:
背景占比70%以上的检测平均精度可以达到91.51%。
背景占比50%以下的检测平均精度可以达到89.81%。
表1 背景占比≥70%的图片检测结果
| 类别 | 平均精度 |
| car | 95.17% |
| person | 87.85% |
| average | 91.51% |
表2 背景占比≤50%的图片检测结果
| 类别 | 平均精度 |
| car | 95.35% |
| person | 84.27% |
| average | 89.81% |
本发明公开的基于激光点云与视频图像的道路障碍物识别方法, 实现更高的检测率,改变网络结构,增加尺寸更大的特征图,有效改进损失函数;提高检测速度;通过快速准确地判断出视频图像里的障碍物,以供后续的路线规划和避障等处理。
当然,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员应该可以根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (4)
1.基于激光点云与视频图像的道路障碍物识别方法,其特征在于:包括以下步骤:
A 使用YOLOv3算法对图像中的障碍物,车辆和行人,进行检测;
B 原始视频图像经过Darknet-53卷积网络之后,在经过卷积生成尺度为13*13的特征图;借鉴残差网络,生成尺度为26*26的特征图及尺度52*52的特征图;
C 将特征图进行逻辑回归得到最终的检测结果目标框。
2.根据权利要求1所述的基于激光点云与视频图像的道路障碍物识别方法,其特征在于:步骤B具体的是将Darknet-53中的中间层输出与上一尺度的特征图进行维度上的拼接,再经过卷积生成特征图。
3.根据权利要求1或2所述的基于激光点云与视频图像的道路障碍物识别方法,其特征在于:还包括步骤:
D 将检测结果中有较多部分处于地面部分的目标框排除,得到最终的检测结果。
4.根据权利要求3所述的基于激光点云与视频图像的道路障碍物识别方法,其特征在于:还包括E,设置于步骤C与步骤D之间,具体的是,使用同一时刻的激光点云数据,根据激光点相对于地面的高度,设定阈值;将接近地面部分的点的坐标映射到二维视频图像中,进分割出图片中的地面部分。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201911404317 | 2019-12-31 | ||
| CN2019114043170 | 2019-12-31 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN111353481A true CN111353481A (zh) | 2020-06-30 |
Family
ID=71197683
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202010385222.5A Pending CN111353481A (zh) | 2019-12-31 | 2020-05-09 | 基于激光点云与视频图像的道路障碍物识别方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN111353481A (zh) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113156948A (zh) * | 2021-04-19 | 2021-07-23 | 浙江工业大学 | 一种两轮自平衡机器人的地面与障碍物区分识别方法 |
| CN113469020A (zh) * | 2021-06-29 | 2021-10-01 | 苏州一径科技有限公司 | 一种基于聚类的目标检测模型的评估方法 |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107368890A (zh) * | 2016-05-11 | 2017-11-21 | Tcl集团股份有限公司 | 一种以视觉为中心的基于深度学习的路况分析方法及系统 |
| CN109508710A (zh) * | 2018-10-23 | 2019-03-22 | 东华大学 | 基于改进YOLOv3网络的无人车夜间环境感知方法 |
| CN109829386A (zh) * | 2019-01-04 | 2019-05-31 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
| CN109934108A (zh) * | 2019-01-31 | 2019-06-25 | 华南师范大学 | 一种多目标多种类的车辆检测和测距系统及实现方法 |
| CN110168559A (zh) * | 2017-12-11 | 2019-08-23 | 北京嘀嘀无限科技发展有限公司 | 用于识别和定位车辆周围物体的系统和方法 |
| CN110175576A (zh) * | 2019-05-29 | 2019-08-27 | 电子科技大学 | 一种结合激光点云数据的行驶车辆视觉检测方法 |
| CN110222667A (zh) * | 2019-06-17 | 2019-09-10 | 南京大学 | 一种基于计算机视觉的开放道路交通参与者数据采集方法 |
| CN110414391A (zh) * | 2019-07-15 | 2019-11-05 | 河北工业大学 | 基于深度学习算法的主动移动式车底危险品检测装置 |
| CN110532889A (zh) * | 2019-08-02 | 2019-12-03 | 南京理工大学 | 基于旋翼无人飞行器和YOLOv3的轨道异物检测方法 |
-
2020
- 2020-05-09 CN CN202010385222.5A patent/CN111353481A/zh active Pending
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN107368890A (zh) * | 2016-05-11 | 2017-11-21 | Tcl集团股份有限公司 | 一种以视觉为中心的基于深度学习的路况分析方法及系统 |
| CN110168559A (zh) * | 2017-12-11 | 2019-08-23 | 北京嘀嘀无限科技发展有限公司 | 用于识别和定位车辆周围物体的系统和方法 |
| CN109508710A (zh) * | 2018-10-23 | 2019-03-22 | 东华大学 | 基于改进YOLOv3网络的无人车夜间环境感知方法 |
| CN109829386A (zh) * | 2019-01-04 | 2019-05-31 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
| CN109934108A (zh) * | 2019-01-31 | 2019-06-25 | 华南师范大学 | 一种多目标多种类的车辆检测和测距系统及实现方法 |
| CN110175576A (zh) * | 2019-05-29 | 2019-08-27 | 电子科技大学 | 一种结合激光点云数据的行驶车辆视觉检测方法 |
| CN110222667A (zh) * | 2019-06-17 | 2019-09-10 | 南京大学 | 一种基于计算机视觉的开放道路交通参与者数据采集方法 |
| CN110414391A (zh) * | 2019-07-15 | 2019-11-05 | 河北工业大学 | 基于深度学习算法的主动移动式车底危险品检测装置 |
| CN110532889A (zh) * | 2019-08-02 | 2019-12-03 | 南京理工大学 | 基于旋翼无人飞行器和YOLOv3的轨道异物检测方法 |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113156948A (zh) * | 2021-04-19 | 2021-07-23 | 浙江工业大学 | 一种两轮自平衡机器人的地面与障碍物区分识别方法 |
| CN113156948B (zh) * | 2021-04-19 | 2022-06-28 | 浙江工业大学 | 一种两轮自平衡机器人的地面与障碍物区分识别方法 |
| CN113469020A (zh) * | 2021-06-29 | 2021-10-01 | 苏州一径科技有限公司 | 一种基于聚类的目标检测模型的评估方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN114359181B (zh) | 一种基于图像和点云的智慧交通目标融合检测方法及系统 | |
| CN113506318B (zh) | 一种车载边缘场景下的三维目标感知方法 | |
| CN113052159B (zh) | 一种图像识别方法、装置、设备及计算机存储介质 | |
| JP2023523243A (ja) | 障害物検出方法及び装置、コンピュータデバイス、並びにコンピュータプログラム | |
| WO2021253245A1 (zh) | 识别车辆变道趋势的方法和装置 | |
| CN113269040A (zh) | 结合图象识别与激光雷达点云分割的驾驶环境感知方法 | |
| WO2022217630A1 (zh) | 一种车速确定方法、装置、设备和介质 | |
| CN112150804B (zh) | 一种基于MaskRCNN算法的城市多类型交叉口识别方法 | |
| CN103487034A (zh) | 一种基于立式标靶的车载单目摄像头测距测高方法 | |
| CN113092807B (zh) | 基于多目标跟踪算法的城市高架道路车辆测速方法 | |
| CN114648549A (zh) | 一种融合视觉和激光雷达的交通场景目标检测及定位方法 | |
| CN113269768B (zh) | 一种交通拥堵分析方法、装置及分析设备 | |
| CN113988197A (zh) | 基于多相机、多激光雷达的联合标定及目标融合检测方法 | |
| WO2021189420A1 (zh) | 一种数据处理方法及装置 | |
| CN113029185A (zh) | 众包式高精度地图更新中道路标线变化检测方法及系统 | |
| CN115187941A (zh) | 目标检测定位方法、系统、设备及存储介质 | |
| CN116071747A (zh) | 一种基于3d点云数据和2d图像数据融合匹配语义分割方法 | |
| CN117789160A (zh) | 一种基于聚类优化的多模态融合目标检测方法及系统 | |
| CN107506739B (zh) | 一种夜间前向车辆检测及测距方法 | |
| Yin et al. | Promoting automatic detection of road damage: A high-resolution dataset, a new approach, and a new evaluation criterion | |
| CN114463660B (zh) | 一种基于视频雷达融合感知的判断车型方法 | |
| CN111353481A (zh) | 基于激光点云与视频图像的道路障碍物识别方法 | |
| Kamil et al. | Vehicle Speed Estimation Using Consecutive Frame Approaches and Deep Image Homography for Image Rectification on Monocular Videos | |
| Chen et al. | Exploring the effect of 3D object removal using deep learning for LiDAR-based mapping and long-term vehicular localization | |
| US20230050013A1 (en) | Object detection method and object tracking device using lidar sensor |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200630 |
|
| WD01 | Invention patent application deemed withdrawn after publication |