原文地址:https://arxiv.org/pdf/2108.03004.pdf
一、背景介绍
自动驾驶中目标检测的难点:(1)视觉范围内的障碍物具有不同的尺度和长宽比
(2)障碍物之间可能存在不同程度的遮挡
(3)由于暴雨、大雪和大雾等极端天气,障碍物的外观可能会模糊
毫米波雷达的优缺点:优点:(1)检测性能受极端天气的影响较小
(2)不仅测量距离,还可以利用运动物体反射信号的多普勒效应测 量速度矢量
缺点:(1)无法提供目标的轮廓信息
(2)难以区分相对静止的目标
毫米波雷达与视觉融合过程:传感器选择、传感器标定和传感器融合
需要解决以下挑战:(1)同一时间和空间的标定校准;
(2)融合不同传感器的数据以实现最优性能的目标检测;
二、检测任务
2D目标检测:使用2D box在车辆的视觉图像中选择检测到的障碍物目标,然后对目标进行分类和 定位。这里的定位指的是图像中目标的定位,而不是真实世界中目标相对于车辆的 定位。
3D目标检测:使用3D box定位目标,不仅是图像中确定目标的位置,而且还确定了现实世界中目 标的姿态和位置。
三、评价标准
精度(AP)、召回率(Recall)、平均精度(mAP)
将召回值和精度值分别作为水平轴和垂直轴,可以获得精度召回(PR)曲线,平均精度(mAP)表示检测模型的合并结果,可通过计算所有类别的平均AP值获得。
以KITTI数据集为例,对于2D对象检测,通过比较检测边界框和gt(ground truth)边界框之间的IoU是否大于阈值来确定目标定位的正确性。KITTI正式规定,对于车辆,正确预测要求预测的3D框与真实3D框重叠70%以上,而对于行人和自行车,则要求3D框重叠50%。
四、相关数据集
相关数据集主要包括:Apolloscape、KITTI、Cityscapes、Waymo Open Dataset、nuScenes等。
表1.自动驾驶数据集
(“Y”表示该数据集中存在此传感器信息,“N”表示该数据集中不存在此传感器信息)
(1)Apolloscape
它使用Reigl激光雷达收集点云,三维点云更精确、密度更高。目前,ApolloScape已经打开了147000帧像素级语义标注图像,包括感知分类和道路网络数据等。
(2)KITTI
KITTI数据集是目前最常用的自动驾驶数据集。数据集为每个序列提供原始图像和精确的三维box以及类标签。类主要包括汽车、面包车、卡车、行人、自行车和电车。
(3)Cityscapes
它是一个语义理解图像-城市街道场景数据集,主要包含来自50多个城市的5000张城市环境中驾驶场景的高质量像素级标注图像(2975张用于training,500张用于val,1525张用于test,共19个类别)。此外,它还有20000张粗略的标注图像。
(4)Waymo Open Dataset
它由Waymo自动驾驶汽车在各种条件下收集的标定数据组成,包括覆盖25个城市的1000多万英里自动驾驶里程数据。数据集中包括激光雷达点云和视觉图像。车辆、行人、骑自行车的人和标志都经过了精心标记,该团队完成了1200多万条3D标注和120万条2D标注。
(5)nuScenes
Nuscenes数据集是现有最大的自动驾驶数据集,这是第一个配备全自动车辆传感器的数据集。该数据集不仅提供相机和激光雷达数据,还包含radar数据,是目前唯一一个包含雷达数据的数据集。nuScenes提供的三维边界框标注不仅包含23个类,还包含8个属性,包括行人姿势、车辆状态等。
(Nuscenes数据集提供的数据已通过帧同步处理,因此不需要时间同步。)
五、传感器部署
使用radar(毫米波雷达/超声波雷达)和视觉融合的传感解决方案是当前自主驾驶车辆障碍物检测领域的主流趋势,主要因为radar和camera具有互补的特性。
表2.部分厂商的自动驾驶传感器解决方案
激光雷达、毫米波雷达、摄像机三类传感器性能对比:
表3.毫米波雷达、激光雷达、摄像机的对比。“1”-“6”表示从“极低”到“极高”的级别。
毫米波雷达的优点:(1)自身:远距离探测、低成本和动态目标可探测性
推荐链接
发表评论