searchusermenu
  • 发布文章
  • 消息中心
点赞
收藏
评论
分享
原创

自动驾驶场景BEV和PV模型评测浅谈

2024-08-06 09:36:29
200
0

1. 背景介绍

        自动驾驶技术是近年来汽车工业和人工智能领域的一个重要发展方向,它涉及到车辆的感知、决策和控制等多个方面。在自动驾驶系统中,场景理解是一个基础而关键的步骤,它帮助车辆理解周围环境并做出相应的反应。

        BEV(鸟瞰视图)和PV(透视图)是两种不同的视角模型,它们在自动驾驶场景中被用来处理和解释车辆周围的环境信息。BEV和PV模型在自动驾驶场景理解中扮演着重要角色,并且它们的评测对于确保自动驾驶系统的安全性和有效性至关重要。

2. BEV及PV模型技术原理

BEV模型和PV模型的基本概念如下:

  1. BEV模型:鸟瞰视图模型提供了一个从上方观察车辆及其周围环境的视角。这种视角有助于车辆更好地理解交通流和车辆的位置关系,常用于路径规划和避障。

  2. PV模型:透视图模型则提供了一个更接近人类驾驶员视角的视图,它模拟了车辆前方的视角,有助于车辆识别和理解道路上的交通标志、行人和其他车辆。      

BEV和PV都是自动驾驶领域进行多源信息融合的典型实现模型,其中PV模型倾向于单独进行推理,将推理数据显性化进行决策,通常需要增加业务逻辑、先验知识和处理规则来实现;而BEV更倾向于在多源特征图层面进行深度融合(fusion),采用端到端学习方式实现决策任务。BEV模型在一定程度上减轻了模型对特定规则和先验知识的依赖,近年来随着Transformer类大模型+大数据能力提升,端到端学习具有更大的提升潜力,BEV模型是目前自动驾驶领域研究热点。
 

BEV(Bird's-Eye-View)感知领域涉及的细分任务类型主要包括以下几个方面:

1.  3D目标检测(3D Object Detection):使用BEV视角进行目标检测,能够更准确地识别和定位场景中的对象。

2.  3D车道检测(3D Lane Detection):检测道路中的车道线,并在BEV视角下进行表示,这对于自动驾驶中的路径规划和控制至关重要。

3.  地图分割(Map Segmentation):对环境地图进行像素级别的分割,识别不同的道路元素,如可行驶区域、人行道等。

4.  多目标跟踪(Multi-Object Tracking, MOT):在BEV视角下跟踪多个移动目标,这对于理解动态环境和进行决策至关重要。

5.  运动预测(Motion Prediction):预测其他车辆和行人在未来一段时间内的运动轨迹,这对于自动驾驶中的安全决策非常重要。

6.  场景理解(Scene Understanding):综合理解整个交通场景,包括车辆、行人、交通标志等元素的位置和行为。

7.  传感器融合(Sensor Fusion):将来自不同传感器(如摄像头、激光雷达、雷达等)的数据融合到BEV视角中,以获得更全面和准确的环境感知。

8.  自动驾驶挑战(Autonomous Driving Challenge):这是一个综合性任务,涉及上述所有任务类型,目的是在复杂的交通环境中实现自动驾驶。

9.  深度估计(Depth Estimation):在BEV视角中估计场景中各元素的深度信息,这对于3D目标检测和场景理解至关重要。

10.  特征提取与建模(Feature Extraction and Modeling):在BEV视角下提取和构建环境特征图,用于识别和追踪路面、车辆、行人、交通标志等关键元素。

11.  端到端优化(End-to-End Optimization):最新的BEV感知技术如LSS(Lift, Splat, Shoot)或BEVFormer等,实现了从原始传感器输入到BEV特征的生成,同时进行感知任务的学习和优化。

       这些任务类型涵盖了从基础的感知任务到复杂的决策和预测任务,体现了BEV感知在自动驾驶系统中的广泛应用和重要性。

3. 评测数据集

       在自动驾驶领域,鸟瞰图(Bird's-Eye-View,简称BEV)感知技术的发展离不开各种数据集的支持,这些数据集提供了丰富的传感器数据和标注信息,用于训练和评估BEV感知算法。根据提供的文献内容,以下是一些主流的BEV感知数据集:

1.  KITTI数据集:KITTI是一个早期的自动驾驶数据集,提供了7481张训练图像和7518张测试图像,用于3D目标检测任务。它还包括由Velodyne激光扫描仪捕获的点云数据。KITTI数据集是第一个全面的自动驾驶任务数据集,引起了社区的广泛关注。

2.  Waymo开放数据集(Waymo Open Dataset):Waymo数据集1.3版本包含了798,202个训练视频序列,80,080个验证序列和80,080个测试序列。每个序列包含5个激光雷达和5个视角的图像。Waymo数据集是大规模和多样化的,并且随着数据集版本的更新而不断发展。Waymo开放挑战赛每年都会定义新任务,鼓励社区解决这些问题。

3.  nuScenes数据集:nuScenes是一个大规模自动驾驶数据集,包含两个城市中的1000个驾驶场景,其中850个用于训练/验证,150个用于测试。每个场景持续20秒,并提供了包括6个摄像头、1个激光雷达和5个雷达的完整传感器套件,以及相应的高清地图和CAN总线数据。

4.  Argoverse数据集:Argoverse是第一个带有高清地图的自动驾驶数据集,包含2个激光雷达、7个环视摄像头和两个立体摄像头的传感器设置。Argoverse 1支持3D跟踪和运动预测任务,而更新的Argoverse 2支持更多任务,包括3D目标检测、无监督学习、运动预测和地图感知任务。

5.  其他数据集:文献中还提到了其他一些数据集,如ApolloScape、OpenLane、Lyft L5、A* 3D、H3D、SemanticKITTI、A2D2、Cityscapes 3D、PandaSet、KITTI-360、Cirrus、ONCE、AIODrive和DeepAccident等,这些数据集提供了不同场景、不同传感器配置和不同标注类型的数据,用于支持BEV感知研究。

 这些数据集不仅为BEV感知算法的研究提供了丰富的实验平台,同时也推动了自动驾驶技术的发展。通过对这些数据集的深入分析和使用,研究人员能够更好地理解BEV感知任务,并开发出更加精确和鲁棒的算法。

4. 评测指标

BEV和PV感知的评测指标主要包括以下几种:

1.  LET-3D-APL (Longitudinal Error Tolerant 3D Average Precision): 这是针对只有摄像头的3D检测任务的评估指标。与传统的3D IoU(Intersection over Union)不同,LET-3D-APL允许预测的边界框在纵向定位上有一定的误差容忍度。它通过缩放精度值来惩罚纵向定位误差,从而考虑预测框与真实框在纵向上的距离。

2.  mAP (mean Average Precision): 类似于2D目标检测中众所周知的AP(Average Precision)指标,但匹配策略从IoU改为BEV平面上的2D中心距离。mAP在不同的距离阈值下计算,通常是0.5米、1米、2米和4米,然后计算这些阈值下AP的平均值。

3.  NDS (nuScenes Detection Score): nuScenes检测分数是多个指标的组合,包括mAP、mATE(平均平移误差)、mASE(平均尺度误差)、mAOE(平均方向误差)、mAVE(平均速度误差)和mAAE(平均属性误差)。NDS通过上述指标的加权和来计算,其中mAP的权重为5,其余为1。

4.  PKL (Planning KL-Divergence): PKL是一个用于神经网络规划任务的新指标,基于规划器生成的轨迹与真实轨迹之间的KL散度。PKL指标始终非负,较小的PKL得分意味着检测性能更好。

5.  Localization Affinity: 用于LET-3D-APL中的定位亲和度定义,根据预测框的纵向定位误差来调整精度值。如果没有纵向定位误差,则定位亲和度为1.0;如果误差等于或超过最大纵向定位误差,则为0.0;亲和度在0.0和1.0之间线性插值。

        这些评估指标用于衡量BEV感知算法在不同方面的表现,包括目标检测的准确性、鲁棒性以及与真实情况的接近程度。通过这些指标,研究人员可以全面地评估和比较不同BEV感知方法的性能。

 

 

0条评论
0 / 1000
吕****博
6文章数
1粉丝数
吕****博
6 文章 | 1 粉丝
原创

自动驾驶场景BEV和PV模型评测浅谈

2024-08-06 09:36:29
200
0

1. 背景介绍

        自动驾驶技术是近年来汽车工业和人工智能领域的一个重要发展方向,它涉及到车辆的感知、决策和控制等多个方面。在自动驾驶系统中,场景理解是一个基础而关键的步骤,它帮助车辆理解周围环境并做出相应的反应。

        BEV(鸟瞰视图)和PV(透视图)是两种不同的视角模型,它们在自动驾驶场景中被用来处理和解释车辆周围的环境信息。BEV和PV模型在自动驾驶场景理解中扮演着重要角色,并且它们的评测对于确保自动驾驶系统的安全性和有效性至关重要。

2. BEV及PV模型技术原理

BEV模型和PV模型的基本概念如下:

  1. BEV模型:鸟瞰视图模型提供了一个从上方观察车辆及其周围环境的视角。这种视角有助于车辆更好地理解交通流和车辆的位置关系,常用于路径规划和避障。

  2. PV模型:透视图模型则提供了一个更接近人类驾驶员视角的视图,它模拟了车辆前方的视角,有助于车辆识别和理解道路上的交通标志、行人和其他车辆。      

BEV和PV都是自动驾驶领域进行多源信息融合的典型实现模型,其中PV模型倾向于单独进行推理,将推理数据显性化进行决策,通常需要增加业务逻辑、先验知识和处理规则来实现;而BEV更倾向于在多源特征图层面进行深度融合(fusion),采用端到端学习方式实现决策任务。BEV模型在一定程度上减轻了模型对特定规则和先验知识的依赖,近年来随着Transformer类大模型+大数据能力提升,端到端学习具有更大的提升潜力,BEV模型是目前自动驾驶领域研究热点。
 

BEV(Bird's-Eye-View)感知领域涉及的细分任务类型主要包括以下几个方面:

1.  3D目标检测(3D Object Detection):使用BEV视角进行目标检测,能够更准确地识别和定位场景中的对象。

2.  3D车道检测(3D Lane Detection):检测道路中的车道线,并在BEV视角下进行表示,这对于自动驾驶中的路径规划和控制至关重要。

3.  地图分割(Map Segmentation):对环境地图进行像素级别的分割,识别不同的道路元素,如可行驶区域、人行道等。

4.  多目标跟踪(Multi-Object Tracking, MOT):在BEV视角下跟踪多个移动目标,这对于理解动态环境和进行决策至关重要。

5.  运动预测(Motion Prediction):预测其他车辆和行人在未来一段时间内的运动轨迹,这对于自动驾驶中的安全决策非常重要。

6.  场景理解(Scene Understanding):综合理解整个交通场景,包括车辆、行人、交通标志等元素的位置和行为。

7.  传感器融合(Sensor Fusion):将来自不同传感器(如摄像头、激光雷达、雷达等)的数据融合到BEV视角中,以获得更全面和准确的环境感知。

8.  自动驾驶挑战(Autonomous Driving Challenge):这是一个综合性任务,涉及上述所有任务类型,目的是在复杂的交通环境中实现自动驾驶。

9.  深度估计(Depth Estimation):在BEV视角中估计场景中各元素的深度信息,这对于3D目标检测和场景理解至关重要。

10.  特征提取与建模(Feature Extraction and Modeling):在BEV视角下提取和构建环境特征图,用于识别和追踪路面、车辆、行人、交通标志等关键元素。

11.  端到端优化(End-to-End Optimization):最新的BEV感知技术如LSS(Lift, Splat, Shoot)或BEVFormer等,实现了从原始传感器输入到BEV特征的生成,同时进行感知任务的学习和优化。

       这些任务类型涵盖了从基础的感知任务到复杂的决策和预测任务,体现了BEV感知在自动驾驶系统中的广泛应用和重要性。

3. 评测数据集

       在自动驾驶领域,鸟瞰图(Bird's-Eye-View,简称BEV)感知技术的发展离不开各种数据集的支持,这些数据集提供了丰富的传感器数据和标注信息,用于训练和评估BEV感知算法。根据提供的文献内容,以下是一些主流的BEV感知数据集:

1.  KITTI数据集:KITTI是一个早期的自动驾驶数据集,提供了7481张训练图像和7518张测试图像,用于3D目标检测任务。它还包括由Velodyne激光扫描仪捕获的点云数据。KITTI数据集是第一个全面的自动驾驶任务数据集,引起了社区的广泛关注。

2.  Waymo开放数据集(Waymo Open Dataset):Waymo数据集1.3版本包含了798,202个训练视频序列,80,080个验证序列和80,080个测试序列。每个序列包含5个激光雷达和5个视角的图像。Waymo数据集是大规模和多样化的,并且随着数据集版本的更新而不断发展。Waymo开放挑战赛每年都会定义新任务,鼓励社区解决这些问题。

3.  nuScenes数据集:nuScenes是一个大规模自动驾驶数据集,包含两个城市中的1000个驾驶场景,其中850个用于训练/验证,150个用于测试。每个场景持续20秒,并提供了包括6个摄像头、1个激光雷达和5个雷达的完整传感器套件,以及相应的高清地图和CAN总线数据。

4.  Argoverse数据集:Argoverse是第一个带有高清地图的自动驾驶数据集,包含2个激光雷达、7个环视摄像头和两个立体摄像头的传感器设置。Argoverse 1支持3D跟踪和运动预测任务,而更新的Argoverse 2支持更多任务,包括3D目标检测、无监督学习、运动预测和地图感知任务。

5.  其他数据集:文献中还提到了其他一些数据集,如ApolloScape、OpenLane、Lyft L5、A* 3D、H3D、SemanticKITTI、A2D2、Cityscapes 3D、PandaSet、KITTI-360、Cirrus、ONCE、AIODrive和DeepAccident等,这些数据集提供了不同场景、不同传感器配置和不同标注类型的数据,用于支持BEV感知研究。

 这些数据集不仅为BEV感知算法的研究提供了丰富的实验平台,同时也推动了自动驾驶技术的发展。通过对这些数据集的深入分析和使用,研究人员能够更好地理解BEV感知任务,并开发出更加精确和鲁棒的算法。

4. 评测指标

BEV和PV感知的评测指标主要包括以下几种:

1.  LET-3D-APL (Longitudinal Error Tolerant 3D Average Precision): 这是针对只有摄像头的3D检测任务的评估指标。与传统的3D IoU(Intersection over Union)不同,LET-3D-APL允许预测的边界框在纵向定位上有一定的误差容忍度。它通过缩放精度值来惩罚纵向定位误差,从而考虑预测框与真实框在纵向上的距离。

2.  mAP (mean Average Precision): 类似于2D目标检测中众所周知的AP(Average Precision)指标,但匹配策略从IoU改为BEV平面上的2D中心距离。mAP在不同的距离阈值下计算,通常是0.5米、1米、2米和4米,然后计算这些阈值下AP的平均值。

3.  NDS (nuScenes Detection Score): nuScenes检测分数是多个指标的组合,包括mAP、mATE(平均平移误差)、mASE(平均尺度误差)、mAOE(平均方向误差)、mAVE(平均速度误差)和mAAE(平均属性误差)。NDS通过上述指标的加权和来计算,其中mAP的权重为5,其余为1。

4.  PKL (Planning KL-Divergence): PKL是一个用于神经网络规划任务的新指标,基于规划器生成的轨迹与真实轨迹之间的KL散度。PKL指标始终非负,较小的PKL得分意味着检测性能更好。

5.  Localization Affinity: 用于LET-3D-APL中的定位亲和度定义,根据预测框的纵向定位误差来调整精度值。如果没有纵向定位误差,则定位亲和度为1.0;如果误差等于或超过最大纵向定位误差,则为0.0;亲和度在0.0和1.0之间线性插值。

        这些评估指标用于衡量BEV感知算法在不同方面的表现,包括目标检测的准确性、鲁棒性以及与真实情况的接近程度。通过这些指标,研究人员可以全面地评估和比较不同BEV感知方法的性能。

 

 

文章来自个人专栏
AI模型及算法进展
6 文章 | 1 订阅
0条评论
0 / 1000
请输入你的评论
0
0