进入 2020 年,自动驾驶技术跨越式与渐进式路线的阵营划分已十分明显,但最终自动驾驶要完全自动化,技术还需要不断更新发展。
对自动驾驶的技术进展,WEVOLVER 发表的《2020 自动驾驶技术报告》(2020 Autonomous Vehicle Technology Report)做了全面阐释。
报告从感测、规划、执行三层面阐述自驾车技术的最新发展状况,涉及感测器、资料处理、机器学习、SLAM 与感测器融合、路径规划等多领域,同时提供多家自动驾驶公司的案例,包括特斯拉、Volvo、Waymo 等。
感测
自驾车是在未知动态环境执行,所以需要事先构建环境地图并自我定位,而执行同步定位和对映过程(SLAM,即时定位和地图构建)输入则需要感测器和 AI 系统帮助。
报告指出,感测器可分为有源感测器和无源感测器,各种感测器都有优缺点,没有单一感测器适用所有路况。通常情况下,想可靠安全操控一辆自驾车,需要同时使用多种感测器。
一般情况下,自驾车感测器主要有 5 种:
- 远端雷达:讯号能透过雨、雾、灰尘等视线障碍物侦测目标。
- 照相机:一般以组合形式探测短程目标,多应用于远距离特徵感测和交通侦测。
- 光学雷达:多用于 3D 环境对映和目标侦测。
- 短程/中程雷达:中短程目标侦测,适用侧面和后方避险。
- 超音波:近距离目标侦测。
各类感测器均有优缺点,而自驾车需要从技术判断选择感测器,筛选条件主要有几方面:
- 扫描範围,决定感测器反应感测物体的时间。
- 解析度,感测器可为自驾车提供多少环境细节。
- 视野/角度解析度,决定自驾车需要多少感测器涵盖感测区域。
- 3D 环境区分静态和动态物体的能力。
- 更新率,决定感测器资讯更新的频率。
- 不同环境条件下的总体可靠性和準确性。
- 成本、大小和软体相容性。
- 生成资料量。
以下是特斯拉、Volvo-Uber、Waymo 的感测器方案示意图:
另外,关于无源感测器和有源感测器,报告也详尽介绍:
无源感测器
无源感测器能探测环境物体反射的现有能量,如光、辐射等。但在弱光环境下,由于自己没有传递源,无源感测器的效能将会下降。并在产生资料方面,比起有源感测器,无源感测器产生的资料量更多,约 0.5~3.5Gbps。
即便如此,无源感测器仍有许多特点:
- 涵盖整个视野宽度的高解析度画素和色彩。
- 视野保持恆定帧频。
- 两个镜头可生成一个 3D 立体检视。
- 缺乏发射源,减少其他车辆干扰的可能性。
- 技术成熟,成本低。
- 系统生成的影像便于用户理解互动。
如果在自驾车使用无源镜头感测器套件,需要涵盖汽车周围环境。这可透过使用特定时间间隔拍摄影像的旋转相机做到,或用软体将 4~6 台相机影像接在一起。
此外,这些感测器需要超过 100 分贝的高动态範围(场景高光和阴影成像能力),能在各种光照条件下工作,并区分不同物体。
有源感测器
有源感测器有讯号传送源,依靠 TOF 原理感测环境,ToF 能透过等待讯号反射传回测量讯号从源头到目标的传递时间,讯号频率决定系统使用的能量及準确性。因此,确定正确的波长在选择系统时是关键。
关于有源感测器种类,报告主要介绍 3 种:
超音波感测器:也称为声纳、声音导航测距。在有源感测器中,音波频率最低(波长最长),因此更容易被干扰,这也意味着超音波感测器很容易受不利环境条件影响,如下雨和灰尘。另外,其他音波产生的干扰也会影响感测器效能,需要透过使用多感测器和依赖其他种类感测器来缓解干扰。
雷达:主要以无线电波测距。无线电波以光速传递,电磁波谱中频率最低(波长最长),基于无线电波反射特徴,雷达感测器可探测到前方物体以外的东西。
不过,雷达讯号容易被具相当导电性的材料(如金属物体)反射,并其他无线电波干扰也会影响雷达效能,造成雷达感测器无法探测。确定探测目标的形状这点,雷达的能力不如光学雷达。
光学雷达:以脉冲光学形式使用光。光学雷达感测器以每秒 50,000~200,000 脉冲的速度扫描一个区域,并将传回讯号编译成 3D 点云图,透过比对连续感测的点云图、物体差异侦测运动,建立 250 公尺範围的 3D 地图。
规划
根据自驾车感测器套件撷取的初始资料和已有地图,自动驾驶系统需要同时定位和对映演算法构建和更新具体环境地图,追蹤具体定位,开始规划从一点到另一点的路径。
SLAM 与感测器融合
SLAM 是複杂的过程,因定位需要地图,而绘製地图需要良好的位置估算。为了更準确执行即时定位和地图构建,感测器融合开始发挥作用。
感测器融合是将多感测器和资料库结合,以改进资讯的过程,是多层次任务,能处理资料间的联繫和相关性组合资料,与使用单资料源相比,能获得更便宜、更高品质、相关性更高的资讯。
自驾车 AI 架构主要有两种方法:
- 逐步处理。把整个驾驶过程拆解为一系列逐层连线的流水线,其中每一步,如感测、定位、地图、路径导航、运动控制,都分别由各自软体套件处理。
- 端到端。基于深度学习的解决方案,一次性处理所有功能。
透过感测器融合,自驾车获得资料,不过如何从感测器讯号撷取有用的资讯,并基于现有资讯执行,需要利用机器学习演算法──CNN、RNN、DRL。
CNN(卷积神经网路):主要用于处理影像和空间资讯,撷取感兴趣的特徵和辨识环境物体。神经网路是由一个卷积层构成:一个过滤器集合,尝试区分影像元素或输入资料做好标记。卷积层汇出输入到演算法,演算法结合资讯预测影像的最佳说明。最后的软体通常称为物体分类器,因可分类影像里的物体,如交通号誌或另一辆车。
RNN(递迴神经网路):主要用于处理影片资讯,先前步骤汇出将输入网路,允许资讯和知识在网路持久存在并内化。
DRL(深度强化学习):DRL 允许软体定义的「代理」学习在虚拟环境使用奖励函数,达成目标最佳操作。这些针对目标的演算法将学习如何达成目标,或如何在多步骤下沿着特定角度最大化。目前,深度强化学习在自驾车的应用还处在起步阶段。
这些方法不一定独立存在。为了避免过度拟合,深度学习通常会多工训练网路。当机器学习演算法训练用于特定工作时,它会变得非常专注模仿训练的数据,以至于尝试插值或外推时,结果会不太现实。
透过多工训练机器学习演算法,网路核心将专注发现所有目的都有用的通用特徴,而不是专注于一个工作,以便输出更实际有用的应用程式。
利用感测器的所有资料和演算法,自驾车能探测周围物体。接下来,它需要找到一条路。
路径规划
车辆了解环境物体及位置后,可使用 voronoi 图(车辆与物体间的最大距离)、使用网格演算法或驾驶廊道演算法,确定车辆的大範围路径。然而,这些传统方法无法满足车辆于动态环境行动。
报告指出,部分自驾车不仅依靠机器学习演算法感测环境,还依靠这些资料来控制车子。路径规划可透过模仿学习传授给 CNN,CNN 会尝试模仿驾驶的行为。
通常情况下,这些机器学习方法会与经典的运动规划和轨迹最佳化方法结合,以确保路径的强健性。此外,出于其他目的(如减少燃料使用),车商还会在模型提供最佳路径参考。
车辆执行过程的神经网路训练和推理需要巨大计算能力,由于汽车需及时回应新数据,因此操作车辆所需部分处理需在车上进行,模型改进可在云端完成。
目前,机器学习的最新进展在有效处理自驾车感测器产生的资料,减少计算成本。此外,晶片製造和微型化进步也提高可安装于自驾车的计算能力。随着网路协定进步,自驾车或许能靠低延迟基于网路的资料处理,帮助自己自主操作。
执行
那幺,车辆是如何行动的?
人类驾驶的车子,转向、剎车或讯号等动作通常由驾驶控制。驾驶的机械讯号由电子控制单元(ECU)转换成驱动指令,再由电动或液压执行器执行。