案例展示

ca88好奇丨拆解无人驾驶车:你其实是坐在机器人

发布日期:2020-12-19 21:50

  无人驾驶出租车在北京上线。而这背后,都是哪些关键技术在支撑?无人驾驶车怎么知道“我是谁”“我在哪”“我该往哪儿走”?

  从2016年开始,随着汽车智能化、网联化的不断发展,无人驾驶技术也迎来了突破,而这背后,正是人工智能、传感器、5G、大数据、高精地图等基础技术的更新与迭代。自动驾驶,它从来不是一个人在战斗。

  无人驾驶车辆最早用于军事目的,如地面遥控或半自主无人战车,用于危险场合的侦测或后勤保障等。与传统汽车不同,无人驾驶车辆本质上还是一个机器人,并且是一个移动的机器人,也可以叫做“室外轮式移动机器人”,主要依靠以计算机系统为主的车内智能驾驶仪来实现无人驾驶。

  ▲工信部公示《汽车驾驶自动化分级》国家标准(报批稿)( 图片来源/视觉中国)

  与传统的机器人相比,这种轮式机器人的行驶环境是相对复杂的,并且在行驶过程中也需要遵守道路交通的特定规则,也就是公共交通秩序。

  一个经验丰富的司机驾驶车辆,不仅仅是用眼睛看这么简单,而是手脚思维并用。其中,手负责打方向盘,脚负责油门以及刹车踏板,眼睛负责观察路况,耳朵负责监听交通笛语,同时还要运用经验和思维来分析判断道路情况,完成直行、转向、并线、超车、跟随等动作,这几个方面可以说缺一不可。

  对应到无人驾驶车辆,这几个环节也是缺一不可的——传感器对应于司机的眼睛和耳朵;决策与规划系统利用算法进行计算,代替了司机的思维,甚至比有些司机更加“聪明”;控制器与执行机构代替了人的手和脚,这也是无人驾驶汽车的基本原理。

  和人类的眼睛一样,自动驾驶车辆这个室外轮式移动机器人,也有它自己的眼睛,用来识别周边的车辆、ca88!行人、障碍物等路上的情况。同时还要知道“我是谁”,也就是实现导航中的定位定姿,才能完成下一步的路径规划与行动。

  自动驾驶的眼睛是由什么构成的呢?答案是传感器。主要包括摄像头、激光雷达和毫米波雷达,其他的还有红外摄像头、超声波传感器等,这也是自动驾驶最基础的技术。

  摄像头和人类的眼睛最相似,它可以看清有颜色的标识、物体,也看得懂字体,分得清红绿灯。但是缺点也不少,比如在夜晚或恶劣的天气下它的视力就会严重下降,也不擅长远距离观察等等,这远远没有人眼灵活。

  实现无人车对外界的可靠感知,还需要其他传感器的配合,这时就轮到雷达出场了。

  目前雷达主要采用两种,一种是激光雷达,另一种则是毫米波雷达。先说毫米波雷达,这个毫米波,就是5G里那个大名鼎鼎的毫米波,它的穿透力很强,尘雾、雨雪都不是它的对手,所以以前它被广泛应用在卫星通讯、军工等领域。即便它无法识别高度,分辨率不高,也难以成像,但在辅助驾驶与自动驾驶领域,它也站稳了一席之地。

  另外一种激光雷达,是目前无人车发展的核心技术,工作原理是向目标发射探测信号,然后将接收到的从目标反射回来的信号与发射信号进行比较。激光雷达的优点是测距精度比较高,但它的缺点也很明显,让从业者“又爱又恨”。

  一是对环境要求比较高,比如在雾霾天气里精度就会降低很多;二是成本实在太高了,有时激光雷达价格甚至比一辆汽车还高,这对于商业化来说是无比致命的。

  无人车收到各种传感器获取的信息之后,还需要做传感器融合,把每个传感器看到的东西全部都叠加在一起,根据每种传感器的优缺点来综合评判信息的准确度,得到更可靠的最终结果。这样即便某只眼睛暂时失明,对安全前行的影响也是很有限度的。

  传统的定位定姿技术一般采用惯性导航技术或卫星导航技术(如GPS、北斗导航等),但高精度惯性导航技术,价格昂贵,需要发展依赖于高精地图等的低成本、高环境适应性的自主导航技术。

  相比服务于传统导航系统的普通电子地图,高精地图最显著的特点是其表征路面特征的精准性。普通地图只需要做到米级精度即可实现导航,但高精地图需要达到厘米级精度才能保证无人车行驶安全。

  高精地图定位的核心技术包括深度学习、图像识别、三维视觉、SLAM技术(即时定位与地图构建)以及基于此的大数据云服务,还需要拥有深厚的技术积累和丰富的行业经验。

  此外,高精地图还需要比普通地图有更高的实时性。由于路网每天都有变化,如整修、道路标识线磨损及重漆、交通标示改变等。这些变化需要及时反映在高精地图上,以确保无人车行驶安全。

  因此,制作第一张地图只是完成了10%的工作,剩下的90%精力都是在不断更新地图当中。更新的速度越快,更新的内容越精准,拓展市场的份额也就越大。

  但随着越来越多载有多种传感器的无人车行驶在路网中,一旦有一辆或几辆无人车发现了路网的变化,通过与云端通信,就可以把路网更新信息告诉其他无人车。

  比如在北京经济技术开发区,每天都有无数辆自动驾驶车跑来跑去,也会和社会车辆混合行驶,它们不仅在测试自动驾驶能力,也在为高精度地图采集和更新数据。

  从2019年开始,汽车厂商、风投机构等均意识到了高精度地图的重要性,高精地图发展迎来了黄金期;美国、日本、以色列、荷兰等多国已经进行了比较成熟的探索;国内方面,截至2019年5月,已经有19家企业获得导航电子地图制作甲级测绘资质,百度、腾讯、阿里等企业通过资本运作的方式,收购现成测绘公司,进军高精度地图领域,滴滴、四维图新等企业也在频频发力当中。

  对于周围的车辆或其他障碍物,无人车是需要避让、停下来,还是需要超车,这些都属于约束条件。无人车需要在所有的约束条件中,规划出一条可以行走的路线,这就涉及到了决策与规划技术。

  决策与规划技术需要环境感知技术作为基础,而在所有这些无人驾驶关键核心技术中,人工智能开始发挥越来越重要的作用。

  也是从这个阶段开始,单纯依靠汽车工程师或是机械工程师已经不行了,人工智能、计算机视觉专家需要更多地参与到这个过程当中。

  相对比较复杂的,其实是决策与路径规划的问题,无人车需要在所有的约束条件中,规划出一条可行的路线。目前主流的决策技术有两种,专家规则式和AI式。

  专家规则式,即提前编写好规则,当需要做决定的时候必须严格遵守这些规则。举个例子,当准备超车变道时,道路半径大于500R(弯道不变道);跟目标车道上的前后车的距离都在20m以上;比后车的车速慢不超过5km/h等等以上N个条件同时满足时,即可超车变道。

  AI式,就是一直很火的人工智能参与,它通过模仿人类的大脑,用AI算法对场景进行理解,或者是通过大量的犯错得到大量的数据,这些数据被传回云平台用作深度强化学习的训练样本,最终“驾驶脑”的驾驶技术将呈现级数式的增长。

  然后是控制,无人车不是简单的齿轮综合体,实现对无人车的控制,需要知道踩刹车和减速的关系、踩油门和加速的关系等等,当实时路径规划完成,并拿到一些车体动力学参数后,就可以实现对无人车的纵横向控制。

  综合起来说,一辆无人驾驶车,必须有内外兼修的功夫,所谓“外”,指的是计算机视觉技术、雷达技术、传感器技术、高精地图等外部技术或者数据提供支持;所谓“内”,就是说要有强大的终端算理和算法来提供“大脑”处理支撑。

  当然,这也只是个简单而基础的框架,无人驾驶还有更多的细节性技术难点需要研究和攻破。

  前面说了,无人驾驶技术需要“内外兼修”,但就目前的技术水平来看,实现线级自动驾驶尚且有一定难度,很大原因在于环境感知实在太难了,这也引发了技术路线上的差异。

  最有意思的标志性事件,是特斯拉的创始人马斯克在发布自家Autopilot 3.0的时候,公开表示“激光雷达太蠢了,谁用谁完蛋”,炮轰了整个无人驾驶领域。

  马斯克在发言中坚持的“弱感知+超强智能”技术路线,是指主要依赖摄像头与深度学习技术实现环境感知,而不依赖于激光雷达。

  这种技术路线有点仿生学的味道:既然人可以靠一双眼睛就可以开车,那么车也可以靠摄像头来看清周围环境。

  ▲在美国,自动驾驶状态下的特斯拉汽车频频出现撞货车的事故(图片来源/nytimes)

  所以当前水平的深度学习,离人们期待的“超强智能”还是有不小差距的;至于什么时候能达到甚至超过人类的水平,不知道。

  于是乎另一种技术路线出现了,如果超强智能暂时难以达到,那我们给车赋予超过人类眼睛的感知能力,是不是也行呢?这就是“强感知+强智能”的技术路线。

  这其实是一种“简单粗暴”的解决方案,用千里眼把所有角落都扫一遍,理论上周围有啥都能知道;再加上一点学习算法,就可以勾勒出障碍物的范围,知道车往哪里开了。

  举个不算恰当的例子,葫芦娃中的二娃,他不像铁娃、火娃一样拥有超强技能,是个心地单纯、缺乏计谋(非超强智能)的毛孩子。通常来说碰到妖怪只能束手就擒。但事实上,凭借着千里眼的特异功能(强感知),他也打了不少胜仗。

  在目前深度学习遇到瓶颈的情况下,这种技术路线通往高阶自动驾驶可行性更大一些。事实上玩家也并不少,像谷歌Waymo、百度Apollo、Uber、福特汽车、通用汽车等自动驾驶企业、出行企业、传统车企,都处在“强感知+强智能”的技术阵营中。

  随着5G网络建设的部署完成和商业化的不断推进,未来3-5年内,车与车、车与路、车与行人之间的车联网体系有望构建。

  另一方面,随着无人驾驶汽车路测公里数的增加,随之而来的是场景应用水平的大幅提升和算法的不断优化,加上近年来逐渐崭露头脚的车载芯片产业,汽车自身深度学习的能力将大大提升,这也足以让自动驾驶变得更加“聪明”和“灵活”。

  但无人驾驶面临的最大挑战,还是安全方面的问题,在5G、数字孪生等技术的支撑下,如何在开放环境当中保证100%的绝对安全,如何尽快把安全员从车内转移到车外,依然是需要重点关注和攻克的难题。