
关于自动驾驶的想象差不多从有车的时候就开始了,而且现在的自动驾驶概念和上世纪50年代的自动驾驶概念并没什么本质的区别,那自动驾驶技术发展了这么多年,到底进化到什么程度了呢?

1956年的自动驾驶广告
坦白来说,自动驾驶是一个非常复杂的系统,所以想了解这项技术,Frank Rosenblatts的行动倒是很值得借鉴:了解复杂系统的最好方式就是把这个系统造出来。那么问题来了,造一台自动驾驶汽车总共分几步?

这倒也算自动驾驶
Step 1: 选择自动驾驶等级
如果想要让一台车可以自动驾驶,那首先要确定达到什么级别的自动驾驶,也就是大家现在耳熟能详的“L”级别。这个自动驾驶级别定义是源于SAE(Society of Automotive Engineers)J3016标准中对自动驾驶的级别定义,原文的风格是这样的。

别紧张,小编不会疯狂到把这个原文翻译(因为翻译了也没几个人能看懂),相比之下,小编会更喜欢维基百科的解释,因为达尔文系统的“解放人”就是这么来的。
L0:没什么可解放的。系统只会进行提醒,不参与驾驶,要实现这个功能直接某宝买一个有车道偏离提醒功能的车载记录仪就行。
L1:解放双脚。L1级别自动驾驶通常不包含方向盘控制,但会控制加速和减速,比较常见的就是ADAS系统,功能包括ACC自适应巡航,LDW车道偏离预警,AEC自动紧急制动等。目前ADAS系统已经非常成熟,也已经大量应用在量产车上,而且ADAS的部分功能在2018版C-NCAP碰撞安全的规则里占15分哦~

具有ADAS功能的北汽新能源EX3
L2:解放双手。L2级别的自动驾驶系统就会控制方向盘了,也就是会基本控制车辆了,当然,必须在驾驶员“全程监管之下”。需要注意的是,L2级别还是“高级辅助驾驶”,驾驶员需要对驾驶安全负全部责任,所以系统需要不断的提醒驾驶员不要分散注意力。
L3:解放双眼。L3级别的自动驾驶系统理论上是允许驾驶员“玩手机”的,自动驾驶系统必须在需要接管时提醒驾驶员。对于车企来说,宣传L3级别自动驾驶是需要特别谨慎的,因为现在已知的自动驾驶致死事故中,驾驶员在“最后时刻”基本都是在玩手机。
L4: 解放意识。L4级别自动驾驶系统理论上来讲是可以在驾驶员完全无意识的情况下进行驾驶,也就是说驾驶员完全可以在车内睡觉。如果L4可以实现,那酒驾被抓以后你完全可以向警察解释:我没喝多,但是我的车喝多了...
L5: 解放方向盘。L5自动驾驶可以称为“无人驾驶” 了,因为车内是完全不需要“驾驶员”的,自动驾驶系统负责车辆的全部动态操作。因为不需要驾驶员,Waymo车内的乘员可能是一个完全没有驾驶能力的人。
目前,对于汽车企业来说,考虑到技术成熟度和成本问题,自动驾驶路径基本是从低级别到高级别发展。

ARCFOX ECF自动驾驶级别将达到L2.5 图源:ARCFOX
而对于科技公司来说则会凭借软件和算法的优势更倾向于从高级别自动驾驶系统(L3以上)入手,因为很多时候,“人”本身才那个最危险的因素。
Step 2: 配置车辆
在确定了想要的自动驾驶级别以后,接下来就可以为车辆选配置了。一台具备自动驾驶能力的车一般包含感知,决策和执行三个部分。其中最重要的,也是最复杂的就是感知部分,毕竟在弄清楚“去哪儿”之前,总是得知道周边有什么吧。

图源:技术活儿
自动驾驶系统需要通过传感器来感知世界,目前世界上没有任何一种传感器可以完全满足自动驾驶的需求,所以现在的自动驾驶系统都是利用多种传感器的组合来构建周围的环境。主流的传感器配置方案有以激光雷达为核心的“仙派”,以及以摄像头为核心的“人派”。
“仙派”之所以被称之为“仙派”,是因为激光雷达在启动后,能构建出方圆百米的3D环境,这样自动驾驶系统就相当于有了“上帝视角”,可以实时监测百米范围内人、车的动态,无论白天还是黑夜。
“仙派”的功能固然强大,但是缺点同样突出,就是价格太贵。虽然在10年间激光雷达的价格已经下降了90%,但是“一个雷达抵一台车”的现实依旧没法改变。所以高昂成本催生出了可以把激光雷达成本再降低90%的“相控阵激光雷达”,以及“人派”。

北汽新能源硅谷实验室研发的相控阵激光雷达芯片晶圆
图源:技术活儿
“人派”,顾名思义,就是会更趋向于人的驾驶方式,利用车载摄像头和人工智能技术融合的“视觉”为主来感知世界。2016年某科技公司自动驾驶团队发表论文:《End to EndLearning for Self-Driving Cars》,文中提出自动驾驶系统利用卷积神经网络学习少量人工驾驶数据,使自动驾驶系统可以仅仅通过前置摄像头直接控制转向系统,并取得“惊人”效果。

端到端的学习架构 图源:Nvidia
“人派”的优势就是传感器配置成本非常低,而且信息利用率极高。MIT的人工智能科学家Lex Fridman就展示过现在麻省理工学院自动驾驶团队的视觉识别系统仅仅通过四层神经网络就可以感知周边环境。

MIT的视觉识别系统不仅可以感知环境还能感知驾驶员的行为
精于心,简于形的“人派”看起来取得最终的胜利只是时间问题了,有企业家甚至都迫不及待的用Doom来形容“仙派”了。但是,就像某行业大咖曾经说的:自动驾驶开发往往是你觉得干完了90%,但实际上还有90%的路要走。
图源:Waymo
“人派”现在最大的问题其实和人工驾驶一样,就是受环境影响太大,系统的“眼神儿”有时还不如人类靠谱。

该画面可能引起不适
而且考验“眼神”的情况也不胜枚举,这就引出了另一个问题:自动驾驶系统是怎么界定自己的安全边界?
某些行业收集自动驾驶系统人工干预时的数据,如果人工干预是涉及到安全问题,他们就会把这个场景定义为“安全边界案例”,并在未来自动驾驶系统更新时,修复这些问题。
目前某些品牌自动驾驶累计里程已经超过10亿英里了,相信在全球范围内也不会有自动驾驶系统经历过更多奇葩情况了,不过这也引出了另一个问题:现在的安全边界是“人”探索出来的,如果自动驾驶进入更高级别,在没有人工干预的情况下遇到安全边界的代价会不会非常高?

图源:Popular Mechanics
Step 3: 启动数据引擎
无论是选择“仙派”的“上帝视角”还是选择“人派”的“超级大脑”,或者是未来5G时代的“V2X派”,在配置完车辆以后,都要回归“天下武功,唯快不破”的数据时代黄金信条,所以一个可以处理海量数据的“数据引擎”就必不可少。
特别是对于驾驶而言,多一分延迟都有可能造成非常严重的后果。Joseph Redmon在TED分享YOLO视觉识别算法时,展示了如果两秒识别出一张图片的效果。[21]

这种识别速度和iPhone和支付宝刷脸的速度差不多,但是很显然如果自动驾驶系统基于这个识别速度进行行驶决策的话,比酒驾可恐怖多了。经过算法优化的YOLO v3现在的视觉识别速度已经达到每秒30帧,对于人脑来讲,已经是“实时”了。

除了四两拨千斤的算法优化,另一个影响数据引擎的就是车载计算机了。除了超强的计算能力,这个引擎“硬核”还必须稳定可靠,不能“蓝屏罢工”,同时还要控制功耗,毕竟自动驾驶不能缓解了“驾驶焦虑”又引来了“里程焦虑”。

数据引擎的重要程度并不局限于单台车,对于汽车公司依旧重要。因为在智能驾驶时代,车辆产生的数据量会是巨大的,而一个优质的数据引擎是盘活这些海量数据的基础。可以预见,在智能驾驶时代,数据引擎的技术地位绝对不会弱于燃油车时代的发动机。
Step 4:上路测试
如果完成了前三步,一台车应该具备自动驾驶能力了,如果想做测试,倒是建议可以先试试“第三届世界智能驾驶挑战赛”的42个场景。

不过即使挑战不成功也不要气馁,因为33个国内外的自动驾驶参赛队中只有4个队完成了挑战,其中有一个队叫北汽新能源“鲸智”队,他们的表现是这样的:
---▲点击播放视频---

-END-

更多北汽新能源产品详情请致电
北汽新能源华诚至宏4S店
销售热线:0898-68625170
售后热线:0898-68648192
地址:海口市南海大道豪门盛享汽配城


