大数跨境

【智能科技月报】蔚来的“自动驾驶致死”事故--技术走在标准前,概念走在技术前(2021年8月,第28期)

【智能科技月报】蔚来的“自动驾驶致死”事故--技术走在标准前,概念走在技术前(2021年8月,第28期) 上实资本科技基金
2021-08-30
3


概述
日前,一位蔚来车主在驾驶蔚来ES8时开启了“自动驾驶”功能,随后遭遇车祸身亡,该事件将自动驾驶推到了风口浪尖。在此之前,特斯拉等车企的车辆在自动驾驶中也曾出现多次事故。
根据国际汽车工程师学会(SAE)和中国工信部的《汽车驾驶自动化分级》(报批稿)分级标准,在L0L5六个汽车驾驶自动化等级中,L3/4/5才属于“自动驾驶”范畴,L1/2应被称为辅助驾驶。市面上目前所谓的各种“自动驾驶”,在技术上仍属L2+级别,L2+使用了L3/4自动驾驶系统硬件,但软件功能还停留在L2阶段,仍属辅助驾驶功能。
除却现有车辆自动驾驶能力有待提升外,车辆自动驾驶的权责问题、车企对自动驾驶的宣发问题也是造成悲剧的原因之一。在宣传上模糊用词,书面材料里却绝不承认是L3——只要不是 L3,驾驶权限和责任就全部在驾驶员。这也是消费者吐槽的一点:买之前自动驾驶,出事故辅助驾驶。
吸纳了巨量资金、人才,坐拥一批拥趸盛赞与期待的特斯拉、蔚来、理想、小鹏等车企,是汽车技术发展和商业蓬勃的最直接和集中的受益者,它们有理由多做一步,而不是刚刚好满足法规,刚刚好“及格”。

目 录 

(一)蔚来事故:一场并不意外的致死意外
(二)蔚来事故引发自动驾驶信任危机| 甲子光年
(三)工信部再发征求意见稿,指向自动驾驶和OTA
(四)31岁企业家命丧蔚来汽车,是谁惹的祸?
(五)自动驾驶引发的致死车祸,没有一方是无辜的

注:本文仅提供观点概述,原文请点击文末链接跳转查看。


蔚来事故:一场并不意外的致死意外
2021-08-18 来源:晚点团队 - 晚点LatePost

812日下午,31岁的美一好创始人林文钦在驾驶蔚来ES8汽车,并启用“NOP领航”功能的情况下,于沈海高速发生交通事故不幸逝世。
事故后双方的争议,在于蔚来的后续操作与数据披露流程。林文钦家属及其代理律师林丽鸿告诉《晚点LatePost》,812日下午事发约3小时后,事故车辆被运送至莆田交警指定停车场。一段林亲属方提供的视频资料显示,自称停车场工作人员的人士描述,在交警和家属到达停车场之前,已有两名得知车辆定位的蔚来公司人员先行到达,并对车辆进行了类似“线路连接”的操作。家属认为,蔚来有删改数据的嫌疑,要求蔚来公开事故车辆所有行驶数据。816日,蔚来公开回应“公司没有任何删改数据的行为”。代理律师林丽鸿告诉《晚点LatePost》,从12日事发至今,蔚来尚未向他们提供完整车辆数据;在和蔚来的三次沟通中,蔚来第一次向家属答复不能提供后台数据,第二次说可提供给警方,第三次要求家属写书面申请,走内部流程。这之后,林文钦家属得到了“3页纸”,他们称“只有一些基本信息”,不包含碰撞预警、提示接管、何时提示前方障碍物等具体车辆指令数据。
蔚来品牌部人士在事故后强调,“领航辅助”不是自动驾驶。而翻阅蔚来《ES8用户手册》,其中对NOP如此描述:“领航辅助(Navigateon Pilot, NOP)是导航系统与Pilot自动辅助驾驶深度融合的功能。”“自动驾驶”、“领航辅助驾驶”、“Pilot自动辅助驾驶”,是不同人的不同语境中,同一个NOP的三种分身。消费者稍不留神,就会迷失在种种似是而非的说法里,埋下高估系统、低估风险的种子。
林文钦的悲剧,不是自动驾驶发展过程中的第一起,也不会是最后一起。它并非不可预料的意外,而是一种久被讨论的风险的实现,是技术走在标准前,概念走在技术前所导致的必然结果。我们是否接受以生命安全风险为代价发展新技术?技术发展的最大受益方在享受高估值和财富收益时,是否对风险做出了足够的提示?为避免悲剧,监管、企业、行业、个人都做出足够的努力了吗?

弱点没有被抵抗反而被放大

仅从最书面、正式的表述,即发放给车主的《ES8用户手册》来看,蔚来确实对NOP给出了使用警示。用户手册中用带框的特殊格式,警告了NOP的使用注意事项:辅助驾驶无法响应静态障碍物(如路障、三角警示牌等),如前方存在事故或施工区域,请立即接管车辆以控制方向和速度在这次的沈海高速事故中,林文钦撞上的正是一辆停在路上、周围摆放了雪糕筒路障的公路养护车。
同济大学汽车学院教授、汽车安全技术研究所所长朱西产告诉《晚点LatePost》,量产车上目前都是辅助驾驶,如果消费者在车企官网及可作为法律文本的《用户手册》上看到企业称其功能为自动驾驶,可以涉嫌销售欺诈为由上诉。蔚来在这一点上很严谨,检索全长10.7万字的《ES8用户手册》,自动一词出现395次,其中5次出现在自动辅助驾驶词组中,而自动驾驶只出现了一次,且是在一个否定句中,强调Pilot无法实现自动驾驶。
然而到了具体销售环节,顶着卖车压力的销售员进一步褪去了书面材料的半透面纱,滑向明明白白的过度承诺。

立法跟不上发展

在现有法律法规体系下,驾驶员在使用智能电动汽车的新功能出现事故时,常会陷入责任方难以界定、具体界定流程缺乏参考的真空地带。争议焦点之一是数据归属权和解释权。此次林文钦事故中,家属当前的主要诉求之一,就是希望蔚来尽早开放事故车辆数据。
爆发于今年4上海车展的特斯拉车主维权事件中,双方也围绕数据多番争论。直到监管部门介入后,特斯拉才开始提供数据、配合调查。但最后又回到了这些数据应由谁来鉴定的老问题。
工信部813日发布的《关于加强智能网联汽车生产企业及产品准入管理的意见》里规定,责任部门和责任人(车企)有义务确保数据持续处于有效保护和合法利用的状态。但目前并没有细化规则来指导事故发生后,保存、提供和分析数据的流程,也没有足够手段保证数据的真实性。
同时,智能电动汽车也在改变汽车业商业模式和供应链分工,这也增加了事故发生后的定责难度。中国人民大学法学院副教授、未来法治研究院副院长王莹告诉《晚点LatePost》,自动驾驶事故责任与技术分级、驾驶员与车辆的驾驶权限分配相关,一般而言,随着技术级别提高,自动驾驶系统承担的驾驶任务比重提高,其责任也相应提高。尤其是L3L3以上级别自动驾驶涉及人机共驾的权限界分问题,事故责任认定更加复杂,涉及驾驶员、厂商之间的责任分配;且厂商里又有多方角色,有整车厂、设备供应商、自动驾驶系统提供商,在智能网联汽车环境中,还包含网络服务提供商。所以这是一个涉及多元技术主体的责任分配问题。
快速的技术发展和复杂的责任认定,增加了法律上确定自动驾驶分级的难度。工信部原定于今年1 月正式实施的《汽车驾驶自动化分级》实际仍未实施,处于报批状态。同时,公安部于今年3 月发布的《道路交通安全法(修订建议稿)》也并未对自动驾驶分级进行法律规定。立法进度、监管手段,现在都被技术和商业演进甩在了后面。

激进特斯拉VS 谨慎Waymo

特斯拉、蔚来等公司实际上选择了一种自动驾驶进化路线——将没有完全成熟的自动驾驶能力搭载到量产车上,卖给尽可能多的车主,这些车主使用自动驾驶功能时,也在帮助特斯拉收集数据、优化算法和快速迭代系统,最终帮助低级别自动驾驶进化成全无人驾驶。严重点说,这相当于把一个有风险的半成熟产品直接卖给了一群对其不甚了解,甚至还被误导了的小白鼠
正是这种路线选择,给监管带来了挑战。中国人民大学法学院副教授王莹告诉《晚点LatePost》,当辅助驾驶处于 L2 及以下的级别时,理论上并没有改变交通行为法中的法律关系与权责划分,仍应根据现行交通法律法规定责。而L3及以上,则进入了真正自动驾驶的范畴,车辆系统需要部分或全部为驾驶行为负责,这意味着车厂或将为交通事故担责。把握住这一点的马斯克,虽然会在口头说FSD能实现完全自动驾驶,并常在Twitter宣扬特斯拉自动驾驶功能的安全性,但在各种正规文件,比如2020年底特斯拉给美国加州车辆管理局(DMV)的信件中,特斯拉会称自己是SAE分级标准下的L2水平,即低级辅助驾驶系统,需要人对驾驶行为负责。
与激进的特斯拉不同,Google选了另一条实现高级别自动驾驶的路线——直接研发无需人类参与的自动驾驶技术(L4及以上),成熟后再推向市场。Google称,他们很早就看到了低级别辅助驾驶的危险,在2013年前后的早期测试中,Google发现,测试人员一旦熟悉了辅助驾驶系统,就会摒弃时刻注视道路,保持警惕的工作要求,开始在车上睡觉、化妆、使用电脑办公。就公开信息而言,Waymo尚未发生过致死事故。根据Waymo披露的数据,20191月至20209月,其在美国亚利桑那州凤凰城共发生18起实际碰撞事故,原因全是对方违反交通规则。
从初衷看,Waymo的路线更理想主义,充分考虑安全风险;特斯拉路线则更多考虑了系统迭代的效率,本质上是一种以一定事故风险为代价加快技术进程的发展方式。残酷的现实是,理想主义路线在经济收益上还比不过实用主义。

同化在发生,变化也在发生

在显见的商业成功和技术进展下,被特斯拉同化,成为更多车企的共同选择。一些厂商学会了特斯拉的鸡贼一面,宣传上模糊用词,书面材料里却绝不承认是L3——只要不是L3,驾驶权限和责任就全部在驾驶员。小鹏称自己的自动驾驶辅助系统是L2.5,奇瑞则发明了“L2.99”
但不能否认的是,特斯拉的整体思路:以大规模售卖L2.5L2+辅助驾驶走向高级别自动驾驶可能是行之有效的技术演进方法。
当技术已经进步,驾驶方式已经改变,一棍子把大家打到更早先的状态不太可能。事实是,量产的L2+辅助驾驶技术正和越来越多普通人发生关联。中国工业和信息化部装备工业一司司长罗俊杰今年6月在中国汽车重庆论坛上透露,2020年,中国装载L2智能驾驶的乘用车销量超过300万,已占汽车总量的约15%
变化正发生在监管方面,816日,带火量产自动驾驶风潮的特斯拉正面临新一轮审查,涉及其从2014年以来销售的76.5万辆汽车,覆盖全部车型。那之前的3天,工信部发布的《关于加强智能网联汽车生产企业及产品准入管理的意见》明确规定汽车厂商要严格履行告知义务,同时禁止车企在未经审批时,通过在线软件升级新增或更改汽车自动驾驶功能。
车企也在自查、反思。蔚来事故发生后,理想汽车创始人李想于周一傍晚在微信朋友圈呼吁媒体和行业机构统一自动驾驶的中文名词标准,一个多余的中文字也不要有,避免夸张的宣传造成用户使用的误解
 

点击这里阅读原文 
蔚来事故:一场并不意外的致死意外
 
蔚来事故引发自动驾驶信任危机| 甲子光年
2021-08-20 来源:赵健甲子光年

812日,餐饮创业者林文钦在沈海高速涵江段发生交通事故离世。事故发生时,其驾驶的蔚来ES8汽车处于启用NOP(领航辅助驾驶系统)状态。围绕NOP的安全性引发巨大争议,截至目前,案件还在调查之中。
美国机动车工程师学会(Society of AutomotiveEngineers,简称SAE)曾对自动驾驶做了6个分级,包括“驾驶员支持系统(国内一般称为辅助驾驶系统,范围为L0~L2)”和“自动驾驶系统(L3~L5)”,并明确了各个级别自动驾驶的责任主体。去年3月工信部发布《汽车驾驶自动化分级》文件,基本沿用了美国SAE的标准。
AutoX创始人肖健雄告诉「甲子光年」,现在行业有一些错误的舆论来混淆概念,比如弄出一个“自动驾驶”,既不是“辅助驾驶”,又不是“无人驾驶”,那什么是“自动驾驶”?
对此,理想汽车CEO李想就在朋友圈呼吁媒体和行业机构统一自动驾驶中文名称的标准,“L2L3什么的用户听不懂,都是专业话术。建议统一名称:L2=辅助驾驶;L3=自动辅助驾驶;L4=自动驾驶;L5=无人驾驶,一个多余的中文字也不要有,避免夸张的宣传造成用户使用的误解”。
用户对系统的充分信任有可能会酿成大祸。78日,在世界人工智能大会上,心直口快的前华为智能驾驶总裁苏箐评价特斯拉近几年的高事故率,“机器进入人类社会和人类共生的时候,机器是一定会造成事故率的,讲难听点就是‘杀人’,只是说我们要把它的事故概率降到尽量低。从概率上来说,这就是一件有可能发生的事。”由于出现了“杀人”的不当言论,苏箐因言获罪而被免职,但其言论似乎直戳“皇帝的新衣”。

自动驾驶真的安全吗?

虽然事故频发,但业内一般认为自动驾驶的“AI司机”依然比人类司机更安全。自动驾驶的意义在于,它的驾驶水平可能不会高得像熟练的赛车手,但它能稳定地维持在一定水平,不会出现人为驾驶时疲劳、分心等问题。所以总的来说,自动驾驶比人类自主驾驶更安全。
不过也必须承认,当下的自动驾驶水平远远比不上老练的司机,更像一个新手或者中等熟练程度的司机。更重要的是,自动驾驶当下还存在很多没解决的问题,尤其是10%的长尾问题——经常被称为CornerCase(极端案例)。
以这次蔚来汽车事故为例,蔚来的NIOPilotNOP)辅助驾驶系统使用了毫米波雷达+摄像头的组合方案。摄像头对黄色和白色等与天空颜色比较接近的物体识别率比较低,毫米波雷达本身的成像原理是多普勒效应,对移动物体的识别度比较高,对相对静止的物体识别度并不高。
这是一个行业的普遍现象,包括特斯拉在内的所有车企,目前的高阶驾驶辅助系统对于相对静态的障碍物、雪糕筒在内的物体,识别起来都是一个难题。这意味着,在没有完全解决CornerCase的情况下,自动驾驶就依然需要有驾驶员介入。
然而在现实中,自动驾驶技术被当成核心卖点已经成为车企的重要营销手段。特别是在一线销售过程中,销售往往会夸大车辆的自动驾驶功能。除了蔚来,去年至今国内主流车企都已推出L3级新车。业内多位人士表示,自动驾驶技术已经被车企过度营销。这也是消费者吐槽的一点:买之前自动驾驶,出事故辅助驾驶。
2016120日,在京港澳高速河北邯郸路段发生了中国首例、也是全球首例特斯拉自动驾驶致死事故。一辆特斯拉直接撞上一辆正在作业的道路清扫车,司机高雅宁当场身亡。后来经交警认定,司机负主要责任。后来,其家属以“宣传误导”的名义将特斯拉告上法庭。直到今天,此案件仍未判决。

“拿命跑数据”?

自动驾驶形成了两类派别:一是以特斯拉为代表的渐进式路线或者量产路线,从低阶的L2做到高阶的L5,这一派以车企为主;另一派则是谷歌旗下Waymo为代表的跨越式路线,从一开始就冲向高阶自动驾驶,目标就是拿掉司机,比如常见的RobotaxiL4Robotruck等。
今年,Waymo高管层震动,包括CEOCFO在内的8名高管先后离开公司。在商业化难以落地的现实下,跨越式路线似乎遇到了一些困难。但是,渐进式路线一直以来也遭受争议,其中与消费者切身相关的就是“拿命跑数据”。
一位基金投资人告诉「甲子光年」:“算法的升级需要数据。如果是在封闭道路测试,永远会有碰不到的CornerCase,也就永远缺乏相关数据;而到了公开道路,长尾事故会采集相关数据,而代价就是人命。”
正是由于数据的稀缺性,也有自动驾驶公司将渐进式路线和跨越式路线进行了融合,代表企业为Momenta和百度。
Momenta为例,采取了“两条腿”走路的路线:一是MPilot产品线(可对比蔚来的NIOPilot),将其卖给车企或Tier 1(一级供应商),提供泊车、高速、城区等场景的自动驾驶功能;二是MSD产品线,通过一套工具链来处理MPilot带来的真实行驶数据,实现L4级自动驾驶。

法规监管利好第三方服务机构

20206月,联合国欧洲经济委员会(UNECE)发布了《ALKS车道自动保持系统条例》(ALKS,自动车道保持系统),这是全球范围内第一个针对具备L3级自动驾驶能力量产车型的国际法规,但中国表示暂时不会应用该法规。
上周,工信部印发了《关于加强智能网联汽车生产企业及产品准入管理的意见》,其中要求:“企业实施在线升级活动前,应当确保汽车产品符合国家法律法规、技术标准及技术规范等相关要求并向工业和信息化部备案,涉及安全、节能、环保、防盗等技术参数变更的应提前向工业和信息化部申报,保证汽车产品生产一致性。未经审批,不得通过在线等软件升级方式新增或更新汽车自动驾驶功能。”
这不是监管部门第一次针对OTAOver-the-AirTechnology,空中下载技术)出台文件。去年11月和今年6月,国家市场监督管理总局分别发布通知,规定需要对产品进行OTA升级的企业,需要向市场监管总局质量发展局备案。
除了企业需要加强相关测试验证和检验检测能力建设之外,这也意味着第三方检测和服务机构会迎来利好。这次《意见》里明确要求确保汽车产品至少满足系统失效识别与安全响应、人机交互、数据记录、过程保障和模拟仿真等测试验证的要求。
 
点击这里阅读原文 
蔚来事故引发自动驾驶信任危机 | 甲子光年

工信部再发征求意见稿,指向自动驾驶和OTA
2021-08-15 来源:梓楠法师虎嗅APP

813日,继国家网信办发布智能汽车隐私安全征求意见稿后,工信部也发布了《关于加强智能网联汽车生产企业及产品准入管理的意见》(下称“意见”)。
虽然该征求意见稿尚未转变为具体法规,但面对智能汽车存在的乱象的管理办法和原则已十分清晰。工信部的意见中,对智能汽车数据与网络安全、汽车软件在线升级、智能汽车产品管理等方面均提出了指导意见。
“工信部和网信办的表态非常全面且贴合实际,这对平时不守规矩的企业提出了严格的要求”,一位智能汽车企业内部人士对虎嗅表示。

隐私安全是重中之重

在车辆数据安全方面,工信部主要提到了两点:数据安全管理能力和网络安全保障能力。
其中在数据安全管理能力方面,建议企业建立汽车数据安全管理制度,履行数据安全保护义务并明确权责。此外,企业应确保数据持续处于有效保护和合法利用的状态。这一条款对车辆收集的用户信息以及车辆收集的道路、地理情况等信息都做出处理规定。
“工信部关于车辆数据隐私的表态是行业的意料之中,但有效保护和合法利用的界限一直未明确”,前述车企内部人士表示。不过在国家网信办此前的征求意见稿中,对车企采集车内数据的方式及数据储存方式都提出了明确的要求。若实际的法规按照网信办的要求执行,则意味着几乎所有车企在用户隐私数据安全方面都需要做出巨大调整。
“监管部门要求部分数据只能存7天,但现在几乎所有的车企储存数据都是以年为单位”。
除却数据使用和保护外,这一条款也对数据的出境做出明确规定。企业在中国境内运营中产生的数据应在境内储存,需要向境外提供的,应当通过数据出境安全评估。这一法规的确定,将对特斯拉等跨国车企以及部分在中美等国运营自动驾驶车辆的自动驾驶公司产生实际影响。据特斯拉此前在“刹车门”事件中的表态,其将在中国境内建立数据处理中心。不过截至目前,特斯拉并未透露相关处理中心的建设进展。
除隐私数据外,意见稿中的第二项则指向车企对数据的保护能力。其中提到,车企应具备保障汽车电池电气系统、组件和功能免受网络威胁的技术措施,确保车辆及其功能处于被保护状态,保障车辆运行安全。
从字面意思理解,就是车企自己要保护好终端,避免车辆被黑客攻击。这听起来很离谱,但据虎嗅此前了解,目前的智能网联汽车是可以被黑客攻破以实现锁车、开天窗等动作的。一旦行驶中的车辆被攻破,就意味着车毁人亡。
此外,根据意见的原则,在车辆以外的数据处理中心,车企也要建立完善的保护机制,避免用户隐私泄露。

规范OTA、自动驾驶等功能

智能汽车系统升级和自动驾驶功能也是未来监管的重心。工信部的意见显示,车企在生产具有OTA能力的车型时,应建立于汽车产品及升级相适应的管理能力。车企在进行在线升级前,应当确保汽车符合法律法规、技术标准及规范等要求,并在工信部进行备案。升级涉及技术参数变更的,要办理相应变更手续。
OTA外,意见稿中对自动驾驶车辆的规定也十分清晰。意见指出,企业在生产具有自动驾驶和辅助驾驶功能的车辆时,应明确告知驾驶员车辆功能及性能限制、明确自动驾驶时驾驶员的职责以及人机交互设备的指示信息。用浅显的话说,可能以后买自动驾驶车辆的用户,上车前真的要“培训一下”。
为了车辆在自动驾驶中的安全,意见稿也对自动驾驶车辆的硬件提出要求。具有自动驾驶功能的车辆,至少要满足系统失效识别与安全响应、人机交互、数据记录、过程保障和模拟仿真等测试验证的要求。应当确保汽车产品具有安全、可靠的时空信息服务,鼓励支持接受北斗卫星导航系统信号。
  
点击这里阅读原文 
工信部再发征求意见稿,指向自动驾驶和OTA

31岁企业家命丧蔚来汽车,是谁惹的祸?
2021-08-15 来源:王笑渔虎嗅APP

前华为智能驾驶总裁苏箐曾说:“普通用户对新科技产品有一种倾向——一开始完全不信任,但一旦他试过,他觉得很好的,就会变得非常非常信任,这个时候就是出事故的开始。”
在安全教育上,车企做的工作永远都是不够的。

两条人命,自动驾驶惹的祸?

812日,林先生驾驶蔚来ES8在智能辅助驾驶状态追尾前车后,事故车辆损毁严重,发动机盖已经完全掀起,A柱损毁,顶棚发生严重挤压变形,车辆左前和驾驶位车门变形严重,两前轮损毁。
730日凌晨5点多,上海浦东新区发生一起严重交通事故,一辆蔚来EC6在高速上撞击石墩后起火,随即剧烈燃烧。驾驶员未能及时逃脱,不幸遇难。蔚来官方把目光转移到了电池自燃上,蔚来上海区总经理“庆华”在蔚来官方社区上发布声明称:“自己和同事都在场,初步判断电池包基本完好。”但官方始终未公布车辆发生事故时是否开启辅助驾驶功能。
另外,据湖南高速交警发布的消息显示,在今年7月,G25长深高速往南京方向2242公里附近,高速施工区域内发生了一起交通事故,一辆苏D牌照的新能源轿车冲入施工区域,追尾了正在施工撤除作业的施工养护车辆,事故造成两车损坏,施工预警设施受损,两车人员不同程度受伤。
从路况和事故撞击点来看,三件事故有一定的关联性——都是开着蔚来汽车行驶在高速上、都撞击了静止或者缓慢行驶的物体。最后决定事故结果的,无外乎车辆的行驶速度,速度越快,死亡概率就可能越大。

辅助驾驶的缺陷,藏得太深

2020926日,蔚来在北京车展上发布Navigateon PilotNOP)领航辅助,随后不久就开始向用户推送升级,领航辅助实现了在指定路径下按照导航路线自动辅助驾驶的功能。
它是在自适应巡航、车道偏离抑制等功能的基础上,通过接入导航系统,能进行自动变道超车、驶入/驶离匝道、根据道路信息控制车速等智能化操作。本质上,就是一个L2级辅助驾驶的功能,因为绝大多数企业会采用摄像头+毫米波雷达的融合方案,来实现L2级自动驾驶能力,更准确的说是ADAS辅助驾驶,比如自适应巡航、车道保持等功能。
融合摄像头数据和毫米波雷达数据最大的障碍在于,毫米波雷达信噪比很低,换句话说有大量误检测。将视觉感知结果与毫米波雷达结果进行融合时候,
如果视觉和毫米波感知结果不一致,惯常做法是相信视觉,忽略毫米波检测结果,但这也是事故的开始。特斯拉著名的“撞白色货车”的事故,就是毫米波雷达惹的祸。
因为毫米波雷达无法测出货车上方桥梁和道路指示牌的高度,在毫米波雷达的“眼里”,静止的货车、桥梁、指示牌都是地面上的物体。这种情况需要屏蔽毫米波雷达的信号,但显然事故发生时是没有的。
但可能很多购买者并不清楚系统的失效情况。比如,蔚来在用户手册中明确指出,领航辅助“Beta版本”为公开测试版本,功能尚处于持续优化阶段。还有在手册中明确写道:“与Pilot和其他驾驶辅助功能一样,‘领航辅助’无法响应静态障碍物(如路障、三角警示牌等),如前方存在事故或施工区域,请立即接管车辆以控制方向和速度。”

车主教育环节缺失,车企难逃责任

目前,绝对大部分车企的产品,都在L2级或者L2级以下,也就是说,驾驶员及系统对目标和事件探测与响应。到L3级以上才由系统全权负责,驾驶员只需要进行动态驾驶任务的接管。换而言之,现在的L2级辅助驾驶必须由人类驾驶员“全权负责”。
但问题在于,不少驾驶员并没有对自己的驾驶行为负责。一种情况是车企并未告知车辆功能的风险,另一种情况就是驾驶员明知风险,还要鲁莽行事。蔚来的NOP可能是属于前者——没有极大程度告知用户车辆的风险。
一位蔚来EC6车主向虎嗅证实,开启辅助驾驶功能,并不需要经过观看视频或者答题等类似的学习环节。一名蔚来销售人士也得到确认,“试驾的时候有讲解,而且强调L2级别仍然属于辅助驾驶级别,需要车主时刻准备接管。但教学视频应该是没有。”
对辅助驾驶功能的学习,是每一位智能汽车购买者的必修课。
就小鹏汽车来说,它此前推出自动导航辅助驾驶NGP功能,如果车主想要使用这个功能,必须在App上观看功能介绍的视频,并通过考试题,最后才能在车机上的辅助驾驶设置菜单中,开启这个功能。
而且长达5分钟的功能介绍视频,是无法快进的。在视频后半段,几乎都在警告车主需要注意的地方,包括:车辆交给他人使用时需要观看该视频、NGP并不是完全自动驾驶,驾驶员应全程握好方向盘,观察路况,及时判断。
2021款理想ONE在交付用户时,需要经过两道教学。首先会在提车时交给用户一张“辅助驾驶必读”,在激活车辆后,必须观看辅助驾驶功能的视频,才能开启相关功能。
显然,蔚来这些关键步骤上都是缺失的。
就在812日,工信部发布《工业和信息化部关于加强智能网联汽车生产企业及产品准入管理的意见》,其中多条规定明确指向了自动驾驶。
比如,明确未经审批,不得通过在线等软件升级方式新增或更新汽车自动驾驶功能、企业生产具有自动驾驶功能的汽车产品的,应当确保汽车产品至少满足系统失效识别与安全响应、人机交互、数据记录、过程保障和模拟仿真等测试验证的要求。

当然,还有非常严重的一条,关乎企业存亡——《意见》明确企业应当建立自查机制,发现产品存在数据安全、网络安全、在线升级安全、驾驶辅助和自动驾驶安全等严重问题的,应当依法依规立即停止相关产品的生产、销售,采取措施进行整改,并及时报告

 

点击这里阅读原文 
31岁企业家命丧蔚来汽车,是谁惹的祸?


自动驾驶引发的致死车祸,没有一方是无辜的
2021-08-17    来源:宇多田虎嗅APP

L3这个自动驾驶等级是一个有关安全责任归属的临界点,往下级走,驾驶权仍然掌握在司机手中,责任在司机;往上级走,驾驶控制权在系统手中,责任在汽车。
这样一来,你就对蔚来为何在第一时间出来回应:“这是领航辅助(可被视为L2级自动驾驶),而不是自动驾驶,我们将调查事故结果”感到不奇怪了。残酷一点来看,他们说的一点都没毛病。
但是,的确让人有点隔应。因为这种呼之欲出的免责态度,与这几年整个自动驾驶+汽车产业为了销售产品,不惜模糊字眼来夸大宣传自动驾驶功能的风气,形成了鲜明对比。
所以,除了存在的技术缺陷,产业乱象,是不是也应该归为恶之源之一?事实上,每一次新技术造成的惨剧,没有一方是无辜的。

技术缺陷,不可忽视

老款ES8(这款车在2018年发布,曾在2020年推出过新版)使用的博世第四代毫米波雷达,对静态物体的识别能力有限。但是,熟悉特斯拉和他“国内学徒们”的人都清楚,在感知硬件配置方面,起主要作用的是摄像头。今年5月,特斯拉从成本考虑,还曾决定在北美地区采取以8个摄像头为主的全视觉感知方案,毫米波雷达、激光雷达都不在他们的考虑范围内。
一位世界级自动驾驶大厂前技术负责人告诉虎嗅,蔚来ES8此前在感知层面,用的是被英特尔收购的以色列公司Mobileye的技术(芯片+算法),后者的产品都是“封装好的黑盒子”,所以没有能力迭代自己的感知算法。

让人沉默的产业乱象

现在回想起来,2021的上海车展真的非常有看头。因为你会发现,很多国内车厂发布了带有激光雷达的车型,但却没有一家敢号称自己是L3级以上量产车。
“激光雷达”这个零部件在L4级以上无人车圈里,一直被视为标配。以至于在产业链利益和技术路线争端的共同推动下,有没有它,成了“自动驾驶技术到底是L3以上还是L3以下”的判断标准;再到后来,它已经成了一种在消费级汽车上实现高级别自动驾驶技术(L3以上)的“捷径”。
但实际上,装了激光雷达,也没有任何有实据的横评来验证它是否比全视觉方案更可靠,只是“多冗余总归是多上一层保险”。但对车企来说,仍然不能靠它来撑起转嫁责权的信心。举个例子,即便是公开秀了肌肉,配置了3颗激光雷达的华为极狐阿尔法S,说的也是拥有能够达到L3L4级的自动驾驶解决方案,但我们没有找到他们官方任何资料曾宣称过这是一辆L3级以上的量产车。
当下,虽然太多人总是打着擦边球来卖车,譬如展示自己有做L3L4技术的能力,但极少有人公开证明自己的产品就是L3级。有这个胆量的是奔驰和奥迪,前者的限定行驶范围是高速公路,只针对德国用户;而后者当年发布的L3自动驾驶系统在国内是被锁死的。
真正有良心的做法,是通过添加一个一个功能来升级迭代,而非用部分L3”少量L3”限定L3”刹那L3”来以偏概全。

所谓等级

标榜“等级”这件事,无疑是从高阶无人车圈往采用低阶技术的汽车产业过渡的。还记得2016年“百度李彦宏开着L4级无人车上五环”吗?这个成功的企业宣传案例,至今都让很多人记忆犹新。
不过很讽刺的是,你看现在的“无人出租车”真的达到了所谓的“L4”水平吗?很多自动驾驶公司标榜的L4级无人乘用车,实际上只能在一个限定城市区域内,在高精地图、激光雷达以及摄像头多种传感器辅助下,限定了速度,跑了一遍又一遍,跑的大体没问题了,才能在几个月乃至半年后在这个限定区域内去对外宣布“用户可以体验了”。
然而事实上,很多市面上“接客”的新闻其实也是假的,因为运营太烧钱,一些企业后期为了省钱几乎选择停止运营。所以,“L4级以上无人出租车”这个概念,自2015年从硅谷泊来后,还从未迎来真正实现的一天。
近期,美国政府确定对特斯拉的辅助驾驶系统进行正式调查,覆盖车辆达76.5万辆汽车,几乎是特斯拉自2014年年初以来在美国销售的所有汽车。根本原因,就在于他们2018年以来,发生了11于自动辅助驾驶系统相关的撞击事故。
虽然每次这个时候,都仍然会有人出来说,历史的进步,科技创新的代价本来就是伴随着无数的悲剧,除了蔚来等造车新势力,还会有一堆“蔚来们”做这样的尝试……我也曾这么想过,没错,每个人都希望历史进步,但是,没有一个人希望悲剧发生在自己身上。
对于消费者来说,活在当下最重要。
 
点击这里阅读原文 
自动驾驶引发的致死车祸,没有一方是无辜的
免责声明:本文版权归原作者、原网站所有,感谢原作者辛苦创作,如有侵权,请及时告知,我们将在第一时间核实并处理。
【声明】内容源于网络
0
0
上实资本科技基金
创新绿色未来
内容 747
粉丝 0
上实资本科技基金 创新绿色未来
总阅读1.8k
粉丝0
内容747