大数跨境
0
0

自动驾驶车面对的道德困境:“出事了,撞谁?”

自动驾驶车面对的道德困境:“出事了,撞谁?” CDA数据分析师
2021-04-23
1
导读:如果遇到不可避免的事故,自动驾驶车该如何被编程来应对呢?

 



 CDA数据分析师 出品  

编译:Mika

【导读】

虽然自动驾驶车可能比手动驾驶更安全、更方便,但也并不能完全避免事故的发生。如果遇到不可避免的事故,自动驾驶车该如何被编程来应对呢?

在本文中帕特里克·林就探讨了领略了自动驾驶车带来的道德问题。

点击下方视频,先睹为快:

👇👇👇


自动驾驶中的道德难题


我们来做一个思维实验。


假定某一天,你坐在自动驾驶汽车里,在高速公路上飞驰。


这时,你发现周围全是车。



突然,一个又大又沉的物体从你前方的卡车上掉下来,你的车来不及刹车来避免碰撞。



问题1:因此它必须做一个决定:
A.继续往前,然后撞在这个物体上
B.迅速左转撞向一辆SUV
C.迅速右转撞向一辆摩托车



你的车应该以你的安全为重,而撞向摩托车吗?


还是为了降低对他人的危险,不转弯,即使这样会撞上巨大的物体,并给你带来生命危险牺?


或是选择折中,撞向SUV,因为SUV的安全性能较高?


自动驾驶汽车应该怎么做呢?


这种情况下,如果我们掌握着方向盘,不管我们怎么做,都会被理解为瞬间的反应,而不是经过深思熟虑的决定。我们是在惊恐之下做出本能反应,并未深谋远虑或怀揣恶意。



但是如果是程序员要指示这辆车,在未来的特定情况下做出某一决定,这听上去有点像蓄意谋杀。


不过话说回来,自动驾驶汽车预计可以大大减少交通事故和死亡率,因为这中间避免了人类会犯的错误,而且还有很多其他的潜在好处,比如不再拥堵的路面,汽车尾气排放的减少,以及没有了开车的浪费时间和压力。



如遇事故,自动驾驶车如何编程应对


但是交通意外肯定还是会发生,当它们发生时意外的后果可能在很久以前,就已经被程序员或政策制定者设定好了。


这些决定可不好做,我们倾向于提供笼统的指导决定的原则,比如最小化伤害。但是这很快也会导致道德上模棱两可的决定。


再举个例子,假定前面的情况一致。但此时,在你的左边骑摩托车的人戴着头盔,而右边骑摩托车的人没戴头盔。


问题2:如果必须要选择,你的自动驾驶汽车应该撞哪个?
A.戴着头盔骑摩托车的人
B.没戴头盔骑摩托车的人



如果说撞那个戴着头盔的人 ,因为她的存活率更高,你难道不是在惩罚更负责任的骑摩托车者吗?


反之,如果说撞那个没戴头盔的人,因为不戴头盔是不负责任的行为。但是这样你就彻底违反了,原先的“最小化伤害”的原则,自动驾驶汽车现在成了在主持公路正义了。


道德的问题还要复杂得多,两种情况下其背后的设计都是基于某种目标算法。换句话说,它系统地倾向或者歧视某一类特定目标。


而目标车辆的车主,就得承担这一算法的消极后果。虽然他们自己并没有犯任何错,这些最新的科技还引起了其他的道德困境。


问题3:如果你从以下两辆车中选择:

A.一辆在事故发生时,总是试图拯救尽可能多生命的车

B.一辆不顾一切拯救你的车


你会买哪一辆?



如果汽车开始分析并考虑,车里的乘客以及他们的生存概率情况又会怎样?一个随机的决定会不会还是比以“最小化伤害”为原则事先设计的决定更好?


谁又应该做这些决定呢?
程序员?
公司?
政府?



现实可能跟我们的思维实验有所出入,但是这不重要。


思想实验的目的是,对我们的道德本能进行分离和压力测试,就像物理世界的科学实验一样。


现在识别这些道德的急转弯,能帮助我们更好地掌控科技及其道德问题的未知之路,并让我们充满信心和正义地驶向勇敢、崭新的未来。




 

推荐阅读

 

CDA课程咨询

【声明】内容源于网络
0
0
CDA数据分析师
🌸全国30万数据分析从业人员,有10万在CDA数据分析师 🌺CDA会员俱乐部有1000个数据库,成为持证人即可获得相关数据信息 🌹未来两样东西最有价值:一个是数据,一个是GPU
内容 9451
粉丝 0
CDA数据分析师 🌸全国30万数据分析从业人员,有10万在CDA数据分析师 🌺CDA会员俱乐部有1000个数据库,成为持证人即可获得相关数据信息 🌹未来两样东西最有价值:一个是数据,一个是GPU
总阅读459
粉丝0
内容9.5k