加入收藏 | 设为首页 | 会员中心 | 我要投稿 济南站长网 (https://www.0531zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

出事了,撞谁?自动驾驶车面对的道德问题

发布时间:2021-08-21 13:08:39 所属栏目:大数据 来源:互联网
导读:01 自动驾驶中的道德难题 我们来做一个思维实验。 假定某一天,你坐在自动驾驶汽车里,在高速公路上飞驰。 这时,你发现周围全是车。 突然,一个又大又沉的物体从你前方的卡车上掉下来,你的车来不及刹车来避免碰撞。 问题1:因此它必须做一个决定 继续往前
01 自动驾驶中的道德难题
我们来做一个思维实验。
假定某一天,你坐在自动驾驶汽车里,在高速公路上飞驰。
这时,你发现周围全是车。
 
突然,一个又大又沉的物体从你前方的卡车上掉下来,你的车来不及刹车来避免碰撞。
 
问题1:因此它必须做一个决定
 继续往前,然后撞在这个物体上
 迅速左转撞向一辆SUV
 迅速右转撞向一辆摩托车
 
你的车应该以你的安全为重,而撞向摩托车吗?
还是为了降低对他人的危险,不转弯,即使这样会撞上巨大的物体,并给你带来生命危险牺?
或是选择折中,撞向SUV,因为SUV的安全性能较高?
自动驾驶汽车应该怎么做呢?
这种情况下,如果我们掌握着方向盘,不管我们怎么做,都会被理解为瞬间的反应,而不是经过深思熟虑的决定。我们是在惊恐之下做出本能反应,并未深谋远虑或怀揣恶意。
 
但是如果是程序员要指示这辆车,在未来的特定情况下做出某一决定,这听上去有点像蓄意谋杀。
不过话说回来,自动驾驶汽车预计可以大大减少交通事故和死亡率,因为这中间避免了人类会犯的错误,而且还有很多其他的潜在好处,比如不再拥堵的路面,汽车尾气排放的减少,以及没有了开车的浪费时间和压力。
 
02 如遇事故,自动驾驶车如何编程应对
但是交通意外肯定还是会发生,当它们发生时意外的后果可能在很久以前,就已经被程序员或政策制定者设定好了。
这些决定可不好做,我们倾向于提供笼统的指导决定的原则,比如最小化伤害。但是这很快也会导致道德上模棱两可的决定。
再举个例子,假定前面的情况一致。但此时,在你的左边骑摩托车的人戴着头盔,而右边骑摩托车的人没戴头盔。
问题2:如果必须要选择,你的自动驾驶汽车应该撞哪个?
 戴着头盔骑摩托车的人
 没戴头盔骑摩托车的人
 
如果说撞那个戴着头盔的人 ,因为她的存活率更高,你难道不是在惩罚更负责任的骑摩托车者吗?
反之,如果说撞那个没戴头盔的人,因为不戴头盔是不负责任的行为。但是这样你就彻底违反了,原先的“最小化伤害”的原则,自动驾驶汽车现在成了在主持公路正义了。
道德的问题还要复杂得多,两种情况下其背后的设计都是基于某种目标算法。换句话说,它系统地倾向或者歧视某一类特定目标。
而目标车辆的车主,就得承担这一算法的消极后果。虽然他们自己并没有犯任何错,这些最新的科技还引起了其他的道德困境。
问题3:如果你从以下两辆车中选择
 一辆在事故发生时,总是试图拯救尽可能多生命的车
 一辆不顾一切拯救你的车
你会买哪一辆?
 
如果汽车开始分析并考虑,车里的乘客以及他们的生存概率情况又会怎样?一个随机的决定会不会还是比以“最小化伤害”为原则事先设计的决定更好?
谁又应该做这些决定呢?
程序员?
公司?
政府?
 
现实可能跟我们的思维实验有所出入,但是这不重要。
思想实验的目的是,对我们的道德本能进行分离和压力测试,就像物理世界的科学实验一样。
现在识别这些道德的急转弯,能帮助我们更好地掌控科技及其道德问题的未知之路,并让我们充满信心和正义地驶向勇敢、崭新的未来。

(编辑:济南站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!