凤凰汽车讯 谷歌自动驾驶汽车,最近因为频发的追尾事故再次成为舆论焦点。谷歌在过去一周透露,这些碰撞中一名车内员工颈椎有轻微甩伤。这个结果让人沮丧,为什么机器人汽车不能带我们驶出追尾这一常见的交通事故呢?
其实,他们可以做到。但首先需要考虑伦理道德与法律方面的问题。
使自动驾驶汽车避免将要发生的碰撞这一技术实际已经存在了。当和另一辆汽车、行人、自行车或是其它物体发生潜在碰撞危险时,车辆可以及时转向离开其当前轨迹。但到目前为止仅用于防止与前方单位碰撞。理论上,这一技术也可以用于来自后方的事故,但要考虑一下几个问题:
碰撞预演
你的自动驾驶汽车停在一个路口,耐心的等待前方的孩子们穿过马路。这是它检测到一辆皮卡从后方急速驶来,可能会与你的车辆造成追尾事故。这一事故也许只会造成很少的损失——可能是变形的挡泥板或轻微的甩伤——但肯定不至死。但依照程序,为避免自身收伤害,你的自动驾驶汽车会选择一条安全路径继续行驶。在上述情况下,车辆可以选择方便的右转来避免追尾的发生。但这样做却清空了皮卡行驶路径上的障碍,使这一事故可能演变为造成多名孩子死伤的严重事故。
自动驾驶汽车程序这样运行正确吗?在大多数追尾情况中,是的。但在上述特定事件中,避免驾驶员与车辆的轻微损伤而导致前方儿童重伤甚至死亡,这看上去似乎不是正确的选择。
甚至可以说,在这次事故中,你(或你的车)需要为孩子们的死亡负责,因为正是你(或你的车)的移位导致了伤害落到了他们头上。这和拿走挡在枪之前的盾牌一样,你拿走盾牌会让人被枪打死,尽管这个盾牌是你的。
这一情况放在现在,由人驾驶的车辆可能也会为了自身免受伤害而做出同样的反应,就像自动驾驶车辆一样。结果可能不会因为由人驾驶而产生改变。
但这会被认为是临场的应激反应,与此相比,更不可原谅的可能是程序员:离事故现场遥远、在一年甚至在更早的时间创造一个算法或是函数导致了这一不必要的死亡。那程序员在这一事故中到底是无意的还是蓄意的呢?在法律上,如果是后者,其可能面临谋杀指控。
两种情况对程序员来说都是不好的,也是商业中的固有风险。自动驾驶汽车这一新领域需要代替人类驾驶员做决定,由此带来的,便是以前所没有的新义务与责任。
新困境
但是,避免前方碰撞也同样有这些法律与道德问题。所以追尾事故和前方碰撞事故究竟有何不同,为什么不能创造一个辅助系统来避免上述情况,特别是当这种情况显而易见是致命的时候。
一个区别就是,在追尾事故中,责任通常在后车。车距不够,或反映超时等。所以,自动驾驶汽车作为前车时并没有法律责任,尤其当它一动也不动时。通常情况下,不卷入一场事故肯定在法律上是安全的,除非你的行为使这一事故变的更为严重。
这一问题有别于其他的机器人汽车伦理问题。这些理论大多认为是由哲学家Phillipa Foot和Judith Jarvis Thomson的“电车难题(trolley problem)”演化而来的。通常情况下,无人驾驶汽车做出规避自身伤害的选择是合法的:它避开了直接对其造成的伤害,也没有给其他人带来直接的伤害,但却是不道德的。所以仅仅让无人驾驶汽车程序满足法律是远远不够的。
现在该如何?
有种种困难不意味着应当禁止自动驾驶汽车上路,而是意味着我们应该为可能发生的情况早做准备。自动驾驶汽车或许在有些时候会面临两难的选择,这给开发者带来了潜在的困难和挑战。
为了减少这种风险,整个汽车行业应该在用户期望和社会影响上做更多的工作,应该让公众理解自动驾驶汽车的能力和限制。或许可以通过使程序运行过程透明的方式来达到,而不是让我们无法理解计算机选择过程来控制我们的生命。
而且程序运行过程透明化对制造商和服务商来说也是好事。当交通事故发生时,他们也能更好地面对法律和道德上的责难。
交通事故会继续发生,没有技术是完美的。但在面对可能发生的问题时,我们要保持开放和对话,就像上个月斯坦福大学的“针对自动驾驶汽车的编程伦理学问题”做的那样。因为无人驾驶是一件重要的造福大众的事业,我们只有在确定可能存在的问题之后才能为之确定可能的解决方案。
凤凰网汽车公众号
搜索:autoifeng
官方微博
@ 凤凰网汽车
手机应用
凤凰网汽车&凤凰好车