切换城市:北京
更多应用 |
官方:微博/微信
| 车展 | 专题 | 车商通 | 商用车

凤凰网汽车

凤凰网汽车>全媒体>正文

特斯拉-MODEL 3(进口)

超低价好车团购

自动驾驶汽车闯了祸,到底谁背锅!?

2019年03月07日 10:11:46
分享到:
来源:前瞻网

亚利桑那州检察官周二表示,他们尚未找到证据指控优步(Uber)与一年前发生在坦佩(Tempe)的一起交通事故有关。在这起事故中,优步的一辆自动驾驶汽车撞上了一名行人,导致其死亡。

当局表示,2018年3月18日,优步正在测试的几款自动驾驶汽车之一——沃尔沃运动型多用途车(SUV)在夜间以每小时40英里的速度行驶时撞上49岁的Elaine Herzberg,当时她正在骑自行车过马路。

当时汽车处于自动驾驶模式,但是该辆汽车的驾驶座上配备了一名安全驾驶员。

亚瓦派县检察官办公室审查了这起案件,并在周一的一封信中表示,“没有证据表明优步公司应该负刑事责任”。

但它补充说,调查人员应该调查:考虑到车辆的速度、照明条件和其他相关因素,安全驾驶员“当晚会看到或应该看到什么”。

亚瓦派县检察官办公室表示,对此案的调查仍在继续。

据悉,2018年3月的这起事故是无人驾驶技术导致的首起行人死亡事故,公众都非常关心检方将如何展开刑事调查。

这次事故引发了人们对这项技术的安全性以及相关规定的全面性的质疑。在这方面基本不存在相关的联邦或州法规。

明尼苏达大学交通研究中心(University of Minnesota "s Center for Transportation Studies)的研究学者Frank Douma说,“这是一个争论不休的话题。据我所知,目前还没有任何关于谁在什么时候应该承担责任的明确声明。”

Douma说,检方周二的声明追踪的是,通常为交通事故买单的是驾驶员,而不是汽车制造商。但他说,随着自动驾驶汽车变得越来越复杂,这类案件对这种思维方式提出了质疑。它是应马里科帕县检察官办公室(Maricopa County Attorney’s Office)的要求进行审查的。由于早些时候与优步在一场安全运动中展开合作,该办公室在此案中可能存在利益冲突。马里科帕县检察官办公室周二没有回复记者的置评请求。

《纽约时报》去年3月报道称,优步在亚利桑那州的自动驾驶汽车难以满足该公司的预期,要求司机比该公司的竞争对手更频繁地进行人工干预。

事故发生后,优步暂停了自动驾驶汽车的测试。但去年12月,优步获准恢复自动驾驶汽车测试,不过速度有所下降,在雨天和晚上不会进行测试。

《共和国报》去年3月报道称,赫茨伯格的家人已经“解决”了一起针对优步的案件。《共和国报》称,其家人由Bellah Perez律师事务所代理。该律师事务所周二表示,无法就该事务所是否卷入此案发表评论。

发生这起致命的交通事故时,优步自动驾驶系统运行状况是否良好,安全驾驶员执行是否到位?

根据美国国家运输安全委员会(NSTB)发布了关于Uber自动驾驶致命事故的报告显示:

事故发生前,测试车辆正以43英里/小时(约69千米/小时)的速度行驶。然后在撞击前6秒,自动驾驶系统通过雷达和激光雷达发现了前方的事物。

随后问题就出现了,此时系统并没有认出这是一个人,先把她判断成了未知物体,然后判断成了车辆,然后判断出这是一辆不知道要往哪儿走的自行车。

撞击前1.3秒,根据当时的速度,车辆必须紧急制动了。但此事系统依旧没有反应, 直至碰撞前0.9秒,测试车辆上的安全员才开始控制车辆,做出紧急避让动作,可为时已晚,最终Uber自动驾驶车以39英里(约63千米/小时)的时速撞上了行人。

Uber的这款自动驾驶汽车搭载了Uber的传感技术,并配备了沃尔沃的“城市安全系统”(City Safety)。

但该报告称,为了“减少车辆行为不稳定的可能性”,并让安全司机有责任进行干预,优步已经禁用了这一功能以及其他安全功能。

也就说,Uber的自动驾驶系统在接管车辆时,已经将沃尔沃的“城市安全系统”(City Safety)屏蔽了。更严重的问题是,Uber的自动驾驶系统本身并没有紧急制动功能,也没有危险提醒。

此前据美国媒体爆料,就在事故发生几天前,Uber自动驾驶汽车部门的一名经理Robbie Miller警示公司高管,这些自动驾驶汽车所采用的软件会造成危险。Miller同时警告称,车辆上负责安全的人工司机没有经过适当培训,无法胜任工作。而即使这些司机一再出错,也没有被解雇。

这时驾驶员在做什么呢?报告表示,优步的安全驾驶员在最后一秒掌控了方向盘打了转向,但直到发生碰撞后才开始刹车。不过据《亚利桑那共和报》(Arizona Republic)报道,今年6月,坦佩警察局发布了一份报告,称事故发生前几分钟,这名安全驾驶正在用手机观看电视节目《the Voice》。

有关行人方面,根据NSTB报告显示,在行人体内发现了违禁药物。

近年来自动驾驶汽车事故频发

优步3月发生的交通致死事故被认定为全球首起自动驾驶汽车致命事故,但其实近两年自动驾驶汽车领域已经发生了大大小小上百件交通事故。

2018年1月22日,在洛杉矶405高速公路上,一辆特斯拉Model S撞上了一辆停在路边的消防车。所幸无人员伤亡。司机告诉消防部门,当时汽车处于自动驾驶模式。

2018年1月12日,一辆特斯拉Model 3翻入了一条小溪,事故中的司机显然是在拐弯时失去了控制,导致车辆腾空而起,然后跃入溪流之中。

2018年1月10日,由福特投资的Argo AI公司在美国宾夕法尼亚州匹茨堡发生了一起交通事故,事故最终导致两人受伤。截止目前,当局认定这起事故是人为失误造成的,事故起因是一辆卡车闯红灯。当时车上有四名乘客,所幸只有两名乘客受伤且在送往医院后无大碍。

2017年12月7日,一辆 Cruise 自动驾驶汽车正以自动驾驶模式行驶在 Oak 街上,穿过 Oak 街和 Fillmore 街的十字路口后,保持在第三车道上向东行驶。之后,汽车在变道过程中刮蹭了变道中的摩托车。事故造成摩托车司机肩部受伤。

2017年11月8日,美国拉斯维加斯无人驾驶巴士在获准上路的第一天就卷入了一场车祸。这辆无人驾驶巴士在低速行驶的情况下,与一辆人力驾驶的运货卡车相撞,所幸事故中没有人员受伤。据悉,无人驾驶巴士由法国公司Navya制造,可承载15名乘客。

2017年3月24日,一辆Uber自动驾驶试验车在亚利桑那州坦佩市发生交通事故。在一处十字路口处,由北向南行驶的Uber自动驾驶汽车与一辆东西行驶试图左拐的普通汽车发生了碰撞。Uber自动驾驶汽车发生侧翻,另一部车严重受损,所幸没有人员伤亡。警方表示,这一事故是由人类司机并未让行直行的自动驾驶车辆所致。

……

这样引人注目的自动驾驶汽车交通事故在近两年内就发生了十几起。

最近,一份新的报告对美国国家公路交通安全管理局(简称NHTSA)在2016年特斯拉(Tesla)致命撞车事故后展开的调查的结论提出了质疑。

美国国家公路交通安全管理局(NHTSA)调查了特斯拉自动辅助功能的安全性。此前,一辆配备自动驾驶仪的Model S在那一年撞上了一辆拖拉机挂车,导致特斯拉的司机死亡,这是同类事故中的首例。最终,NHTSA认定该系统不仅是安全的,实际上还将事故发生率降低了近40%。

自动驾驶汽车闯了祸 到底谁负责?

自动驾驶汽车闯了祸到底谁负责,其实最影响判断的,就是到底谁控制着自动驾驶汽车,驾驶员又参与了多少,说白了就是看到底是自动驾驶系统和车的问题,还是驾驶员的问题。事实上,具有自动驾驶系统的车辆具有不同自动驾驶级别,主要有5级,0~2级属于驾驶员人工操控车辆,3~5级属于自动驾驶系统操控,第5级是完全自动化,属于最高级别的自动驾驶,根本不需要人工干预。

其中最容易引起交通事故的就是第3级,当汽车处于这种模式时,还是需要切换人工驾驶的。回到刚刚提到的事故,看到“优步、特斯拉撞死人”,大家第一想到的负责人肯定是自动驾驶汽车的生产者,比如特斯拉、优步。

英国最新交通法规定,但凡汽车在自动驾驶模式下出事儿,承担责任的就是制造商。同一保单承保车辆和乘客会给自动驾驶汽车制造商和软件开发商施加更多压力,因为他们必须在发生事故时承担赔偿责任。在发生事故时,英国政府首先考虑消费者,是为了加快事故赔偿速度。

一般来说,任何能够访问真实世界的软件,包括自动车辆和机器人,都可能造成财产损失、伤害和死亡。这就提出了民事责任或刑事责任的问题。

2018年,布莱顿大学(University of Brighton)研究员John Kingston分析了三种适用于人工智能控制实体的刑事责任法律理论。

通过另一方施行犯罪--程序员(软件设计师)或用户可能被追究直接指示AI实体犯罪的责任。在传统的法律中,当一个人指示或直接导致一个没有刑事责任的动物或人(例如一个年幼的儿童或一个有严重精神残疾的人)犯罪时,就使用这个词。

自然和可能的后果--程序员或用户可能要对AI实体因其自然操作而犯下的罪行负责。 例如,如果一个人阻碍了工厂机器人的工作,并且人工智能决定将人类作为清除阻塞继续工作的最简单方法,如果这种结果可能并且程序员知道或应该知道这一点,程序员可能会被追究刑事责任。

直接责任--人工智能系统已经证明了刑法中公认的责任理论的犯罪要素。 严格责任犯罪(如超速驾驶)只需要采取行动(犯罪行为),但“常规”犯罪(如谋杀)需要一种意图(一种犯罪意图)。 犯罪过失涉及在面临可能的伤害证据时不履行职责。从法律上讲,法院可能有能力根据现有法律将现有自动驾驶汽车的人工智能系统的刑事责任认定为超速驾驶;但是,目前尚不清楚这对法院来说是否有用。

美国国家公路交通安全管理局对涉及特斯拉Autopilot2016年致命事故的调查继续作为汽车产品安全调查进行,并确定尽管发生了事故,但没有任何缺陷需要召回(尽管特斯拉正在努力改进软件以避免类似的碰撞)。

对于完全自动驾驶的车辆,软件和车辆制造商应对任何故障事故(根据现有汽车产品责任法律)承担责任,而不是人类驾驶者,所有者或所有者投保的保险公司。沃尔沃已经宣布,它将支付由其完全自主软件造成的任何伤害或损坏,该软件预计将于2020年开始销售。从2012年开始,美国一些州已通过专门针对自动汽车测试认证和销售的法律,有一些州颁发特别驾驶执照;自动驾驶领域仍然是一个活跃的立法领域。

  • 凤凰网汽车公众号

    搜索:autoifeng

  •  官方微博

    @ 凤凰网汽车

  •  报价小程序

    搜索:风车价

最热促销

  • 4S店
  • 综合店
  • 港口店
北京
网友评论
0人点赞
|
评论0
加载中...
暂无报价
中型车

本文相关品牌车系

趣图推荐

大家都在看