切换城市:北京
更多应用 |
官方:微博/微信
| 车展 | 专题 | 车商通 | 商用车

凤凰网汽车

凤凰网汽车>全媒体>正文

靠自动驾驶达到零伤亡,是美好愿景还是厂家的谎言?

2020年06月05日 21:34:01
分享到:
来源:陈庆镒

近期特斯拉 Model 3 近期于台湾地区的一场车祸意外,又掀起自驾车究竟安全性能如何的议题。正巧近日,美国 IIHS 高速公路安全保险协会发表一则新闻,却可能再次颠覆大家对于自驾车安全性的认知,因为 IIHS 表示,如果车辆真的能以像人类一般的驾驶,可能只能减少 3 分之 1 的车祸,却不能真的达成零事故的交通环境。

IIHS 开头提到,过去传统观念认为,自动驾驶车辆能使车祸成为过去式,带来零伤亡的用路环境,然而 IIHS 研究副总裁 Jessica Cicchino 提到:「自动驾驶汽车最终可能会比人类更能判别危险,但仅凭这一点并不能防止大量的车祸事故。」会有此一论点的原因也在于,美国警方调查美国撞车事故中,每 10 起事故中,有 9 起就是因为驾驶员的失误而造成的。又再进一步分析,其中只有 3 分之 1 的车祸,是由于驾驶介入希望避免自动驾驶车辆错误判断,却因此发生车祸,简而言之也就是系统与人类对于危险判断的差异使然。

也因为此研究结果,IIHS 说明,纵然要让自驾系统如同人类一般的驾驶车辆,确实是个巨大的挑战,但实际上,如果车辆真能如同人类的思维,也只是避免了上述 3 分之 1 的车祸,但仍有 3 分之 2 的车祸,必须仰赖自动驾驶系统能做出更多人类无法执行的驾驶判断,才可能带来零伤亡交通。

为了估计如果将自动驾驶汽车设计为,做出与人类相同的风险决策时,可能继续发生的撞车事故有什么?IIHS 研究人员对《国家机动车撞车因果关系调查》中,5,000 多起警察报告的撞车事件进行了调查。选出来研究的报告有在美国国家公路交通安全管理局 NHTSA(National Highway Traffic Safety Administration)汇整,事件严重性都是至少有一辆车被拖走,且有救护车抵达现场的车祸案件。

在这些案件中,IIHS 将其区分为 5 类:

感知错误:包括诸如驾驶员分心、视线障碍、以及在来得及之前,仍未能识别危险之类的事情。

判断错误:当驾驶员错误判断交通,举例象是错误地估计另一辆车行驶的速度,或对另一位用路人的动向做出错误的预判时,就会发生预测错误。

计划和决定错误:包括因路况而驾驶太快或太慢,在亲自驾驶时,与前方车辆之间的距离太小。

执行错误:错误包括不适当或不正确的回避驾驶,以及其他控制车辆的错误。

失能:涉及由于饮酒或吸毒,医疗问题或驾驶时打瞌睡引起的伤害。

不过,研究人员另外表示,某些碰撞是不可避免的,例如由于车辆故障(如爆胎或车轴损坏)引起的那些碰撞。

在确认这 5 类造成的事故后,研究人员设想若道路上所有车辆都是自动驾驶,他们认为这能防止那些感知错误或者失能的驾驶导致的事故,因为自动驾驶车辆的摄影镜头与传感器,能比人类更清楚的监测道路、判别潜在危险,且不会因此分散注意力或丧失驾驶能力。而仅因感知错误导致的车祸约 24%、失能导致的车祸约 10%。所以如果所有车辆都是自动驾驶,将能减少 34%的车祸,当然前提也是建立在传感器永不故障。所以除非能将所有状况写入在自驾车的数据库,否则即使车辆能象是人类一样的驾驶,却还是会有 3 分之 2 的事故可能发生。

至于计划和决定错误,包含决定超速、违规驾驶等等,则占了样本中 40%的车祸,驾驶员的故意决策可能导致撞车的事实,证明驾驶员的偏好有时可能会与自动驾驶车辆的安全优先决策冲突。为了使自动驾驶汽车兑现零伤亡交通,必须将其设计为着眼于安全性,而不是让车辆会做出驾驶员想做的违规行为。

总结来说,IIHS 透过此篇研究要传达的是,过去大家总认为自动驾驶若能像人类一般驾驶,便能带来零伤亡的交通,但这种想法并不精准。严格来说,自动驾驶不是要让每个人有一个专属司机或是分身,而是要把安全行驶摆在优先,举例来说,在交通壅塞或者能见度差的地方,有的驾驶员可能就会想要不断变换车道超车、或者还是不选择放慢速度,但自动驾驶不该会因此有这些行为。所以自动驾驶与其说要像人类一般驾驶,更该说是守规矩的安全驾驶,也才能在若每辆车都是自动驾驶车辆时,都能互相沟通做出危险的预判,与其在即将发生事故时探讨「伦理」议题(即有的会问说要让自驾车设定撞 1 辆车或者是闪避撞到旁边路人),若能让车辆都避免遇上这种事情,何须烦恼这样的两难课题?

  • 凤凰网汽车公众号

    搜索:autoifeng

  •  官方微博

    @ 凤凰网汽车

  •  报价小程序

    搜索:风车价

网友评论
0人点赞
|
评论0
加载中...

大家都在看

趣图推荐