切换城市:北京
更多应用 |
官方:微博/微信
| 车展 | 专题 | 车商通 | 商用车

凤凰网汽车

凤凰网汽车>全媒体>正文

特斯拉自动驾驶事故频发,谷歌:人类驾驶员搞不清状况

2021年04月26日 22:12:01
分享到:
来源:AutoLab

所谓的自动辅助驾驶是不是伪命题?

文/宋双辉

如果说最近国内的特斯拉总是和刹车失灵扯上关系,那在美国,特斯拉的麻烦主要出在AutoPilot自动辅助驾驶系统上。

4月17日,休斯敦发生一起“离奇”事故,一辆特斯拉车毁人亡,而车上两名死者都不在驾驶席上。警方认为事故与AutoPilot系统有关,但特斯拉则反驳称出事车辆未开启这一功能。

尴尬的是,就在这起事故发生后,特斯拉例行公布了季度汽车安全报告,显示启用了AutoPilot的特斯拉发生事故的概率比普通车低了10倍。

数据显示,第一季度那些使用了AutoPilot功能的特斯拉,平均每行驶419万英里会发生一次事故;没有开启AutoPilot但是开启了主动安全功能的特斯拉车辆,平均每行驶205万英里会发生一次事故;既没有使用AutoPilot也没有使用主动安全防护的特斯拉,平均每行驶97.8万英里就会发生一次事故。

相比之下,美国国家公路交通安全管理局的最新数据显示,美国平均每行驶48.4万英里会发生一次交通事故。

虽然特斯拉坚称AutoPilot让驾驶更安全,但无数起事故却在唱反调,对此,谷歌母公司旗下的自动驾驶公司Waymo新任联合CEO发表了自己的看法。

Tekedra Mawakana谈到了多起疑似与AutoPilot有关的特斯拉事故时表示,这些事故让人悲伤,这就是我们要完善自动驾驶技术,以阻止类似事故再次发生的原因,这样的事故会冲击消费者对自动驾驶技术的信心。

她还强调了一点,现阶段消费者会把某种自动驾驶辅助系统与自动驾驶混淆,这也是有风险的,Waymo对此感到担忧。

其实Waymo的态度一直很明确,现在车企们都在搞所谓的L2、L2.5、L3级自动驾驶技术,一步步提升自动驾驶等级,让人类驾驶员的参与度不断降低,但这种做法是否就是正确的,有待商榷。

Waymo一上来就明确了,直接做L4以上的自动驾驶,不需要人类驾驶员操控的这种,就是因为相比机器,人类更不可控。

比如让联邦安全机构对特斯拉展开调查的这起最新事故中,就有目击者作证,说两名死者上车前和他们说了,要展示一下如何在无人状态下让特斯拉自己驾驶,这也解释了为什么事故发生时驾驶席上并没有人。

虽然特斯拉否认AutoPilot开启了,但是美国《消费者报告》做了试验证实了,即便人在副驾,也能启动AutoPilot,并通过方向盘控制车辆,让特斯拉“自己开”。

尽管特斯拉反复强调,AutoPilot并非真的自动驾驶,驾驶员应该始终操控方向盘,但是出于各种各样的原因,依然有很多人喜欢尝试让特斯拉自动驾驶,而且技术上也完全可行。

但是这种危险驾驶行为导致的结果就是,许多起致命的交通事故因此发生了。

尽管数据报告证实了,AutoPilot确实会让开车变得更安全,但是这里面有个前提,就是驾驶者遵守了法规,只是把AutoPilot当做辅助工具,而不是放任不管。

正是因为人类驾驶员的不可控因素,Waymo直接跨过了L2和L3,去做真正的自动驾驶甚至无人驾驶技术了。

Tekedra Mawakana的观点就是,“自动驾驶技术在研发、部署和推广方面没有第二次机会可言,你必须在第一次时就做到最好。你必须帮助公众打造信心并提升接受度,你还必须确保该技术和产品得到合适的监管。这样才能推出成功的自动驾驶服务并将其不断推广。”

代价就是,这样的自动驾驶商业化进程会慢很多,不会像激进的特斯拉这般普及效率如此高。

但是安全和效率,永远就是不能兼得的。

  • 凤凰网汽车公众号

    搜索:autoifeng

  •  官方微博

    @ 凤凰网汽车

  •  报价小程序

    搜索:风车价

网友评论
0人点赞
|
评论0
加载中...

大家都在看

趣图推荐