切换城市:北京
更多应用 |
官方:微博/微信
| 车展 | 专题 | 车商通 | 商用车

凤凰网汽车

凤凰网汽车>全媒体>正文

特斯拉:用算法能解决的事儿,为什么还要加毫米波雷达?

2021年07月22日 17:41:01
分享到:
来源:路咖汽车

拿掉毫米波雷达的特斯拉FSD Beta V9.0,终于,在美国市场推送了。

特斯拉一直都是特例独行,激光雷达量产元年之时,它又开始玩儿不一样的套路。把仅有的一颗向前雷达移除,不玩儿融合感知,玩儿纯视觉感知。此时,中国市场搭载激光雷达的小鹏P5开启预售、蔚来ET7也很快到来。到目前为止,激光雷达上身的阵营中已经包含了蔚来、小鹏、奔驰宝马等众多厂商。

相反,特斯拉没有激光雷达、高清地图,还把毫米波雷达砍了。特斯拉是真正的纯视觉派信徒,那,它的底气来自哪里?

更新,也是在做简化

FSD Beta V9.0最大的更新,开头说了,拿掉毫米波雷达,纯视觉感知是这次FSD最大的改动,一直拒绝激光雷达的马斯克这次更极端了。这个点,展开来讲就基本能明白个大概。

首先,特斯拉的工程师们肯定知道多传感器融合的重要性,也不会固执到做出明显错误的决定。但拿掉毫米波雷达最根本的原因,特斯拉没明说,但我们可以推测一波。

同时融合摄像头和毫米波雷达的数据,毫米波雷达数据信噪比低是最大的障碍,也就是会有误检测风险。而且,后融合的方案本身就是使用受损数据之后得出的结果,那么,两个传感器对同一个目标作出不同判断,该相信谁?而且,毫米波雷达在高程信息上也有不足,井盖和电线杆,在它眼里差不多。

举个例子,毫米波雷达没有高程信息所以数据上不会体现出目标物体的高度,然后又对金属比较敏感,所以在面对井盖和金属杆的时候很难区分。过分相信毫米波雷达,自动驾驶时经过井盖都有可能会"幽灵刹车";如果忽略毫米波雷达的检测结果,那可能会撞上停在前方的车。而且,毫米波雷达在面对雾、雨、雪、黑夜这样的天气时它有天然优势。

但显然特斯拉觉得毫米波雷达很多余,而8颗摄像头+算法可以满足纯视觉自动驾驶。这次的特斯拉FSD Beta V9.0版能在城市和高速路段场景中使用,车辆在导航的指引下,执行变道、选择匝道等动作。在十字路口、视野盲区、狭窄道路的情况下,会自动执行车辆避让、绕行。

这次特斯拉自动驾驶技术从FSD V8到V9.0,更多的变化包括了车道线以及路肩更细腻了,这种变化绝不是显示层面的优化,而是对算法的深层优化。其次,取消了车辆模型边框,并且细分了皮卡、货车、SUV、摩托等车辆模型,还能看见人和狗的模型。还有对移动物体的预判,以及在保证安全行驶的前提下尽量规划出最优路径。以上内容根据海外车主对FSD Beta V9.0的测试视频得出。

取消的是硬件,加的是算法

特斯拉纯视觉方案的逻辑

1同时搭载雷达与摄像头存在数据融合问题,所以特斯拉选择纯视觉自动驾驶方案。

2拥有足够的真实世界数据,开发并训练一套模拟人类视觉的神经网络,从而实现自动驾驶。

3高精地图方案有地域局限性,而特斯拉希望开发一套可以任何场景都能通用的自动驾驶系统。

然后,视觉感知系统主要以摄像头作为主要传感器,计算处理之后,对车辆周围的环境信息做出精确感知。为了给融合模块提供准确且丰富的信息,包括了物体的距离、类别、速度和加速度以及朝向信息。

所以,道路交通的感知功能主要包括动态目标检测,静态物体识别,可行驶区域的分割。这三类数据信息给到同一个深度神经网络处理,提高系统检测速度减少计算参数,而且可以通过增加主干网络的层数的方式提高检测和分割精度。视觉感知可以分为目标检测、目标测量、图像分割、图像分类等。

而且,视觉感知还可以分为多个功能模块,目标跟踪、目标测量、通行区域、车道检测等。但,这些实时的功能,都面临着不同的难点。而解决这些难点就离不开后端的深度学习、标记、整合,背后的处理是庞大的。对于纯计算视觉方案,特斯拉工程师要打造一个能深度学习的系统,除了处理深度、加速度和速度这些信息外,还要同时进行目标探测。而这又是监督学习的问题了,神经网络在对标记数据进行训练后,再学习目标探测和相关属性。

那么,为了训练深度学习架构,特斯拉需要大量的数据收集,然后标记其其中的目标和属性,车、人、障碍等信息。特斯拉的自动驾驶团队,现在已经累计了1.5PB的数据。然后,就是给这些数据打标签,巨大的工作量显然使用人工来完成会拉高成本,所以特斯拉用自动标记技术。

而且,这些离线数据会被神经网络重复观看、标记,然后它们的预测结果会与事实进行比较,再不断调整参数。离线标记还能让工程师们使用物体检测网络,这是没法部署在自动驾驶车辆上的,也不能实时应用。然后,他们还进一步验证神经网络的判断,最后提高标签网络的精度。

特斯拉没说自动标签系统有多少人来参与校正,但,只要有人工参与,自动标签系统的正确性肯定会有所提高。就这样,常规的日常驾驶和高速行驶,是通过大量的数据积累和不断校正的标签来支撑的。

整体来看,特斯拉使用的视觉感知系统,是从摄像头输入,然后图像预处理分给神经网络,细分到每个层级,包括车道线识别、红绿灯识别等信息,然后输出目标物体的类别、距离、速度和朝向信息。

毫米波雷达在自动驾驶车上的主要负责自适应巡航、紧急制动、前向碰撞预警等和车辆周围物体的检测功能。但特斯拉的视觉感知系统如果可以准确的逐帧分析比对,加上深度学习对车辆和移动物体加以标签,从而判断前方和周围物体是否移动、移动的物体类别,也能达到和毫米波雷达相同的功能。所以,特斯拉这波操作,去除的是硬件加的是算法,此消彼长。

以上,核心环节还是在神经网络的算法,精度信息、速度信息、红绿灯和通行空间的检测难度都非常大,每个环节做好都不容易。所以,特斯拉在推送FSD Beta V9.0的时候范围锁定在2000个用户,并且提示现在还在测试阶段,不要过于依赖自动驾驶功能。

总结

最后,从特斯拉的角度,他们现在的FSD Beta V9.0虽然在测试阶段,但已经可以实现多相机融合的自动驾驶功能。只是在稳定性和广泛推广上,还有所不足,现在他们的当务之急是收集更多的数据对自动驾驶技术不断的监督学习,提高稳定性。

放弃毫米波雷达,简化了整个数据融合的过程,也减少了一部分困难。如果能通过最终的算法提升自动驾驶的安全性,纯视觉方案也可能是个合理的方案。但我还是会怀疑,当激光雷达成本不高的时候,特斯拉会不会用。

  • 凤凰网汽车公众号

    搜索:autoifeng

  •  官方微博

    @ 凤凰网汽车

  •  报价小程序

    搜索:风车价

网友评论
0人点赞
|
评论0
加载中...

大家都在看

趣图推荐