关于无人驾驶汽车在黑夜中如何避免行人横穿遇难,最近Uber的事件让无人驾驶从业者猜测当时的情况到底是什么样的,像这种行人突然从阴影中穿出的情况该如何避免?从目前新闻报道和视频资料中来看,在当时的情况至少需要考虑两个问题:
1.无人驾驶如何在黑夜中提前识别行人?
2.多远的距离开始探测到行人,然后可以在有效时间内采取措施?
很多从事无人驾驶的专业人士提出需要更好的传感器,但又说不出来更好的传感器是什么?但其实这种传感器是可以考虑远红外传感器的,一来远红外传感器可以视觉成像,二来远红外传感器可以做到行人识别。
从远红外传感器的角度来看,无人驾驶如何做到避免与黑夜中突然出现的行人发生碰撞呢?
当时Uber无人驾驶汽车是60km/h,车道为4车道。这种情况下,传感器至少要有45m检测距离且检测范围能覆盖相邻的左右车道,才能预防碰撞发生。
据我所知,以国内目前领先的远红外技术就可以解决我们正在担心的问题。
可能少有人知道国内一家有军工背景的上市红外企业已研发了车载热成像夜视辅助驾驶系统,对行人的检测距离已经可以达到100m以上,水平视场角28°,视觉足够宽可以预防行人突然窜到当前车道被碰撞,同时还配有行人识别算法。相信通过此次事件的发生,远红外技术将会是新一轮趋势,预测今后无人驾驶安全上会增加远红外传感器。
详解:
现有无人驾驶技术路线优缺点
目前,国际上自动驾驶环境感知的技术路线主要有两种:一种是以高成本激光雷达为主导,典型代表如Uber、谷歌Waymo。另一种以特斯拉为代表的毫米波雷达主导的多传感器融合方案。我们来分析一下这两条线路对前方路况分析所使用的传感器:
Uber、谷歌的方案基本上是以激光雷达为主,毫米波雷达为辅,可见光摄像头几乎不参与。谷歌似乎对可见光摄像头一直不感冒,即使涉及到物体/行为识别,谷歌仍倾向于用三维激光雷达。
特斯拉的无人驾驶方案以毫米波雷达+可见光摄像头为主,最开始有MobileEye的参与,以可见光摄像头为主,毫米波雷达作为辅助。出现撞卡车事件后,Tesla改为毫米波雷达为主,可见光摄像头为辅。
从上面我们可以看出目前市面上主流的前向路况检测主要依靠以下
三种传感器:毫米波雷达、激光雷达以及可见光摄像头,且只是两个传感器融合。下面我们来分析一下这三种传感器的优劣势:
上表中可以看出,目前主流的针对前向的传感器融合方案都有一个显著的缺点:在恶劣天气情况下,只有毫米波雷达一个单传感器可以起到作用,而毫米波雷达自身又难以识别行人。故现有的技术方案只能在正常天气下工作,在恶劣天气环境下(特别是光线不好的情况)会对路上行人的生命会造成极大的威胁。
所以面对这种既要能在夜晚和恶劣的天气情况下,解决视觉和行人识别的问题。看似无人驾驶未能找到解决方案,但其实我们忽略了,夜视传感器中的远红外传感器。因为远红外技术只考虑观测主体与环境之间温度差,可以不受光线情况影响。
远红外热成像技术成像效果
远红外热成像原理,通过能够透过红外辐射的红外光学系统将视场内景物的红外辐射聚焦到能够将红外辐射能转换为便于测量的物理量的器件--红外探测器上,红外探测器再将强弱不等的辐射信号转换成相应的电信号,然后经过放大和视频处理,形成可供人眼观察的视频图像,最终通过显示终端显示、音响设备报警的夜间辅助驾驶产品。
某远红外热成像系统下的行人检测效果图
小结:惨痛的事故背后,免不了对无人驾驶技术的诸多质疑,但同时,又是促成该领域不断完善的最大动力。饱含敬畏,大胆创新。
作者介绍
轩辕智驾涛哥
一位混迹于汽车后市场和车厂的中年大叔,行走在无人驾驶行业的从业者。历数从事汽车电子有10多年,目前在一家上市公司从事产品经理6年,主要研究以红外技术为基础的高级驾驶辅助系统。想了解更多关于内容,来公众号:轩辕智驾。