查看原文
其他

宁波高速“810事故”深度解剖,辅助驾驶系统为啥难以识别静止车辆?

圆周智行 圆周智行 2023-01-05

8月10日,宁波高架路段发生一起碰撞事故,下文统称为“810事故”。自称肇事车主在聊天群透露的相关信息如下:


1、驾驶车辆为小鹏P7,事发时车主开启了LCC功能,定速80km/h。


2、车辆的辅助驾驶系统为小鹏汽车的XPILOT 2.5版本


3、事故发生前车辆没有预警。




LCC为车道居中保持功能,开启状态下,车辆的ACC自适应巡航功能也会自动开启,反之则不成立。


涉事汽车小鹏汽车官网显示,其XPILOT 2.5系统的相关硬件信息如下:



典型的“摄像头+毫米波雷达”的辅助驾驶方案。该方案是以摄像头为主,毫米波雷达为辅的辅助驾驶感知方案。


碰撞发生前几个细节值得注意(下文的分析中会重点提及):1、被撞目标车辆处于静止状态;2、人在车后,在二维空间里与车辆处于同一平面;3、车辆停靠在高速石墩旁边。


关于本次事故,《圆周智行》咨询了业内不少自动驾驶从业者的看法。顺着逻辑线逐一排查,相关资料整理如下:


摄像头有没有识别到车辆?


众所周知,摄像头工作最大的障碍就是光线,比如阴天,夜间,隧道等场景。出隧道瞬间光线反差等情况下容易出错。


根据车辆碰撞画面显示,事故发生在白天,高速上光照条件良好,而且不存在刚出隧道的光线逆差。


在传感器设备上,小鹏汽车XPILOT 2.5版本最早在2019年在小鹏G3i上车,一年后在小鹏P7上车。彼时业内主流的车前摄像头方案是2MP或者3MP。不管任何一种设备,理论上来说,应对这种场景不成问题。


合理的推断是,摄像头看到了当时的场景。


那么,既然摄像头看到了,为什么系统没有采取措施?


大部分工程师认为,这一次,算法需要背锅。


摄像头方案非常依赖算法,算法需要大量的数据训练,这就需要保证数据的无限性和有效性。无限性指的是数据量足够多,有效性指的是对算法训练有帮助的数据。然而,现实情况是,世界上每天都在产生无穷无尽的海量场景,摄像头不可能穷尽所有场景。


这种情况下,就可能出现算法“不认识”的情况。


视觉算法辅助驾驶的数据训练流程如下:传感器搜集数据,系统对数据进行清洗,分类等工作。清洗的目的是剔除对算法训练无用的数据,分类就是按照场景对数据进行分类,比如夜间,白天,雨天等。


之后,对整理好的数据进行标注。可以理解成给数据“打标签”,以此确定目标种类,一个目标可能被标注无数个标签框,这个需要人为界定,其核心就是要确定目标的属性。比如以一只猫为例,耳朵、眼睛、鼻子等特征都可以被作为标注对象,通过这些具象标注,系统判定它是一只猫。最后送入算法库,供算法进行学习训练。


前不久小鹏汽车车内DMS由于用户眼睛小而出现无法识别的情况,就存在数据标注的情况,如何界定这些边界,在于标注的手法。


回到本次事故,有不少人认为,是数据标注环节出了问题。目前数据标注对单独的后车尾门以及人的标注已经非常成熟,但事故发生时有一个细节值得注意,人站在后车尾处。当系统对数据对其进行标注时,人与车重合被系统当做一个整体来标注,当这种“异形体”被标注送入算法时,算法没有“训练过”,根本“不认识”它。


摄像头看到的目标是二维信息,呈现的是一张图片,对于没见过的东西,算法无法通过一张图片判定它到底是什么。


这里再延伸一点,如果是激光雷达,可以“描绘”出物体的三维轮廓,也许能够避免事故的发生。


所以,一种可能的解释是,摄像头看到了,但算法没有经过相关训练,“不认识”,直接屏蔽了。


排除摄像头的作用。那么,毫米波雷达有没有识别到车辆呢?


不少工程师给出的猜测是,不确定。


这还要从毫米波雷达的作用说起。其主要作用是测距和测速。


毫米波雷达的工作原理基于多普勒效应。当声音、光和无线电波等振动源与观测者以相对速度v运动时,观测者所收到的振动频率与振动源所发出的频率有不同。


当发射的电磁波(自车)和被探测目标(前车)有相对移动,回波的频率和发射波的频率不同。当目标向雷达天线靠近时,反射信号频率将高于发射信号频率;反之,当目标远离天线而去时,反射信号频率将低于发射信号频率。由多普勒效应所形成的频率变化叫做多普勒频移,它与相对速度v成正比,与振动的频率成反比。


如此,通过检测频率差,可以测得目标相对于雷达的移动速度,也就是目标与雷达的相对速度。根据发射脉冲和接收的时间差,可以测出目标的距离。


毫米波雷达多用于ACC自适应循环的原理就在于此。通过控制车速来控制车距,从而达到自动跟车的目的。


回到宁波“810事故”,问题的关键就在于,事故发生时,目标物体处于静止状态,且停在高速最左侧的石墩边上。


多普勒效应检测回波的特性是:动动易感,动静难感,静静无感。解释为,动态对动态易感知、动态对静态难感知、静态对静态超难感知。原因在于,如果前方车辆静止,目标回波很容易和地杂波等掺杂在一起。


此外,毫米波无法显示高度和空间信息,当静止的车辆和路边的石墩回波“融合”在一起,很难判断物体的具象。如果判定为障碍物刹车的话,很可能出现“幽灵刹车”的情况,影响用户体验,而且极易发生追尾的情况。大部分雷达公司都会选择直接“过滤”掉这些静止物体。


有工程师强调,不管毫米波雷达有没有检测到物体。这是一套“视觉为主,毫米波雷达”为辅的视觉感知方案。LCC功能开启时,摄像头负责分辨目标是什么,毫米波负责目标的速度和距离。二者分别输出目标感知结果,系统根据融合数据,做出驾驶决策。如果在摄像头阶段,系统已经做出了“无视”该目标的判断,毫米波雷达看没看到也意义不大了。


最后,还有一个问题:AEB为什么也没有起作用?


目前有两种猜测


一、AEB(自动紧急制动)不在工作速域范围内。


很多人不知道的是,AEB其实有工作速域范围,有最高和最低速度限制,并非全速域工作。


目前,业内对AEB的工作速域范围没有统一标准。上限设定70km/h,80km/h,甚至更高的都有。原因是防止突然急刹,对车内人员胸部压力过大造成伤害,以及追尾等安全事故。


根据车主在聊天群里的描述,LCC开启状态下速度设定为80km/h。不知道该车型的AEB速度上限是多少,是否超出了AEB的工作范围。


二、也有另一种可能。有工程师表示,目前除了理想和特斯拉自研的AEB,业内基本都是采用供应商的AEB方案,都需要依靠毫米波雷达来进行感知工作。这又回到了上文毫米波雷达对静止物体的识别问题。可能没有检测到目标物体。


以上均为根据实际信息的合理推测,真实原因等待官方调查结果。



推荐阅读:


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存