智能驾驶系统存在很多盲点 自动驾驶能工作吗?

2022-01-19 17:29 来源:电子说

电子发烧友网报道(文/梁)去年8月,企业家在驾驶“自动驾驶功能”开启的蔚来ES8时发生意外身亡,引发公众对车企“自动驾驶”误导性宣传的质疑。于是,一些前期宣传“自动驾驶”的车企开始在宣传词上趋同。例如,小鹏将原本在官网描述的“自动辅助驾驶系统”改为“智能辅助驾驶系统”。

当然,Toutie还有一小部分公司还是把“自动驾驶”放在了介绍页面最显眼的地方,所以我就不在这里提谁了。目前带驾驶辅助的车辆大部分都是L2级系统,但按照一般认知,已经达到“高度自动驾驶”水平的L4级系统真的安全吗?

近日,Li CEO李想在微博上发布了一份关于公司智能驾驶研发的成绩单。复旦大学计算机科学与技术学院副院长、国家973计划首席科学家杨民教授在看到李翔的微博后,回答并质疑目前智能驾驶系统的安全性。

“说实话,我们的安全研究人员认为自动驾驶的安全性并没有我们想象的那么香。在我们新开发的驾驶系统安全测试平台经过L4级别系统的测试后,我们的朋友在零下深呼吸,说他们不应该尝试L2以上的功能。”

在杨民教授给出的例子中,演示了L4无人驾驶汽车必然发生碰撞的一个具体场景。

当车辆在给定车道行驶时,前方车辆突然有拥堵动作,车辆不减速,这种场景下会触发碰撞。如果人类驾驶员遇到这种场景,一般会在后面减速一段时间或者闪大灯提醒前方车辆,确认安全后再通过。

虽然按照事故责任的情况来看,责任主要在于变道车辆,对于自动驾驶来说,这样一个100%发生事故的场景显然是重大的安全缺陷。这不是一个孤立的案例。杨民教授还透露,测试系统仅在一周内就发现了数百起碰撞案例。自动驾驶真的是个伪命题吗?

智能驾驶系统存在很多盲点。

由于真实路况的复杂性,虽然目前的智能驾驶系统经过多年的发展,已经有足够的真实场景进行机器学习和训练,但遇到一些特殊场景时,仍然会出现无法识别的情况。

例如,2020年7月,一辆特斯拉Model S在美国高速公路上开启自动驾驶自动辅助驾驶系统时,无法识别前方的白色警车,造成追尾,还影响到警车前方的一辆救护车。

白色似乎是特斯拉自动辅助驾驶系统的盲点。同样,2020年,中国台湾省嘉义县的一辆特斯拉Model 3在高速公路上启动自动驾驶自动辅助驾驶系统时,也没有认出前方因事故翻车撞上的白色货车,也没有减速。调查结果显示,系统错误地将白色卡车识别为当时的天空,因此没有减速。

对于温教授举的例子,其实类似的事件在现实中已经发生过。此前,在深圳南平,一辆Model 3开启自动驾驶自动辅助驾驶系统时,由于最右侧车道关闭,右前方行驶的比亚迪渣土车提前打开转向灯,变道至Model 3所在车道。然而自动驾驶系统并没有停下来,而是加速跟随着前车,最后相撞。

不仅特斯拉,其他品牌的汽车都经历过系统识别错误的事故。例如,去年9月,一辆搭载NGP(智能导航辅助驾驶)的小鹏P7在高速公路上追尾了一辆空拖车。原因大概是因为拖车底盘高度太低而误判。

去年1月,沈海高速上的一辆蔚来ES8在启动NIO Pilot自动辅助驾驶功能时,撞上了因轮胎问题而在高速公路最内侧车道抛锚的五菱洪光。从车主提供的行车记录视频中,我们可以看到天气情况a

当然,驾驶员注意力分散是上述事故发生的重要原因之一,但类似事件的频繁发生也反映了智能驾驶系统在识别特定场景时的盲点。

可能有人会觉得这些车企的智能驾驶系统水平不高,一些自动驾驶公司的L4级系统效果会更好。事实上,大多数自动驾驶公司从一开始就朝着完全自动驾驶的方向发展。目前,一些Robotaxi项目也已经开始落地,但从实际体验来看,还是有一些危险动作。

比如百度Apollo的L4自动驾驶,在一个博主的体验过程中,车辆过人行横道时没有明显减速。从普通司机的角度来看,有很多危险的行为。

虽然在现实中可能是小概率事件,但就汽车而言,无论可能性有多大,只要有可能,都会直接影响乘客的生命安全,这也是为什么汽车级产品要求的不良率要达到0PPM (0 ppm)的原因。

自动驾驶能工作吗?

去年8月,工信部发布了关于加强智能联网汽车厂商及产品准入管理的意见文件。其中一个关键词是:明确自动驾驶功能未经批准不得通过在线软件升级进行添加或更新。

在将自动驾驶功能推向汽车之前,“应确保汽车产品至少满足系统故障识别与安全响应、人机交互、数据记录、过程保障、仿真等测试验证要求。”这意味着在监管层面,监管部门已经开始推进对车企自动驾驶功能安全性的审核。

但是一家汽车公司依靠自己的技术实现纯自动驾驶可能是不可能的。在真实的交通场景中,车辆与车辆的关系是一个黑箱。对于人类驾驶员来说,他们是在与其他驾驶员不断相互判断和测试的过程中。这个过程中的变量不仅是驾驶员基于经验对实时路况的判断和反应速度,也是不同驾驶员的心理状态。

这可能是行业不看好全自动驾驶诞生的时间节点的原因之一。所以在V2X技术还难以大规模普及的情况下,纯自动驾驶还很遥远。

所以,未来要避免因智能驾驶功能而出现的事故,重点还是在于人类驾驶员,从技术的角度来看,DMS(驾驶员监控系统)在未来的智能驾驶功能上将会处于更加重要的地位,通过判定更加敏感的DMS来及时提醒驾驶员,确保驾驶员保持对路面的专注。只是,这跟自动驾驶的初衷似乎又有点相违背了...

而对于目前自动驾驶的小概率缺陷,杨珉教授的这句话也引人深思:“时代的每一片雪花,落在每一个人身上都是一座大山。”

原文标题:自动驾驶被曝严重缺陷!国家973首席科学家呼吁:不要尝试 L2以上功能

 

延伸 · 阅读