为什么「好用」的自动辅助驾驶不应该获得司机的「信任」?


保守来看,可能我们与真正意义上的自动驾驶汽车,还隔着几十年的距离。在此之前,人机共驾可能会成为一种常态,人类不仅要参与到实际驾驶中,同时还要扮演「监察员」的角色,牢牢盯着人工智能系统的运行。

在自动驾驶过程中出现突发状况时,如何让驾驶者及时且安全地接管控制汽车是一个汽车行业争论已久的难题。而这也正是行业内称作 L3 级别自动驾驶、甚至是 L2 级别自动辅助驾驶急需解决的问题:用户到底该不该信任这一类「人工智能辅助的驾驶系统(AI-assisted driving system)」?

其实业界针对自动化场景下人类行为的研究已经有超过 70 年的历史了。之前的研究表明:人类在交出控制权很长一段时间后,会自然地对可信赖的自动化机器产生过度信任的感情。

于是,如何平衡用户信任和风险,成为了众多车企和自动驾驶公司的「抉择」。这迫使很多车企直接越过沼泽,放弃了这种中间状态的「L3 级别自动驾驶」——「与其在技术不成熟时把责任转嫁到消费者身上,倒不如真正踏实的致力于直接实现完全自动驾驶汽车。」

但是依旧有很多辅助驾驶功能带来的体验让用户「上瘾」,包括能够不断升级的特斯拉 Autopilot 系统。

其实针对 Autopilot 的安全性问题,业界对特斯拉颇有微词。上月,美国国家交通安全委员会(NTSB)发布的调查报告显示,3 月份发生在美国佛罗里达州的一起特斯拉致死事故中,车祸发生时 Autopilot 处于激活状态,且驾驶员双手并没有放在方向盘上。尽管特斯拉官方也一直在强调,Autopilot 属于辅助驾驶系统,开启后驾驶员仍要手扶方向盘保持注意力集中。但事实上,之前很多起致死事故中,车主几乎都处于「拖把」的状态,完全将生命交给了一套功能仍有待完善的智能机器。

 

「我们接受批评和建议,不过我们做的所有决定都是处于为客户最佳体验的考虑。」在今年第一季度的电话会议上,Elon Musk 解释说,「这些严重事故大部分都发生在经验丰富的驾驶员身上,这种盲目自信容易让人放松警惕,导致了悲剧的发生。」但 Musk 始终坚信自己的观点:「Autopilot 比任何传统汽车更加安全。」

针对这样的行业难题,MIT 花费三年时间,以上亿条的实验数据来说明、讨论和进一步拆解「信任」与「分险」以及「警惕性」之前的关联。这项研究的论文已经公开发布(下载地址:http://t.cn/ECAfpUp),文中详细记录了该实验的背景、操作方法、结论,同时对该研究存在的局限性进行了探讨。极客公园对其中的重点内容进行了梳理,下面和大家逐一分享。

 

早在 2016 年,麻省理工学院交通与物流中心的工作人员开始了一项特殊的针对自动驾驶技术的研究。通过搜集大量真实驾驶数据,利用深度学习算法进行分析,目的是探明人类与 AI 的互动机制,即「如何在不断提升道路安全的同时不牺牲驾驶的愉悦性」。

研究对象涵盖了 21 辆特斯拉车型(Model S 和 Model X),2 辆沃尔沃 S90,2 辆路虎揽胜极光以及 2 辆凯迪拉克 CT6。MIT 的工作人员要搜集的是这些车辆在自然运行状态下的驾驶数据,时间分为两个阶段:长期(驾驶时间超过 1 年)和短期(驾驶时间为 1 个月)。

 

 

2213 浏览