自动驾驶命案 敲响安全警钟
乔舒亚•布朗(Joshua Brown)死了。5月份,他的特斯拉(Tesla)跑车在佛罗里达的公路上行驶时,钻进了一辆正在横穿他所在路径的拖车的底部,特斯拉车顶被削掉。当时布朗的车处于自动驾驶模式,不幸的是,在阳光下,布朗本人、车辆摄像头和传感器都没有发现这辆高大的白色拖车。
自不久前特斯拉披露这起致死事故以后,它一直被视为自动驾驶汽车遇到的一个挫折。严格来说,并不应该是这样。尽管埃隆•马斯克(Elon Musk)的电动汽车公司称当时操控那辆Model S特斯拉汽车的技术为Autopilot(自动驾驶系统),但这个叫法并不准确。一个完全意义上的自动驾驶系统能够可信地自行驾驶车辆;但特斯拉的Autopilot不能。
布朗曾经兴奋地将自己坐在设置为Autopilot模式的特斯拉汽车中的视频上传到YouTube上,他信赖这项技术,这项技术则相信人肯定会犯错。但布朗的错误不同寻常:他的举动显得好像这辆车超级智能,而实际上这辆车还没有那么智能。这辆车的确可以帮助司机掌控方向和刹车,但还不能完全独立地驾驶。
正因如此,在迈向完全自动驾驶汽车的道路上,这一事件成为一个关键性事件。完全意义上的自动驾驶汽车能够在高速公路和城市公路上独立行驶,利用激光、传感器和摄像头绕过障碍物和其他车辆。这个事件表明,自动驾驶技术从辅助驾驶发展到独立驾驶的过程不会一帆风顺:需要一个巨大的飞跃。
这一点很关键,因为汽车制造商、供应商以及像谷歌(Google)(可能还有苹果(Apple))这样的新竞争者正在半路上。它们面临着关键问题:要在多大程度上信任司机能够与技术分担对车辆的掌控——哪怕和两年前相比,这些技术也要先进得多,但还远远不能实现完全自行驾驶。
特斯拉认为可以信任司机,事实也证明了这一点。布朗的死是特斯拉汽车借助Autopilot行驶1.3亿英里以来发生的第一起致命事故。这个结果好于2015年美国车辆每行驶8900万英里便会发生一起致命车祸的平均水平。特斯拉警告司机要保持警觉,双手别离开方向盘。如果司机没有做到这一点,车辆会显示警告,并发出警报声。
我有两个原因不认同特斯拉对司机的信任度。一个原因是很多人会无视警告:浏览一下YouTube视频就会发现很多特斯拉司机明目张胆地无视警告。他们在车辆行驶于高速公路上的过程中,兴奋地松开方向盘,把脸从眼前的公路转开,对着摄像头说话 。
在某种程度上,没有一个理性的人会把特斯拉错当成一辆全自动驾驶汽车。特斯拉的Autopilot能让汽车在公路上与其他车辆保持安全距离,并能够在标有清晰车道线的道路上自动驾驶。官方将其界定为2级技术,远低于理论上自动驾驶汽车需要的5级技术,后者能够在没有人类在车上的时候自动驾驶。
但这些YouTube上的司机都并非个别的愚蠢者:人们会忍不住把2级技术当做3级技术——一种有限的自动驾驶车,能够在出现问题或者遇到无法处理的情况时安全地把控制权交还给司机。当方向盘在你手中转动,车辆平滑地转过弯道的时候,你会产生一种虚假的安全感。
第二个理由是,几乎没有人确切地知道自动驾驶车到底是什么样子的,鲜少有人能够轻松说出不同级别的技术之间的区别。对大多数人来说,特斯拉汽车的这起事故听起来像是一起与自动驾驶汽车有关的致死性事故,这可能让他们对自动驾驶汽车整体产生负面看法。在配备辅助驾驶技术的车辆上太过信任司机,可能会导致更多人对自动技术不信任。
那将很可惜,因为走向自动驾驶汽车时代有很大的好处。今年一辆谷歌的自动驾驶汽车卷入一起事故的时候,我撰文称我宁愿坐一辆由计算机驾驶的车辆,而不是一辆由人类驾驶的车辆,因为人类司机会因手机而分心——我现在依然这么认为。行车伤亡事故中的绝大多数都是由人为失误导致的,而且大多数都可以被杜绝。
然而,我们不能无视达成这个目标过程中面临的挑战。比如,先进的自动驾驶汽车需要读取其周围环境的高分辨率3D地图。绘制谷歌的自动驾驶汽车当时所处位置周围的4个美国城镇的地图很简单,但要绘制全世界所有道路的地图就是另一回事了。
自动驾驶汽车还需要强大的计算机和通信系统,并嵌入人工智能要素,才能预测人类司机会如何行动。它们需要一系列传感器和雷达,这样当一个设备未能发现另一辆车时(就像布朗生前所驾驶的那辆特斯拉那样),还有后备的设备。实现上述的一切是完全可以想象的,但不太可能迅速大规模实现。
沃尔沃(Volvo)计划明年在瑞典哥德堡市有3D地图的区域试点100辆自动驾驶的XC90车型,司机在这种环境下能够不注意道路情况而不导致危险。宝马(BMW)已与芯片制造商英特尔(Intel)和以色列传感器制造商Mobileye达成合作,在2021年制造出能够在某些地方完全无需司机,独立驾驶的汽车。
同时,每一家公司都应该警惕,不要夸大技术能够做到的事情。特斯拉已经警告车主不要兴奋过头。这种警告应该再大声点。(FT)