AI杀人案终审,机器远比你想的冷酷

从对自动驾驶最初的狂热中冷静下来后,现在,越来越多的人开始接受一个事实:自动驾驶技术已颇为成熟,但想看到一辆辆自己打着方向盘的车辆开上马路,我们的“有生之年”未必够用。

自动驾驶面临的问题很多,不只关乎技术,更难的是 Corner Case(极端场景)的收集,以及规则、道德、伦理上的困扰。

比如,没有站在斑马线上的行人,还算不算人?

AI杀人案终审,机器远比你想的冷酷


这看似是个无厘头的问题,但对自动驾驶来说却很难。至少 2018 年 3 月撞向 Elaine Herzberg 时的 Uber 自动驾驶,就在这个问题上犹豫了。

最近,在事故发生 20 个月后,NTSB(美国国家运输安全委员会)终于公布了 Uber 致死案的“结案报告”。

这份 400 多页的文件,还原了事发前的全部细节,我们也得以一窥自动驾驶的另一面困境。

AI杀人案终审,机器远比你想的冷酷


这“生死6秒”中到底发生了什么?

2018 年 3 月 18 日晚上 10 点,一辆 Uber的自动驾驶汽车在亚利桑那州坦佩市以 43.5 英里/小时(约 70 公里/小时)的速度行驶。

测试车是一辆沃尔沃 XC90,车内有一位安全员,但车子完全处于自动驾驶状态。

车子驶向事发的路口时,Herzberg 正骑着自行车要穿越马路。

AI杀人案终审,机器远比你想的冷酷


撞击发生前 5.6 秒,车子搭载的激光雷达检测到了 Herzberg,此时她距离斑马线大约还有 109 米。

理想状态下,传感器收集的信息会迅速传输到计算系统,由算法判定 ta 是行人、车辆、路牌还是建筑,并分析运动轨迹,做出是否避让的决策,最后由电子系统执行,完成一个信息处理的闭环。

AI杀人案终审,机器远比你想的冷酷


然而,Uber 的自动驾驶却在算法环节卡住了。

不遵守交规过马路的行人是种不太极端的 Corner Case,但 Uber 的自动驾驶团队显然没考虑过类似情况,在 Uber 的算法中,在斑马线外的行人,并没被划分到“人”的范畴内。

于是,Uber 的无人车犯起了“选择困难症”。

接下来性命攸关的 4 秒钟里,算法不停进行着自我博弈。推着自行车的 Herzberg ,先是被归“其他”类别;一秒之后,修改为“车辆”;之后,系统数次在“其他”与“车辆”之间变换选择…

直到撞击发生前 2.6 秒,无人车终于认出了“自行车”;但紧接着,Herzberg 又变回了“未知物体”…

AI杀人案终审,机器远比你想的冷酷


Uber 的算法决策基于这样的逻辑:系统通过监测物体的位移来预测其运动轨迹。当与自身行驶线路发生冲突时,再从物体动势来判断采取何种应对措施,是避让,还是紧急制动。

这一机制本身没什么大问题,但问题是,Uber 的设置中,一旦系统改变了对物体的分类,此前的追踪轨迹也会被放弃。

这就意味着,当无人车系统频繁更改对 Herzberg 的分类时,Uber 的轨迹追踪机制彻底就崩盘了——在无人车眼中,Herzberg 和她的自行车始终处在静止状态。

碰撞前 1.2 秒,系统终于确认了面前不断逼近的是一辆“自行车”。

AI杀人案终审,机器远比你想的冷酷


如果此时车辆紧急制动,事故或许不能完全避免,也能最大限度减小对 Herzberg 的伤害,但这种可能性也被 Uber 的系统调教否决了。

虽然“ Safety First ”被奉为自动驾驶的第一准则,但“安全”和“舒适”的博弈也无处不在。

2017 年 8 月,现任 CEO Khosrowshahi 上任不久后,Uber ATG 部门高管就在内部邮件中,要求工程师“禁用紧急刹车和急转弯功能”,他们声称这个措施的目的是考虑“乘客体验”,将每次乘车过程中的“不良体验”数量控制在一次以内。

AI杀人案终审,机器远比你想的冷酷


据 Business Insider 报道,工程师们被迫在安全方面做出了让步,但一直对此忧心忡忡。

更雪上加霜的是,高管决定裁撤一名车内安全员。这就意味着,一名安全员要同时完成监控路面、上报车辆状况,并协助识别物体的工作。

于是悲剧来了。

当 Uber 识别出 Herzberg时,车辆仍然处于无法紧急制动的状态,系统根本刹不了车。更糟的是,系统甚至都没有对安全驾驶员发出警告。当玩手机的安全员有所察觉,踩下刹车时,一切已经于事无补了。

0.2 秒后,车辆以 65Km/h 的速度撞飞了 Herzberg。

AI杀人案终审,机器远比你想的冷酷


这是自动驾驶历史上的第一起致死案件,直接导致了 Uber 自动驾驶停摆 9 个月,也将当时人们对于自动驾驶技术的怀疑推至了顶峰。

而现在,新报告揭开的另一层真相,又将我们引向了新的迷思——在自动驾驶时代,是否人类才会是真正的马路杀手?

这起事故后,“避让斑马线外横穿马路行人”已经被加入了 Uber 无人车的规则中,但如果我们再将问题推进一步:当闯红灯的路人与车辆安全发生不可避免的冲突时,该如何取舍呢?

以前,“老司机”们会下意识做出某种选择,这取决于 Ta 个人的人生经验、文化背景、价值观等。但在自动驾驶时代,这些选择是被代表的,掌控在系统团队、算法工程师手中。

AI杀人案终审,机器远比你想的冷酷


于厂商而言,这是个一道无解的“电车难题”。

有人试图通过民意投票来得出答案。从 2014 年开始,MIT 的研究人员就在网上推出了一套名为“到的机器”的游戏,用来征集人类对无人车各类道德困境的意见。

上线四年来,MIT 已收集到来自全球四千万份数据,让它成为了有史以来全球最大规模的道德偏好研究之一。

人们对某些原则达成了一致意见,比如,无人车应该视人类生命权高于动物、拯救更多人(而非少数)和年轻的生命(而非老人)。但在另一些方面,比如怎样应对违反交通规则的人群的问题上,仍然分歧巨大,而且彼此不想被对方代表。

AI杀人案终审,机器远比你想的冷酷


“所有生命都应该被平等对待”虽是普世原则,但真正实现还是难如登天。

毕竟,自动驾驶放在未来任何一个时间点上,都不单单是一个技术问题,超越技术之后,更多社会、道德与伦理困境,才是决定它落地的关键


本文为我原创

本文禁止转载或摘编

-- --
  • 投诉或建议
评论