无人驾驶汽车的抉择

无人驾驶

今天,我既凶残又仁慈。我故意杀死了领取养老金者和几条狗。我撞了无家可归者,杀死了两名运动员,轧过了肥胖者。但是,我始终努力救孩子。

我在“道德机器”(Moral Machine)——麻省理工学院(MIT)运行的一项公开实验——上完成测试后发现,我的道德观跟很多人不一样。有些人辩称,在道德困境上把公众意见汇集到一起,是向无人驾驶汽车等智能机器赋予有限道德推理能力的有效手段。然而,在测试之后,我不相信众包是形成杀戮道德(本质上就是这么回事)的最佳途径。这个问题并不单纯是学术层面的:一辆配备“半自动式”Autopilot的特斯拉(Tesla)汽车的驾车者死亡,导致该公司在中国被起诉。特斯拉否认那起事故的过错在于该项技术。

任何人只要有台电脑,利用咖啡时间就可以参加麻省理工学院的大众实验。该实验想象一辆全自动驾驶汽车的刹车失灵。这辆车载满了乘客,正朝行人开过去。实验给出了这一“无轨电车难题”的13个版本。这是一个经典的道德难题,需要决定谁将死于一辆失控电车的车轮之下。

在麻省理工学院的重新设计中,失控的是一辆自动驾驶汽车,它既可以按原来路线行驶,也可以急转弯;两种情形都会造成死亡和破坏。被选对象可以是乘客或行人,或者两组行人。计算谁应送命,需要在较多生命和较少生命之间、年轻人和老年人之间、专业人士和无家可归者之间、怀孕女性和运动员之间,以及人类和宠物之间做出抉择。

电车难题的核心是决定谁生、谁死——这正是真正自动驾驶的汽车最终或许要做出的那种判断。我的“偏好”在实验后被披露出来:基本上,我会救孩子,牺牲宠物。没有乱穿马路的行人得以幸免,而乘客被牺牲了。很明显:选择上一辆无人驾驶汽车的人,应当分担一部分风险。至于我不愿急转弯,难道谨慎没有意味着无人驾驶汽车的程序指令通常是沿道路行驶吗?

这很有启发意义——直到你看到自己的偏好跟其他所有人有多么不同。我在救命这件事上做得不够好——尤其是在保护汽车乘员方面。相比其他事项,守法和避免急转弯似乎对我更重要一些;我选择的受害人的社会地位对我完全不重要。

我们可能对于明智而审慎地分发死亡的技术方面争论不休。例如,如果我们宣判汽车乘员死刑,那么无论乘客是孩子还是罪犯,我们都会照做不误吗?

但是,为此类细节烦恼将是毫无意义的。如果说有任何收获的话,那就是这个实验证明,要在无人驾驶汽车的道德上达成共识是极其困难的。类似调查显示,对大多数人而言,救下最多条命这个功利主义观念合情合理——只要他们自己不在车轮下丧生。

我对于只是把大家的道德集合到一起、然后遵守一个规范感到很悲观,因为,至少在我看来,这个规范不是正常的。这是自动驾驶汽车厂商面临的障碍。他们承诺通过减少人类过错来提高整体道路安全,但是谁会购买一辆由他本人并不认可的杀戮算法操控的汽车呢?更别提程序设定牺牲车上乘客的汽车了。

最令人不安的正是这种“预谋”杀戮的构想。那种敏感性让死刑普遍难以接受,并确保堕胎和安乐死仍是引起争议的监管领域。不过,我们大多数人咬牙接受事故可能发生。即便是自动驾驶汽车,或许也应该留下让某些事情“听天由命”的空间。 

抢沙发

昵称*

邮箱*

网址