“一辆高速行驶的列车驶来,列车前面有两条轨道,正常行驶的轨道上被绑着五个人,而另一条轨道上绑着一个人;你的手中有一根操控杆可以控制列车的行驶轨道,如果不拉下操纵杆,列车将撞上五个人,另外一条轨道的一个人将会得救;如果拉下操纵杆,列车将撞向一个人,正常行驶轨道上的五个人将会得救。如果是你,将怎样选择?”
闻名于哲学界的“电车难题(Trolley Problem)”在自动驾驶汽车时代”,将不再只是一个哲学问题,而是每一个自动驾驶系统需要面对的真实问题,系统将决定在发生事故时撞向谁、保全谁。
现行的自动驾驶系统分为六个级别,Level 0—Level 5,从“仅提供提醒”到“无需驾驶员的全自动驾驶”,特斯拉的自动驾驶系统已经可以达到L5,并且谷歌、百度等公司还在不断的跟进自动驾驶系统开发。
(源自 为什么自动驾驶需要5G?网优雇佣军)
但是当自动驾驶系统达到“全自动驾驶”时,系统的开发者就要认真考虑多种两难的情境:当自动驾驶汽车处于“电车难题”情况下要怎样选择?在极端情况下,自动驾驶系统会选择拯救年长者还是拯救青少年?而当不可避免的事故发生时,法律将怎样判定肇事责任?
01 意外来临时,人类会如何选择
麻省理工大学在2016年开发出了“道德机器(Moral Machine)”问卷测试网页,通过问卷的方式调查全球各地的人在假定的 “电车难题”中如何做出选择。在问卷之中,有九种独立情况需要受试者做出判断,分别是:人类和宠物之间的选择、多数人和少数人之间的选择、年长者和年轻人的选择、遵守交规的人和违反交规的人之间的选择等九个分类。
人类道德选择的共性
“道德机器(Moral Machine)”收集了来自233个国家的人做出的接近4000万个选择数据并进行分析,并且将分析结果发表到了Nature上。
研究发现了一些全球普遍的选择倾向,比如受访者较普遍地选择了保护人类而不是其他动物;较普遍地选择保护多数生命而不是少数;较普遍的选择保护青少年而不是年长者;较普遍的选择保护遵守交规的人而不是违反交规的人。
(选择偏向表 版权所有:Nature)
人类道德选择差异
除此之外,研究显示在不同的国家和地区,人们选择也出现了很大的差异。本论文中,将所有的参加调查样本分成了三个集群:第一,西部集群(Western),主要包括北美和欧洲,以天主教和传统基督教文化为主的集群;第二,东部集群(Eastern),主要包括中国和亚洲国家,以儒家文化为主的集群;第三,南部集群(Southern),主要包括拉丁美洲和法属海外地区。
(不同地区的选择偏向 版权所有:Nature)
根据雷达图可看出,来自不同地区的人的选择存在差异;比如,其一,西部集群和南部集群倾向于保护年轻人,而东部集群这种倾向则不明显;有可能是因为东部集群的“敬老”文化”的影响;其二,南部集群倾向于保护社会地位高的人,并且远超西部集群和东部集群。或许和南部地区的集权统治和军阀当政有关系;当进行了地区分类之后,还有一些奇怪的倾向,比如说,南部集群倾向于保护动物而不是人类。