2018年在巨大和大胆的网上实验的结果进入人道道德,发表在杂志中自然,为我们的道德偏好提供了一个窗口,偶尔会对我们进行严重反映,突出了关于年龄和性别的奇怪偏好。
现在,研究人员已经挑战了这项研究的准确性如何描绘了我们的选择,并提出了我们可能更为道平的平台,而不是以前的想法。
最初的研究被称为道德机器实验(MME),由美国麻省理工学院(MIT)的埃德蒙·阿瓦德(Edmond Awad)领导,旨在“探索自动驾驶汽车面临的道德困境”,向人们展示一系列事故场景,在这些场景中,汽车发现自己无法拯救涉及的每个人。
参与者访问该网站,并被要求选择汽车应该做什么,谁应该活,谁应该死。
本质上,这些都是复杂而微妙的版本电车问题这个概念最早由英国哲学家菲利帕·富特于1967年以当代形式提出。
实验的想法是通过将他们捆绑在同一情况中的人们制造的真正道德选择来指导机器制造的道德选择。在实验的生活中,本网站以200多个国家的人民收集了40万种语言的决策。
这些决定所讲述的故事是复杂的,有时令人不安。
近乎普遍的重要性是拯救人类面前的人,年轻人前的年轻人,以及尽可能多的生活。
但也很明显是为了拯救合法的偏好,为了在无家可归者,妇女之前拯救高管,并在超重之前的契合。
同样令人感兴趣的是文化在道德偏好方面的明显差异,包括中美洲和南美洲、法国和受法国影响的地区在内的一些国家强烈偏好宽恕妇女和适合者。他们也不太愿意先救人再救宠物。
进一步支配趋势,一群亚洲国家展示了拯救老年人而不是年轻人的愿望,清楚地表明了文化驱动的道德相对主义。
从这项研究来看,似乎我们的道德判断反映了社会不同部门之间的深度不平等。
但从北卡罗来纳大学在美国的北卡罗来纳大学,yochanan bigman和Kurt Gray已经重新审视了MME及其调查结果页面杂志自然。
他们挑战其核心索赔,“人们希望自治车辆(AVS)不平等地对待不同的人类生活,优先杀死一些人(例如,男人,旧和穷人)(例如,女性,年轻人和富有的)。”
相反,研究人员认为,这种看似对待人们的人可能是一个不平等的人,这是一种以手推车问题的格式呈现道德选择的人工制品,这种格式迫使“人们在杀死一个人(或一群人”与杀戮之间进行选择另一个人(或一组人)。“
最明显的是,没有选择来表达对平等对待两者的偏好。
事实上,Bigman和Gray认为MME的结论是,人们希望av根据个人特征做出生死决定,“这与充分证明的跨人口特征和身份平等对待的伦理偏好相悖,这一偏好受到美国宪法的保护,《联合国世界人权宣言》和《德国自动联网驾驶道德规范》的道德指南第9行。”
该对旨在发现“如果人们在修订的范式中表明他们的道德偏好,那么允许AVS同样地治疗不同的人类的道德偏好会发生什么”。
他们的修订实验包括MME方法的复制以及refreged实验,包括第三种选项来治疗两组的生命 - 例如儿童和老年人 - 平等。
他们发现,电车问题情景的“强迫不平等”模型复制了MME的发现;但当允许选择平等时,这绝对是首选。
例如,他们解释说:“当被迫在男女之间选择时,87.7%选择拯救妇女,但97.9%的人实际上最好同样对待这两个群体”。
他们通过思想实验的镜头思考MME的结果:“如果MME强迫人们在黑人和白人之间选择什么,可能会发生什么?聚合人们的决定可以揭示一个种族偏见,但这并不意味着人们希望与种族主义自治车辆分享道路。“
他们争辩,同样的逻辑适用于MME中使用的个人功能:实验可能会揭示某些偏好,但并不表明人们真正希望“生活在世界性别歧视,年龄和古典主义自动驾驶汽车中的世界中”。
“这个思维实验,”他们总结道,“进一步表明,通过强制选择偏好进行聚合,可能无法准确揭示人们希望自动驾驶汽车在人类生命受到威胁时如何行动。”
在同一期的自然,MME研究的原作者反映了Bigman和Gray的批评。虽然没有解除他们的发现,艾德和同事指出了他们对研究的方法是对某些扰动因素特别敏感的。
一个例子是框架的问题:一个可以用两种完全不同的方式容易地框架平等。
人们可以用“平等对待儿童和老年人的生命”来形容这一选择。
但就像合理的人一样可以将这一点重新上作为“自动驾驶汽车应该不分青红屠杀杀死儿童和老年人”。
显然,后者不那么卑鄙。MME团队指出,这是Bigman和Gray的实验的两个部分依赖于不同的框架,因此可能面临精确度的某些限制。
更重要的是,Awad和团队通过发布MME之前未发表的数据来回应,这些数据指向了对不平等的显著偏好。
“在制作13项决定后,”写作作者“,”用户可以选择“帮助我们更好地了解(他们的)决策”。同意的用户被带到了一个页面,他们可以为道德机器探索的九个维度找到一个滑块。“
当用户登陆页面时,滑块将设置为反映他们在前面的13场景中所做的选择。然后他们有机会将滑块移向,例如老年人,或者对年轻人移动。
受访者然后有机会平等地对待生活,通过将滑块放在两个极端的中间。这种方法,争论和团队,为人们提供了选择平等的选择,同时避免通过以语言绘制问题而引起的陷阱。
这部分实验显示的是,对于四个维度(节省人类,节省更多的生命,节省年轻,并储蓄守法),结果显然表达了不平等的偏好。
但是,对于挽救行人的尺寸,节约贴合,节约女性,与符合原始实验的中央发现,节约高位人,结果表明偏好平等处理。
这些发现与Bigman和Gray的发现一致。
所以,虽然我们可能更有利于平等而不是原来的MME会让我们相信,但我们并不像Bigman和Gray所拥有的那样。
尽管如此,由于任何研究方法都有缺点,MME团队对Bigman和Gray推动方法多样性的努力表示赞赏,希望多个研究团队提供的总体图景将帮助我们理解我们真正想从我们的决策机器中得到什么。
无论如何,在自动驾驶汽车成为我们道路上的常见景象之前,我们必须对自己真正的道德偏好形成一个清晰的画面。
正如阿瓦德和他的同事们所说,“自动驾驶汽车的死亡事故是不可避免的,但那些在道德上冒犯公众、破坏行业发展的死亡事故却并非如此。”
“因此,尽可能准确地预测公众对我们植入这些车辆的道德决策的真实感受,似乎很重要。”
Stephen Fleischfresser
Stephen Fleischfresser是墨尔本大学三一学院的讲师,拥有科学历史和哲学博士学位。
阅读科学事实,不是小说......
现在是解释事实、珍惜循证知识、展示最新科学、技术和工程突破的最重要时刻。《宇宙》由澳大利亚皇家学会出版,这是一个致力于将人类与科学世界联系起来的慈善机构。财政捐助,无论大小,都有助于我们在世界最需要的时候获得可信的科学信息。请通过捐款或购买订阅来支持我们。