最近,一份关于技术的新人权报告提交给了联邦议会,该报告敦促谨慎地将人工智能应用到关键决策中。我们与澳大利亚人权专员爱德华·桑托就这份报告进行了交谈。
澳大利亚人权委员会(AHRC)呼吁任命一名人工智能安全专员,以解决人们对使用人工智能对隐私和人权造成的风险和危险的担忧。
AHRC对新技术对人权的影响进行了为期三年的研究,并于上月提交给了联邦议会(Federal Parliament),其中提出了38项建议,以应对人工智能的潜在人力成本。其中最重要的是成立了一个独立的人工智能安全专员,这是一个促进人工智能开发和使用过程中的安全和人权保护的办公室。
它还呼吁暂停在决策过程中使用面部识别和生物识别技术,直到立法规范它们的使用。
澳大利亚人权专员爱德华·桑托说:“我们所关心的情况是所谓的‘一对多’面部识别,也就是在一大群人中认出一个人。”
“在警务和执法等高风险领域,这种技术可能会导致两个特殊问题。第一个问题是准确性。我们都看的那些电视节目的问题是,我们看到(面部识别)在警匪片中发挥得很好。但实际上错误率很高,而且错误率不是均匀分布的。
“对于深色皮肤的人、身体残疾的人和女性,它更容易出错。这是我们应该担心的事情,因为我们知道,这些群体中的一些人在历史上遭受了不成比例的不公正待遇。”
面部识别带来的第二个问题是公共场所的大规模监控对隐私的侵犯。
“我们需要问一个非常基本的问题:我们想生活在一个逐渐走向大规模监控的社会吗?”Santow说。“因为我们在公共领域使用这种面部识别生物识别监控越多,我们就越失去在公共身份和私人身份之间进行某种区分的能力,这是我们应该深入考虑的问题。”
《人权与技术》报告呼吁立法明确保护使用面部识别技术的人权,但这种保护是什么样的呢?
桑托说:“在出现错误的地方,或者有人故意使用面部识别对他人造成不正当的伤害的地方,需要对人们的人权进行明确的保护。”“必须非常清楚,在高风险的决策领域,面部识别系统不能被使用,除非有足够的准确性,而且它不会在特定人群周围聚集所有的不准确性。”
在这份报告中,对人工智能对这些人群影响的担忧超出了面部识别技术的范畴。人工智能决策工具使用统计偏差来做出决策的算法偏差也可能产生不公平或歧视性的结果。
这方面最公开的例子是“机器人债务”,Centrelink的自动福利债务回收计划,但人工智能歧视的可能性还不止于此。
桑托说:“想象一下,一家银行正在使用人工智能系统对银行贷款进行决策,他们通常会使用机器学习系统,因此他们会用多年来的决策来训练计算机。”“现在,我们知道,从历史上看,如果你回到20年、30年、40年或更长时间,女性获得银行贷款的可能性要小得多。不是因为什么好理由,而是因为理论、偏见和历史偏见。
“现在的问题是,如果你训练你的人工智能系统去做一大堆这样的老决定,那么结果很可能是那种老形式的歧视像僵尸一样复活,并以一种新的形式回来,因为计算机了解到——可以理解,但错误的——女性不太适合获得银行贷款。
“我们通过这个项目所能做的就是真正揭示出这类问题是如何产生的。我们不仅专注于诊断。然后我们进行了治疗。我们想要明确的是,你不能漫不经心地(使用人工智能),你需要看到风险在哪里,然后解决这些风险,以便安全地使用它。”
最容易受到人工智能技术歧视的群体之一是残疾人,该报告重点关注的是确保没有人在人工智能技术的崛起中掉队。数字通信和人工智能需要让整个社会平等受益。
桑托说:“我的职业生涯是从人权律师开始的,我参与的许多案件都是关于残疾人歧视的。”“所以我从我的客户那里知道,如果你的大楼没有一个坡道,如果你是轮椅,你就不能进入大楼。如果你的火车、公共汽车或其他公共交通工具不能容纳残疾人,那么人们就不能去上班,他们不能在物理环境中移动。
“当然,改变的是我们的环境更加在线了。互联网就是最明显的例子。比方说,如果一个盲人去访问一个网站,而这个网站不能与他们的屏幕阅读器一起工作,那么他们就会被锁在这个网站之外。现在,这真的很重要,如果这是一个重要的网站,他们可以使用它来访问政府服务,甚至只是像一个超市网站,让他们可以在线购买食品。
“这是我们真正担心的事情,因为你可以用通信技术做一些伟大的事情,但随着我们越来越依赖它,我们不想有一个两级系统。”
由于存在这些潜在的偏见,该报告呼吁联邦和州政府向澳大利亚人权委员会提供资源,为政府和私营机构制定指导方针,使其在使用人工智能信息的决策过程中遵守反歧视法。
桑托说,澳大利亚在人权方面有着良好的记录,它签署了构成《国际权利法案》的所有主要人权条约,但是现在科学技术似乎是保护人权的下一个前沿。
“我们意识到我们生活在一个革命性的时代,”他说。“我们很多人随身带着智能手机之类的东西,都不会多想。然而,智能手机的功能实际上是将阿波罗11号送上月球的计算机的数百万倍。因此,科学上的变化正在对现实世界产生影响。我们对人工智能等新技术如何使我们的世界更包容、更联系感到兴奋,但我们也想探索一些对我们的人权构成的风险。
“这确实是我们觉得我们没有重视的事情——其中一些风险和威胁,特别是隐私权,考虑到个人信息是人工智能的动力,但也包括平等和非歧视。
“我认为,随着人工智能等新技术的兴起,人们才刚刚开始看到这将如何涉及我们的基本人权,以及有必要认真对待它。”
该报告的主要建议之一是,为了满足这一需求,联邦政府应该任命一名人工智能安全专员,指导政府和非政府机构解决人工智能开发和使用的人权和隐私问题。
桑托说:“我们正在冲向一个与我们许多人从小到的时代截然不同的未来。”“这不是坏事,但风险和威胁是存在的。由于变化的速度如此之快,我们确实需要确保我们的监管机构跟上步伐。
“设立人工智能安全专员的提议在一定程度上是为了建设保障我们安全的能力,但同时也是为了成为一个值得信赖的专业知识来源,特别是对政府而言,因为政府继续拥抱人工智能。
“我们一开始就假设需要一大堆新立法。我们对这些问题研究得越多,就会发现问题实际上更加微妙。这是因为有很多现有的法律没有得到有效的应用或执行——这需要更好的教育监管行动。
“法律中有一些空白需要填补;只是比我们刚开始的时候想的要少。所以这是一件好事,因为大量的新立法很难实现。我们最终想出的方案更具针对性。
“我们得到了社会各界、私营机构和公营机构的大力支持。最终,接受或不接受是部长、司法部长的决定,她正在研究我们的建议,并非常仔细地考虑它们。”
最初发布的宇宙作为我们想要什么?围绕AI的(人权)权利!
安德鲁·贝恩
安德鲁·贝恩是位于塔斯马尼亚州霍巴特的《宇宙》杂志的撰稿人。