[导读]美国公民自由联盟对亚马逊面部识别技术的测试发现,它错误地将深色肤色的人贴上了罪犯的标签。
原标题:ACLU finds Amazon’s facial recognition AI is racially biased
出处丨Tech Forge
作者丨Ryan Daws
编译丨吉吉
美国公民自由联盟对亚马逊面部识别技术的测试发现,它错误地将深色肤色的人贴上了罪犯的标签。
人工智能技术的偏见,在执法部门使用时,引起了人们对通过自动种族定性来侵犯公民权利的担忧。
NIST和德克萨斯大学达拉斯分校的研究人员在2010年进行的一项研究发现,在东亚设计和测试的算法更善于识别东亚人,而在西方国家设计的算法则更准确地检测出高加索人。
美国公民自由联盟对美国国会议员的面部识别技术进行了测试,以确定他们是否与犯罪照片的数据库相匹配。
亚马逊的“Rekognition”工具用于比较众议院和参议院的所有成员的照片,而不是25 000张的逮捕照片,这一错误的匹配对国会黑人核心小组的成员造成了不成比例的影响。
美国公民自由联盟在一篇博客文章中说:
“国会议员们被错误地与我们在测试中使用的脸部照片数据库相匹配,其中包括来自全国各地的共和党人和民主党人、男性和女性,以及各个年龄层的立法者。
这些结果表明,国会应该加入美国公民自由联盟,呼吁暂停执法部门对面部监控的使用。”
AWS(Amazon Web Services)对ACLU使用的方法提出了质疑。
该公司表示,默认设置为80%的信任。对于执法部门来说,亚马逊表示,它建议只进行95%的信任或以上的匹配。
只有28名国会议员被错误地标记为犯罪照片,但近40%的错误匹配是肤色较深的人。然而,真正让我们看到的是,只有20%的国会是有色人种。
“我们的测试强化了对政府使用的面部监控的不安全性,”北加州ACLU基金会的技术和公民自由律师雅各布斯诺说。“面部监测将被用于为有色人种、移民和活动人士提供歧视性的监视和警务工作。一旦释放,这种伤害就无法挽回。”
亚马逊正在积极地将其面部识别技术推广到执法部门,比如华盛顿州的华盛顿县和佛罗里达州的奥兰多市。他们将其推广为一种从监控录像和警官的身体摄像机实时识别人的方法。
原文:
https://www.artificialintelligence-news.com/2018/07/27/aclu-amazon-facial-recognition-biased/
声明:凡注明为其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场和对其真实性负责。若有侵权或异议请联系我们删除。
千家智客微信公众号
扫描下方二维码,关注千家智客微信公众号(qianjiacom),随时随地知晓智能行业天下事!