[导读]IBM正在推出一款名为“公平360”的工具,该工具可以扫描算法中存在偏差的迹象,从而对如何修正调整算法提出建议。
原标题:IBM releases tool for tackling scourge of bias in AI algorithms
偏见仍然是一个严重的社会问题,它否定了人的付出,并可能带来灾难性的结果。
IBM正在推出一款名为“公平360”的工具,该工具可以扫描算法中存在偏差的迹象,从而对如何修正调整算法提出建议。
目前,人工智能已经存在偏见的问题。这很少是有意的,但通常是来自社会主要部分的开发人员。
以面部识别软件为例。
NIST和德克萨斯大学达拉斯分校的研究人员在2010年进行的一项研究发现,在东亚设计和测试的算法更善于识别东亚人,而在西方国家设计的算法则更准确地检测出白种人人。
美国公民自由联盟最近对国会议员进行了一项关于亚马逊面部识别技术的测试,以确定他们是否与犯罪照片的数据库相匹配。错误的匹配不成比例地影响了国会黑人核心小组的成员。
人类有天生的偏见。例如,在大多数情况下,政治立场都可以在个人基础上进行。然而,如果人工智能开始执行操作或传播其开发人员的立场,那么它就会产生问题。
今天的一个问题是,开发人员通常不知道他们的人工智能和为什么会做出什么决定。人工智能在所谓的“黑盒子”里工作。
IBM的工具希望使这些决策更加透明,以便开发人员能够看到他们的人工智能使用了哪些因素。
IBM商业价值研究所最近进行的一项研究发现,82%的企业正在考虑人工智能部署。然而,60%的人担心责任问题。
该软件将基于云计算和开源,它还将兼容各种常见的人工智能框架,包括沃森、Tensorflow、SparkML、AWS SageMaker和AzureML。(编译/吉吉)
原文:
https://www.artificialintelligence-news.com/2018/09/19/ibm-tool-bias-ai-algorithms/
声明:凡注明为其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场和对其真实性负责。若有侵权或异议请联系我们删除。
千家智客微信公众号
扫描下方二维码,关注千家智客微信公众号(qianjiacom),随时随地知晓智能行业天下事!