[导读]近期,关于AI自主武器的话题被推至风口浪尖。
原标题:Top AI Experts Vow They Won’t Help Create Lethal Autonomous Weapons
来源丨Futurism
作者丨Kristin Houser
编译丨吉吉
人工智能,为人类谋福祉
人工智能(AI)有可能通过预测自然灾害、阻止人口贩运和诊断致命疾病来拯救生命。不幸的是,它也有可能夺取生命。设计致命自主武器的努力已经在进行中,这些武器使用人工智能来决定是否要杀死一个人。
周三,“生命研究所”(FLI)——一个专注于利用科技造福人类的组织——发布了一项承诺,谴责发展致命的自主武器,并呼吁各国政府阻止它。
FLI总裁Max Tegmark在一份新闻稿中说:“人工智能有巨大的潜力来帮助这个世界——如果我们对它的滥用进行污名化和预防的话。”“自动决定杀人的AI武器和生化武器一样令人厌恶和不稳定,应该以同样的方式处理。”
签署承诺,抵制AI自主武器
170个组织和2464个个人签署了这一承诺,承诺“既不参与也不支持发展、制造、贸易或使用致命的自主武器”。该承诺的签署者包括OpenAI的创始人埃隆•马斯克、Skype创始人贾安•塔林和著名的人工智能研究员斯图尔特•拉塞尔。
谷歌旗下DeepMind的三位联合创始人(Demis Hassabis、Shane Legg和Mustafa Suleyman)也签署了这一承诺。DeepMind是谷歌的顶级人工智能研究团队,该公司最近在与美国国防部的合作中,将自己置于致命的自动武器争议的十字路口。
今年6月,谷歌发誓不会更新国防部的合同,后来又发布了新的人工智能发展指导方针,其中包括禁止制造自主武器。签署FLI承诺,可能进一步证实该公司对致命自主武器的公开立场。
言过于行?
目前尚不清楚这一承诺是否真的会导致任何决定性的行动。联合国的26个成员国已经批准了一项全球禁止使用致命自主武器的禁令,但包括俄罗斯、英国和美国在内的几位世界领导人还没有加入。
这也不是人工智能专家第一次联合起来签署反对发展自主武器的承诺。然而,这一承诺确实有更多的签名者,其中一些新增加的名字在人工智能领域是相当大的名字(如:DeepMind)。
不幸的是,即使世界上所有的国家都同意禁止使用致命的自动武器,这也不一定会阻止个人甚至政府继续秘密开发武器。当我们进入人工智能的新时代时,我们似乎别无选择,只能希望优秀的玩家数量超过作恶的玩家。(编译丨吉吉)
原文:https://futurism.com/lethal-autonomous-weapons-pledge/
声明:凡注明为其它来源的信息均转自其它平台,目的在于传递更多信息,并不代表本站观点及立场和对其真实性负责。若有侵权或异议请联系我们删除。
千家智客微信公众号
扫描下方二维码,关注千家智客微信公众号(qianjiacom),随时随地知晓智能行业天下事!