反对盲目信任人工智能的6个因素


就我们而言,人工智能正在改变世界,ChatGPT所产生的影响遍及各个行业。无论如何,并非这些进展从根本上是确定的。我们不能忽视这样一个事实,即人工智能缺乏内在的道德指南针或事实核查系统来指导其决策,尽管它在许多领域提供了令人兴奋的新机会。

反对盲目信任人工智能的6个因素

随着世界变得越来越以人工智能为中心,我们应该始终对所听到的一切进行事实核查。盲目相信人工智能不是一个好主意,因为一些工具可以操纵数据,完全误解上下文,同时自信地犯错。

反对人工智能盲目信任的6个因素

1、安全

最明显和最根本的是安全。“首先不伤害”这一基本原则指出,背叛会产生严重且不可改变的影响。2018年,一辆自动驾驶特斯拉汽车与混凝土护栏相撞,导致一名司机死亡。2019年的一篇研究论文试图证明,有策略地在道路上绘制的线条可能会劫持人工智能算法,或导致其撞毁车辆,尽管这个案例是一个灾难性的异常值。

2、稳健性和安全性

安全性的核心是限制访问,保持框架内信息的诚实性,并保持一致的可访问性。数以千计的算法利用了人工智能在稳健性和安全性方面的弱点。这些恶意攻击继续被想象。更重要的是,在没有包罗万象的保护措施的情况下,模拟智能工程师会为每个新的安全措施量身定制安全比例。人工智能可能会被设计缺陷或特定对抗性攻击的弱点所愚弄或削弱。如果这是真的,那么也有可能劫持某人的轮椅进入安全区域。

3、隐私

防止伤害也是隐私原则的核心。有太多信息泄露,所有这些都为不法分子提供机会,可以在未经个人同意的情况下识别或分析——了解其幸福、金钱和个人生活的数据。81%的美国人认为数据收集的好处大于风险,这令人担忧。然而,研究人员发现,有色人种和少数民族成员比其他群体更容易受到伤害。由于其代表性不足,因此在前面提到的泄漏之后,其信息更加有效地去匿名化。

4、简单性和合理性

关于基于计算机的智能,简单性是一个广泛的特征。用户至少知道其正在与人工智能而不是人类进行交互。在最极端的情况下,所有专业周期和信息都得到报告、可访问且有意义。英国的考试评分丑闻就是一个很好的例子,说明缺乏透明度时会发生什么。除了学生的成绩外,该算法在确定分数时还考虑了学校以前的成绩和获得相同分数的学生人数。

5、道德与环境

道德和公平必须成为人工智能的目标。其必须遵守既定和强制执行的社会规范,也称为法律。这很简单,但在技术上具有挑战性。真正的情况开始于公共权力执行过时或采取自由企业战略。人工智能工程师和所有者有责任在利益相关者的利益、手段和目的、隐私权和数据收集之间找到正确的道德平衡。不仅仅是在工作场所,大型科技企业经常被指责延续性别歧视。积极分子和研究人员认为,”女性”语音伙伴将女性作为员工和父母的观点标准化。

6、问责制

职责确保可以针对先前引用的不同组件调查框架。大多数组织现在都在内部建立负责任的人工智能来筛选进展并防止利益损失。但是,其可能不允许外部控制或审查。在这方面,Clearview AI就是一个例子。该企业提供的面部识别技术优于市场上的所有其他技术,但其是私人拥有的,并由所有者自行决定。如果被犯罪组织或专制政权使用,可能会使成千上万的人处于危险之中。