人工智能的未来:人工智能将如何改变世界?

By Mike Thomas

在靠近芝加哥市中心的一栋不起眼的建筑里,Marc Gyongyosi和IFM/Onetrack的成员们正在成长及不断壮大。

人工智能有一个基本原则:简单思考。这些词用简单的字体写在一张纸上,贴在他们两层工业厂房楼上的后墙上。然而,他们在这里用人工智能做的事情一点也不简单。

人工智能的未来:人工智能将如何改变世界?

人工智能的未来
人工智能正在塑造几乎所有行业的人类未来。其已经是大数据、机器人和物联网等新兴技术的主要驱动力,并将在可预见的未来继续扮演技术创新者的角色。

使用机器学习和计算机视觉来检测和分类各种“安全事件”,这个鞋盒大小的设备并没有看到全部,但也看到了许多。比如司机在操作车辆时的样子、驾驶速度、何处驾驶、周围的人的位置以及其他叉车操作员如何操纵其车辆。IFM的软件会自动检测违反安全规定的行为——例如使用手机——并通知仓库经理,使之立即采取行动。这主要目的是预防事故和提高效率。Gyongyosi声称,仅仅是知道IFM的一个设备正在观看,就已经产生了“巨大的影响”。

Gyongyosi表示:“想想相机,它确实是我们目前可用的最丰富的传感器,且价格非常有趣。如今智能手机、摄像头和图像传感器变得非常便宜,但我们捕捉了很多信息。从一张图像中,可能可以推断出25个信号;但六个月后,我们可以从同一张图像中推断出100或150个信号。唯一的区别是查看图像的软件……每个客户都能从我们引入的每个其他客户中受益,因为我们的系统开始看到和学习更多的流程,并检测出更多重要和相关的东西。”

人工智能的演变


IFM只是这个不断发展的领域中无数人工智能创新者之一。例如,IBM发明者在2021年获得的9130项专利中,有2300项与人工智能有关。Tesla创始人兼科技巨头ElonMusk向非营利研究公司OpenAI捐赠了1000万美元,以资助正在进行的研究。

在始于“知识工程”的进化时期,又以零星休眠为标志的几十年后,技术发展到基于模型和算法的机器学习,并越来越关注感知、推理和归纳。现在,人工智能以前所未有的方式重新占据了舞台的中心,而且短时间内它不会让出“聚光灯”。

为什么人工智能很重要?
人工智能很重要,因为其是计算机学习的基础。通过人工智能,计算机能够利用大量数据,并利用其学习到的“智能”在人类所需时间的一小部分内做出最佳决策和发现。

人工智能将改变哪些行业?

现代人工智能——更具体地说,是“狭义人工智能”。其使用数据训练过的模型执行目标函数,通常属于深度学习或机器学习的类别——几乎没有一个主要行业还没有受到影响。在过去的几年里尤是如此,由于物联网的强大连接、联网设备的激增以及更快的计算机处理速度,使得数据收集和分析大大增加。

一些行业正处于人工智能之旅的起点,其他行业则是经验丰富的旅行者。两者都有很长的路要走。无论如何,人工智能于当今生活的影响是不容忽视的。

• 交通: 虽然完善它们可能需要一些时间,但总有一天自动驾驶汽车会载着我们从一个地方到另一个地方。

• 制造业: 人工智能驱动的机器人与人类一起工作,执行有限范围的任务,如组装和堆放,预测分析传感器,以保持设备的平稳运行。

• 医疗保健: 在人工智能相对新兴的医疗保健领域,疾病诊断更加迅速和准确,药物发现加速和简化,虚拟护理助理监控患者,大数据分析有助于创造更个性化的患者体验。

• 教育: 在人工智能的帮助下,教科书被数字化,早期的虚拟导师帮助人类导师,面部分析测量学生的情绪,以帮助确定谁在挣扎或无聊,并更好地根据个人需求定制体验。

• 媒体: 新闻业也在利用人工智能,并将继续从中受益。Bloomberg使用Cyborg技术帮助快速理解复杂的财务报告。AssociatedPress利用AutomatedInsights的自然语言能力,每年制作3700篇盈利报道,几乎是过去的4倍。

• 客服服务:  最后但并非最不重要的一点是,Google正在研发一种人工智能助手,其可以像人一样打电话预约,如预约附近的美发沙龙等等。除了单词,系统还能理解情景语境和细微差别。

但这些进步——以及许多其他进步——只是开始。未来还会有更多。

客户关系管理公司4Degrees的首席技术官兼联合创始人DavidVandegrift表示:“我认为,任何对智能软件的能力在某些时刻达到极限的假设都是错误的。”

随着公司每年在人工智能产品和服务上花费数十亿美元,像Google,Apple,Microsoft和Amazon等科技巨头花费数十亿美元来创造这些产品和服务,大学将人工智能作为其课程中更重要的一部分,以及U.S.Department升级其人工智能游戏,必然会有大事发生。其中一些发展正朝着完全实现的方向发展;有些仅仅是理论上的,且可能会一直如此。所有这些都是破坏性的,或好或坏,目前还看不到衰退的迹象。

Google前负责人、百度首席科学家AndrewNg在接受ZDNet采访时表示:“很多行业都会经历这样一种模式:冬天、冬天,然后是永恒的春天。我们可能正处于人工智能的永恒春天。”

人工智能对社会的影响

人工智能将如何改变工作

在西北大学的一次演讲中,人工智能专家 Kai-Fu Lee  倡导了人工智能技术及其即将到来的影响,同时也指出了人工智能的副作用和局限性。对于前者,其警告道:

“90%的底层人口,尤其是收入或教育水平处于世界底层的50%人口,将因失业而受到严重伤害……一个简单的问题,‘程序是如何工作的呢?’这就是人工智能取代工作的可能性,因为人工智能可以在日常任务中学会自我优化。且数量越多,工作就越客观,如把东西分到垃圾桶、洗碗、摘水果和接听客服电话——这些都是重复性和例行性的脚本任务。在5年、10年或15年内,它们将被人工智能取代。”

在拥有超过100,000台机器人的在线巨头和人工智能巨头Amazon的仓库中,拣货和包装的功能仍然由人类来完成,但这种情况将会改变。

Lee的观点最近得到了Infosys总裁MohitJoshi的回应,其告诉《纽约时报》:“人们都希望取得巨大的成就。早些时候,他们在减少劳动力方面有5%到10%的增量目标。现在他们觉得,‘为什么我们不能用我们仅有的1%的人来做这件事呢?’”

更为乐观的是,Lee强调,当今的人工智能在两个方面都是无用的:它没有创造力,也没有同理心或爱的能力。相反,它是“放大人类创造力的工具”。那解决方案呢?那些从事重复性或例行工作的人必须学习新的技能,以免被淘汰。Amazon甚至向其员工提供资金来培训其他公司的工作。

UniversityofIllinoisatUrbana-Champaign计算机科学教授兼主任KlaraNahrstedt表示:“人工智能要在许多领域取得成功的绝对先决条件之一是,我们要在教育方面投入大量资金,对人们进行新工作的再培训。”

Klara担心这种情况不会广泛或经常发生。IFM的Gyongyosi甚至更具体。

“人们需要像学习一门新语言一样学习编程,”Gyongyosi表示:“他们需要尽早这样做,因为这真的是未来的趋势。在未来,如果不懂编码,就不懂编程,这只会变得更加困难。”

”虽然许多因科技而被迫失业的人会找到新的工作,但这不会在一夜之间发生。就像美国在工业革命期间从农业经济过渡到工业经济一样,这在很大程度上导致了大萧条,人们最终重新站起来。然而,短期影响是巨大的。”Vandegrift表示:“在工作消失和新工作出现之间的过渡,并不一定像人们想象的那样轻松。”

MikeMendelson,是NVIDIA的一名学习者体验设计师,是与Nahrstedt不同的教育者。他与那些希望更多地了解人工智能,并将其应用于业务的开发人员一起工作。

其表示:“如果他们了解这项技术的能力,并且非常了解该领域,他们就会开始建立联系,并认为,‘也许这是一个AI问题。’这种情况比‘我有一个想解决的具体问题’更常见。

不久的将来的人工智能

在Mendelson看来,一些最有趣的人工智能研究和实验将在不久的将来产生影响,这将发生在两个领域:“强化”学习,其处理奖励和惩罚,而不是标记数据;以及生成对抗网络(简称GAN),其允许计算机算法创建而不是仅仅通过使两个网络相互对抗来进行评估。前者的典型代表是GoogleDeepMind的AlphaGoZero的围棋能力为例,后者则以原始图像或音频生成为例,该生成基于对名人或特定类型音乐等特定主题的学习。

在更大的范围内,人工智能有望对可持续性、气候变化和环境问题产生重大影响。理想情况下,通过使用精密传感器,城市将变得不那么拥挤、污染更少,总体上更宜居。

Nahrstedt表示:“一旦预测了某件事,就可制定某些政策和规则。”例如,安装在汽车上的传感器可以发送有关交通状况的数据,可以预测潜在的问题,并优化汽车的流量。其认为,这还没有以任何方式完善。还处于起步阶段。但多年以后,它将发挥非常重要的作用。

人工智能会统治世界吗?
人工智能预计将对几乎所有可以想象到的行业产生持久的影响——因为预计60%的企业将受到人工智能的影响。我们已经在智能设备、汽车、医疗保健系统和最受欢迎的应用程序中看到了人工智能。在可预见的未来,我们将继续看到其影响更深入地渗透到许多其他行业。

人工智能和隐私风险

当然,人工智能对大数据的依赖已经在很大程度上影响了隐私。看看CambridgeAnalytica对Facebook的恶作剧或Amazon对Alexa的窃听,这是众多科技失控的例子中的两个。批评人士认为,如果没有适当的法规和自我施加的限制,情况会变得更糟。2015年,Apple首席执行官TimCook嘲笑竞争对手Google和Facebook贪婪的数据挖掘。

Cook在2015年的一次演讲中表示:“他们在尽可能地了解关于你的一切,并试图将其变现。我们认为这是错误的。”

随后,在比利时布鲁塞尔的一次谈话中,Cook阐述了其的担忧。

“通过收集大量个人资料来推进人工智能是懒惰,而不是效率,”Cook表示“人工智能要想真正聪明,就必须尊重人类的价值观,包括隐私。如果我们在这方面做错了,危险将是深远的。”

很多人都同意了这一观点。2018年,总部位于英国的人权和隐私组织Article19和PrivacyInternational发表了一篇论文,对人工智能的焦虑仅限于其日常功能,而不是像机器人霸主出现那样的灾难性变化。

“如果负责任地实施,人工智能可以造福社会,”作者写道:“然而,与大多数新兴技术一样,商业和国家使用确实有可能对人权造成不利影响。”

作者承认,收集的大量数据可用于尝试以良性方式预测未来行为,比如垃圾邮件过滤器和推荐引擎。但也存在真正的威胁,即其会对个人隐私和免受歧视的权利产生负面影响。

为人工智能的未来做准备


人工智能的可能性

2018年底,国际知名人工智能专家StuartRussell在WestminsterAbbey发表讲话时,开玩笑(或不开玩笑)地表示,其与记者达成了正式协议,除非他们同意不把‘Terminator’机器人放在文章中,否则不会与之交谈。其的俏皮话揭示了对好莱坞描绘遥远未来人工智能的明显蔑视,后者倾向于过度紧张和世界末日。Russell所说的“人类级别的AI”,也被称为通用人工智能,长期以来一直是幻想的素材。但其在短时间内实现或根本实现的可能性非常小。

Russell解释道:“在我们达到类似人类水平的人工智能之前,还有许多重大突破需要实现。”

Russell还指出,人工智能目前还不能完全理解语言。这表明了目前人类和人工智能之间的明显区别:人类可以翻译机器语言并理解它,而人工智能无法翻译人类语言。然而,如果人工智能能够理解我们的语言,那么人工智能系统就能够阅读和理解所有的文字。

“一旦我们拥有了这种能力,便可查询人类所有的知识,其将能够综合、整合和回答人类从未回答过的问题,”Russell补充道:“因为其没有阅读,也没有能力把历史上一直分离的事物之间的点放在一起,并连接起来。”

这给我们提供了很多值得思考的东西。在这个问题上,模拟人脑是极其困难的,这也是AGI的未来仍然处于假设状态的另一个原因。长期任职于密歇根大学工程和计算机科学教授的JohnLaird在该领域进行了几十年的研究。

“我们的目标一直是试图构建我们所谓的认知架构,我们认为这是智能系统与生俱来的,”Laird谈到主要受人类心理学启发的工作时,“例如,我们知道的一件事是,人类大脑并不仅仅是一组同质的神经元。这是一个由不同组件组成的真实结构,其中一些与如何在这个世界上做事的知识有关。”

这就是所谓的程序记忆。还有一种是基于一般事实的知识,即语义记忆;以及,另一种是关于先前经历(或个人事实)的知识,称为情景记忆。Laird实验室的一个项目涉及使用自然语言指令教机器人一些简单的游戏,比如下棋和智力游戏。这些指令通常包括对目标的描述、法律措施的纲要和失败的情况。机器人将这些指令内化,并使用它们来计划自己的行动。然而,和以往一样,突破总是需要时间——比Laird和其同事们预想的慢。

“每次我们取得进步,”Laird表示:“我们也会对其的难度有新的认识。”

AGI是人类的威胁吗?

许多人工智能领域的领军人物都认同,甚至有些人更夸张,一种噩梦般的场景,其中包括所谓的“奇点”,即超级智能机器接管人类,通过奴役或消灭人类接管并永久改变人类的存在。

已故的理论物理学家StephenHawking有一个著名的假设:如果人工智能本身开始设计比人类程序员更好的人工智能,结果可能是“机器的智能超过我们,超过蜗牛。”ElonMusk相信并警告称,AGI是人类生存的最大威胁。其表示,实现这一目标的努力就像“召唤恶魔”。甚至担心,他的朋友、Google的联合创始人LarryPage可能会无意中引导一些“邪恶”的东西出现,尽管他的初衷是好的。比如,“一支能够毁灭人类的人工智能增强型机器人舰队”。即使是IFM的Gyongyosi,在人工智能预测方面也不是危言耸听,其也没有排除任何可能性。其表示,在某一时刻,人类将不再需要训练系统;他们会自己学习和发展。

“我不认为我们目前在这些领域使用的方法会导致机器决定杀死我们,”Gyongyosi表示:“我认为,也许5年或10年后,我将不得不重新评估这一说法,因为我们将有不同的方法和方式来处理这些事情。

虽然杀人机器很可能仍然是小说的素材,但许多人相信它们将以各种方式取代人类。

牛津大学人类未来研究所公布了一项人工智能调查的结果。标题为“人工智能何时能超越人类表现?来自人工智能专家的证据”,其中包含了352名机器学习研究人员对未来几年人工智能发展的估计。

这个群体中有很多乐观主义者。受访者的中位数表示,到2026年,机器将能够撰写学校论文;到2027年,自动驾驶卡车将不再需要司机;到2031年,人工智能在零售领域的表现将超过人类;到2049年,人工智能可能会成为下一个StephenKing;到2053年,可能会成为下一个CharlieTeo。最令人震惊的是:到2137年,所有人类工作都将实现自动化。但是人类自身呢?毫无疑问,喝着机器人端来的雨伞饮料。

NorthwesternUniversity教授、MasterofScienceinAnalytics项目的创始主任DiegoKlabjan认为自己是AGI的怀疑论者。

其解释道:“目前,计算机只能处理1万多个单词。所以,有几百万个神经元。但是人类的大脑有数十亿个神经元,它们以一种非常有趣和复杂的方式连接在一起,而目前最先进的技术只是按照非常简单的模式进行简单的连接。因此,在现有的硬件和软件技术下,从几百万个神经元到数十亿个神经元,我不认为会发生这种情况。”

我们将如何使用AGI?

Klabjan也不太相信极端的场景——比如,凶残机器人把地球变成了一个阴燃的地狱。其更关心的是机器——比如战争机器人——被邪恶的人类灌输错误的“动机”。麻省理工学院物理学教授、人工智能首席研究员MaxTegmark在2018年的TED演讲中表示过:“人工智能真正的威胁不是恶意,就像愚蠢的好莱坞电影里那样,而是能力——人工智能实现的目标与我们的目标并不一致。”这也是Laird的看法。

Laird表示:“我绝对看不到某些东西醒来并决定要接管世界的情况。我认为这是科幻小说里的情节,而不是未来的结局。”

Laird最担心的并不是邪恶的人工智能本身,而是“邪恶的人类将人工智能作为一种虚假的力量倍增器”,用于银行抢劫和信用卡诈骗等许多犯罪行为。因此,虽然其经常对进步的速度感到沮丧,但人工智能的缓慢燃烧实际上可能是一种祝福。

Laird表示:“了解我们正在创造什么,以及我们将如何将其融入社会,可能正是我们所需要的。”

但没有人知道确切的答案。

Russell在威斯敏斯特的演讲中表示过:“有几项重大突破必须实现,而且可能很快就会实现。”其引用了1917年英国物理学家ErnestRutherford提出的核裂变(原子分裂)的快速转变效应,并补充道,“很难预测这些概念上的突破何时会发生。”

但无论何时,如果他们做了,他都会强调准备的重要性。这意味着开始或继续讨论AGI的道德使用,以及是否应该对其进行监管。这意味着要努力消除数据偏差,这对算法有破坏作用,目前是人工智能的一大缺陷。这意味着要努力发明和增强能够控制技术的安全措施。也意味着我们要谦卑地意识到,我们能做到并不意味着我们应该做到。

“大多数AGI的研究人员预计将在几十年内实现AGI,如果我们毫无准备地撞上它,这可能是人类历史上最大的错误。它可能导致残酷的全球独裁,带来前所未有的不平等、监视、痛苦,甚至可能导致人类灭绝,”Tegmark在TED演讲中这样表示:“但如果我们谨慎行事,最终可能会进入一个美好的未来,每个人都过得更好——穷人变富有,富人更富有,每个人都健康,都可以自由地实现自己的梦想。”