巴黎:警告来自各个角度:人工智能(AI)对人类构成了生存风险,必须在为时已晚之前将其束缚起来。
但是,这些灾难场景是什么?机器应该如何消灭人类?
厄运回形针
西安海棠学院分数线大多数灾难场景都是从同一个地方开始的:机器将超越人类的能力,脱离人类的控制,并拒绝被关闭。
“一旦我们的机器有了自我保护的目标,我们就有麻烦了,”人工智能学者约书亚·本吉奥本月警告说。
但由于这些机器还不存在,想象它们如何毁灭人类往往只能留给哲学和科幻小说。
哲学家尼克·博斯特罗姆(Nick Bostrom)写过一篇关于“智能爆炸”的文章,他说,当超级智能机器开始设计自己的机器时,就会发生“智能爆炸”。
他用一个在回形针厂工作的超级人工智能的故事来说明这个想法。
人工智能的最终目标是最大限度地提高回形针的产量,因此“首先将地球转化为回形针,然后将越来越大的可观测宇宙转化为回形针。”博斯特罗姆的观点被许多人认为是科幻小说,尤其是因为他曾单独提出人类是计算机模拟,并支持接近优生学的理论。
他最近还在上世纪90年代发出的一条种族主义信息被曝光后道歉。
然而,他在人工智能方面的想法却非常有影响力,激励了埃隆·马斯克和斯蒂芬·霍金教授。
“终结者”
如果超级智能机器要摧毁人类,它们肯定需要一个物理形态。
教育部学历认证网电影《终结者》(the Terminator)中,阿诺德·施瓦辛格(Arnold Schwarzenegger)饰演的红眼机器人是由人工智能从未来派来终结人类抵抗的。事实证明,这是一个诱人的形象,尤其是对媒体而言。
但专家们对这个想法嗤之以鼻。
停止杀手机器人运动组织在2021年的一份报告中写道:“这个科幻概念在未来几十年内不太可能成为现实。”
人民大学自考 然而,该组织警告说,赋予机器决定生死的权力是一种存在风险。
来自加拿大滑铁卢大学的机器人专家Kerstin Dautenhahn淡化了这些担忧。
她告诉法新社,人工智能不太可能赋予机器更高的推理能力,也不太可能给它们灌输杀死所有人类的欲望。
“机器人并不邪恶,”她说,尽管她承认程序员可以让它们做邪恶的事情。
致命的化学物质
一个不那么明显的科幻场景是,“坏人”利用人工智能制造毒素或新病毒,并将它们释放到世界上。
像GPT-3这样的大型语言模型,被用来创建ChatGPT,事实证明,它非常擅长发明可怕的新化学制剂。
一群利用人工智能来帮助发现新药的科学家进行了一项实验,他们调整了人工智能来搜索有害分子。
据《自然机器智能》杂志报道,他们在不到6小时的时间内成功生成了4万种潜在的有毒物质。
来自柏林赫蒂学院的人工智能专家乔安娜·布莱森说,她可以想象有人想出了一种更快传播炭疽等毒素的方法。
“但这不是一个存在的威胁,”她告诉法新社报名时间及条件(AFP)。“这是一种非常可怕的武器。”
物种取代
好莱坞的规则规定,划时代的灾难必须是突然的、巨大的和戏剧性的——但如果人类的终结是缓慢的、安静的,而不是决定性的呢?哲学家休·普莱斯在剑桥大学生存风险研究中心的宣传视频中说:“在最黯淡的情况下,我们这个物种可能会在没有继任者的情况下终结。”
但他表示,通过先进技术增强人类生存的“可能性不那么渺茫”。
他说:“纯生物物种最终会走向终结,因为没有人不能接触到这种技术。”
想象中的世界末日通常是用进化的术语来描述的。