杀死人类?失控、核战、GPT恐被叫停!全球科技大佬们联名呼吁

商悟社3月29日

人工智能确实可能消灭人类,真的不是空谈。ChatGPT的智能程度随着一次次更新做到了令人惊讶的地步,就在大家期待ChatGPT-5的到来时,今天全球的人工智能大佬们上千人签署联名信,呼吁暂停训练比GPT-4更强大的人工智能。至少暂停6个月,如果不能迅速实施这种暂停,政府应介入并实行暂停,究竟发生了什么为什么暂停呢?

公开信中说,大量研究表明,得到顶级AI实验室的认可、具有人类竞争智能的AI系统,可能对社会和人类构成深远的风险。最近这几个月,全球的AI实验室已经完全失控了,它们疯狂地开展AI竞赛,来开发和部署更强大的AI,而没有任何人可以理解、预测、控制这些AI,连它们的创造者都不能。

最近的一次媒体采访中,OpenAI 首席执行官 Sam Altman说,GPT系列为啥会出现推理能力,OpenAI的研究者自己搞不明白,只是在不断测试中,才忽然发现:从ChatGPT开始,GPT系列开始出现了推理能力。并且Altman还说了一句令人毛骨悚然的话:AI确实可能杀死人类。

这不是科幻电影,这次真的人类将面对的人工智能危机,人工智能教父杰弗里·辛顿、比尔盖茨、纽约大学教授、盖瑞·马库斯,也都都对外发出警示说:AI消灭人类,真的不是空谈。

这次叫停,原因就是,第一怕人工智能的失控,现在全球各地人工智能实验室是在无规则的状态下疯狂加速人工智能的进度,应该只有当、确信,这种AI的影响是积极的、风险是可控的时候,才应该开发强大的AI系统。阿西洛马人工智能原则中说,高级AI可能意味着地球生命史上的深刻变化,我们应该投入相应的考量和资源,对之进行规划和管理。

第二、平庸人工智能(Mediocre AI)是不可靠的(比如必应和GPT-4)但被广泛部署可能引发危机,举个例子,昨天我看了部电影叫做“奇爱博士”就是因为一个头脑不正常的美国将军相信了一些谣言,不经过总统的同意就直接向俄罗斯发射核武器,俄罗斯则表示表示如果领土遭到核弹袭击将会按下世界末日装置,这个装置足以摧毁整个地球的生命。

人工智能专家马库斯认为,目前人工智能已经引起了犯罪分子的兴趣,人类当中,其实起关键作用的不是谁智力高而是谁权力大,如果一个坏人不应该得到的某个权限让他得到了,可能一个拥有核代码的白痴就可以摧毁世界。

马库斯认为,再加上人工智能生成的大规模宣传,被大型语言模型增强的恐怖主义可能导致核战争,或者导致比新冠病毒更糟糕的病原体的故意传播等。许多人可能会死亡,文明可能会被彻底破坏。也许人类不会真的“从地球上消失”,但事情确实会变得非常糟糕。

目前已经有1079名科技领袖和研究人员签名,里面有马斯克、辛顿和马库斯,还包括图灵奖得主约书亚·本希奥、《人工智能:现代方法》作者斯图尔特·罗素、苹果公司联合创始人史蒂夫·沃兹尼亚克、AI首席执行官埃马德·莫斯塔克等一众科技界的领袖人物。

我们该如何看待这种被叫停的动作呢?

首先,我们需要明确的是,人工智能的发展是不可避免的。人工智能可以为人类带来很多便利和创新,但同时也存在着一定的风险和挑战。因此,我们需要在保证人工智能发展的同时,注重其安全性和可控性。

在这个背景下,GPT-5的研发被叫停至少6个月,无疑是一个非常明智的决定。这个决定可以为人工智能的发展提供更多的思考和反思的时间,以确保其安全性和可控性。同时,这也可以为人工智能的监管和规范提供更多的机会和空间。

然而,我们也需要认识到,人工智能的发展是一个长期的过程,不可能一蹴而就。在GPT-5被叫停的这段时间里,我们需要更加深入地研究和探讨人工智能的发展方向和安全问题,以确保其发展的可持续性和稳定性。

总之,GPT-5的研发被叫停至少6个月,是一个非常明智的决定。我们需要注重人工智能的安全性和可控性,同时也需要在保证其发展的前提下,加强监管和规范。

展开阅读全文

页面更新:2024-01-23

标签:苹果公司   人类   可控性   可能会   空谈   俄罗斯   人工智能   安全性   实验室   确实   全球   科技

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top