连马斯克都怕了,科技领袖签名呼吁停止研发GTP-5,它可能毁灭人类

一封由科技领袖和著名人工智能研究人员签署的公开信呼吁人工智能实验室和公司“立即暂停”他们的工作。史蒂夫·沃兹尼亚克(Steve Wozniak)和埃隆·马斯克(Elon Musk)等签署人同意,冒着风险,至少有六个月的时间不生产gbt -4以外的技术,以享受现有的人工智能系统,让人们能够调整并确保它们造福于每个人。这封信补充说,谨慎和深谋远虑对于确保人工智能系统的安全是必要的,但却被忽视了。

GPT-4是OpenAI公司开发的一种模型,可以用文本回应书面或可视消息。在提到GPT-4之际,各公司正在竞相利用该技术构建复杂的聊天系统。例如,微软最近证实,其改进后的必应搜索引擎已经由GPT-4模型提供了超过七周的支持,而谷歌最近推出了Bard,这是其自己的生成人工智能系统,由LaMDA提供支持。围绕人工智能的不安情绪长期以来一直存在,但首先部署最先进人工智能技术的明显竞赛引发了更紧迫的担忧。

“不幸的是,这种水平的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至包括它们的创造者——能够理解、预测或可靠地控制,”信中写道。

这封信是由生命未来研究所(FLI)发表的,这是一个致力于将新技术的风险和滥用降至最低的组织。马斯克此前向FLI捐赠了1000万美元,用于人工智能安全性的研究。除了他和沃兹尼亚克,签名者还包括一大批全球人工智能领袖,如人工智能和数字政策中心总裁马克·罗滕贝格、麻省理工学院物理学家兼生命未来研究所总裁马克斯·泰格马克,以及作家尤瓦尔·诺亚·赫拉利。上周,哈拉里还在《纽约时报》上与人合著了一篇专栏文章,警告人们注意人工智能的风险。此外,人道技术中心的创始人以及其他署名人士特里斯坦·哈里斯和阿扎·拉斯金也参与了这篇文章的撰写。

这一呼吁感觉像是2022年对700多名机器学习研究人员进行的一项调查的下一步,在这项调查中,近一半的参与者表示,人工智能有10%的几率出现“极其糟糕的结果”,包括人类灭绝。当被问及人工智能研究的安全性时,68%的研究人员表示应该做更多或更多的工作。

欢迎任何对人工智能生产的速度和安全性表示担忧的人在信中签名。然而,新名字不一定经过验证,因此在最初发布后添加的任何显著名字都有可能是假的。

展开阅读全文

页面更新:2024-05-30

标签:瓦尔   麻省理工学院   特里   人工智能   研究人员   马克   安全性   领袖   人类   风险   系统   技术   科技

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top