最新报告警示:AI或对人类物种构成“灭绝级”威胁,必须迅速果断干预

近日,马斯克与OpenAI的法律“纠葛”,让人工智能(AI)技术再次处于风暴中心。

本周,一份由美国国务院委托撰写发布的报告再次引发大量关注。该报告称,美国政府必须“迅速而果断”地采取行动,避免人工智能带来的重大国家安全风险,在最坏的情况下,人工智能可能会对“人类物种造成灭绝级别的威胁”。

AI武器化及失控风险巨大

堪比“核武器”

2022年10月,也就是ChatGPT轰动亮相的一个月前,美国国务院委托第三方机构格拉德斯通人工智能公司(Gladstone AI),“对武器化和错位人工智能的扩散和安全风险”进行首次评估。

经过一年多的调研,与200多名网络安全研究人员、大规模杀伤性武器专家、政府内部的国家安全官员政府雇员,以及OpenAI、谷歌DeepMind等领先AI公司的工作人员进行交谈后,格拉德斯通于今年2月26日向美国国务院提交了一份长达247页的评估报告,并在本周发布了最终版报告。

▲资料图片

据报道,这份题为《提高先进人工智能安全性的行动计划》报告描绘了“令人担忧”的前景。格拉德斯通在其中直截了当地指出,快速发展的人工智能对国家安全构成了“灾难性”风险。在最坏的情况下,最先进的人工智能系统可能“对人类构成灭绝级别的威胁”。报告同时警告称,美国政府能避免灾难发生的时间已经不多了。

报告称,当今领先的人工智能发展对国家安全构成了紧迫且日益增长的风险,并着重指出了两大风险。

首先,最先进的AI系统可能被用作武器,造成潜在的、不可逆转的破坏。报告指出,人工智能(AI)和通用人工智能(AGI)的崛起,可能在某种程度上破坏全球安全,“让人联想到核武器的引入”,在AI方面存在着“军备竞赛”、冲突和“与大规模杀伤性武器相当的致命事故”的风险。

值得注意的是,AGI目前仍是一种假想的技术,它可以执行大多数任务,达到或超过人类的水平。尽管这样的系统目前尚未诞生,但领先的人工智能实验室正在进行研究。业界预计,AGI将在未来五年或更短的时间内出现。

其次,该报告称,AI实验室的安全性也存在隐患。实验室没有足够的控制措施,来防止通用人工智能系统“失去控制”,其后果可能对全球安全造成“潜在的毁灭性后果”。

降低AI带来的灭绝风险

应是全球的优先事项

“人工智能已经是一项经济上具有变革性的技术。它可以帮助我们治愈疾病,进行科学发现,并克服我们曾认为不可逾越的挑战,”格拉德斯通人工智能公司的首席执行官兼联合创始人杰里米·哈里斯本周二表示,“但它也可能带来严重的风险,包括灾难性的风险,这是我们需要注意的。”

▲资料图片

报告中呼吁采取重大的新措施来应对这一威胁,包括成立一个新的人工智能机构,实施“紧急”监管保障措施,并限制用于训练人工智能模型的计算机能力。报告中写道:“美国政府显然迫切需要进行干预。”一名美国国务院官员证实了这份报告的真实性,但强调道,该报告并不代表美国政府的观点。

哈里斯还表示,越来越多的证据,包括在世界顶级AI会议上发表的实证研究和分析表明,“超过一定的能力阈值,AI可能会变得无法控制。”

去年,被称为“人工智能教父”的杰弗里·辛顿宣布从谷歌离职,并对AI带来的风险发出警告。他坦言,对毕生所研究的东西感到后悔了(红星新闻此前报道:“AI教父”从谷歌离职:对毕生研究感到后悔,安慰自己“我不研究别人也会研究”)。

辛顿曾表示,人工智能在未来30年内导致人类灭绝的可能性为10%。去年6月,辛顿和其他数十位人工智能行业领袖、学者和其他人签署了一份声明,称“降低人工智能带来的灭绝风险应该是全球的优先事项”。

与此同时,尽管在人工智能领域投入了数十亿美元,但全球各大企业也开始越来越担心这项技术蕴含的危险。去年,在耶鲁大学CEO峰会上接受调查的CEO中,42%的人表示,人工智能有可能在5到10年后摧毁人类。

红星新闻记者 徐缓 编辑:DD001

展开阅读全文

页面更新:2024-03-14

标签:斯通   美国政府   红星   人类   人工智能   物种   果断   美国国务院   武器   风险   报告   全球   最新

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top