大模型亟需“紧箍咒”

湖南日报全媒体记者 王亮

要说计算领域,今年上半年哪类产品或者概念最火,非大模型莫属。

9月16日,在2023世界计算大会“数据安全与合规治理”计算安全论坛上,西安电子科技大学教授王皓针对大模型郑重发声:“大模型很好,但也面临法律、道德、隐私等一系列问题,亟需做好监管。”

(论坛现场。王亮 摄)

以国外的ChatGPT、国内的文心一言为代表的通用大模型,是由人工智能技术驱动的自然语言处理工具,能够真正像人类一样来聊天、交流,完成撰写邮件、文案、代码、论文等复杂任务。目前,国内外众多网络科技公司纷纷推出了自己的通用大模型。

“大模型作为人工智能发展到一定程度的产物,因为发展时间短,信息保护比较脆弱,容易导致信息泄露。”王皓介绍,“近期一些大模型被人通过特殊的表述和语言,获取了大量的手机IMEI码或者Windows激活密钥,造成安全风险。”

信息泄露还不是最可怕的,“邪恶大模型”的出现,更让业内感到忧心忡忡。

王皓介绍,“‘邪恶大模型’是别有用心的群体或个人,专为攻击性活动设计的人工智能对话机器人。它们可以根据简单提示,就创建出破解工具、钓鱼邮件,甚至恶意的攻击软件,进行一些危害个人或者社会的事情。”

目前,全球范围都已意识到大模型迅速发展所暴露出的问题。我国上半年出台了《生成式人工智能服务管理暂行办法》,欧洲、美国也颁布了一些初级的协议、权力法案,开始加强对大模型的约束。

“立法是第一位的,要尽快厘定哪些领域属于违规、违法,并进行严厉打击。另一方面,继续加强研发,从技术进步的角度不断完善大模型。”王皓说道。

展开阅读全文

页面更新:2024-04-13

标签:模型   自然语言   紧箍咒   密钥   人工智能   上半年   邪恶   亟需   邮件   领域   工具   信息

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top