安恒信息副总裁王欣:AI安全监管势在必行

中证网讯(王珞)近日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》,并将于2023年8月15日起施行。

业内人士表示,出台《办法》,旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。

对此,安恒信息高级副总裁王欣指出,在人工智能时代下,大模型技术存在着“矛”与“盾”的两面性。

王欣认为,人工智能从上世纪50年代开始萌芽,到近两年进入全面爆发阶段,以ChatGPT为代表的大模型正在引领新一轮全球人工智能技术发展浪潮,深度改变行业生产力,也为网安行业带来了新变量。

一方面,AI和大模型技术如“利刃”打破原有安全壁垒,安全需求与应用场景发生重大变革。在与生成式人工智能交互的过程中,用户常常无意识暴露个人信息、商业机密等隐私数据,得到的却是暗藏平台价值判断的内容反馈。个体在认知判断、行为决策以及价值取向等多个方面,很可能会受到单一算法的不良影响。

如果任由生成式人工智能如脱缰野马一般肆意发展,虚假信息、偏见歧视乃至意识渗透等问题无法避免,对个人、机构乃至国家安全 都存在极大的风险。

因此,《办法》第三条、第四条在鼓励支持人工智能创新的同时,也强调了制定相应的分类分级监管规则或者指引的必要性。通过约束数据来源合法性、模型算法公平性、生成内容可靠性,引导AI持续向善。

从世界范围来看,为打造一个可信的人工智能生态系统,美国、欧盟同样在探索人工智能治理之道,并通过《人工智能问责政策》《人工智能风险管理框架》《人工智能法案》等法律法规来约束人工智能发展,AI监管势在必行。

另一方面,AI和大模型技术也促进了安全产品和服务革新,有助于网络安全防护“盾”优化升级。生成式人工智能能极大提高风险识别效率,在一定程度上弥补现有网络人才缺口,让威胁分析更准确、安全运营更高效、安全防护更智能。

王欣提出,为促进生成式人工智能健康发展,规范数据处理是根本。一个稳健的大模型离不开数据、算力和算法,而在本次《办法》中,数据是第一高频词,出现次数高达18次,数据安全重要性可见一斑。

企业用户在使用AI大模型过程中,可能会造成数据泄露,或是在训练模型过程中,存在那些包含了隐私相关或是产权相关的知识归属问题。

王欣介绍,针对此类数据合规风险,安恒信息已将类大模型应用与智 能数据分类分级结合,并对算法模型内生的可靠性与稳健性、透明性与可解释性、准确性与公平性等风险进行持续性研究。

王欣表示,未来,安恒信息将牢牢把握时代发展机遇,专注于人工智能结合网络安全的研究,以创新方式拥抱AI变化,积极推动产品AI智能化,推进“服务+AI”“治理+AI”“产业+AI”等应用场景安全升级,为数字经济发展注入源源不断的安全动能。

展开阅读全文

页面更新:2024-04-24

标签:公平性   势在必行   人工智能   稳健   国家安全   可靠性   算法   安全监管   模型   风险   办法   数据   王欣

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top