事关生成式人工智能,如何看待7部门联合发文?

文 | 青的蜂

近日,国家网信办等7部门联合发布《生成式人工智能服务管理暂行办法》,这是继4月份公开征求意见以来的正式落地,将于8月15日起施行。

今年以来,生成式人工智能站上风口。从ChatGPT到百度文心一言,再到AI绘图软件Midjourney,一个个生成式人工智能技术亮点不断出现,在一次次惊艳世人的同时,也带来了不少问题、争议与担忧。

在学术界,许多科学家认为“巨型AI实验”将对社会和人类构成深远风险。而《办法》则明确列出传播虚假信息、侵害个人信息权益、数据安全和偏见歧视等问题,具有一定的现实针对性。

就传播虚假信息来看,人们已经越来越难以确定一项内容到底出自真实的人类还是人工智能,正如有专家所言,“如果有人想骗你,利用人工智能技术,欺骗就会变得简单得多”,如今出现的“AI换脸”“AI脱衣”等互联网黑产,更是验证了这一点;

再就是个人信息权益,在生成式人工智能和用户的对话中,AI为了表现得更像人类,往往需要采集个人数据进行学习训练,但如果未能充分征求用户许可,就可能侵犯隐私;

还有就是数据安全、偏见歧视等问题,目前,生成式人工智能的训练数据大都源于互联网,很有可能把一些违法信息、争议性观点等引用过来,给用户植入偏见和负面刻板印象……

对此,《办法》从不同角度作出系统性回应。

当然也要看到,生成式人工智能关系到生产力的提升,是国际竞争的热点所在。

因此,关键在于不断探索并完善与创新发展相适应的科学监管方式,在创新发展与风险规避之间寻求平衡。

《办法》在明确指出防范风险的同时,也提出实行包容审慎和分类分级监管,鼓励行业的创新发展。

比如明确鼓励在各行业、各领域推广应用,鼓励在算法、框架、芯片及配套软件平台等基础技术上自主创新,推动基础设施和公共训练数据资源平台建设等,体现的正是“发展和安全并重、促进创新和依法治理相结合”的原则。

从生成式人工智能长远健康发展角度看,依法规范与支持发展并不矛盾,而是相辅相成、相互促进的。唯有在鼓励创新的同时进行有效监管,界定新技术服务的“底线”和“红线”,才能让科技在健康的轨道上运行发展。

【作者】 王庆峰

南方评论

展开阅读全文

页面更新:2024-04-11

标签:人工智能   发文   偏见   虚假   权益   人类   风险   部门   办法   数据   用户   信息

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top