“想的”和“做的”要对齐!多学科专家学者共议人工智能时代的科技伦理

青年报·青春上海记者 刘昕璐/文 受访者/图

第三届中国科技伦理论坛11月21日和22日在复旦大学举行。本次论坛的主题为“人工智能时代的科技伦理”,来自哲学、心理学、计算机、生物学、人工智能等领域的多位专家学者与会作报告。

此次论坛由中国科技伦理学会(筹)主办,中国科协—复旦大学科技伦理与人类未来研究院、复旦大学哲学学院、中国科协创新战略研究院共同承办。在开幕式主旨报告上,复旦大学教授杨珉从一个计算机学者的角度,来看人工智能安全和治理这个问题。这既是国际社会在信息技术领域少数能达成共识的议题之一,也是中国高度重视的议题。去年,中国推出了几部相关的国家标准,其中就包括《生成式人工智能服务安全基本要求》。复旦团队依托自身的研究基础,也在参与制定这项国标的过程中作出贡献。

杨珉指出,从技术发展的角度看,做安全研究的普遍有一个感受:发展往往先于安全。从整个网络安全体系来看,安全应该是一个更广义的概念,是从基础软硬件开始,涵盖驱动模型、智能体以及上层应用,是一个完整的系统。因此,要关注几个层面的风险:网络安全风险;认知安全风险;伦理风险;智能体失控风险——就是AI可能摆脱人类控制的问题。

“文科和理科的学者一定要坐在一起,把‘想的’和‘做的’对齐,开展跨学科合作。我们后续的工作正是这种合作的成果。”杨珉透露,团队正在开展的测试方法受到了语言学家乔姆斯基的启发。人类表达一个含义时,可以有多种表层表达方式,但深层结构是同一语义。利用这个原理,我们可以通过语义不变的多种表达方式来测试大语言模型,助力全行业提升大模型的合规能力。同时,第二个研究方向是防止灾难性风险,并就此展开“红线研究”。

“这类研究即便在工科领域也需要多种技术背景的人才共同开展,同时更需要不同学科学者带着各自的方法论来共同支撑其中的伦理研究。人工智能发展正处在迅猛阶段,其安全治理是一片广阔的蓝海,空间巨大。”杨珉说。

“我们必须认识到,如果人工智能发展失控,最终将威胁人类的生存根基。如何利用人工智能造福人类,同时规避其潜在风险,已成为科技伦理领域亟待回答与解决的核心议题。”首都师范大学教授王淑芹在《美德与人工智能向善》的主旨报告中如是提及。她强调,面对人工智能的安全风险,除了建立健全相关法律法规与标准之外,同样需要科技工作者乃至全体社会成员具备应有的美德。

中国人民大学教授龚群则从“算法黑箱”与“幻觉”、个人隐私与数据、人工智能的自主性与责任归属等三大具体问题入手,强调加强算法治理与审计能力建设已成为关键举措。

展开阅读全文

更新时间:2025-11-24

标签:科技   人工智能   专家学者   伦理   时代   风险   复旦大学   中国科协   中国   人类   议题   复旦

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top