科技伦理审查要走好“平衡木”

2016年4月,谷歌旗下人工智能公司DeepMind被曝光通过非法手段获得英国160万患者的医疗健康病历数据,用于开发一项患者监测应用程序;美国人工智能公司Cense AI在2020年泄露了超过250万条个人医疗记录;两次遭美国食品药品监督管理局拒绝后,2023年9月19日,马斯克的脑机接口公司Neuralink称其精确机器人植入脑机接口的临床研究已获伦理委员会批准,开始招募研究参与者……当前,以人工智能、量子通信、合成生物学以及备受关注的脑机接口技术等为代表的新兴科技,正以前所未有的方式深刻改变着人类的生产和生活方式,对个人隐私、人类健康、国家安全等带来挑战。


科技是发展的利器,也可能成为风险的源头。2023年10月8日,由科技部、教育部、工业和信息化部等十部门联合印发的《科技伦理审查办法(试行)》(以下简称《办法》)正式公布,意在规范科学研究、技术开发等科技活动的伦理审查工作,强化科技伦理风险防控,促进负责任的创新。本期,我们约请专家阐述该《办法》实施的重要意义。


科技伦理审查成硬性约束


为减轻科技发展给人类社会带来的负面效应,世界各国不断强化科技伦理治理,更加谨慎地对待新技术的应用。加强科技伦理审查,并非抑制科学探索和创新,而是要警惕失序,防范风险,守住科技创新的安全底线,实现科技向善。《办法》更多地为创新主体的探索行为划定了更清晰的边界,提供了预期更稳定的机制保障。


明确审查范围


《办法》明确规范和统一了我国科技伦理的审查主体、审查程序、监督管理等,为各地和相关行业主管部门、创新主体等组织开展科技伦理审查提供了制度依据,有助于激发科技创新的内生动力,预防科技活动的额外风险,保障科技创新可持续发展。


针对发展迅速的人工智能、生命科学、医学三大领域,《办法》明确,主要由相关研究机构、企业自行设立科技伦理(审查)委员会,主动履行科技伦理审查责任,偏向柔性监管,赋予科研主体较大的自主权,但对人类生命健康、价值理念、生态环境等具有重大影响的新物种合成研究等7类科技活动,还需要开展伦理审查专家复核。


规定管理主体责任


《办法》规定,高等学校、科研机构、医疗卫生机构、企业等是本单位科技伦理审查管理的责任主体,要强化科技伦理意识,将其作为从事一切科技活动的前提,将其视为科技活动的底线和红线,不能逾越。


各地各部门应当依规建立本地、本系统科技伦理审查和监督管理机制,各类创新主体要切实履行科技伦理管理主体责任,健全本单位科技伦理审查监管机制,加强科技伦理委员会制度建设和能力建设,加强对本单位科技伦理委员会委员和科技人员的教育培训,负责任地开展研究与创新。科技类社团可制定本领域科技伦理审查规范和指南,为创新主体和科技人员提供详细指导。科技人员应自觉遵守科技伦理规范,及时学习科技伦理知识,提高科技伦理意识。


据了解,阿里巴巴等企业已设立科技伦理委员会,防范伦理风险,推动企业科技创新的自省与自律。


建立专家复核清单制度


科技发展日新月异,总会出现新问题,伦理审查机制不能一劳永逸,需要与时俱进。对可能产生较大伦理风险的新兴科技活动实施清单管理,开展纳入清单管理的科技活动的,通过科技伦理委员会初步审查后,由本单位报请所在地方或相关行业主管部门组织开展专家复核。清单根据工作需要动态调整,由科技部公开发布。这表明,我国科技伦理审查正由“自己单位说了算”的自律为主逐渐转变为“专家说了算”的硬性约束。


清单涉及的7项科技活动可简单概括为:新物种合成研究、动物子宫中孕育含人干细胞个体的研究、遗传改变基础研究、侵入式脑机接口的临床研究、人机融合系统的研发、舆论算法模型及应用程序和系统研发、高度自主的自动化决策系统研发。


《办法》规定,纳入清单管理的科技活动将面临更严格的伦理审查,实行动态跟踪,防范伦理风险。未按照规定通过科技伦理审查和专家复核擅自开展纳入清单管理的科技活动的,需要承担相应的法律责任。


保障人工智能安全发展


人工智能算法模型的伦理风险主要有数据偏见与歧视、隐私侵犯、缺乏透明度、责任归属不明确等。过度依赖人工智能可能会影响人们的社交技能、心理健康或日常生活习惯等。科技伦理审查已成为人工智能风险治理的重要工具。在人工智能领域开展科技伦理审查,有助于推动我国人工智能产业健康有序发展,在全球竞争中获得话语权。可信任、可解释、更安全不仅是伦理要求,也代表了人工智能的发展方向,是需要抢占的技术制高点。


企业的核心目标是利润最大化,实现目标过程中可能会忽视新技术对于个体权利的影响。根据《办法》,我国将科技伦理审查作为必要程序,要求企业的研发活动得到企业内部科技伦理委员会的批准,并且可能要接受主管部门的专家复核。这意味着产品的研发、投入周期可能会延长,企业须在新技术研发伊始就将科技伦理审查、复核流程纳入规划。专家复核将成为部分人工智能产品投入市场前的一道安全审核程序,从长远看,这将有利于人工智能企业的可持续发展。


大模型是指具有数亿或数十亿个参数的深度神经网络模型,这种模型经过专门的训练,能够对大规模数据进行复杂的处理,是人工智能实现的基础之一,ChatGPT便是其中的代表。《中国人工智能大模型地图研究报告》显示,我国和美国发布的大模型遥遥领先,超过全球总数的80%,我国已发布79个参数在10亿规模以上的大模型。2023年以来,我国大模型发展迎来井喷期。截至2023年7月底,国外累计发布大模型138个,我国累计发布大模型130个。大模型产业将迎来科技伦理审查的考验。


《办法》把科技伦理审查融入人工智能的全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供了伦理审查指引。


科技伦理风险具有高度的公共利益属性,某些科技伦理风险一旦发生,无法逆转。大模型科技的跨界性和复杂性也给监管带来了全新挑战。目前,我国相关法律法规还没有完全跟上大模型科技的发展。未来,我们需要在制定和完善相关法律法规的同时,加强监管部门的能力建设,也需要各地、各行业或社会团体制定具体的审查规范、细则或指南。


求真是科技的使命,向善是它的底色,科技伦理审查必须走好“平衡木”,既要激发创新动力,又要预防额外风险。


文:陆军军医大学第二附属医院临床医学研究中心副研究员 周吉银
编辑:张昊华 李诗尧
校对:马杨
审核:徐秉楠 陈飞

展开阅读全文

页面更新:2024-04-17

标签:伦理   平衡木   科技活动   科技   人工智能   清单   主体   模型   风险   办法   我国

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top