生成式AI引发法律、伦理等问题,专家:AI再强大,也要确保人类在“决策环”中

摘要:智能技术发展存在着伦理、法律和治理风险与挑战。

人工智能在大幅解放生产力的同时,道德、伦理、法律等问题备受关注。在2023世界人工智能大会期间,多位专家学者针对人工智能伦理法律等问题开展深入探讨,并形成了一批专题研究成果。

科研人员要在人工智能伦理方面承担重要道德责任

7月7日,由同济大学和上海市杨浦区人民政府联合主办智能社会论坛上,同济大学研究团队发布了《人工智能大模型伦理规范操作指引》,旨在应对人工智能大模型的风险,推动伦理规范落地实施。

研究团队相关负责人、同济大学人文学院特聘教授杜严勇说,对于核心的人工伦理原则,国内外、企业以及科研机构已经基本取得了高度共识,但是这些伦理原则如何落地实施,却没有比较有力的措施。“这也是我们尝试探讨人工智能大模型伦理规范操作指引的根本原因。”

杜严勇列出了五大伦理原则,包括尊重人的自主权、保护个人隐私、保障公平公正、提升透明度和可解释性、负责任的创新。为了给人工智能大模型的研发团队提供切实可行的操作建议,同济大学同步给出技术研发的伦理实践指南,强调公平性、透明性、隐私、安全性、责任、人类的监督和控制、可持续性等。

杜严勇说,“无论人工智能大模型的伦理再强大,毕竟还是拥有工具属性。因此,我们一定要保证,在重大决策方面,‘人类’必须在决策环中。人工智能大模型必须处于人类监督和控制之下。”因此,操作指引把重点放在了人工智能的研发环节。研究团队认为,科研人员在人工智能伦理方面承担着最为重要的道德责任。值得注意的是,操作指引着重强调了“人类”的监督、控制和责任。

建立全球性、联合国式的人工智能监管机构

ChatGPT上线2个月,用户数量就已经过亿,但利用ChatGPT造假、诈骗等事件已经发生多起。比如,7月4日,绍兴警方就公布了一个利用ChatGPT制作虚假视频的团伙,该案系浙江全省首例。然而当事人并非黑客高手,而是一个连电脑都不能熟练操作的技术“渣”。

生成式人工智能让人赞叹、惊喜的同时,也带来很多风险。在以“数字治理:生成式人工智能之法律回应”为主题的2023世界人工智能大会法治论坛上,联合国犯罪司法所人工智能与机器人中心高级执法专家Michael O’Connell认为,需要建立一个全球性的、联合国式的人工智能监管机构,并制定相关规则,建立能够与之相匹配的道德规范,以确保人工智能的安全使用。

他指出,当前犯罪迅速演变、高度复杂,不法分子和恐怖分子也越来越广泛地使用人工智能,这给警方带来了巨大的挑战。但警方若采用技术至上的方法会导致AI普遍应用的基础不确定,也导致公众和监管机构对其缺乏信任。应当考虑以责任为核心的方法,尊重人权和道德需求,维护法治原则,促进公众信任,以良好政策和有效程序为指导来影响技术选择,并增强公众信任和用户信心。

如果利用AI犯罪,在法律上如何界定?中国人民大学教授王利明认为,尽管生成式人工智能对传统民法尤其是侵权法提出了新的挑战,但是生成式人工智能引发的侵权纠纷,没有完全超出民法典和个人信息保护法的相关规定,现行法的规定仍然可以作为处理和解决纠纷的依据。未来条件成熟时,还可以通过特别立法预防和处理生成式人工智能引发的各种风险,有效保障民事主体合法权益,促进人工智能产业的健康发展。

对AI治理不等于封堵,要勇敢地站到舞台上去

ChatGPT以及其他的新兴技术带来的社会影响,AI治理应该采用什么样的态度?

清华大学智能社会治理研究院院长、全国人工智能社会实验专家组组长苏竣认为要用“审慎、自信、积极”的三种态度面临挑战。

“我们要密切关注以ChatGPT这种微调预训练大模型为代表新一代通用人工智能技术的成熟和突破所给我们带来的巨大风险和挑战。以审慎态度看待一切,密切关注和跟踪它的一些变化和发展。”苏竣强调,还要充满自信的面对通用人工智能技术,不能过于自卑。“我们和他交流对话时其实有很多自卑感,要相信人类智慧、相信我们的人文精神,一定会战胜颠覆性技术给我们带来的冲击和挑战。”他举了全世界共同努力下将核武器等毁灭性技术关进了人类理性的笼子里的例子,“我们应该保持这种信心,要相信人类理性的光辉和智慧引领技术向好、向上发展。”

此外,他认为要积极面对,既不能采取鸵鸟政策,更不能采取封堵政策,不要担心技术不可控选择不使用或者少使用。“科学技术的大门已经打开了,应该勇敢地站到这个舞台上,扮演好这一代人的角色。”他认为要发挥中国文化优势,全面加强基于ChatGPT架构的应用。他还建议,可以在杨浦区智能社会治理试验基地里,赋予先行先试的权利,不断探索,不断进入无任务,不断进入以前没有过的、开发新的AI技术应用场景。

据了解,上海目前已经启动高风险人工智能产品和服务清单式管理的相关研究,并积极推动大模型相关治理研究;建立健全大模型评测体系,建设大模型评测中心,探索大模型自动化评测工具;探索适应大模型特点的创新监管方式。

头图为2023世界人工智能大会现场。劳动报记者 郭娜 摄影

展开阅读全文

页面更新:2024-04-02

标签:杨浦区   伦理   同济大学   人类   联合国   人工智能   模型   强大   风险   操作   法律   专家   技术

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top