如何让人工智能监管切实可行

  人工智能的高速发展与普及是一把双刃剑,既令人兴奋,又令人担忧。继对个人隐私的忧虑之后,如今,人们更担心数据和算法偏见将带来的消极影响。如何合理监管和控制人工智能的风险?《哈佛商业评论》在2021年7/8月刊上发表了波士顿咨询集团董事总经理范史华(Fran?ois Candelon)、欧洲工商管理学院教授塞奥佐罗斯·叶夫根尼欧(Theodoros Evgeniou)等人的文章《人工智能监管即将到来》(AI Regulation Is Coming),探讨了政府和企业的应对之策。

如何让人工智能监管切实可行

  算法偏见可能造成社会不公

  在过去十年的大部分时间里,公众对数字技术的担忧集中在个人数据的滥用上。网络公司通常会收集用户的信用卡号码、地址和其他重要信息,网站会跟踪用户的搜索记录推送相关的广告,人们对这种追踪其网上活动的方式感到担忧。此外,他们还担心身份盗窃和欺诈。这些担忧导致美国和欧洲通过了一些措施,确保互联网用户在一定程度上控制他们的个人数据和图像,其中最引人注目的是欧盟2018年通过的《通用数据保护条例》(GDPR)。

  但随着企业越来越多地在产品、服务、流程和决策中嵌入人工智能,人们的注意力正转移到软件如何使用数据上,尤其是复杂的、不断发展的算法。这些算法可以诊断用户是否患癌、驾驶汽车或批准贷款等。随之而产生了目前公众最关注的问题:人工智能系统产生的有偏见的结果,即算法问题。一个著名的例子是苹果公司的信用卡算法,该算法被指歧视女性,导致纽约金融服务部对之进行调查。其他方面也存在这个问题,例如,无处不在的在线广告算法可能会根据种族、宗教或性别来锁定观众。每年影响数百万美国人的医疗保健风险预测工具也被发现具有严重的种族偏见等。

  人工智能增加了偏见的潜在规模:任何缺陷都可能影响数百万人,使公司面临集体诉讼。在大多数情况下,问题源于人工智能所使用的数据。如果数据有偏差,那么人工智能就会获取甚至放大偏差。例如,当微软使用推文来训练聊天机器人与推特用户互动时,因其发出了煽动性、种族主义的信息,上线第二天就被关闭了。但仅仅从数据中删除种族或性别等人口统计信息是不够的,因为在某些情况下,需要这些数据来纠正偏见。

  此外,人工智能的算法可能也是不公平的。理论上,在软件中编码实现公平概念是可能的,即要求所有结果满足一定的条件。但一个可能的障碍是,人们对于公平没有统一的定义,因此无法确定决定公平结果的一般条件。更重要的是,在任何特定情况下,利益相关者可能对什么是公平有不同的认知。因此,任何将其设计到软件中的尝试都会令人担忧。

  监管部门可采取的三方面行动

  事实上,欧盟在其2020年白皮书《人工智能——欧洲追求卓越和信任的方法》与2021年人工智能法律框架提案中已经提出,对人工智能工具进行有效的监管可以促进其开发并良性发展。针对人工智能算法存在的弊端,监管部门可以从以下三方面采取行动。

  首先,要确保公平。这需要评估人工智能结果对人们生活的影响,其判断是机械的,还是主观的,以及人工智能在不同市场上的运作是否公平。研究表明,人们对人工智能的信任程度因其用于决策的类型而异。当一项任务被认为是相对机械的,比如优化时间表或分析图像,软件会被认为和人类一样值得信赖。但是,当决定被认为是主观的,人的判断就更可信,部分原因是人具有同理心。这表明,公司需要充分掌握他们正在应用人工智能决策的具体性质和范围,以及为什么在这些情况下,人工智能比人类的判断更可取。同时,算法在所有地区和市场中可能并不公平。例如,平均统计数据会掩盖区域或亚群体之间的差别,要避免这种差别,就需要为每个子集定制算法。但这会降低人工智能的规模优势潜力,而这往往是使用人工智能最初的动机。

  在处理有偏见的结果时,监管机构大多求助于标准的反歧视立法。只要有人对有问题的决定负责,这种方法就是可行的。但随着人工智能越来越多地参与其中,个人问责制被削弱了。更糟糕的是,人工智能增加了偏见的潜在规模:任何缺陷都可能影响数百万人,使企业面临集体诉讼。当然,针对不同市场的差异进行调整,会增加算法的层次,推高开发成本。为特定市场定制产品和服务同样会大大增加生产和监控成本。所有这些变量都增加了操作的复杂性和成本。

  其次,要确保AI决策的透明度。监管机构很可能会要求企业解释软件是如何做出决定的,但这往往不容易做到。就像人类的判断一样,人工智能也不是绝对正确的。算法不可避免地会做出一些不公平甚至不安全的决定。当人们犯错误时,通过调查和责任分配,可能会对决策者施加法律惩罚,这有助于组织或社区理解和纠正不公平的决策,并与利益相关者建立信任。那么,我们是否应该要求甚至期待人工智能也能解释自己的决定呢?监管机构正在朝着这个方向前进。GDPR已经通过算法描述了“获得对所达成决定的解释的权利”,欧盟在其白皮书和人工智能监管提案中已将可解释性确定为增加对人工智能信任的一个关键因素。当然,采用最严格的可解释性要求可能会使某些公司在市场上处于不利地位。同时,应用多重可解释性标准也可能会使人工智能成本更复杂和昂贵。

  再次,要分类管理人工智能自动更新和学习的算法。虽然人工智能可能更准确,但它们也可能以一种危险或歧视的方式演变。人工智能的一个显著特征是它的学习能力,会不断地更新演进。客户对人工智能发展的态度取决于个人的风险回报计算。例如,在保险定价方面,学习算法很可能会提供比人类提供的任何东西都更适合客户需求的结果,因此客户可能会对这种人工智能有相对较高的容忍度。但当不公平或负面结果的风险和影响很高时,人们就不太接受进化中的人工智能。某些种类的产品,如医疗设备,如果在没有任何监督的情况下更改,可能会对用户造成伤害。

  因此,一些监管机构,比如美国食品和药物管理局,只授权使用“锁定”算法——这种算法不会在每次使用产品时都自动学习、更新,因此不会更改产品。监管机构还担心,持续学习可能会导致算法以新的、难以检测的方式产生歧视或不安全。因此在主要关注不公平的产品和服务中,人们更关注人工智能的可演化性。对于公司来说,可以运行同一算法的两个并行版本:一个只用于研发,可以持续学习,另一个锁定版本用于商业,并得到监管机构的批准。在不断完善的监管审批基础上,可以按一定频率更换商业版本。(社会科学报社融媒体“思想工坊”出品 全文见社会科学报及官方网站)

展开阅读全文

页面更新:2024-03-04

标签:人工智能   解释性   可能会   切实可行   欧洲   偏见   算法   公平   成本   人类   机构   数据   用户   市场   产品   软件

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top