AI运用风险中法律分配制度的多重困境,意思自治原则的权利实现

文|黑石谈法

编辑|黑石谈法


一、意思能力的削减困境

意思自治的法律行为制度在人工智能技术应用风险中赋予了各主体最大程度的权利用于分配风险,在具体的风险分配中则体现出一种互惠的理论。

广义互惠在人工智能技术应用风险的法律分配中表现为一方主体单纯为另一方谋取利益,这种风险分配实际上在风险的承担上并不对等,但只要双方意思表示合意那么双方就有权利订立契约。

但这建立在合意双方均具有行为能力的基础上,否则广义互惠将极易被利用于为一方主体牟利而侵害另一方主体。

因为如果不具有相应的行为能力,那么不管法律赋予多大的权利,权利的行使都将难以真正实现。

即行为能力是意思自治的起点,只有行为能力适格,才有必要判断意思表示的品质,并最终落实意思自治。

《民法典》中,对行为能力的表述主要集中在第十三条至二十四条,以是否达到年龄与是否具有行为的辨认能力为标准。

其中达到一定年龄实际上就是默认具有了行为辨认能力,因此行为能力主要考察的是行为的辨认能力即意思能力。

在人工智能技术应用风险中,个人权利之所以容易受到侵害一个重要原因就是因为个人的主体性有被消亡的风险。

显然意思自治的法律行为制度若希望个人行使权利分配风险就需要具有相应的意思能力,一旦行为主体遭到监视资本主义的控制以及信息茧房的规训,那么这种意思能力就将被削弱甚至被控制在这种情况下意思自治的法律行为制度的权利实现将受到干扰,因此其无法有效分配人工智能技术应用风险更无法应对个人主体性消亡的风险。

在具体的应用中将呈现出个人行为主体因意思能力被削弱,甚至控制,而导致个人成为“限制民事行为能力人”甚至“无民事行为能力人”并在不知不觉中通过“意思自治与其他主体订立看似有利于自已但实际会损害自身利益契约的情形。

这时广义互惠就将容易被国家公权力以及社会公权力所利用,并出现越来越多形式上是广义互惠实质上却是负互惠的情形。

例如,当下通过大数据分析会根据个人的喜好、习惯、行为等特征,推荐给他们更符合他们需求和期望的内容、产品或服务,虽然当下法律已经规定个人有权拒绝这种大数据分析的推荐。

不少人仍然会选择同意推荐,因为这种推荐在一定程度上确实是一种广义互惠的,只不过这同样也是负互惠的,但法律却难以保障在选择同意推荐后个人的选择权。

二、意思合意的理解困境

意思自治的法律行为制度在人工智能技术应用风险的分配中会出现平衡互惠的情形,这是意思自治双方或多方平等获利与共担风险的体现,也对双方或多方在风险中各自拥有的权利达成了合意。

在这种情形下,权利的行使取决于所达成的意思合意的内容,也意味着行为主体能否正确理解意思合意的内容是权利能否实现的关键。

由于大多数时候人工智能技术面向的主体是个人而人工智能技术又非常复杂,因此在达成意思合意时技术的提供方就需要向个人解释合意的相关内容使得意思确实合意,个人能够正常行使权利。

向个人需要的“解释”是指法律上涉及知情权的能够被个人所理解的“解释”。

这种“解释”因为每个人所面临的情况以及所储备的知识不同,所以要达到理解人工智能技术所需要的解释流程也可能不同,因此对个人而言,所需要的解释是一种动态的,过程性的解释。

当下多数人工智能服务提供商所给出的是一种“静态解释”,一个例子是当用户想获取某一项服务涉及人工智能时,服务提供方通常会有“使用须知”作为使用前提,这就有可能是一种静态的文本解释。

多数时候用户确认使用涉及人工智能的服务时 并不能真正理解这些“使用须知”的含义,那么这些“使用须知”实际上就是“无意义”的,这也被称为“透明度谬误”《个人信息保护法》第四十四条规定了个人对其信息的处理享有知情权、决定权,然而普通用户如不能理解“知情”与“决定”则可能产生“透明度谬误”

例如据光明日报调查,近八成的用户在安装 App 时“很少或从未”阅读过隐私协议,而 69.69%的用户会忽略 App 隐私协议的更新提示,而用户之所以“视而不见”很大程度上是因为平均每款 App 需要用户“阅读并同意”的内容约 2.7 万字,如此长的内容用户根本没有时间去理解,最终导致出现“透明度谬误”。

而且这些问题也可能是人工智能技术的提供者无意为之

例如,使用人工智能系统担任人力资源顾问可能会出现代理歧视,即使招聘单位为应聘者提供的“应聘须知”阐明了其可能涉及并需要自动化处理的内容,甚至告知应聘者已人为地排除了性别,身高等有可能带来歧视的特征具有公平性,或许应聘者能够理解这些文字的表面含义,但其不知道由于代理歧视的存在。

自动化决策仍然可能会带来具有歧视性的结果,最终其公平竞争的权利仍然没有得到实现。

这种情况下如何解释才能达到法律知情权要求的标准就成为一大难题。

那么这时通过意思自治的法律行为制度来进行风险的分配就将因个人的意思合意困境而导致应有的权利无法实现,本来平衡互惠的情形也会因为一方主体并未真正理解合意内容而失去“平衡”,导致能够理解合意内容的主体占据主导地位,使得平衡互惠情形向负互惠发展。

三、意思“自治”的权利负担困境

权利的行使应当符合“人得自由,而必以他人之自由为界”的基本原则,因此权利的界限并不是无限的,不论是权利的“权力”化或过度追求利益而使用权利话语都不具有正当性。

法律要求意思自治的主体应当为自己的行为负责实际上也是在要求意思自治的主体应当考虑其他主体的权利,为损害其他主体权利的行为负责。

这种责任不一定是法律规定的侵权责任,也可以通过权利负担即自治主体自行设立义务的方式来实现。

因此当法律在进行风险分配的时候使用权利负担是防止负互惠情形发生的重要方式。

如果说在广义互惠与平衡互惠中,人工智能技术的持有主体还在想方设法将打破风险分配的平衡为已谋利,那么在纯粹负互惠中,它们则利用人工智能技术的复杂性直接使用正当手段掩盖非法目的,使得权利负担失效从而侵害其他主体的权利。

这种方式通常是采用强调人工智能技术的生产性来盖过具体目标的手段来达到非法的目的。

换句话说人工智能技术的持有主体期望通过人工智能技术扩大其权利,甚至将权利扭曲。具体而言。

例如,自《个人信息保护法)实施以来,几乎所有的手机软件都更新了相应的隐私保护条款,也在其中说明了可能需要的权限,但问题是这些权限是从强调生产性的角度提出的,实际上在具体的应用中可能并不需要那么大的权限。

一款图片美化软件拥有手机相册的读取权限是再正常不过的事,但这一权限通常不仅意味着其拥有读取当下待修改图片的能力,还意味着其可以读取查看相册里任何一张图片甚至整个手机根目录的信息。

这时软件就通过强调其能够美化照片的生产性来代替了具体对某一特定照片进行修改的目的性说明,这种方式隐蔽性地扩大了软件的权限,随之产生违法行为,实现了强制对人工智能技术应用风险进行负互惠分配的目的。

这里这款图片美化软件显然为自己的权限设定了相关的范围即权利负担,但这种权利负担在实际的权利运行中却没有真正的实现反而出现了失效的情况,这使得本来可能是广义互惠与平衡互惠的情形直接变为负互惠。

另外,还有一种情况是人工智能技术的持有主体为自已设置了所谓的“权利负担”,但实际上其追求的利益本质上是通过侵害其他主体的利益来实现的这根本不属于一种权利,“权利负担”不过是掩盖其非法目的的一种手段。

而法律要想对这种负互惠的纠偏也非常困难,因为如果某些主体“自觉”设置了权利负担那么这就需要相关法律机构对市面上不计其数的人工智能系统进行深度的检测,才能确定哪些程序的使用实质是违法的。

例如,国家移动互联网应用安全管理中心自 2019 年起每个月都会查处一批涉及侵害个人信息的应用,但在庞大的应用数量面前几乎是杯水车薪,违法应用依然屡禁不止。

参考资料

1、叶良芳、马路瑶:《风险社会视角下人工智能犯罪的刑法应对》,载《浙江学刊》2018第6期。

2、叶强:《德国自动驾驶立法评析》,载《国外社会科学》2022年第2期88.于海防:《人工智能法律规制的价值取向与逻辑前提一-在替代人类与增强人类之间》,载《法学》2019 年第6期。

3、余谋昌:《走出人类中心主义》,载《自然辩证法研究》1994 第7期90.詹福满,苗静:《有限政府理论的现代解读》,载《法律科学(西北政法学院学报)》2005第3期。

4、张爱军、李圆:《人工智能时代的算法权力: 逻辑、风险及规制》,载《河海大学学报(哲学社会科学版)》2019 年第6期。

5、张富利、郑海山:《大数据时代人工智能辅助量刑的定位、前景及风险防控》,载《广西社会科学》2019第1期。

6、张富利:《全球风险社会下人工智能的治理之道一一复杂性范式与法律应对》,载《学术论坛》2019 年第3 期。

展开阅读全文

页面更新:2024-05-18

标签:权利   风险   法律   合意   分配制度   人工智能   广义   互惠   困境   主体   分配   原则   技术

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top