千份问卷披露公众算法感知度:仅一成认为企业算法公开做得好

算法,通常指为了解决某个问题的固定化计算方法与步骤。

这一概念最早来源于数学和计算机科学领域,而现在,大数据时代和智能时代的交叠,使得AI算法逐渐与我们的生活密不可分,“算法”这一专业名词也开始愈发频繁地进入大众的视角,引发了诸多讨论与思考。

那么,大众对于算法的认知程度到底如何?算法到底在使人们的生活变好还是变差?在大众看来,当前企业对于算法的公开和解释是否充足?未来还期待着何种内容和形式的算法公开?

12月22日,由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办的“2022啄木鸟数据治理论坛”在北京举行。南都人工智能伦理课题组在会上发布了《算法应用与治理观察报告(2022)》(以下简称“报告”)。报告披露,经问卷调查显示,仅一成受访者认为企业算法公开做得很好,而有超过六成的受访者认为应该强制企业公开算法。同时,在与企业了解情况对比之后,报告发现企业与公众在与算法相关的多个问题上存在分歧。

···

本次问卷共历时4周,回收1292份,逾七成受访者年龄在19岁到40岁之间,超过八成的受访者学历均为大学本科和研究生及以上,整体居住地则更多分布在在北上广深和省会城市等二线城市。

整体来看,43.65%的受访者自认为比较了解算法,37.69%的受访者表示对算法不太了解,而对算法“非常了解”或“完全不了解”的受访者不到两成。

而在谈到算法对自己使用体验的影响时,有33.05%的受访者表示,“说不清楚”,认为“没有变化”的占比9.37%。约一成受访者明确表达“变差了”,结合地区看,这部分认为算法带来不好体验的人群中,多出自北上广深。

近半受访者认为算法使得自己的使用体验变得更好了,主要是因为算法可以推荐感兴趣的内容、节约搜索时间、提升工作/生活效率。而在认为算法使其使用体验更差的受访者中,被选择最多的三类原因依次为算法可能带来“信息茧房”、算法侵犯隐私、算法导致存在区别定价等情况。

那么,抛开受访者从“感知”层面所选择的算法可能带来的后果,大众因算法而真实遭受过困扰的情况又是如何呢?

问卷结果显示,大数据杀熟是最多受访者们经历过的算法带来的困扰——有64.94%的受访者都认为自己曾真实遭遇过大数据杀熟,其次为隐私侵犯、信息茧房和因过度沉迷内容平台感到困扰等情况。

而如果从地区维度来看,不同地区的受访者遭遇的问题不太相同。可以看到,其他城市、非城市地区的受访者选择“遭受过其他困扰”或“没有遭受过困扰”的比例远远高于北上广深、省会城市等二线城市地区。这也从侧面印证了北上广深的受访者对算法的负面看法更多的情况。

···

事实上,由于算法本身具有的专业性、难解释的特性,以及当前国内企业对于主动公开算法缺乏动力的实际情况,算法常常被和“黑箱”一词联系起来。

问卷结果也显示,最理想的公开算法解释的渠道应该是由政府或第三方机构牵头建立的统一查询平台(58.23%),其次是通过企业在应用内或社交平台公布获取算法相关解释(22.90%)。

对于算法提供方,很多受访者认为当前企业在算法解释上做得差强人意。仅有约一成的受访者认为目前企业在解释算法上做得很好,而态度为偏向负面的“一般”“不太好”“很差”的受访者则超过八成。

同时,有65.25%的受访者认为企业在算法开发的过程中应该最看重安全要素,另有16.41%受访者选择了公平,15.4%的受访者选择效率。

对于未来的算法治理,大部分受访者(73.61%)认为应该在现有的法律基础上,继续出台相关法律法规或标准规范,同时应当加大对算法的监管和备案审核力度。62.46%受访者认为需要强制企业按照一定标准进行算法公开,还有半数左右的受访者认为应当更多关注算法造成的歧视、偏见问题,或建立类似12315的专门投诉机制。由此看来,建立健全相关法律法规、算法备案和强制企业公开是公众更迫切看到的行动。

···

结合上述问卷调查结果,南都人工智能伦理课题组也从多家企业了解了情况,结果发现,公众与企业在多个问题上都存在分歧。

比如,在“算法到底应该公开到何种程度”这一问题上,问卷中有相当一部分受访者认为任何一种算法都应该得到解释。且不管是当前已在政府备案系统中备案的算法,还是企业在自家平台公开的算法,大多数受访者都认为解释得“一般”或“不太好”。

但多家企业表示,由于真正投入运行的代码模型量级太大、细节本就难以深挖,就算深入到代码参数一层,对于公众来说也难以理解,意义不大而持续运行的代码通常又会有较频繁的更新,每次更新都公开代码并不现实。因此,最后呈现在公众眼前的,就只剩一个对于算法原理及作用的简单描述。

对于这一问题,报告调查后发现,首先,由于理解算法的门槛相对较高,社交平台上的广泛讨论进一步放大了对算法缺少认识的人群的恐惧心理,导致公众和企业之间存在信息差,难以达成一致;其次,公众更希望企业的算法解释可以直接对应到某个具体场景或给出具体比例——比如平台怎么知道要给我推球鞋广告?个性化推荐中为防止信息茧房而加入的“无关信息”到底占比多少?……但从企业目前公开的算法来看,基本只是说明了大致原理,连列出具体公式的都寥寥无几,如此宽泛的算法解释自然难以对应具体的应用场景。

第二个明显存在矛盾的则是“安全”与“效率”的冲突。

根据问卷结果,有超过六成的用户认为企业在开发算法时最应优先追求“安全”因素,这一比例远超“效率”“公平”等其余选项。但企业追求效率,或许刻在基因里。由于企业和公众的目的不同,对于算法应用的期待自然存在差异,在一定程度上,安全和效率的冲突凸显了出来。

典型案例如应用调度决策类算法的外卖骑手平台,平台通过收集和分析骑手的送单数据,压缩每一单的送达时间到极致,同时利用算法单方面设立奖惩规则,导致骑手不能有丝毫懈怠。再比如号称“比你更懂你”的个性化推荐类算法,企业为了增强提高用户体验,增加用户的留存和活跃度,会希望尽可能猜准用户的心思和喜好,而一旦以追求算法推荐的精准度为第一目标,就有可能带来侵犯用户隐私、过度沉迷、信息茧房等问题。

整体来说,公众因为对算法原理缺乏了解,又不熟悉相关法规,在遭遇算法引发的问题时难以应对,无法保障自身合法权益,所以对一些算法甚至企业产生了抗拒和恐惧心理。而企业方也存在追求效率而不顾安全的行为。

为此报告建议,政府、媒体应加大科普力度,持续开展日常性算法教育,帮助公众提高对算法服务的认知能力和自我保护能力,消除信息不对称以及由此引发的恐惧心理,不断提升公众的算法素养。企业方在开发算法时,应充分考虑算法可能带来的负面效应,注重与保护公共利益之间的平衡,并加强算法信息披露。

出品:南都人工智能伦理课题组

采写:杨博雯 胡耕硕

制图:张博 胡耕硕

展开阅读全文

页面更新:2024-05-02

标签:问卷   算法   公众   受访者   企业   大众   人工智能   做得好   效率   情况   报告

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top