人工智能应该为人人

作者:Dina Bass

呼吁科技巨头对自身产品和行为负责不能仅仰仗于企业内部力量,大家必须迫使科技公司做出改变。

全文共1219字,阅读完大约需要5分钟

蒂姆尼特·加布鲁(Timnit Gebru)是人工智能伦理方面的领军人物之一。她的研究探索了如何消除偏见,例如种族主义和性别歧视,以避免偏见通过有缺陷的数据和创作者侵入人工智能。在谷歌(Google),她和同事玛格丽特·米切尔(Margaret Mitchell)管理着一个专注于该问题的团队,她们试图发表一篇批评谷歌产品的论文,随后被谷歌解雇。(加布鲁说是谷歌解雇了她,谷歌则称是她自己辞职。)现在,加布鲁作为价值认同组织Blackin Al(黑人AI同业)的创始人,正为一个独立的A研究小组寻找支持者。她说呼吁科技巨头对自身产品和行为负责不能仅仰仗于企业内部力量。

我们现在可以做些什么使人工智能更加公平,以避免从房贷到刑事判决等方方面面对个别群体的歧视?

底线是劳动者保护、吹哨人保护以及反歧视法。如果缺少此类保护我们做的任何事都会流于表面,因为只要你稍微推动一下,公司就会强力打压。最用力推动的永远会是那些来自特定社区和遭遇过其中一些问题的人。

从长远看,人工智能需要以什么大规模、系统性的方式重新构思吗?

我们必须重新构想目标到底是什么?如果目标是让谷歌或亚马逊(Amazon)赚最多的钱,不论我们怎么做,充其量是个创可贴。业内有一种假设,说我们做的事规模很大,一切都是自动化的,我们显然无法保证安全。我们怎么管得了人们在社交媒体上写的每一句话?我们可以随机将你的内容标记为不安全,或者任由虚假信息铺天盖地,你指望我们怎么做?

这就是他们的做事方式,正如他们能通过极不安全的产品赚得盆满钵满。必须有人迫使他们停下来。

具体而言,政府应该做些什么?

产品必须受到监管。政府机构的工作应涵盖对这些公司的调查和审计,在高风险情景中使用人工智能,应该有一些必须遵循的标准。眼下,政府机构本身也在不应该使用的地方使用着高度不受监管的产品。他们在审查难民时使用谷歌翻译。

作为一名移民(加布鲁是厄立特里亚人,青少年时期逃离埃塞俄比亚,当时两国发生了战事),你如何看待美国科技公司争相向五角大楼或入境和海关执法局兜售人工智能的举动?

人们必须大声说不。我们可以决定我们应该把精力和金钱花在何处,比如如何扑灭加州的森林火灾,以避免气候变化,如何为人们建立安全网,改善我们的健康和食品安全。对我来说,移民是一项人权。你要离开不安全的地方。如果不能移民,我不知道我会在哪里。

关于你所在领域的多元化工作,有没有什么让你看到希望的事?谷歌和苹果的劳动者组织?

所有的价值认同组织,Queerin AI(同志AI同业)、Blackin AI、Latinxin AI(拉美裔AI同业)、Indigenous Al(土著AI同业),他们在自身及彼此之间建立了网络。我认为这很有希望,在我看来,劳工组织大有前途。但大家必须迫使公司做出改变。他们宁肯解雇像我这样的人,也不愿做出任何一丁点改变。

展开阅读全文

页面更新:2024-04-20

标签:厄立特里亚   人工智能   同业   政府机构   劳动者   移民   组织   产品   科技   公司

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top