研究发现AI用法男女大不同,女性为何对它避之不及,背后有大问题

一个挺有意思的现象,不知道你注意到没有?一方面,人工智能好像天生就带着点“直男”属性,研究发现它会不自觉地“重男轻女”。另一方面,现实生活里,好像确实是男生们更热衷于摆弄这些新潮的AI工具,而女生们则显得犹豫许多。

这俩事儿放一块看,就特有意思了。这到底是AI本身有问题,还是我们用户自己的选择?或许,真相是这两者搅在了一起,形成了一个奇怪的循环。AI就像一面镜子,照出了我们社会本来的样子,然后这面镜子又反过来影响了镜子前的人,尤其是女性。


AI的“直男”本色

AI的那些偏见,可不是它自己瞎想出来的。它就像个学生,老师是谁呢?是我们人类社会海量的数据。你想想,如果教材本身就充满了刻板印象,那教出来的学生能不偏科吗?

清华大学的于洋助理教授就带着团队给AI做过一次“思想品德”测试。他们考了考ChatGPT的前辈GPT-2,结果让人哭笑不得。当问到“教师”这个职业时,模型有七成以上的把握会猜是男的。就连“医生”这个职业,它也觉得64%的可能性是男性。

这可不是GPT-2一个模型的问题。他们把谷歌和Facebook的同类AI模型都拉来考了一遍,结果都差不多,一提到职业,就默认是男性的天下。于洋教授总结说,这AI不光“重男轻女”,甚至还“爱白欺黑”,有种族歧视的倾向。

这也不是什么新鲜事了。早在2015年,GooglePhotos就闹过一个大乌龙,把黑人朋友的照片自动标记成了“大猩猩”,谷歌当时赶紧出来道歉,说要改算法。几年后,联合国教科文组织也发布了一份报告,标题特讽刺,叫《如果我能,我会脸红》,专门批评那些AI语音助手的性别偏见。


微软的一位研究员汉娜·沃拉赫,一句话就说到了根子上。她说,只要AI学习的数据来自我们这个本就存在偏见的社会,那AI就必然会成为这些偏见的“复读机”。这逻辑简直没法反驳。

女生们为何不爱玩AI


这种从设计根源上就有点“偏心”的技术,自然而然地就在用户群里划出了一道性别的鸿沟。加州大学伯克利分校、斯坦福和哈佛的学者们联手做了个研究,发现女性采纳AI工具的比例,整体上就比男性低了差不多四分之一。


这个差距在手机上更明显。从2023年5月到2024年11月,在下载ChatGPT移动应用的用户里,女性只占了可怜的27.2%。不光是ChatGPT,像Claude和Perplexity这些AI新秀,用户性别比例也大同小异。

那为什么会这样?是女生天生对科技不感冒吗?当然不是。这背后的心理活动可复杂了。哈佛商学院的副教授伦布兰·科宁,也是上面那个联合研究的作者之一,他提出了一个很扎心的猜想。

他认为,女性担心用了AI,会让别人觉得她“不行”。社会学研究早就发现,女性在工作场合的专业能力,本来就更容易被人打上问号。科宁举了个例子:一个女工程师用AI辅助工作,老板看见了,心里可能就嘀咕,“她是不是自己搞不定啊?”

但换成一个男工程师,要是把AI用得特别溜,老板大概率会拍着他肩膀说:“小伙子不错,懂的拥抱新技术,有前途!”你看,同样一件事,性别一换,评价天差地别。这种无形的压力,让很多女性对AI望而却步。


瑞典和挪威的研究人员在2024年也发现,在学生群体里,女生用AI的概率就比男生低,尤其是那些成绩好的“学霸”女生,她们更加小心翼翼。研究员卡塔利娜·佛朗哥分析说,这些优秀的女孩子更习惯于遵守规则,对于学校没明说让不让用的AI,她们宁可不用,也不想冒任何风险。

反观男生,风险规避的意识就没那么强,觉得“用了再说,大不了被抓”,这种心态让他们更敢于尝试有争议的新东西。AI研究员兰迪·威廉姆斯说得更直接,他说这根本不是性别本身的问题,而是“设计问题”。


一开始创造AI的人,大多是白人男性,他们喂给AI的数据,也自然带着他们自己的思维方式和兴趣点。一个从根上就没怎么考虑过女性需求和处境的技术,最后用的人男女比例失衡,那不是再正常不过了吗?

反转,AI成女性新盟友?


聊到这,好像挺悲观的,感觉女性被AI“嫌弃”了。但事情总有另一面。一个特别出人意料的发现是,在某些场景下,女性反而比男性更信任AI。


芝加哥大学布斯商学院和荷兰鹿特丹伊拉斯谟大学的研究发现,在找工作时,如果让女性选择,她们更愿意接受机器人面试官的招聘,而不是人类面试官。

这个发现太有意思了。它透露出一个关键信息:女性不是在拒绝技术,她们是在拒绝不公平。在她们看来,一个设定好程序的AI,可能比一个带着各种主观偏见和情绪的人类面试官,要来得更公平、更客观。她们看到了AI潜在的、消除人类偏见的力量。


所以,女性的谨慎和迟疑,并不是坏事。麻省理工学院的学者迪希塔·图拉基亚就提供了一个全新的视角。她认为,怎么用AI,远比什么时候开始用AI更重要。那些后来的使用者,也就是“后来者”,往往能提出更尖锐、更批判性的问题。

她们对隐私、偏见、伦理这些问题更敏感,而这些疑虑和批评,恰恰是逼着技术走向成熟、走向可持续发展的关键动力。就像一句老话说的,“先行者占先机,但后来者也能到达终点”。有时候,后发优势就在于看得更清,想得更深。


结语

所以你看,AI和性别的这笔账,真不是一两句话能算清的。它是一个死循环:一个由男性主导设计、吸收了社会偏见的技术,导致了女性用户的疏离。而女性用户的疏离和批判性视角,反过来又可能成为打破这个循环、倒逼技术进步的希望。

出路在哪?可能就在于“设计”和“使用”这两头的良性互动。一方面,开发AI的公司需要玩命地推动团队多元化,让更多女性和不同背景的人参与到设计中来,从源头上就把AI做得更包容。

另一方面,我们也要鼓励和珍视女性用户在AI应用中的声音,把她们的那些小心翼翼和担忧,看作是推动技术向善的宝贵财富。毕竟,一个好的技术,不应该让一半的人感到被排斥,不是吗?

展开阅读全文

更新时间:2025-09-25

标签:科技   男女   女性   偏见   用户   性别   男性   技术   发现   研究员   哈佛   批判性

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top