Meta眼镜深陷“隐私门”,肯尼亚审核员爆料能看到用户裸体画面

本文仅在今日头条发布,谢绝转载

文 | 段小草(自由撰稿人)

用户以为自己花几千块买到了时尚单品、AI体验,但没想到,Meta眼镜的真实价格,是把最私密的日常生活,暴露给远在非洲的外包审核员。


不久之前,Meta的AI眼镜还是行业标杆,被视作Meta自元宇宙之后最成功的翻身仗。没想到最近,Meta因用户隐私问题,口碑急转直下,已经到了人人喊打的地步。

事情很简单,根据媒体报道,Meta长期以来一直把智能眼镜的视频审核业务外包给肯尼亚的一家名为Sama的数据标注公司,那些审核员可以看到全球Meta眼镜用户拍摄的视频片段。

一名审核员告诉媒体:“我们能看到一切——从客厅到裸体……如果他们知道数据收集的程度,根本没人敢用这副眼镜。”

Meta的回应还是老一套,一方面把锅甩给用户,用了我的产品就等于接受隐私政策、用户协议,另一方面宣称自己尽力了,会采用面部模糊技术隐藏用户特征,顺便还不忘拉人下水,说这是行业的惯例做法。

愤怒的用户显然不会对这种解释满意,国外用户已经发起了集体诉讼,Meta眼镜这次的“隐私门”不会轻易收场,也许会成为AI硬件隐私第一案。

虚假的营销,套路的协议

Meta眼镜在宣传时,用“专为隐私设计,由你掌控”这样的口号来包装产品,营造了一种用户拥有绝对数据主权的错觉。

无数用户基于这份信任,才选择将一个永远在线的摄像头戴在了自己脸上。Meta眼镜2025年的销量暴涨至700万副,可见AI眼镜的市场潜力之大。

但AI眼镜和其他穿戴式硬件有很大差别。

用户购买智能眼镜,最核心的功能就是它的AI助手。当你对着眼镜说出唤醒词“Hey Meta”,并询问“我正在看什么?”或请求实时翻译时,眼前的画面一定会被上传到Meta的云端服务器进行处理。

Meta将数据上传定义为用户“选择分享”的行为。但这个“选择”,是和产品的核心功能深度绑定的。用户无法在享受AI便利的同时,拒绝数据被处理。国外记者通过实测证实:Meta眼镜的AI功能在离线状态下完全无法使用。

换言之,只要使用AI助手,就等同于签署了一份无法退出的数据契约。所谓的“用户控制权”,仅限于是否按下那个启动数据流的按钮,而非数据流向何方、被谁审查。

如果只是把视频画面交给多模态模型,很多用户也许也能接受。但问题在于,Meta在冗长晦涩的用户条款中规定:“在某些情况下,Meta会审查您与AI的互动……这种审查可能是自动的,也可能是手动的(人工)”。

这意味着,任何用户拍摄的任何画面,都会面临被Meta员工人工审查的风险。

虽然Meta声称会对上传的人脸进行模糊处理,但多位Sama的员工和前Meta员工都证实,这套算法在光线不佳等复杂条件下会直接失效。

这些因素叠加,Meta眼镜的隐私问题,毫无疑问是个大雷。

AI背后,看不见全球数据产业链

人工智能,先有人工,后有智能。模型背后,往往是大量的人力劳动,也就是“数据标注”。那些身处全球第三国家的标注员,正是AI革命中“看不见的工人”。

以这次事件中的Sama为例。这是一家旨在为发展中经济体提供就业机会的数据标注公司。员工在安保严密、禁止携带个人设备的办公室内,为AI模型标注数据。

这曾是一个经典的全球化分工:发达国家的用户产生海量、高价值的隐私数据,这些数据被传输到劳动力成本较低的国家,由当地员工进行处理和标注,最终形成更智能的AI模型,服务于全球市场。

这说明:所谓的“机器智能”,在很大程度上是建立在全球化的数据和劳动力套利之上的。而这次Meta事件,则将这种套利的代价直接展现在公众面前。

这个代价不仅仅是用户的隐私泄露,同样也包括对数据标注员造成的伦理困境和精神伤害。他们并非主动窥探他人隐私的黑客,而是在工作流程中,被迫成为他人私密生活的不情愿的旁观者。

之前也有新闻报道过,一些从事审核工作的“鉴黄师”,时间长了以后患上心理疾病。

这种持续暴露于陌生人高度私密、甚至令人不安的内容之下的工作,很容易影响员工精神健康。Sama公司过去曾因内容审核业务给员工带来创伤而备受争议,最终终止了该业务。如今,在数据标注领域,相似的伦理困境再次浮现。

当一个行业的基础设施依赖于系统性地将一部分人的隐私,转化为另一部分人的工作内容时,这个行业的根基就存在着深刻的结构性问题。

跨境数据、虚假广告,总有一款适合Meta

随着事件发酵,英国ICO办公室开始介入,美国克拉克森律师事务所也提起了集体诉讼,分别指向了Meta商业模式的两个核心软肋。

英国ICO的调查,直指GDPR的核心——跨境数据传输。

根据欧盟及英国的《通用数据保护条例》(GDPR),将欧洲居民的个人数据传输到欧盟以外的“第三国”,必须满足极为严苛的条件。要么该国获得了欧盟委员会的“数据充分性认定”(即认定其数据保护水平与欧盟相当),要么必须采用标准合同条款等额外保障措施。

肯尼亚,目前并未获得欧盟的“充分性认定”。这意味着,Meta将欧洲用户的数据传输至肯尼亚供Sama员工审查,其合法性本身就面临巨大挑战。

这不再是一个“是否告知用户”的问题,而是“是否有合法基础进行传输”的根本性问题。如果ICO最终认定Meta的传输机制不符合GDPR要求,其面临的将是高达全球年营业额4%的天价罚款。

美国的集体诉讼,则剑指“虚假广告”的七寸。

克拉克森律所攻击的并非是用户协议的细则,而是Meta在营销中做出的“专为隐私设计”的核心承诺。诉讼认为,这个承诺与产品实际的数据处理方式之间存在根本性的、具有误导性的差距,构成了对消费者的欺诈。

它将焦点从复杂的法律文本解读,转移到了一个普通消费者都能理解的常识性问题上:一个号称“由你掌控”隐私的产品,是否应该在我不知情的情况下,让我家中的私密影像被千里之外的陌生人观看?

这个问题一旦在法庭上被放大,对Meta品牌和声誉的打击将是巨大的,尤其是在其已售出数百万副眼镜的背景下。

这两条法律战线,共同构成了一场对当前科技行业“默认接受”文化的挑战。它们试图传递一个清晰的信号:将关键信息埋藏在用户协议深处,同时在营销中大谈隐私保护,这种“双面策略”在日益严格的全球数据保护法规面前,可能已经走到了尽头。

小结

我们必须承认,智能眼镜作为一种技术形态,其潜力是巨大的。无论是为视障人士提供导航,还是实现实时翻译,它所描绘的“环境计算”未来,确实令人向往。

但这恰恰是问题的关键所在:一项技术的潜力,绝不能成为其商业模式原罪的挡箭牌。

这次Meta隐私门,性质十分恶劣,影响也很坏。它通过时尚、普通的外观,成功地绕过了社会公众的直接警惕,实现了大规模的市场渗透。它不是在挑战社会契约,而是在我们尚未察觉的情况下,试图悄悄地重写它。它正在将“环境数据采集”常态化、无感化。

当便利性压倒一切,当技术以一种不易察觉的方式融入日常生活,我们关于隐私的界限就会被动摇。过去,我们对于被拍摄的认知是具体的、有形的——有人举起手机或相机。而智能眼镜则将这种行为变得模糊、持续且无形。

因此,解决方案绝不是简单地呼吁用户“小心使用”或“阅读条款”。这种将责任完全推给用户的论调,本身就是对科技巨头结构性权力的一种默许。

真正的改变,必须来自对产品设计和商业模式的根本性重塑。

未来的智能可穿戴设备,必须将“隐私设计”从一句营销口号,真正内化为产品架构的第一性原理,比如:

默认隐私,而非默认采集。 核心AI功能应尽可能在设备端本地运行。需要云端处理的数据,必须进行最小化、匿名化处理,并给予用户一键式、清晰可见、不影响核心功能的退出选项。

透明化数据流。 用户必须能清晰地看到,自己的哪些数据,在何时,因何种功能,被发送到了哪里,由谁处理。这种透明度不应存在于法律文本中,而应是产品UI的一部分。

Meta的这场风波,迫使我们去思考,在通往那个“万物智能”的未来时,我们愿意用什么来交换。如果答案是我们在卧室、在卫生间、在与家人相处时最不设防的瞬间,那么这笔交易的代价,未免过于高昂。

最终,消费者的选择、监管的利剑和行业内部的自省,将共同决定我们是走向一个被“隐私幻觉”笼罩的监控社会,还是一个技术真正以人为本、尊重个体尊严的未来。

这场关于眼镜的诉讼,审判的也许远不止是Meta。


往期推荐阅读:

  1. AI眼镜很好,但救不了Meta的元宇宙
  2. Meta的肌电腕带,正在从无障碍辅助中学习如何定义下一代人机交互
  3. Meta大涨,微软暴跌,AI投资“挣当下”和“赌未来”分歧明显
展开阅读全文

更新时间:2026-03-13

标签:科技   肯尼亚   爆料   眼镜   画面   隐私   用户   数据   智能   员工   核心   欧盟   功能

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top