
本文仅在今日头条发布,请勿转载
最近的 AI 眼镜越来越多,前两天,曾经最早发布 Google Glass 的谷歌也再次发布了 AI 眼镜,加入到这一波新的 AI 硬件竞争中来。可以肯定的说,明年会有更多的 AI 眼镜上市,也会有越来越多的人会带着 AI 眼镜出门。
最近的一个略显八卦的新闻,让我觉得很有意思,跟 AI 眼镜直接相关,也引发我的思考,在这里跟你分享一下。

AI 眼镜越来越多了
事情并不复杂。纽约地铁上,一位男生戴着 Meta 的 Ray-Ban 智能眼镜拍视频,后来他在 TikTok 上发视频,说一名女性把他的眼镜徒手掰断,这是“袭击”,自己已经报警,立案为轻罪,还在视频里请求网友“帮忙找到她”。
与此同时,这位女生的侧脸照和监控画面被转发到 X 上,配文是那句很火的评价:“Imagine being this based”(想象一下这么刚!)。大量评论站在女生一边,把她当作“反 AI 斗士”“隐私守护者”,觉得她做了很多人只敢想不敢做的事。
从法律上看,这件事很可能是男生“站得住脚”的一方:他在公共场合使用合法产品拍视频,设备被人当场掰断,构成对财产的破坏甚至人身攻击,这在大多数法域都不好洗。
不过,从情绪和舆论上看,站在女生一边的人远远更多,甚至有人用“民间义士”“Butlerian Jihad 领袖”这种半开玩笑半认真的说法来形容她。
这恰恰暴露了智能眼镜商业化里一个很大的“默认前提”:只要法律没明确禁止,只要产品完成了合规流程,只要平台规则允许,佩戴者就可以随时随地拍,路人只要老老实实待在“公共空间”,就自动丧失了谈判空间。
以前我们说“公共场合没有隐私”,说的是一种低分辨率、一次性的“被看见”:你走过地铁站,被人看一眼就过去了;安保摄像头拍到你,通常只在极少数场景下会被调取。
现在的问题是,“被看见”已经变成一种高维度的数据事件:被记录下来,被上传,被剪辑,被算法放大,被搜索引擎索引,被人脸识别和反向检索,甚至被当成大模型训练数据的一部分。
Meta 智能眼镜本身就支持低抬手、半隐蔽的拍摄,而且有开发者证明,可以在此基础上叠加软件,抓取画面中路人的身份信息、社交账号、联系方式等敏感数据。
从这个角度看,那位女生的愤怒就不只是“讨厌被拍”,而是直觉上意识到:自己正在成为某个数据系统里的一部分,却既没有收到告知,也没有被赋予拒绝权。她出手砸的是眼镜,但对很多旁观者来说,她砸的是一种让人窒息的无力感。

地铁里这位男子的 AI 眼镜被摔坏引发很多讨论,这位女子获得更多的支持
智能眼镜厂商在商业设计上,实际上是把三件事打包在了一起:第一,把摄像头从手里搬到脸上;第二,让拍摄变得更隐蔽、更无摩擦;第三,把“拍到的东西”往社交平台、云端和 AI 系统里送。
这三件事,对产品经理来说是完整的商业闭环:戴得越多,拍得越多,云端越有价值,平台越有内容,生态越有粘性,长期还可以做广告、搜索、订阅、数字人等增值服务。
但对被拍的路人来说,这三件事叠加起来,就像是“移动的监控终端”,而不是一件中性的消费电子产品。
这个叙事里,路人几乎是隐形的:他们既不是用户,也不是客户,更不是“被设计的对象”,他们只是画面背景,只是被自动扫过的像素点。可现实世界里,路人是有情绪、有恐惧、有过往经验的人,尤其是女性,在地铁、公交、夜路这样的空间里,本来就承受更多不确定的风险。
当“陌生男性 + 隐蔽摄像头 + 近距离拍摄”组合在一起,很多人的警报是自动拉响的。这也是为什么同样是“砸设备”,在这个案例里会被大量人解读为一种象征性的“反监控行动”。
很多人心里明白,严格从法律逻辑看,女生未必是“正义的一方”;但在一种更粗糙的社会情绪里,她完成了对“移动监控终端”的第一次具象化反抗——它当然不值得鼓励,却特别能说明问题:当产品和制度不给人留出体面的拒绝空间,人就会用不体面的方式画线。
从商业逻辑上看,这其实是对智能眼镜厂商的一个重要提醒:你可以把产品卖给消费者,但你无法强迫整个社会为这些产品的外部性买单。
从这个意义上说,如果智能眼镜想真正成为主流消费品,而不是停留在“小圈子玩具”,就必须主动重写自己的“默认前提”。
第一,技术层面的默认设置需要调转方向。现在的默认往往是“只要你按下按钮,一切都可以拍,一切都可以存,一切都可以传”,隐私保护是通过设置菜单、额外说明、用户教育来补丁式地加上去。
如果换个逻辑,把默认设成“对旁观者更友好”:录制时有明显而不可遮挡的提示灯,有清晰可感知的声音提醒,公共场所自动限制长时间连续拍摄和远距离人脸特写,对上传云端、开启 AI 分析有更高的交互门槛,那么社会的容忍度可能会高很多。这种设计不一定会立刻带来营收,却是在为商业的长期合法性买保险。
第二,平台规则需要承认“被拍者”的存在。像这次事件,男生不仅拍视频,还在社交平台上请求网友帮忙“找到她”。从平台视角看,这很容易演变成人肉搜索、线上群体攻击甚至线下滋扰。
很多平台对“公开寻人”“引导网暴”都有规则,但在“智能眼镜 + 路人”的新场景下,这些规则显然需要更具体的解释和执行。平台如果总是默认站在“内容生产者”一边,长远看会削弱普通人对公共空间的安全感,也会反过来伤害平台自己的信任度。
第三,监管要从“相机时代”的隐私框架,升级到“可穿戴 + AI 时代”的框架。传统隐私规则,很多是围绕长时间追踪、定位、通信内容监听等来设计的,而智能眼镜带来的,是大规模非对称的视觉采集。

AI 眼镜确实带来了公共空间隐私权的新争议
未来的规则设计,可能需要更清楚地区分“个人记忆用途”和“平台传播用途”、“本地即时处理”和“云端长期存储”、“低分辨率泛记录”和“高分辨率人脸识别”,并给出相应的权利边界和救济渠道。
最后,回到那位女生身上。她的行为,放在法律上,很可能会被认定为不当甚至违法;放在社会情绪上,却被很多人视为一种本能的自我防卫。所以,智能眼镜这门生意,迟早要面对一个简单的问题:你是只考虑佩戴者的爽感,还是愿意为“所有出现在镜头里的人”一起设计?
如果答案一直停留在前者,那么“砸眼镜”这类极端事件,大概率不会是最后一次。
如果你遇到这样的情况,有人用 AI 眼镜录制你在公共生活空间里的视频,你会有什么样的反应?
更新时间:2025-12-12
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号