从ChatGPT到法庭,AI对话成呈堂证供?纽约时报撕开数据隐私黑幕

最近科技圈出了个大新闻,纽约时报把OpenAI给告了。

这事说起来不复杂,就是纽约时报觉得OpenAI用他们的文章训练ChatGPT,侵犯了版权。

但细究起来,这案子背后牵扯的东西可不少,尤其是用户那些跟AI的对话记录,突然成了争论的焦点。

现在谁手机里还没个AI聊天软件?不管是问天气、写文案,还是吐槽老板,咱们跟AI说的话,可能比跟朋友说的都多。

可你想过没有,这些对话最后去哪儿了?是被删了,还是被悄悄存起来了?纽约时报这一告,算是把这个藏在水下的问题给捞了上来。

从版权战到隐私困局

纽约时报起诉OpenAI是在2023年12月,当时他们说OpenAI未经允许,用了NYT上百万篇报道训练模型,ChatGPT能生成跟NYT风格相似的内容,这侵犯了版权。

本来大家以为这就是个普通的版权纠纷,没想到案子越闹越大。

到了2025年5月,纽约南区法院突然下了个数据保存令,要求OpenAI交出2000万条用户对话记录。

这下炸锅了,这些对话记录里有啥?有用户的个人信息?有商业秘密?还是有不能公开的吐槽?没人知道,但法院要调这些记录当证据,就意味着AI存的聊天记录,可能真能当"呈堂证供"。

OpenAI当然不乐意,他们辩解说,用户对话是训练模型的一部分,而且"正常使用中逐字复述极其罕见"。

意思就是,他们没把用户的话直接抄下来,不算侵权。

可纽约时报不接受这个说法,他们觉得就算不是逐字复述,AI记住了文章的结构、风格,照样是偷了东西。

案子闹到现在,最让人揪心的还是那些用户,有网友在论坛上发帖说,自己曾经跟ChatGPT吐槽过公司的财务问题,现在担心这些话被翻出来。

还有人说,自己跟AI聊过家庭矛盾,要是这些记录被公开,一家人都别想安生。

这种担心不是多余的,毕竟咱们用AI的时候,谁也没想过自己的话会被当成"证据"。

你的对话正被怎样处理?

AI到底是怎么记录咱们的对话的?我翻了翻几个主流AI软件的用户协议,发现里面的门道可不少。

有的写着"为了改进服务,我们可能保留对话数据",有的说"在符合法律要求时,会配合提供数据"。

这些话看着挺正常,可细想一下,"改进服务"的边界在哪儿?"符合法律要求"又怎么界定?

有个搞IT的朋友跟我说,AI系统捕获数据的能力远超咱们想象。

不只是你发出去的文字,连你输入时删掉的内容,可能都被记下来了。

比如你打了句"老板真傻",又觉得不妥删了,改成"老板今天有点忙",但AI可能把两句都存了。

这种"输入痕迹捕获"技术,业内早就不是秘密了,只是咱们普通用户不知道而已。

更让人无奈的是行业潜规则,很多AI公司嘴上说"隐私模式下不保存对话",但实际上呢?有测试机构做过实验,在某AI的隐私模式下聊天,然后联系客服要求删除数据,客服却说"数据已用于模型训练,无法单独删除"。

说白了,所谓的"隐私模式",可能只是让你心里踏实点,该存的还是照样存。

技术漏洞也是个大问题,去年有个健康AIapp出了漏洞,导致上万用户的对话记录泄露,里面有不少人聊的是自己的病情。

后来查出来,是因为他们号称的"端到端加密"根本没做好,数据在传输过程中被人截胡了。

现在的AI公司天天说"安全第一",可真要打起仗来,用户的数据就像没锁门的屋子,谁都能进。

老地图难寻新路

现在的法律条文面对AI技术,就像拿老地图找新路,总有点跟不上趟。

比如欧盟的GDPR,虽然号称"最严隐私法",但里面关于AI训练数据的条款,写得模棱两可。

中国的"三法一例"(《网络安全法》《数据安全法》《个人信息保护法》和《生成式人工智能服务管理暂行办法》)算是比较新的,但面对AI这种天天进化的技术,还是显得有点力不从心。

就拿"知情同意"来说吧,以前咱们用软件,点个"同意"就算完事了,但AI不一样,它拿你的对话去训练模型,这算不算"二次使用"?需不需要重新跟你打招呼?现在法律上没明确说法。

有的公司就钻这个空子,一次同意,终身使用,你的对话数据就成了他们的"永久财产"。

不过中国在隐私保护上也有自己的办法。

比如金融、医疗这些敏感领域,要求AI系统必须"私有化部署",数据不能随便传到境外。

有银行的朋友跟我说,他们用的AI客服,数据都存在自己的服务器里,连AI公司都拿不到。

这种模式虽然成本高,但至少能把数据攥在自己手里,安全多了。

未来该怎么办?我觉得得从三个方面入手,技术上,AI公司得搞"可解释AI",让用户知道自己的数据用在哪了;法律上,得赶紧更新条文,明确AI数据的权属;咱们用户自己呢,也得长点心,别什么都跟AI说,尤其是隐私的事。

毕竟,保护隐私这事儿,从来都不是单方面的,现在纽约时报和OpenAI的案子还没判,但不管结果如何,有件事已经很清楚了:AI时代,咱们的每一句话都可能被记住。

技术在进步,这是好事,但不能以牺牲隐私为代价。

希望有一天,咱们能用AI的时候,不用提心吊胆,不用担心自己的话被存起来当"证据",那才是真正的科技进步。

展开阅读全文

更新时间:2025-12-01

标签:科技   纽约时报   黑幕   法庭   隐私   数据   用户   案子   客服   公司   模型   技术   版权

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top