最后通牒!Claude聊天/代碼「默認」全喂AI訓練,你的隱私能被用5年
近日,Anthropic的一項關于消費者條款的更新政策,把網友惹怒了。

在這次條款更新中,Anthropic一改往日堅決不使用用戶數據來訓練模型的承諾,讓現有用戶二選一:是否接受自己的數據被用于模型訓練。

表面上,Anthropic是把「選擇權」交給了用戶,但只留了一個月的期限。
Claude的新用戶,自然是要在注冊時做出選擇的;現有用戶,必須在9月28日前作出決定:
- 9月28日之前,如選擇接受便立刻生效。這些更新僅適用于新的或重新開始的聊天和編程會話。
- 9月28日之后,必須在模型訓練設置中做出選擇,才能繼續使用 Claude。
此外,該條款的另一項變更是:
- 如果用戶選擇將數據用于模型訓練,數據保留期將被延長到5年。用戶刪除與Claude的對話時,該對話將不會用于未來的模型訓練;
- 如果用戶未選擇加入模型訓練,公司現行的30天數據保留期仍然適用。
這里所說的消費級用戶,是指所有使用Claude免費版、專業版和Max版,包括Claude Code的用戶。
而使用Claude Gov、Claude for Work、Claude for Education,或通過API接入的商業客戶則不受影響。
對于Anthropic的這種做法,網友們紛紛怒斥離譜!

不僅是政策,就連界面的UI,也被設計成了那種一不小心就會上套的類型。

這種所謂的「文字游戲」,早年間在電腦上裝過軟件的朋友,想必都不會陌生。

而且,Anthropic的奇葩操作還不止這些。
網友「Ahmad」就在自己的推文里,盤點了一波Anthropic迄今為止的「背刺」行為:
- 所有對話和代碼都保留5年,而且全部要拿去訓練模型
- 白天偷偷給用戶換成1.58 bit的「縮水版」量化模型
- Plus會員在Claude Code里用不了最強的Opus 4模型
- 6周前,Max套餐的用量限制被直接砍半,而且沒有任何通知
- 每周的用量限制到底是多少,從來不說具體數字
- 宣傳的5倍/20倍用量套餐,實際給的量只有Plus套餐的3倍/8倍
- 胡亂發DMCA通知,下架了許多跟Claude Code相關的代碼倉庫,我自己的一個項目也因此遭殃
- Windsurf用戶無法使用Claude 4
- 切斷了對OpenAI API的訪問權限

用戶數據,是大廠「金礦」
在Anthropic那篇關于此次政策更新的博客中, 它將變化包裝成用戶具有選擇權的樣子,聲稱:
用戶如果不選擇退出,將幫助我們提升模型安全性,使我們檢測有害內容的系統更準確,并減少標記無害對話的可能性。
而且,這些接受了新政策的用戶,用Anthropic的話說:
這將幫助未來的Claude模型提升編碼、分析和推理等技能,最終為所有用戶帶來更好的模型。
這套冠冕堂皇的說辭背后,真相遠非如此簡單。

而且,從整個行業看,Anthropic的此次消費者條款更新,也并非孤例。
大模型只有在接受更多真實用戶數據訓練后,才會變得更聰明。因此,各家大模型公司,也總是在如何爭取用戶數據,以改進其模型上大傷腦筋。
比如,谷歌最近也做了類似調整,將「Gemini Apps Activity」重命名為「Keep Activity」。谷歌稱,當該設置開啟時,自9月2日起,用戶的部分上傳樣本將用于「幫助為所有人改進谷歌服務」。

和谷歌、OpenAI等所有其他大模型公司一樣,Anthropic對數據的渴求,同樣也遠勝于它對于維護用戶品牌好感度的需求。
能夠訪問數百萬次Claude用戶的交互,能為Anthropic提供更多來自真實編程場景的語料,從而提升其大模型相對于OpenAI、谷歌等競爭對手的優勢地位。
所以,不難想象,Anthropic此次條款更新的真實用意,恐怕還是直指用戶數據背后的「金礦」。
Anthropic「背刺」惹眾怒
以往,Anthropic對用戶最大的一個吸引力,在于它承諾對消費者數據隱私的嚴格重視。
從Claude上線之初,Anthropic就堅決表示不使用用戶數據來訓練模型。
此前,Anthropic的消費級產品的用戶被告知,他們的提示詞和對話內容會在30天內從公司后端自動刪除——除非「法律或政策要求保留更長時間」,或者其輸入內容被標記為違規(在這種情況下,用戶的輸入和輸出最多可能被保留兩年)。
而現在,Anthropic要求新用戶和現有用戶,必須在是否同意其使用他們的數據訓練模型上,做出選擇。
而且還規定現有用戶必須在一個月內作出決定。此外,還把用戶數據的保留期,延長到了5年。
這些可能被用來訓練模型的用戶數據包括:
整個相關對話,以及任何內容、自定義風格或會話偏好,以及使用Claude for Chrome時收集的數據。
這些數據,不包括來自連接器(例如Google Drive)的原始內容,或遠程和本地MCP服務器,但如果它們是被直接復制到你與Claude的對話中,則可能會被包含。
誰來保護用戶隱私?
這些大廠在「悄悄」改變政策,誰來保護用戶隱私?
它們不斷變化的政策,也為用戶帶來了巨大的困惑。
而且,這些公司在政策更新時,也似乎會刻意淡化這一點。

以Anthropic的這次更新界面為例。
現有用戶在面臨政策更新彈窗時,首先映入眼簾的是一行大號字體標題——「消費者條款和政策更新」,左側是一個顯眼的黑色「接受」按鈕,按鈕下方則是一行小字和一個更小的切換開關,用于授予訓練許可——而且這個開關默認就設置在「開啟」位置。
這種設計引發了一些普遍的擔憂:
很多用戶,很可能在沒有注意到自己同意了數據共享的情況下,就迅速點擊了「接受」。
Anthropic政策的調整,似乎也反映了整個行業在數據政策上的普遍轉變。
觀察國外AI行業,諸如Anthropic、OpenAI、谷歌這樣AI大廠,正因其數據保留的做法,而面臨日益嚴格的審視。
比如,近日,為了應對《紐約時報》的版權訴訟,OpenAI首次公開承認自5月中旬以來,一直在悄悄保存1用戶已刪除和臨時的聊天記錄。
事件曝光后,網友們都驚了:
合著那些被刪掉的ChatGPT聊天記錄,都被你存了檔,然后等著法官來查?
再回到此次Anthropic更改消費條款這件事上,背后折射出公眾對于AI隱私的日益關注和擔憂。
當「用戶數據」成為大模型競爭的關鍵性因素,如何在保持模型競爭優勢的同時,保護好用戶數據隱私,成了所有大模型廠商必須應對的一項重要挑戰。




























