你以為在點「紅綠燈」驗證身份,其實是在給AI免費打工
如果這是下一代圖形驗證碼,你怎么看?

感覺會經歷無數遍「您對 CAPTCHA 的響應似乎無效。請在下方重新驗證您不是機器人」,不知道貓主子們怎么想。
這是最近很火的一篇調侃「我不是機器人」驗證流程的帖子。視頻里顯示,用戶得用鼠標一個個點選那些灰色的「貓屎團」,拖到旁邊的垃圾桶里,最后過關后,得勾選「我不是貓」。

這個帖子的互動量爆炸,瀏覽量達到了一百多萬。
評論區里非常熱鬧,有人覺得這比識別界限模糊的紅綠燈像素好多了。

也有人聯想到美劇《人生切割術》里的數據精煉工作。

還有人開玩笑:「所以只有貓主子才是真正的人類。」

其中一個討論熱度很高:「圖像驗證是在幫 AI 訓練數據,還免費。」

幫 AI 訓練數據?這就要展開說說了。
眾所周知,不管是注冊賬號還是發帖,驗證碼都是個必不可少的東西。它的「大名」叫 CAPTCHA,全稱是「全自動區分計算機和人類的圖靈測試」。它的作用,顧名思義就是區分人和機器人,避免機器人刷屏、刷票或搞破壞。
最早,其主要形式是扭曲的文字或圖片。扭曲的程度,決定了它難不難被認出來。

但很快,一個叫 Luis von Ahn 的天才(他也是后來「多鄰國」的創始人)站了出來。他發現全球每天有數億人(現在是數十億)在戳這些驗證碼,加起來浪費的時間高達數百萬小時。這不純純浪費「人力腦循環」嗎?
于是,一個「一箭雙雕」的天才想法誕生了,它叫 reCAPTCHA。
這套系統從 v1 開始,就不是一個單純的「保安」,它是一個「大型人力眾包項目」。
系統每次會彈給你兩個扭曲的單詞,這兩個詞里,只有一個是系統知道答案的「控制詞」,用來確定你是不是人。另一個「未知詞」,才是谷歌的「私貨」——它來自某個古老的、AI OCR(光學字符識別)啃不動的掃描版圖書或報紙。

你根本不知道哪個是哪個,所以你會老老實實把兩個都填對。
結果呢?全球網民在毫不知情的情況下,用這種「無意識勞動」,硬是把《紐約時報》從 1851 年以來的全部歷史檔案,和海量的「谷歌圖書」項目,給一個詞一個詞地免費「轉錄」成了數字版。
但是,我們親手「喂」出來的 AI(谷歌的 OCR),把老師傅(v1 文本驗證)給「卷」死了。
到了 2014 年,谷歌自己都公開承認,自家 AI 破解最難的扭曲文本,準確率高達 99.8%。這背后是「卷積神經網絡」(CNN)的功勞。學術研究(如 CapNet)早已證實,這類 AI 模型破解文本驗證碼的準確率普遍達到了 98% 甚至 100%,v1 防線在技術上已徹底失效。
- 谷歌博客:https://security.googleblog.com/2014/04/street-view-and-recaptcha-technology.html
防線必須升級。于是,v2 圖像驗證來了。

這套「我不是機器人」你熟不熟悉?「選出所有汽車」、「選出所有交通信號燈」、「選出所有人行橫道」。那么問題來了,幾乎在同一時間(2014 年左右),谷歌在瘋狂「燒錢」哪個項目?
沒錯,自動駕駛(Waymo)。
一個自動駕駛 AI,最需要訓練什么?當然是識別「汽車」、「交通信號燈」、「人行橫道」和「自行車」。也就說,全球幾十億網民,在登錄、注冊、發帖時,都在免費為谷歌的自動駕駛 AI 打工。
這個「人類計算」項目有多龐大?有學者估算,在過去十幾年里,人類貢獻的這波無償勞動,總價值超過 61 億美元。
到了 2024 年,AI 終于「學成下山」,把第二個老師傅(v2 拼圖)也給「干」翻了。
瑞士蘇黎世聯邦理工學院(ETH Zurich)的研究人員提交了一篇論文,題為「Breaking reCAPTCHA v2」(攻破 reCAPTCHA v2)。他們使用先進的 YOLOv8 物體檢測模型,破解 v2 圖像挑戰的準確率達到了 100%。

- 論文地址:https://arxiv.org/abs/2409.08831
這類模型之所以如此強大,正是因為它們在海量的、已被精確標注的數據集(reCAPTCHA v2 幫忙創建的那種)上訓練出來的。
研究甚至表明,AI 解決這些難題的表現和人類「沒有顯著差異」。那你可能要問了:「既然 AI 都 100% 破解了,為啥我還在天天點那些該死的紅綠燈?」
因為,那張拼圖早就不是真正的防線了。
2024 年的這項研究同時證實了一個「公開的秘密」:reCAPTCHA v2 的真正命脈,在于對你隱私數據的分析。
還記得那個「我不是機器人」的復選框嗎?谷歌的「先進風險分析引擎」根本不在乎你是否點擊,而在乎你如何點擊。它在后臺瘋狂「視奸」你的:
- 鼠標軌跡:你的移動是平滑中帶點「人氣」的抖動,還是機器人的完美直線或瞬移。
- 點擊位置:你是點在方框中間,還是不偏不倚的正中心(機器人行為)。
- 瀏覽器指紋:你的屏幕分辨率、插件、字體……
- 谷歌 Cookie:這才是「大殺器」。一個長期登錄谷歌賬戶、瀏覽記錄「清白」的用戶,遠比一個剛清除 Cookie 或開著 VPN 的用戶「更像人」。
這場攻防戰在學術界早已白熱化。
進攻方(AI 攻擊):攻擊者面臨一個「先有雞還是先有蛋」的問題:你需要一個 AI 求解器來自動收集海量樣本,但你又需要海量樣本來訓練這個求解器。
答案是「生成對抗網絡」(GAN)。研究指出,攻擊者只需少量(例如 500 個)真實樣本,就能訓練一個 GAN。這個 GAN 的「生成器」會偽造新的驗證碼,而「判別器」則學習破解它們。這個過程可以無限地生成合成的訓練數據,AI 攻擊者的「軍火庫」就此建成了。
防守方(v3 轉向):既然拼圖守不住,防線就全面轉向了 reCAPTCHA v3。它的學術術語叫「行為生物識別」(Behavioral Biometrics)。這才是 v3 的核心。
reCAPTCHA v3 徹底隱形,會在你訪問的所有頁面上運行,像個監工一樣默默觀察你的所有行為(鼠標、滾動、鍵盤節奏),然后給你打一個 0.0(機器人)到 1.0(人類)的「可信度分數」。
這個轉向的代價是巨大的:
- 隱私噩夢:這種大規模監控被指控為「間諜軟件」,并與 GDPR 等隱私法規嚴重沖突。
- 隱私悖論:你越是努力保護隱私(用 VPN、清 Cookie、用隱私瀏覽器),你就越拿不到「可信」數據,v3 給你的分數就越低,你就越「像個機器人」。
- 「酷刑」級難度:唯一能制裁 AI 的方法,就是把拼圖搞得巨難無比。結果,AI 沒防住,反而把視障、聽障或有閱讀障礙的用戶(Dyslexia)徹底鎖在了門外。
那么,當 v3 的「行為監控」也因隱私問題和 AI 模擬而失效時,該怎么辦呢?
還是前面那個 ETH Zurich 的研究團隊,提出了一種最「黑客帝國」的方案:「對抗性 CAPTCHA」(Adversarial CAPTCHA)。

- 論文標題:Seeing Through the Mask: Rethinking Adversarial Examples for CAPTCHAs
- 論文地址:https://arxiv.org/abs/2409.05558v1
這個想法是利用 AI 的一個致命弱點:它們很容易被「對抗性樣本」欺騙。這是一種人類肉眼看來毫無意義的「噪音」圖像,但 AI(如 CNN)卻會以 99.9% 的置信度將其誤認為某個特定物體。
未來的驗證碼,可能不再是「你是否能解決人類的問題」,而是「你是否會犯 AI 才會犯的錯誤」。
所以,回到開頭的那個「鏟貓屎」驗證碼。
你以為你是在逗貓?沒準,你是在給某個「AI 鏟屎官」機器人,免費上崗前培訓呢。或者,你是在向系統證明,你不會傻到去點擊一張 AI 誤以為是「貓屎」的電視雪花點。
























