人類在被大語言模型“反向圖靈測試”
2018 年,我曾在《深度學習》一書中,講述了人工智能從邏輯運算模型向類腦計算模型轉變的歷程。回想 20 世紀 80 年代深度學習算法剛被發明時,計算機性能僅及今日的百萬分之一。那時的我們無法預知,當這些算法隨著規模擴大和數據增加會具備怎樣的能力。
到 21 世紀 10 年代,深度學習在圖像識別、語音識別和語言翻譯等人工智能經典難題上取得的突破令人震撼。更讓人驚嘆的是深度學習與強化學習的完美結合。從 1992 年 TD-Gammon 在雙陸棋比賽中達到頂尖水平,到 2017 年 AlphaGo 擊敗圍棋世界冠軍,這一系列成就不禁讓我們思考:當人工智能開始在人類擅長的領域勝出時,這將給我們的未來帶來什么樣的影響?
自從 OpenAI 于 2022 年 11 月推出 ChatGPT 以來,大語言模型的突飛猛進讓世界再次震驚。人們對它的反應可謂喜憂參半:一方面為它能快速生成流暢文本而著迷,另一方面又擔憂它對就業前景和未來發展的影響。
語言作為人類最根本的能力,一直是我們判斷智力水平的關鍵標準。如今,人工智能的快速發展引發了一些人對超級智能突破的擔憂,認為這可能危及人類的生存。比爾·蓋茨、埃隆·馬斯克乃至教皇方濟各等知名人士都對此發出警示。
一點是毋庸置疑的—盡管 ChatGPT 不是人類,但大語言模型在處理和提取海量文本數據方面已經超越了人類的能力。這種仿佛來自異世界的“造訪”,在學界引發了一場爭議:大語言模型是否真正理解它們所產生的內容?我們要如何驗證一個系統是否真正具備理解能力?而對人類的理解過程本身,我們又了解多少?
圖片

你在考校大模型?其實它在反向“試探”你的智能
眾所周知,圖靈測試是檢驗人工智能模擬人類反應能力的經典方法, 而目前有趣的一點是,在實際人與大語言模型交互過程中,大語言模型似乎在進行一種更為微妙的反向圖靈測試 ,通過映射我們的反應來檢驗對話者的智能水平和提示質量。這具體表現為:
對話者的思維水平越高,提供的提示越有深度,大語言模型就能展現出越高的智能表現。當對話者表達強烈觀點時,模型也會相應地展現出更大的互動熱情。
這種映射現象可以理解為啟動效應與語言能力的協同作用。這一現象并不能說明大語言模型具備與人類相同的智能或意識,但確實展示了它在模仿人類個性特征方面的卓越能力。
大語言模型在映射用戶需求和智慧時,可能就像《哈利·波特》中的厄里斯魔鏡 [Mirror of Erised(desire)的倒寫 ]。這面魔鏡“只能映照出觀看者內心最深切、最渴望的愿望,僅此而已。然而,它既不能賦予知識,也不能揭示真相。人們可能會在鏡前虛度光陰,或是被鏡中景象迷惑,甚至因無法分辨這些景象的真實性與可能性而陷入瘋狂。”
《哈利波特與魔法石》中的厄里斯魔鏡
《哈利波特與魔法石》中的厄里斯魔鏡
通用人工智能一直是人工智能領域追求的終極目標。有趣的是,這種通用能力正在大語言模型中逐步顯現,但其實現形式與早期人工智能研究者的設想有所不同。大語言模型不僅展現出在各類語言任務中的多面性,還具備編程等跨領域能力。
特別值得注意的是,這些模型表現出了超乎預期的社交智能。鏡像假說為我們提供了一個全新的思考角度:通用智能是否首先源于人類的社交互動能力,而語言能力是在進化過程中發展出來的社交強化工具?這促使我們需要重新審視人類“通用智能”的本質和起源。這種觀點可能會對我們理解智能的本質帶來革命性的改變。
人類“智能”的標準該重寫了
2020 年 12 月 1 日,加州大學圣迭戈分校認知科學系舉辦了一場主題為“ChatGPT 真的理解語言嗎?”的教師辯論會,現場座無虛席。
反方辯手首先提出了“中文屋”的變體:一位哲學家在房間內,有人從門縫遞進寫有中文的紙條,這位哲學家按照既定算法處理后將回應遞回門外。那么,這位哲學家是否真正理解了中文?這個論證引發了諸多質疑。
在辯論中,案例被改編為“匈牙利語屋”,哲學家則被替換為大語言模型,從而推論出大語言模型并不理解匈牙利語。然而,如果我們把“匈牙利語屋”換成“匈牙利大腦”,把哲學家換成物理定律,同樣的論證邏輯依然成立。至此,辯論的水平開始走低。
在我看來,這就像一杯水,反方認為它是半空的,正方認為它是半滿的,真相應該介于兩者之間。在隨后的問答環節中,我提出語言學家普遍認為語言的表達能力源于語法,而在語法生成能力方面,大語言模型實際上比多數人更為出色。對此,反方認為語法問題并非核心所在。值得注意的是,隨著技術的不斷進步,人們對人工智能的評判標準也在不斷提高。
關于大語言模型是否具有智能的討論,最終取決于我們如何定義“智能”。
大語言模型 LaMDA 通過了阿爾卡斯設計的心智理論測試,而心智理論被認為是自我意識的重要標志之一。不過,也有不少人對此持謹慎懷疑態度。人類往往會低估其他動物的智能,僅僅因為它們無法與我們進行語言交流。這種消極偏見恰好與另一種偏見形成呼應:我們傾向于對能與我們交談的個體產生積極偏見,即便它們的實際智能水平可能并不高。
這不禁讓人思考:我們是否具備足夠的智慧來判斷智能?大語言模型問世僅有短短數年,現在就推斷它們或其后代可能達到怎樣的智能水平還為時尚早。就像會說話的狗最令人稱奇的是它能說話這一點本身,而非它所說內容的智慧程度或真實性。大語言模型即便在不夠準確的情況下也會做出自信滿滿的回應。如果我們將評判標準從理想化的人類轉向普通人,或許能得到更切實的比較結果。
專家們對大語言模型智能的認知分歧,凸顯出我們基于自然智能的傳統認知框架已難以適應當前形勢。大語言模型的出現為我們提供了一個重要契機,促使我們突破固有思維模式,超越 19 世紀心理學遺留下來的過時概念。我們需要重新審視并深化對“智能”、“理解”、“倫理”以及“人工”等核心概念的認識。
人類的智能顯然不僅限于語言能力;我們可能在某些領域與大語言模型擁有共同的智能特征,但在其他方面則存在本質差異。以創造力為例,它是自然智能的典型特征,而大語言模型也確實展現出了創造性思維的潛質。在實際對話中,如果否認大語言模型具備理解人類意圖的能力,那么它生成的許多文本內容就難以得到合理解釋。這使我們必須對“意圖”這一概念進行更深入的探討。這一概念源自心智理論,而心智理論本身也值得我們進行更細致的研究和重新思考。
問題的關鍵在于,對于大腦這樣一個復雜系統,存在著無數相互作用的神經元和內部狀態,不同的實驗探測了不同的大腦區域,實際上每個實驗研究的都是不同類型的“注意力”。對于大腦這樣的復雜動力系統,很難用“注意力”和“意識”這樣的概念來進行準確定義。
語言賦予人類獨特能力,但詞語本身具有不穩定性,這種不穩定性恰恰是它們力量的源泉。因此,我們需要更堅實的基礎來構建新的概念框架。
我們正處在一個前所未有的歷史機遇期,這與 17 世紀物理學變革時期極為相似。當時,“力”、“質量”和“能量”等概念經過數學形式化處理,從模糊的術語轉變為精確的可測量指標,由此奠定了現代物理學的基礎。在研究大語言模型的過程中,我們很可能會發現關于智能本質的新原理,就像 20 世紀物理學家揭示物理世界的基本原理一樣。正如量子力學在首次提出時違背人們的直覺認知一樣,當智能的基本原理被揭示時,可能也會呈現出違反常理的特性。
自然是否在高度進化的靈長類大腦中實現了一個類似于大語言模型的系統?通過研究大語言模型展現的語言處理能力,我們可能會發現一些關于語言智能的基本原理,這些原理或許能夠推廣到社會智能、機械智能等其他智能形式。與生物進化相比,大語言模型的發展速度要快得多。一旦相關技術基礎確立,其性能就會在持續改進中不斷提升。
這項技術最為突出的特點在于:在探索其發展的過程中,我們可能會深入理解人類智能的本質。
那么,在這樣的理念下,我們具體是怎么做的呢?
“我演算故我在”:AI的新本體論
“我思故我在”是笛卡兒哲學的核心命題。這句話常被譯為“我思考,所以我存在”,但更精確的翻譯可能是“我正在思考,因此,我必定存在”,或簡言之,“思考即存在”。
“思維”是一個難以準確界定的模糊概念。對某些人而言,思維是一連串的邏輯推理;對另一些人來說,它更像是念頭的流動;而對許多人而言,它是漂浮在“感受之海”中的內心對話。但這些描述終究只是文字游戲。若要判斷大語言模型在回答問題、創作詩歌或解決數學問題時是否真的在思考,我們需要對思維下一個明確的定義。然而,僅僅通過分析行為表現,恐怕還不足以解答這個根本性問題。
我曾在普林斯頓大學修過一門研究生哲學課程,整個學期都在探討一個問題:“語言和思維,孰先孰后?”雖然進行了一個學期的深入討論,我們卻始終無法得出確定結論。對這個問題,主要存在兩種觀點。
語言先于思維(語言決定論):這一觀點主要基于薩丕爾 - 沃爾夫假說,認為人類的思維和行為深受所使用語言的影響。在其強式表述中,該假說甚至認為語言完全決定思維:我們只能在語言允許的框架內思考。
思維先于語言(思維優先論):這種觀點認為思維獨立于語言而存在。支持者認為,人們在掌握表達語言之前就已經有了思維和想法。這種觀點經常得到認知心理學和神經語言學的支持。我們可以從兒童在獲得語言能力之前就能思考和解決問題,以及動物的認知能力等證據中看到這一點。
大多數學者認為語言與思維的關系并非單向決定,而是在復雜的互動過程中相互影響、彼此塑造。一方面,我們固然需要語言來交流和表達思想;另一方面,人類的認知能力也在不斷影響語言的演化與發展。
進一步,思維本身具有多樣性,并非所有思維活動都依賴語言。比如,視覺思維、空間思維和情感思維等形式的思維過程,往往可以不依靠語言就能完成。
思維作為一個認知過程,一直是哲學家們探討的重要議題。它涉及在心智層面對信息的處理,包括概念形成、問題解決、決策制定和反思等活動。思維活動的范圍極其廣泛,從簡單(如記憶一串電話號碼)到復雜(如設計精密機械),再到案例 GPT 5.2 中提到的眾多認知活動。
2023 年,著名語言學家諾姆·喬姆斯基就大語言模型無法實現人類真實思維的問題,提出了一個深刻的見解。
他通過一個簡單的物理現象進行了闡釋。當我們手持蘋果并松手時,會產生三個層次的認知:第一層是現象描述—“蘋果掉下來了”;第二層是預測推斷—“如果松手,蘋果必然下落”。這兩種認知雖然都有其價值和準確性,但還不構成真正的思維活動。真正的思維在于第三層:因果解釋。它不僅包含對現象的描述和預測,更涉及普遍性的反事實推理(“一切類似物體都會下落”),以及本質性的原因分析(“基于重力作用”或“源于時空曲率”)。用反事實條件來表述就是:“若無重力作用,則蘋果不會下落。”這種融合了觀察、推理和本質認知的過程,才是人類獨特的思維方式。
這段對思維某些特征的描述清晰而有說服力。不過,我們應當通過實驗數據來檢驗這一批判性觀點。事實上,正如案例 GPT 5.3的研究結果顯示,ChatGPT 已經能成功應對喬姆斯基提出的思維測試。然而,無論如何定義思維,僅憑語言都難以對其進行完整描述。考慮到思維研究的重要性,這一領域顯然不應僅局限于語言學的視角。
當前關于大語言模型是否真正“理解”其輸出內容的爭論,讓我聯想到一個世紀前關于“生命本質”的討論:生命體與非生命物質的本質區別是什么?當時的生命力論者認為,生命依賴于一種無形的“生命力”,這種力量存在于生物體內而非無生命物質中。然而,這種抽象的辯論并未推動科學進步。直到 DNA(脫氧核糖核酸)雙螺旋結構的發現,才帶來了生物學的革命性突破。
如今圍繞“智能”和“理解”的爭論,與當年關于“生命”的辯論何其相似。AGI 這一概念,某種程度上就像昔日的“生命力”說。可以預見,機器學習的進步最終可能會催生一個全新的概念框架,就像 DNA 結構之于生物學一樣,為人工智能領域帶來根本性的突破,現在是重新審視舊有概念的最佳時機。



































