圖靈獎得主LeCun最后警告Meta!我搞了40年AI,大模型是死路
Meta風向已變,Yann LeCun承認馬上離職!
據多家權威媒體報道,Meta首席AI科學家、負責「基礎AI研究」(FAIR)的Yann LeCun,預計將很快離職。
這位65歲的AI界元老,在Meta這家全球最大的科技公司之一擔任核心大腦,可以說擁有無限的資源。
Meta可謂揮金如土。它用天價薪酬瘋狂從對手那里挖角頂尖AI專家。
在7月,扎克伯格甚至宣稱「超級智能已近在眼前」。

那么,LeCun為何要離開Meta呢?只是因為Meta的人事動蕩嗎?背后有何隱情?

小扎轉向,LeCun失勢?
今年夏天,年僅28歲的Alexandr Wang成為Meta的首席AI官,讓這位初出茅廬的大語言模型狂熱者成了LeCun的上司。
此外,Meta今年還任命了另一位相對年輕的首席科學家趙晟佳(Shengjia Zhao),職位也在LeCun之上。

在官方公告中,Meta盛贊了趙晟佳在scaling方面帶來的「突破」。而LeCun恰恰對scaling失去了信心。
他還告誡博士生:「不要做LLM」。

如果你好奇為什么LeCun和Zhao都是首席科學家,那是因為Meta的AI部門組織架構相當奇特,分成了多個獨立的團隊。

媒體不斷有消息放出,Meta要對其AI組織結構動刀。
上個月,Meta超級AI實驗室裁掉了數百人,包括10年老將田淵棟。據稱,這是為了理順這種混亂的局面。
這已經是Meta在半年之內第四次調整AI業務了。

而那支曾由LeCun領導、風頭一時無兩的FAIR,如今早已風光不再。據現任與前員工透露,這個部門經歷了裁員、預算縮水,內部影響力也明顯下降。
曾幾何時,FAIR是Meta內部思想最活躍的「象牙塔」,研究人員可以探討各種AI未來路徑,甚至可以做些「未必能成」的實驗,完全不用擔心產品化問題。
而現在,Meta新組建的AI研究部門招來一大批高薪新兵,由Wang主導,目標明確:要快、要落地、要產品化。
在AI上,他領先了40年
LeCun一向走在時代前沿——
早在「機器學習」還不被主流認可時,他就開始研究這個方向。
他曾在多倫多的Geoffrey Hinton實驗室工作,那時Hinton還沒成為AI傳奇人物。
之后,他的職業生涯大多時間都在新澤西州的貝爾實驗室度過,這家機構因誕生眾多創新發明而聞名。
1947年,貝爾實驗室發明晶體管
「最讓我興奮的事情,就是和比我聰明的人共事,因為這會放大你的能力。」LeCun在2023年雜志采訪時說道。
在貝爾實驗室,LeCun曾參與開發手寫識別技術,這項技術后來被廣泛應用于銀行自動讀取支票。他還參與了一個項目,致力于將紙質文檔數字化并通過互聯網分發。
LeCun曾表示,自己從小就對物理感興趣,在貝爾實驗室期間也主要和物理學家合作,看了不少物理教材。
我學到了很多表面上與AI或計算機科學無關的東西(我本科是電氣工程,計算機方面的正規訓練其實很少)。
2003年,LeCun開始在紐約大學教授計算機科學,后來成為該校數據科學中心的創始主任。
2013年,扎克伯格親自邀請他加入Facebook(當時還未更名為Meta),組建全新的AI實驗室。
他領導這個團隊四年,2018年卸任,轉為公司首席AI科學家,以「個人研究員」身份繼續探索技術前沿。
2018年,他與Geoffrey Hinton和Yoshua Bengio共同獲得圖靈獎——計算機界的最高榮譽,以表彰三人在神經網絡方面的奠基性工作。

自那之后,LeCun就逐漸轉為「象征性人物」角色。他沒有參與Meta首個開源大語言模型Llama的研發,也早就不再參與這類項目的日常工作。
據與他共事的人透露,LeCun現在主要在做自己的研究項目,也經常出席各種技術會議,發表對AI技術的看法。
面對媒體的報道,Yann LeCun只是指出了報道中的「小錯誤」,并沒有否認即將離職的消息。

他知道自己在包括Meta在內的整個硅谷技術圈內,備受冷落。上個月在MIT的一次研討會上,65歲的LeCun直言:
這些年,我在硅谷、包括Meta的很多角落都不太受歡迎,因為我一直在說,3到5年內,世界模型將成為主流AI架構,沒人再會愿意用現在這種LLM。
但他堅信自己對AI未來的判斷。他的老朋友Léon Bottou曾告訴媒體,LeCun「倔強得可愛」——他會聽別人意見,但更有自己堅守的信念。
現在,LeCun在Meta好像「忍無可忍」,終于要離職了。
實際上,他早已多次暗示答案。
在通往通用人工智能的道路上,LeCun近來以其對大語言模型的尖銳批評而聞名。
他認為,無論科技巨頭如何擴大其規模,我們目前所理解的大語言模型都已是「強弩之末」,是一條「岔路、干擾,一條死胡同」。

他投身AI研究已有40年,對AI的判斷屢屢應驗。如今,他認為大多數人都錯了。

他為現代AI奠定了諸多基礎。而現在他堅信,領域內的大多數人都被大語言模型的「海妖之歌」引入了歧途。
這為他的離職提供了更多可能的解釋。
LeCun離開Meta,或為了世界模型
此前報道,他正在與業內同行商議創辦公司、尋找投資,組建專注世界模型的團隊。
所謂「世界模型」,類似小動物或嬰兒那樣,通過視覺等感知數據主動學習世界規律;而LLM只是依賴海量文本做預測的模型。
LeCun本人也從不避諱解釋為何他認為「世界模型」才是AI的答案。
Meta的Llama、OpenAI的GPT、谷歌的Bard這些模型,都是靠海量數據訓練出來的。LeCun估算,如果讓人去讀完它們訓練所需的所有文本,大概得花10萬年。
但人類學習的主要方式,并不是讀文本。
我們從與世界的互動中,獲取的信息要多得多。LeCun估計,一個普通的四歲小孩接觸過的數據量,是目前最大的LLM的50倍。
大部分人類知識,其實不是語言。
所以這些系統永遠不可能達到人類水平的智能——除非你徹底改掉它們的架構。
而他自己,早就準備好了替代方案。他稱之為「目標驅動的AI」(objective-driven AI)。

目標驅動的AI系統的構建宗旨,是完成人類設定的特定目標。
與僅靠純文本數據驅動不同,它們通過傳感器和視頻數據訓練來認知物理世界。

由此構建出的「世界模型」能呈現行動帶來的影響,所有潛在變化都會實時更新至系統記憶。
他為何對世界模型如此沉迷?
在年初的「巴黎AI峰會」上,Yann LeCun明確指出,他是可穿戴設備的堅定信徒。
他認為,未來,我們需要與可穿戴設備互動,就像與人交流一樣,而大語言模型根本不像人類那樣理解世界。
對于大語言模型,我們甚至無法復制貓或老鼠的智能,更不用說狗了。
這些動物能完成驚人的壯舉,它們理解物理世界。任何一只家貓都能規劃出極其復雜的行動,因為它們擁有關于世界的因果模型。

為了說明這一點,LeCun設計了一個思想實驗:「想象一個立方體懸浮在你面前的空中。好,現在讓這個立方體繞著垂直軸旋轉90度。它會是什么樣子?」
他認為任何人類都能輕松完成,而大語言模型卻無能為力:
「對人來說,在腦海中構建一個旋轉立方體的心理模型,非常容易。」

當然,大語言模型可以毫不費力地寫一首關于懸浮旋轉立方體的打油詩,但它無法真正幫助你與這個立方體互動。
LeCun斷言,這是因為文本數據與處理非文本世界所獲得的數據之間存在本質差異。
他指出,盡管大語言模型訓練所用的文本量需要一個人花45萬年才能讀完,但一個四歲的孩子在醒著的16000小時里,通過眼睛看、用手觸摸,已經處理了高達1.4x10^14字節的關于世界的感覺數據——
他認為這比大語言模型處理的數據還要多。
順便一提,這些只是LeCun在演講中給出的估算,他在其他場合也給過不同的數字。但這些數字指向的核心觀點是:大語言模型存在著局限,而LeCun相信世界模型能夠克服這些局限。
他又將如何構建世界模型?
在Meta時,LeCun其實已經開始研究世界模型——他還拍了一個介紹視頻,開頭就讓你想象一個旋轉的立方體。
在AI行動峰會的演講中,他理想中的模型包含一個對「當前世界狀態的估計」,以某種抽象形式呈現與當前情境相關的一切。它不再是按順序預測token,而是「預測在你采取一系列行動后,世界將達到的最終狀態」。
他表示,世界模型將使未來的計算機科學家能夠構建出「可以規劃行動——可能是分層級的——以實現某個目標的系統,以及能夠進行推理的系統。」

LeCun還堅稱,這類系統將擁有更強大的安全特性,因為控制它們的方式是內置的,而不是像現在這樣,面對一個神秘莫測、只會輸出文本的黑箱,只能通過微調來加以修正。
LeCun所說的經典AI——例如搜索引擎中使用的軟件——所有問題都可以歸結為優化問題。
他提出,他的世界模型將審視當前的世界狀態,并通過尋找高效的解決方案,來尋求與某個不同狀態的兼容性。
LeCun在演講中解釋道:「你需要一個能量函數來衡量不兼容性,給定一個x,找到一個對于該x能量較低的y」。
如果說,我們從LeCun的公開言論中拼湊出的「真相」很粗糙、有些模糊,甚至完全錯誤,那也完全正常。
LeCun似乎正在構想一個「登月計劃」——
他希望推動AI領域迎來又一次類似ChatGPT那樣的、誕生驚人能力的爆發式發展。
但這可能需要耗費數年——甚至永遠無法實現——更不用說數十億美元的投資了,才可能看到任何真正了不起的成果。
































