Meta已變,LeCun想走:審查加碼后,科學家被流程困住
近日,科技媒體 《The Information》爆出消息:Meta 首席 AI 科學家 Yann LeCun在 9 月份曾認真考慮辭職。
報道稱,六位知情人士 指出 LeCun 對公司近月收緊研究審查政策感到挫敗,因而動念離開。
圖片
截至目前,LeCun 未在公開場合確認自己曾提交或準備辭呈;他在 LinkedIn 與 Threads 上僅強調“仍領導 FAIR,無離職計劃”。
圖片
不過,據其近期內部演講錄音與社交媒體留言,LeCun 對審查流程延長有所擔憂,批評“研究節奏被拖慢、決策自由受限”。
爭議集中于 Meta 在 FAIR(Fundamental AI Research)部門推行的新發布流程:
- 所有論文、代碼、模型、數據集 對外公開前,須通過額外的法律、安全與政策評估,最終由更高層管理者簽核。
- 流程較過往更長、評估維度更復雜,研究者已無法單獨決定公開時機與方式。
多名受訪研究者(匿名)向 The Information 表示焦慮:“寫論文時,不只是科學問題,還要考慮法律、商業與政治因素?!闭窃谶@種氛圍下,LeCun 的“考慮離職”被外界視作內部張力的集中信號。
制度重塑:從 FAIR 到 MSL 的力量重排
要理解這場沖突,須回到 Meta 今夏的 AI 組織調整。Meta 在 2025 年 6 月 30 日 啟動組建 Meta Superintelligence Labs(MSL),并于 7 月 25 日 正式宣布任命 趙晟佳(Shengjia Zhao) 為該實驗室首席科學家,直接向馬克·扎克伯格匯報,專攻“超級智能”方向。
LeCun 繼續掌舵 FAIR,聚焦長期基礎研究;表面看是并行架構,實則資源與決策重心更傾斜至產品化一端:MSL 擁有相對直接的預算、清晰的近期目標與更緊湊的里程碑;FAIR 則必須適應逐層遞進的審查流程。
多名員工形容,這是從“實驗室邏輯”向“企業邏輯”的轉向。Meta 管理層公開表示,加強內審 是在大模型商業化時代“必要的風險控制”:一篇論文或一段代碼都可能帶來品牌與安全風險,需要更嚴謹的合規屏障。
副作用同樣顯現:若論文因審查錯過頂會截稿,或研究成果發布節奏落后于行業,團隊士氣與信任感都會受挫。這些張力被媒體聚焦為“LeCun 考慮離職”的幕后推力。
Business Insider指出:LeCun 的職位并未被取代,他仍領導 FAIR;趙晟佳負責 MSL,兩者分工不同、并無直接沖突。但外界往往將二者對比為:“開放科學”與“戰略攻堅”的象征性分野。
技術分歧與理念沖突:從 LLM 到“世界模型”
沖突不僅是組織再造,更折射技術路線分歧。LeCun 長期主張:大語言模型(LLM)并非通向通用智能的終點。他倡導構建能理解物理世界、具備推理與規劃能力的“世界模型”,并公開指出 LLM“主要在預測文本,而非真正理解世界”。
而 Meta 的近期商業重心顯然是快速迭代 Llama 系列 及其強化版本,這些模型短期可落地、能服務產品,也方便向市場與監管交代。在公司層面,短期見效的 LLM 路線優先級自然高于漫長而不確定的“世界模型”探索。
FAIR-MSL 雙軌結構,某種程度上映射了兩條技術路徑:FAIR:面向長期科學突破;MSL:聚焦短期商業成果與安全落地。
此外,Meta 并非孤例。OpenAI、Google DeepMind、Anthropic 等機構也在 收緊論文公開與代碼開源 的節奏。
Yann LeCun 并未正式宣布離職,但“考慮離開”的報道本身足以激起行業震動。





























