AI頂會ICLR最嚴新規:濫用AI的作者和審稿人,論文一律拒稿!
如果說以前的學術造假是小作坊式的手工偽造,那么在如今,我們面對的則是一場工業化流水線式的「垃圾生成運動」。
本周,作為全球深度學習領域的頂級會議,ICLR(國際學習表征會議)終于不再忍耐。

https://blog.iclr.cc/2025/11/19/iclr-2026-response-to-llm-generated-papers-and-reviews/
在一份言辭激烈的公開聲明中,ICLR 2026程序主席團宣布了一項嚴厲的整改措施:對于任何未披露的大模型(LLM)輔助撰寫的論文,一經發現不僅會被直接拒稿(Desk Reject),涉事評審甚至可能面臨自己論文也被連坐拒稿的嚴厲懲罰。

這像是一場為了挽救學術信任體系而發動的「衛國戰爭」。
硅基噪音的洪流
濫用AI直接生成論文,已經成了一個越來越普遍的問題,甚至蔓延到ICLR,引發學術圈的廣泛批評。



學術界陷入了一種荒誕的「AI閉環」:AI寫的論文,被投遞給會議,然后分配給本來應該由人類擔任、實際卻在用AI偷懶的評審。
拓展閱讀:AI寫論文,AI評閱!AI頂會ICLR完成「AI閉環」,1/5審稿意見純AI給出
機器在評價機器,生成的噪音再評價生成的噪音,而人類研究員則淹沒在這場沒有任何意義的比特洪流中。
根據ICLR發布的最新公告,這種混亂終于觸碰了紅線。
程序主席團明確指出,過去幾天內,社區內對LLM生成的低質量論文和「注水評審」的擔憂已達頂峰。
作為回應,組委會決定在未來兩周內展開一輪殘酷的清洗行動。
核心原則非常簡單:你可以用AI,但你必須承認,并且你必須為它的胡言亂語負責。

「幻覺」即是違規
在這次的整改中,最引人注目的莫過于對AI幻覺定性。
以前,引用不存在的文獻可能被視為粗心;
現在,這被ICLR明確定義為違反道德準則。
官方聲明中寫道:「大量或草率地使用LLM往往會導致虛假聲明、結果歪曲或內容幻覺。」

這直接針對的是那些「幽靈論文」。
這些論文看起來結構完美、邏輯通順,但當你去核查其引用列表時,會發現那些看起來煞有介事的「Smith et al., 2024」根本就不存在。
這是在偽造現實。
ICLR表示,他們將利用最新的 LLM 檢測工具對所有提交進行分流。
雖然考慮到檢測工具存在「假陽性」的風險,最終的生殺大權仍掌握在領域主席(AC)和高級領域主席(SAC)等人類手中,但一旦被確認存在上述問題,論文將被直接「斬立決」。

評審者的「相互保證毀滅」
如果說對作者的懲罰還在意料之中,那么對評審人的新規則簡直稱得上是「核威懾」。
在過去的評審周期中,無數作者抱怨收到了充滿「通用廢話」的評審意見——不僅毫無實質內容,甚至還會出現「作為一個語言模型」這樣的穿幫。
ICLR此次祭出了殺手锏:如果評審人使用AI生成了包含虛假信息或幻覺引用的低質量評審,這同樣被視為違反道德準則。作為懲罰,這些失職的評審人,其自己投稿的論文也可能面臨被拒稿的命運。

這是一種精妙的博弈設計。
在學術圈,沒有什么比自己的心血被拒更令人痛心的了。
組委會實際上是在告訴所有人:如果你試圖用AI來敷衍別人的工作,那么你自己的工作也將付出代價。
這是一種學術界的「相互保證毀滅(MAD)」。
幽靈分身與學術垃圾郵件
除了內容質量,ICLR還點名了另一種日益猖獗的亂象——「雙重投稿變體」。
借助LLM強大的改寫能力,一些投機取巧的作者將同一篇論文改寫成多個「克隆版本」,稍作修改后同時投遞,試圖用「廣撒網」騙取錄用。
這種行為被定性為向會議「發送垃圾郵件(spam)」。
對此,ICLR正在制定更嚴厲的懲罰措施,具體細節將在后續公布。

最后的防線
在這場人與機器的拉鋸戰中,我們看到的是學術界維護「真實」所付出的巨大代價。
ICLR 感謝了社區進行的「大規模元分析」(meta-analyses)——正是這些由熱心研究者自發進行的偵探工作,揭開了學術注水的冰山一角。

盡管有了檢測工具,但最終的防線依然是領域主席們(ACs)疲憊的雙眼。
正如公告所言,未來一兩周將是行動的關鍵期,他們將在論壇的討論中搜尋那些不負責任的幽靈。
這或許是計算科學史上最諷刺的一幕:我們發明了最強大的智能工具,卻被迫花費數倍的精力,去證明我們沒有在使用它。



































