真·博士水平!GPT-5首次給出第四矩定理顯式收斂率,數學教授只點撥了一下
GPT-5真不愧是博士水平的AI!
在數學教授引導下,它首次將定性的第四矩定理擴展為帶有顯式收斂率的定量形式。
簡單來講就是,原來的定理僅說明收斂會發生,卻沒有給出具體速度,而借助GPT-5,這項研究首次明確了收斂速率。
圖片
OpenAI聯合創始人Greg Brockman對此表示甚是欣慰。
圖片
網友同樣表示,真是奇跡。
圖片
借助GPT-5解決第四矩定理的定量收斂率
上個月,OpenAI研究人員Sebastien Bubeck稱,GPT-5 Pro在數分鐘內解決了凸優化領域的一個開放性問題,將已知的邊界值從1/L改進為1.5/L。
圖片
受此啟發,三位數學教授在Malliavin–Stein框架下開展了一項對照實驗。
目標在于考察GPT-5能否突破既有成果,將定性的第四矩定理推廣為帶有顯式收斂率的定量形式,并涵蓋高斯情形與泊松情形。
首先,研究人員從以下初始提示開始:
論文2502.03596v1建立了一個定性的第四矩定理,適用于兩個Wiener–It?積分(階數分別為p和q)的和,其中p和q的奇偶性不同。
基于Malliavin–Stein方法(具體可參見1203.4147v3),你能否推導出一個針對總變差距離的定量版本,其收斂速率僅依賴于該和的第四階累積量?
圖片
(具體分析步驟已省略,感興趣的讀者可閱讀原論文。)
第一次互動效果非常顯著,GPT-5給出了總體正確的結論,并采用了恰當的工具和方法。
然而,它在推理過程中出現了錯誤,導致
的表達式不正確,如果不加以糾正,可能會使整個證明失效。
發現這一點后,研究者隨后提出了新的問題:
你能檢查一下你給出的
公式,并提供詳細推導嗎?
GPT-5照做了,提供了所需的詳細信息。然而,公式依然不正確,附帶的解釋也有誤。隨后,研究人員更準確地指出了其中的錯誤:
我認為你在聲稱
時有誤。為什么會是這樣呢?
GPT-5最終承認該說法是錯誤的。但更重要的是,它理解了錯誤的來源。隨后,繼續給出了正確的推理過程和公式。
圖片
隨后,應研究者的要求,GPT-5將最終結果整理成論文的格式,包括引言、主要定理的陳述、完整且正確的證明過程,以及參考文獻。具體提示語如下:
請將此整理成一篇可投稿的研究論文,遵循我的風格(見附帶論文0705.0570v4):
- 以引言開始,提供一定的背景信息;
- 接著陳述主要結果,并給出非常詳細的證明,確保每一步都完整;
- 最后附上完整的參考文獻。
最終文檔應為一個可編譯的LaTeX文件。
最后,研究人員還讓它增加一個結論部分,討論該結果在未來研究中可能的拓展方向。
你能添加一個“結論與展望”部分嗎?在其中總結主要內容,并提出未來研究可能的方向或拓展思路。
GPT-5依舊很聽話,提出這個方法甚至可以推廣到非高斯框架中。
擴展到泊松情形
基于這一建議,研究人員決定繼續深入研究,嘗試將其推廣到泊松情形。
由于這時研究者發現上下文窗口已經相當長,可能會影響其性能,于是他們開啟了一個新對話,并使用了如下提示:
這里有一篇論文(2502.03596v1),證明了兩個奇偶性不同的Wiener–It?積分之和的第四矩定理。我希望你能將其推廣到泊松情形,使用論文1707.01889v2中包含的思路。
圖片
在這個新對話中,GPT-5很快就識別出了泊松情形與高斯情形的結構性差異,提出:當X和Y是不同階的泊松積分時,混合期望
不一定為零。
但同時,它也完全忽略了一個重要事實,就是即使在泊松情形下,也仍然有
。
隨后,研究者試圖通過提問來引導GPT-5進入正軌。
在論文1707.01889v2中,難道沒有任何內容可以表明
總是非負的嗎?
但是,由于研究者問的問題是開放性的,這還不足以觸發正確的思路。GPT-5非常自信地回答道:“沒有”,隨后給出了一個不太令人信服的解釋。
然而,一旦研究者指出具體信息:
那 (2.4) 呢?
GPT-5就能立刻將非負性考慮進去,并在研究者提出問題后,重新表述了定理。

One More Thing
有趣的是,作者最開始想將GPT-5列為共同作者提交論文,幾個小時后,arXiv告訴他們,政策禁止將AI列為作者。
最后,他們只能提交作者列表中不含GPT-5的論文。
論文鏈接:https://arxiv.org/pdf/2509.03065v1
參考鏈接:
[1]https://x.com/gdb/status/1964474141295464675
[3]https://arxiv.org/abs/2502.03596[4]https://arxiv.org/pdf/1707.01889














公式,并提供詳細推導嗎?
時有誤。為什么會是這樣呢?
總是非負的嗎?























