剛剛,GPT-5 Pro自證全新數(shù)學定理!OpenAI總裁直呼顛覆,大佬們集體轉(zhuǎn)發(fā)
AI真的能解決人類的前沿問題嗎?
比如類似龐加萊猜想、求解麥克斯韋方程、費馬大定理、黎曼猜想等問題。
今天這個問題有了答案。
AI還真的可以!完全獨立,不參考人類已有的任何方法。
昨晚,GPT-5 Pro可以從零開始完全求解一個復雜的數(shù)學問題。

并且再次強調(diào),它沒有使用任何人類此前的證明方法。
而它的答案比論文中的求解方法都要好。

不過值得人類慶幸的是,論文作者后面又提供了全新的方法超過了AI。
Sebastien Bubeck是OpenAI的研究工程師,此前曾擔任微軟人工智能副總裁兼杰出科學家。
他把一篇論文直接扔給了GPT-5 Pro。
這篇論文研究了一個非常自然的問題:在光滑凸優(yōu)化中,梯度下降法的步長η滿足什么條件時,迭代點所對應的函數(shù)值形成的曲線是凸的?

論文地址:https://arxiv.org/pdf/2503.10138v1
在論文的v1版本中,他們證明了如果η小于1/L(L為光滑度),則可以得到此屬性。
如果η大于1.75/L,作者他們就構(gòu)造了一個反例。
因此,未解決的問題是:在區(qū)間[1/L,1.75/L]內(nèi)會發(fā)生什么情況。
首先,簡單解釋下這個問題。
梯度下降就像下山,每一步要選一個步長η。L可以理解成地形的「彎曲程度」(越大越陡/越敏感)。

論文不只關心「會不會往下走」(單調(diào)下降),還關心下降的軌跡是不是「凸」的:也就是每一步的進步幅度不會忽大忽小,不會「前面像平臺、后面突然跳崖」。
這對何時停下來很有用——凸就表示越來越平穩(wěn),不會突然又大降。

Sebastien用GPT-5 Pro去攻這個未解決區(qū)間,模型把已知下限從1/L推進到1.5/L。
以下是GPT-5 Pro給出的證明。
雖然初看不明覺厲,但整體證明過程看起來非常優(yōu)雅。

本來這個發(fā)現(xiàn)讓Sebastien興奮了好一陣,甚至想要直接發(fā)一篇arXiv論文。
但是,人類還是比AI快了一步。
論文原作者很快發(fā)了v2版本,徹底收尾,他們將閾值改寫1.75/L。
Sebastien認為這個發(fā)現(xiàn)依然非常令人鼓舞,為什么?AI不是并沒有打敗人類嗎?
因為GPT-5 Pro在證明中,它試圖證明的是1.5/L而不是1.75/L,這也表明GPT-5 Pro并沒有直接去搜索v2版本。
另外,上述證明與v2的證明也非常不同,它更像是v1證明的一種演進。
這么看,現(xiàn)在的AI能力,不僅僅是博士級,很多時候都超過博士了。
這個發(fā)現(xiàn)也讓很多大佬們表示,AI下一個可能改變和影響的就是數(shù)學領域。
在AI的幫助下,人類知識的邊界將會再次被拓寬。

OpenAI的總裁Greg Brockman甚至表示這可能是AI在數(shù)學領域展現(xiàn)生命力的一種跡象。

此外,這次發(fā)現(xiàn)也和之前OpenAI官宣自己拿下IMO和IOI金牌不同。
這次攻破數(shù)學題的模型,就是面向用戶的GPT-5 Pro版本,而不是內(nèi)部推理模型。

Sebastien表示這個結(jié)論是經(jīng)過自己25分鐘驗證。
作為前微軟人工智能副總裁兼杰出科學家,他的證明應該沒問題,看來AI確實實際證明了該數(shù)學問題。

GPT-5發(fā)布后雖然毀譽參半。
但是,GPT-5 Pro是真的達到,甚至超過了奧特曼所說的「博士級」AI。
雖然這次解決的問題還沒有超過人類,但這種完全自主、自發(fā)現(xiàn)的能力苗頭還是彰示了AI的能力。
這讓我想起了流浪地球里的MOSS,也是自發(fā)現(xiàn)、自組織、自編程的AI。
Sebastien是一個很厲害的人。
他目前在OpenAI從事人工智能相關的工作。

在此之前,Sebastien曾擔任微軟的副總裁兼首席科學家,在微軟研究院工作了10年(最初加入理論研究組)。
Sebastien還在普林斯頓大學擔任了3年的助理教授。
在Sebastien的職業(yè)生涯的前15年里,他主要研究凸優(yōu)化、在線算法以及機器學習中的對抗魯棒性。
因這些研究工作多次獲得最佳論文獎(包括STOC2023、NeurIPS2018和2021最佳論文獎、與微軟研究院實習生合作獲得的ALT2018和2023最佳學生論文獎、COLT2016最佳論文獎以及COLT2009最佳學生論文獎)。
他現(xiàn)在更加關注于理解智能是如何在大語言模型中涌現(xiàn)的,以及如何利用這種理解來提升大語言模型的智能水平,可能最終實現(xiàn)通用人工智能(AGI)。
Sebastien們將這種方法稱為「AGI物理學」,因為他試圖從不同的尺度(參數(shù)、神經(jīng)元、神經(jīng)元組、層、數(shù)據(jù)課程等)揭示AI系統(tǒng)各部分如何協(xié)同工作,從而產(chǎn)生這些模型驚人且出人意料的行為。
看起來,像Sebastien這樣的數(shù)學家、科學家們正在致力于嘗試破解大模型的黑箱之謎。
希望AI在拓展人類認知邊界的同時,人類也能破解大模型的秘密。





































