GPT-5為量子計算提供關鍵思路!大牛盛贊:不到半小時給出“靈魂一擊”
GPT-5還是被低估了??
難如量子復雜性理論,它也能在不到半小時內給出關鍵證明思路。
消息來自量子計算理論大牛Scott Aaronson的一篇博客,他在當中無限感慨道:
如果是一個學生把它(GPT-5提供的思路)交給我,我會說他很聰明。
而且通過對比一年前使用GPT的相似經歷,Scott直言:
之前的結果遠不如現在……在2025年9月,我可以憑經驗告訴大家,AI終于攻克了最具人類特質的人類智力活動,即證明量子復雜度類之間的預言分離。

所以,到底是什么樣的問題被GPT-5給出了“靈魂一擊”?
來看Scott講述的完整事件經過——
GPT-5不到半小時給出關鍵思路
大約幾天前,Scott和另一位伙伴Freek Witteveen (來自荷蘭數學和計算機科學研究學會)發表了一篇論文。
標題為《Limits to black-box amplification in QMA》,主要研究在量子復雜度類QMA中黑盒放大技術的局限性。

要想稍微搞懂這項研究,我們就不得不先了解啥是QMA(Quantum Merlin Arthur)?
打個比方,想象你是一個名叫Arthur的偵探,正在調查一個復雜案件。你有一個非常聰明的助手Merlin,他可以給你提供一些線索或證據來幫助你解決案件。
但是,你不能完全信任這個助手,因為他也可能犯錯。所以,你需要驗證這些線索或證據是否真的有用。
而在量子計算中,QMA類就是描述這種“驗證”過程的。具體來說:
- Merlin(提供證據):一個量子計算機,它可以生成一些量子狀態(可以理解為“量子證據”)。這些量子狀態可能非常復雜,包含了大量信息。
- Arthur(驗證證據):一個普通的量子計算機,它需要驗證Merlin提供的量子狀態是否真的能證明某個問題的解。Arthur可以通過一些量子算法來檢查這些量子狀態,看看它們是否符合預期。
如果答案為“是”,那么Merlin可以提供一個量子狀態,讓Arthur以高概率(如至少2/3)接受這個答案;如果答案為“否”,那么無論Merlin提供什么量子狀態,Arthur接受的概率都很低(如最多1/3)。
QMA的一個長期懸而未決的問題是:是否可以將完備性誤差從2/3提高到1?
換句話說,是否存在一種方法,使得如果答案為“是”,Arthur可以100%接受這個答案,而不是只有2/3的概率?
圖片
2008年,Scott通過構造一個量子預言機,證明了QMA ≠ QMA?(完備性誤差為1)在該模型下成立。
這意味著,至少在某些情況下,你不能總是找到一個100%可靠的助手Merlin。
直到最近,Freek Witteveen和Stacey Jeffery有了一項重磅發現:
他們在一篇名為《QMA = QMA1 with an infinite counter》的論文中指出,任意QMA協議都可以通過黑盒放大,使得完備性誤差變為雙指數小。
打個比方,普通放大就像把錯誤率從10%壓到1%,再壓到0.01%;而他們的方法能直接壓到0.00000000000000000001這種程度。
圖片
在此基礎上,Scott和Freek進一步證明:這個雙指數放大就是黑盒方法的極限。
具體證明過程這里就不再展開,我們唯一需要了解的就是:GPT-5在這個過程中起了很大作用。
在證明主要結果時,一個關鍵技術步驟實際上來自于GPT5-Thinking。
當時二人需要分析一個Hermitian矩陣的最大特征值如何隨著參數變化。如果時間充裕(能有一兩周),二人完全能自己解決這個問題。
但當Scott把問題拋給GPT-5后,5分鐘后它就自信滿滿地給出了一個答案,不過Scott一眼就發現這個答案是錯的。
隨后Scott耐心告訴GPT-5錯在哪,于是它又不斷改進。
終于,經過一人一AI數次溝通,在不到半小時內,GPT-5給出了讓Scott眼前一亮的答案:
這正是我們需要的關鍵突破口。后來我們驗證它完全正確,于是把它寫進了論文。
圖片
Anyway,雖然還寫不出整篇嚴謹的論文,但如果研究者方向清晰,GPT-5可以在關鍵卡住時給出突破思路。
在Scott看來,這就是當前人和AI協作的“甜蜜時刻”。
網友們也表示,如果GPT-5現在正在共同撰寫量子證明,那么游戲規則真的改變了。
圖片
One More Thing
不過嘛,GPT-5再厲害也擋不住OpenAI“偷換模型”的騷操作啊(doge)。
就在最近,有不少開發者和用戶發現,ChatGPT在未征得用戶同意的情況下,竟悄悄把付費版本的GPT-4、GPT-5 模型“降級”為新的低算力模型(如gpt-5-chat-safety)。
這下大家伙紛紛不干了,眼見事態迅速發酵,OpenAI高管也不得不出來回應:
這種切換屬于“安全路由測試”,目的是在用戶對話觸及敏感、情緒化話題時,路由到更“嚴謹”的模型進行處理。
而且他聲稱目前該行為是臨時性的,未來ChatGPT在詢問時仍會向用戶說明所用模型。
圖片
BTW,你覺得GPT-5好用嗎?GPT-5是否被人們低估了呢?
參考鏈接:
[1]https://x.com/SebastienBubeck/status/1972368891239375078
[2]https://scottaaronson.blog/?p=9183&fbclid=Iwb21leANGXI1leHRuA2FlbQIxMQABHhhc-brYxsroE9QSWVS64u9EhPyULyGu340pc2Kz390HXvqRiIqT5z97eovH_aem_u5H_DiLrxt3onieDqzm7cw
[3]https://x.com/slow_developer/status/1972413507841700331
[4]https://x.com/nickaturley/status/1972031684913799355































