編輯 | 伊風(fēng)、云昭
出品 | 51CTO技術(shù)棧(微信號:blog51cto)
不知道大家有沒有發(fā)現(xiàn):今年的奧特曼,突然安靜了很多。
不像 2024 年那樣頻繁出現(xiàn)在各種技術(shù)播客、大會、訪談里,甚至好多次OpenAI新發(fā)布也不見他的身影——這位 AI 圈最活躍的“CEO 網(wǎng)紅”,仿佛一下子就開啟帶娃模式、退居幕后了。
可偏偏,在這個 AI產(chǎn)品、Agent、大模型都在飛速迭代的時間點(diǎn),我們又特別想知道他最近在想什么。
好消息是:他終于公開露面了!
在剛結(jié)束的 2025 Snowflake 峰會上,Sam Altman 作為重磅嘉賓,和 Snowflake CEO Sridhar Ramaswamy 以及 Conviction 創(chuàng)始人 Sarah Guo 進(jìn)行了一場信息密度極高的爐邊對談。
短短二十分鐘的訪談,內(nèi)容相當(dāng)凝練、有料,干貨滿滿!
比如,他給 AI 創(chuàng)業(yè)者的忠告發(fā)生了變化,今年的主題是:“馬上行動。”
對于企業(yè)采用大模型,這是奧特曼首次果斷、鮮明的表示支持。
對于所有還在等待更新的 GPT-5 模型、采取觀望態(tài)度的企業(yè)老板、團(tuán)隊(duì)主管們,奧特曼表示:與其等新模型,不如現(xiàn)在就開始。
“你會發(fā)現(xiàn),那些率先下注、快速學(xué)習(xí)的企業(yè),已經(jīng)明顯領(lǐng)先于還在觀望的同行。”奧特曼說道。
Sridhar 點(diǎn)頭稱是:“不會有一個完美時刻等你一切就緒。”
此外,奧特曼給出的第二個判斷是:是關(guān)于智能體(Agent)的。他認(rèn)為:“未來工作的基本單位,是AI Agent。”
Altman 形容,現(xiàn)在更像是你請了個AI實(shí)習(xí)生:你丟給它一個任務(wù),比如“幫我找出我們官網(wǎng)漏掉的SEO優(yōu)化點(diǎn)”,它自己去讀你的網(wǎng)站代碼、查搜索趨勢、掃你的GitHub和Slack聊天記錄,然后給你一個優(yōu)化方案草案,你只需要點(diǎn)“同意”或“再改改”。
而 Altman 表示,這個“實(shí)習(xí)生”,很快就能變成能獨(dú)立負(fù)責(zé)項(xiàng)目的工程師。 也就是說,未來的工作,可能不是“你完成10個任務(wù)”,而是“你指揮10個智能體”,再去微調(diào)它們的成果。
最后,他還透露了自己心中的“完美模型”:
“體積很小,但擁有超人級別的推理能力,運(yùn)行速度極快,有一萬億 tokens 的上下文窗口,并能訪問你能想象的所有工具。”
??下圖為現(xiàn)場截圖:
左起:Sam Altman、Sarah Guo、Sridhar Ramaswamy
以下是這場訪談的整理實(shí)錄,Enjoy:
1.模型可用性發(fā)生“質(zhì)的飛躍”,AI創(chuàng)業(yè)者必須馬上行動
主持人Sarah:我們開場就進(jìn)入正題:Sam,你會給正在應(yīng)對 AI 變革的企業(yè)領(lǐng)導(dǎo)者們什么建議?
Sam Altman:我的建議是:馬上行動。現(xiàn)在還有很多猶豫不決,模型變化太快,大家都想著“等等下一個版本”或者“看看這兩個模型誰更好”,或者“這波趨勢最終會往哪走”。
但在技術(shù)領(lǐng)域,有個通用原則是:當(dāng)技術(shù)快速迭代時,贏家往往是那些能夠迅速試錯、降低失敗成本、提升學(xué)習(xí)速度的公司。
我們目前觀察到的情況也印證了這一點(diǎn):那些盡早下注、快速試驗(yàn)的企業(yè),表現(xiàn)明顯優(yōu)于觀望和等待的同行。
Sridhar:我完全同意 Sam 的觀點(diǎn)。我還想補(bǔ)充的是:“好奇心”真的非常關(guān)鍵。我們對許多舊有流程的依賴其實(shí)已經(jīng)不再成立,但很多人沒有意識到。如今很多平臺,比如 Snowflake,讓你以非常低的成本進(jìn)行實(shí)驗(yàn),可以做出很多小測試,從中提煉價值,再持續(xù)優(yōu)化。
我要再次強(qiáng)調(diào) Sam 的話:能迭代得越快,越能從 AI 中獲益。因?yàn)樗麄冎朗裁从行А⑹裁礋o效,他們能應(yīng)對未來快速變化的局勢。
接下來的幾年,不會有一個“完美時機(jī)”讓一切塵埃落定。你只能在混沌中快速前進(jìn)。
主持人Sarah: 那你的建議和去年相比,有哪些不同呢?
Sridhar:其實(shí),我去年也會說一樣的話。尤其是“保持好奇”和“允許試錯”——
這兩點(diǎn)一直都很重要。關(guān)鍵是你要在那些“失敗成本很低”的場景中去試錯,而這樣的場景其實(shí)非常多。
不過,技術(shù)確實(shí)成熟得更快了。比如現(xiàn)在的 ChatGPT,已經(jīng)能很好地結(jié)合網(wǎng)絡(luò)搜索來提供新鮮的信息,不再是那個“脫離實(shí)時數(shù)據(jù)”的工具。
不論是結(jié)構(gòu)化數(shù)據(jù)還是非結(jié)構(gòu)化數(shù)據(jù),現(xiàn)在的聊天機(jī)器人技術(shù)已經(jīng)可以投入主流使用了。當(dāng)然,我們依然可以探索更遠(yuǎn)的“智能體”能力邊界,但即便在遠(yuǎn)離前沿的應(yīng)用中,這項(xiàng)技術(shù)已經(jīng)非常可用。
Sam Altman:有意思的是,我去年的觀點(diǎn)可能跟現(xiàn)在還真不太一樣。如果是對創(chuàng)業(yè)公司,我去年也會鼓勵他們早點(diǎn)上手,但對大型企業(yè)我可能會說:“可以小范圍試驗(yàn),但大多數(shù)情況下還不適合投入生產(chǎn)環(huán)境。”
但這個觀點(diǎn)現(xiàn)在變了——我們服務(wù)的大企業(yè)在這方面的增長是飛速的。他們現(xiàn)在真的在大規(guī)模使用我們的技術(shù)。我經(jīng)常問他們:“是什么變了?” 他們會說:“一部分是我們摸索清楚了用法,但更大的變化是:現(xiàn)在這東西真的好用多了!”
它能做很多過去想都不敢想的事情。某個時間點(diǎn),在過去這一年里,模型的“可用性”發(fā)生了質(zhì)的飛躍。
更有意思的問題是:明年這個時候我們又會說出什么新觀點(diǎn)?
我預(yù)測到那時,我們會進(jìn)入一個階段:你不僅可以用 AI 自動化業(yè)務(wù)流程或開發(fā)新產(chǎn)品,還能真正說出,“我有一個極其重要的業(yè)務(wù)難題,我愿意砸大量算力下去解決它。”
而模型將能完成過去需要團(tuán)隊(duì)合作都無法完成的任務(wù)。
那些已經(jīng)開始積累 AI 實(shí)戰(zhàn)經(jīng)驗(yàn)的公司,將在未來的競爭中占據(jù)優(yōu)勢。屆時他們就可以說,“來吧 AI 系統(tǒng),把我這個關(guān)鍵項(xiàng)目完全重構(gòu)一遍。”
這是下一次質(zhì)變的前奏:大量算力 + AI 推理能力 + 高難度問題。誰準(zhǔn)備好了,誰就能邁出下一大步。
2.Codex讓我有了AGI的感覺!智能體明年將解決棘手的商業(yè)難題
主持人Sarah:既然你提到了推理能力、算力投入,以及智能體加入工作流程,那么關(guān)于“記憶與檢索”的問題就不能回避了——你覺得它們在這一輪 AI 變革中會起到什么樣的作用?
Sridhar:檢索技術(shù)一直是讓生成式 AI“貼地飛行”的關(guān)鍵,尤其在需要真實(shí)世界參考時。例如 GPT-3 時代我們就搭建了支持網(wǎng)頁搜索的大規(guī)模系統(tǒng),可以在你問時事問題時拉取外部信息作為參考。
同樣地,記憶系統(tǒng)也非常重要。模型能“記住”你以前是怎么解決問題的、你和系統(tǒng)的互動記錄,這些都會極大提升它后續(xù)的使用體驗(yàn)和效率。
我認(rèn)為隨著模型被用于越來越復(fù)雜的任務(wù),記憶和檢索的角色會變得更加關(guān)鍵。不論是提升交互質(zhì)量,還是賦能更強(qiáng)的智能體行為,上下文越豐富,AI 的表現(xiàn)就越好。
主持人Sarah:Sam,你能不能給在座的每一位領(lǐng)導(dǎo)者一個參考框架,來思考:智能體(Agents)現(xiàn)在能做什么?明年又可能做到什么?
Sam Altman:我們最近剛發(fā)布的編程智能體 Codex,是我個人第一次有“AGI時刻”的感覺。你觀察它的工作方式——你給它一堆任務(wù),它就在后臺默默執(zhí)行。它真的非常聰明,可以完成那種“長周期、跨階段”的任務(wù)。
你只需要坐在那里,說“這個通過”、“那個不行”、“再試一次”。它甚至能連接你的 GitHub,未來它還可能可以觀看你的會議、查看你的 Slack 聊天、閱讀你所有的內(nèi)部文檔。它做的事情已經(jīng)非常令人驚艷了。
也許目前它還只是一個每天能工作幾小時的“實(shí)習(xí)生”,但不久之后,它會像一位能連續(xù)工作好幾天的“資深工程師”。而這類變化,不只會發(fā)生在編程領(lǐng)域,我們會看到智能體在很多工作類型中發(fā)揮類似作用。
現(xiàn)在已經(jīng)有很多公司在用智能體來自動化客戶支持、推動銷售流程、甚至更多的業(yè)務(wù)方向。有些人已經(jīng)在描述:他們的“工作”就是把任務(wù)分配給一群智能體,評估產(chǎn)出質(zhì)量,分析它們?nèi)绾螀f(xié)同工作,并給出反饋。
聽起來就像在帶一組還比較年輕的團(tuán)隊(duì)成員。而且,這不是想象——它正在真實(shí)發(fā)生,只是目前還沒有完全普及。
明年,在一些有限的場景中,哪怕是很小的程度,我們將開始看到智能體真的能幫助人類發(fā)現(xiàn)新知識,或者解決那些非常復(fù)雜的商業(yè)問題。
目前的智能體主要還能處理的是:重復(fù)性的腦力勞動,短時間周期內(nèi)、低層級的認(rèn)知任務(wù)。但隨著它們處理的任務(wù)變得更長線、更復(fù)雜——某一刻,我們就會迎來“AI 科學(xué)家”出現(xiàn)的時刻。一個能自主發(fā)現(xiàn)科學(xué)的新型智能體。
那將是世界性的重大時刻。
主持人Sarah:你剛才說 Codex 和編程智能體的體驗(yàn)是你第一次有“AGI實(shí)感”的時刻。那我就必須問了:你現(xiàn)在是如何定義 AGI(通用人工智能)的?我們離它還有多遠(yuǎn)?它對我們的意義是什么?
Sam Altman:我想,如果你能回到過去,哪怕只回到五年前……
主持人Sarah:那幾乎是 AI 的“黑暗時代”。
Sam Altman:其實(shí),那段時期也非常有趣。如果我們回到整整五年前,我可能記得不太清,但應(yīng)該就在我們推出 GPT 的前夕。那時候,世界還沒見過真正強(qiáng)大的語言模型。
如果你能回到那個時間點(diǎn),然后給人們展示今天的 ChatGPT,甚至不提 Codex 或其他產(chǎn)品,就光是 ChatGPT,我想大多數(shù)人會說:“這不就是 AGI 嗎?”
我們?nèi)祟惙浅I瞄L“調(diào)整自己的預(yù)期”,這其實(shí)是人性中非常美好的一點(diǎn)。
所以,我認(rèn)為“AGI 究竟是什么”這個問題,本身并不重要。每個人對它的定義都不一樣,同一個人也會在不同時間給出不同定義。
真正重要的是:我們過去五年看到的 AI 年年飛躍的進(jìn)展速度——很可能還會持續(xù)五年,甚至更久。
你說 AGI 的“勝利點(diǎn)”會在 2024、2026 還是 2028,其實(shí)沒那么關(guān)鍵;你說超級智能的里程碑是在 2028、2030 還是 2032,也都沒關(guān)系。
重點(diǎn)是:這是一條又長又美麗、令人震驚地平滑的指數(shù)曲線。
對我來說,一個能自主發(fā)現(xiàn)新科學(xué)的系統(tǒng),或者一個讓全世界科學(xué)發(fā)現(xiàn)速度翻幾倍的工具系統(tǒng),已經(jīng)可以滿足我對 AGI 的全部標(biāo)準(zhǔn)。
當(dāng)然也有人堅(jiān)持,AGI 必須能自我改進(jìn);也有人覺得,像 ChatGPT 搭配記憶功能的版本,已經(jīng)很像 AGI 了。
主持人Sarah:確實(shí),從一些早期測試,比如圖靈測試來看,ChatGPT 已經(jīng)達(dá)標(biāo)了。
那我們回到Sridhar,你還記得你第一次用 OpenAI 模型做搜索是什么時候嗎?
Sridhar:你當(dāng)時其實(shí)用的是 GPT-3 的 Playground,在做一些小實(shí)驗(yàn)。我們后來也接入了 API,但那時還不允許我們用完整的 GPT-3 模型。
我們就自己倒推:怎么用 70 億或 100 億參數(shù)的模型,來做到相似的效果。
對我來說,第一次“眼前一亮”的,是看到 GPT 真正解決了一個難題:抽象式摘要(abstractive summarization)。
也就是:把一篇 100 字的博客內(nèi)容,壓縮成三句話去描述它。這個任務(wù)非常難,人類都覺得棘手。但這些模型突然間就能做到了。
那一刻我意識到,如果它能在整個網(wǎng)頁語料庫上做這種事情——再配合能判斷哪些頁面值得看的搜索引擎能力——那就是搜索引擎的新時代了。
我記得當(dāng)時心里就想:哇,這玩意,真有力量。而且后來它的表現(xiàn)只會越來越好。
主持人Sarah:在你作為創(chuàng)業(yè)者或 CEO 的過程中,有沒有哪個節(jié)點(diǎn)讓你突然意識到,“哇,現(xiàn)在一切都是搜索,或者說是‘搜索+’”?我自己雇過 Neva 的前員工,當(dāng)時的理念也是:這個時代的一切,都是關(guān)于搜索的。你是什么時候有這種想法的?
Sridhar:這個問題其實(shí)是關(guān)于“設(shè)定上下文”的——當(dāng)你開始使用這些模型,或者思考某個問題的時候,你會意識到:我們需要一種機(jī)制,來縮小視角的范圍,讓模型聚焦在你想處理的內(nèi)容上。
這是一種非常強(qiáng)大、也具通用性的技巧。你看現(xiàn)在很多微調(diào)和后訓(xùn)練技術(shù),其實(shí)背后邏輯是類似的:拿一個非常強(qiáng)大的模型,為它提供上下文,告訴它哪些信息是相關(guān)的、哪些是無效的,然后用這個方法來提升模型的輸出質(zhì)量。
我認(rèn)為這更像是一種通用的思維方式,而不僅僅是某個工具。你想實(shí)現(xiàn)某種結(jié)果,關(guān)鍵是要把“上下文”設(shè)定好。
上下文是無限的,人類靠“注意力”機(jī)制來解決這個問題——我們聚焦某個點(diǎn)。我把搜索看作是為模型設(shè)定注意力焦點(diǎn)的一種工具。
主持人Sarah:你同意 Sam 的看法嗎?也就是我們正處在一條“指數(shù)級增長的能力曲線”上?還是說你有一個自己認(rèn)同的 AGI 定義——一個對你或客戶來說更重要的標(biāo)準(zhǔn)?
Sridhar:我覺得這會變成一個哲學(xué)性很強(qiáng)的辯論。比如說,有個比喻是:“潛水艇到底算不算在游泳?”某種意義上這聽起來有點(diǎn)荒謬,但從另一個角度看,它當(dāng)然是在“游”。
所以我也把這些模型看作擁有極其驚人的能力。任何一個關(guān)注未來趨勢的人看到這些模型的表現(xiàn),可能都會說:“這已經(jīng)是 AGI 了。”
但正如 Sam 提到的,我們現(xiàn)在說的這些話,也許到 2025 年時又會覺得不值一提。
真正讓我驚嘆的,是進(jìn)展的速度。我真誠相信,這個進(jìn)程會帶來許多偉大的成果。
這有點(diǎn)像,我們?nèi)绾慰创慌_“還不錯的計(jì)算機(jī)”可以戰(zhàn)勝世界上所有的國際象棋高手——這真的重要嗎?
并不重要。我們依然有很多人仍然在下棋,而且他們?nèi)匀环浅I瞄L。
所以我覺得關(guān)于“定義”的爭論其實(shí)沒那么關(guān)鍵。現(xiàn)在的圍棋也比以前更流行了。我們會從這條路徑中學(xué)到很多東西,但“那個具體的時刻”并不是重點(diǎn)。
3.完美模型:輕量、強(qiáng)推理、可調(diào)用所有工具
主持人Sarah:我個人有個直覺:當(dāng)人們在問 AGI 的時候,其實(shí)很多人真正想問的是“意識”,只是他們沒把問題說清楚,或者說只有一部分人會明確表達(dá)那樣的問題。你之前說這更偏哲學(xué),所以我想問問你:你們內(nèi)部已經(jīng)在訓(xùn)練下一代模型,看到別人還看不到的能力,從產(chǎn)品角度、公司運(yùn)營角度,有哪些新的“涌現(xiàn)能力”是正在改變你們的思維方式的?
Sam Altman:是的,未來一年或兩年發(fā)布的模型將會令人驚嘆。我們面前還有很大的進(jìn)步空間。
就像 GPT-3 到 GPT-4 帶來的跨越一樣,許多企業(yè)將可以做到以前根本不可能做到的事。比如我們剛才聊到的,如果你是一家芯片公司,你可以說:“幫我設(shè)計(jì)一款比我們現(xiàn)有方案更好的芯片”;或者你是一家生物科技公司,你可以說:“這個病我搞不定,你來解決。”
這些都不再遙不可及。
這些模型有能力理解你能提供給它的全部上下文,連接所有工具和系統(tǒng),然后深入思考,進(jìn)行極其出色的推理,并給出有說服力的解決方案。
它們的穩(wěn)健性也在提升,我們可以越來越放心地讓它自主執(zhí)行復(fù)雜任務(wù)。
坦白說,我以前沒想過它們會來得這么快。但現(xiàn)在真的感覺……非常接近了。
主持人Sarah:那你能不能給大家一點(diǎn)直覺:未來哪些“知識”是 AI 能掌握的?哪些是還在邊界上的?我想象中的“核心智力”是,我也算挺聰明的,但我腦子里也沒有完美的物理模擬器——所以我們怎么判斷 AI 還能進(jìn)化多遠(yuǎn)?
Sam Altman:我自己比較喜歡的一個思考框架是這樣的:這不是我們馬上就要發(fā)布的東西,但從理念上說,我們追求的是這樣一個模型——體積很小,但擁有超人級別的推理能力,運(yùn)行速度極快,有一萬億 tokens 的上下文窗口,并能訪問你能想象的所有工具。
所以它到底“知不知道某個具體知識點(diǎn)”,其實(shí)變得沒那么重要。
用這些模型作為數(shù)據(jù)庫是荒謬的——它們是又慢又貴還不準(zhǔn)確的數(shù)據(jù)庫。但驚人的是:它們可以進(jìn)行推理。
你可以把一個企業(yè)或個人生活的所有上下文信息都“扔進(jìn)去”,再把需要的物理模擬器或其他工具整合進(jìn)來——你能做的事就變得非常了不起。
而我們現(xiàn)在,就是在向這個方向邁進(jìn)。
主持人Sarah:太震撼了。我想問一個更具假設(shè)性的問題:
如果你手上有現(xiàn)在 1000 倍的算力——原本我想問“無限算力”,但那太夸張了——如果是 1000 倍,你會用它做什么?
Sam Altman:我覺得,最“元”的回答(雖然我之后會給一個更實(shí)用的),可能是這樣的:我會請你們投入所有力量去推進(jìn) AI 研究,開發(fā)出更優(yōu)秀的模型,然后再問那個更強(qiáng)的模型,我們該怎么利用這些算力。
主持人Sarah:直接讓它來解決“你最難的問題”。
Sam Altman:我認(rèn)為這其實(shí)是最理性的做法。
主持人Sarah:這說明你是真的相信它能給出答案。
Sam Altman:我覺得更實(shí)用的回答是這樣的: 我們現(xiàn)在在 ChatGPT 內(nèi)部、以及企業(yè)用戶中,已經(jīng)看到很多案例表明——測試時使用更多算力,確實(shí)能帶來真實(shí)的收益。
比如你讓模型“多想一會兒”、或者對一個復(fù)雜問題多嘗試幾次,就有可能得到明顯更好的答案。
所以,如果一家企業(yè)說,“我要在每一個難題上都加大 1000 倍的算力”,他們真的可能會得到一些令人驚艷的結(jié)果。
當(dāng)然,你不會真的這么做,也沒有 1000 倍的算力。但現(xiàn)在這種能力已經(jīng)變得可行,說明我們可以嘗試的一件事就是:
用“冪律法則”的方式去看待算力價值——對于最難、最有價值的問題,愿意投入更多算力去嘗試,可能就能獲得突破。
主持人Sarah:那Sridhar,你會不會也對 Snowflake 做一樣的事?你是數(shù)據(jù)基礎(chǔ)設(shè)施、搜索優(yōu)化、企業(yè)系統(tǒng)方面的專家,現(xiàn)在掌管 Snowflake。如果給你一個超級難題,你也會直接丟給算力處理嗎?
Sridhar:我覺得這確實(shí)是個很酷的應(yīng)用場景。不過讓我換一個角度回答,跳出我們每天生活的科技圈來說:
你知道有個叫 Arnold 項(xiàng)目 的研究嗎?它有點(diǎn)像我們 20 多年前進(jìn)行的 DNA 測序項(xiàng)目,不過這次的研究對象是 RNA 表達(dá)機(jī)制。結(jié)果發(fā)現(xiàn),RNA 實(shí)際上控制著我們身體中蛋白質(zhì)的工作方式。
如果我們能徹底搞清楚 RNA 是怎么調(diào)控 DNA 表達(dá)的,那很可能就能攻克大量疾病,對整個人類社會來說是一次巨大的飛躍。
所以,用類語言模型去做這類 RNA 研究項(xiàng)目,就像當(dāng)年用超級算力破解人類基因組一樣——這會是一個非常酷的應(yīng)用方向,如果你真的能動用大量算力的話。
主持人Sarah:真的很振奮人心,而且這確實(shí)是人類面臨的最大問題之一。
感謝你們(參與訪談)。

























