剛剛,黃仁勛劃出三條世界級增長曲線:AI 根本不是泡沫,而是三場世紀級疊加浪潮 原創(chuàng)
編輯 | 云昭
今天一早,AI風(fēng)向標(biāo)、市值全球第一的英偉達,新三季度的財報發(fā)布了,再一次成為業(yè)界關(guān)注的重點。
570億美元、同比增長62%!環(huán)比上個季度,收入增長100億美元,用 CFO Kress的話來說,創(chuàng)下了紀錄,增幅達22%。
快速分析下,這570 億美元的營收里面,重頭戲還是由數(shù)據(jù)中心業(yè)務(wù)驅(qū)動的,直接貢獻了 510 億美元,同比大增 66%。
而另一項重要營收業(yè)務(wù):游戲業(yè)務(wù)同樣恢復(fù)增長,同比上漲 30%,達 43 億美元。
可以說,這波超60%的增速,又給外界一個新的刺激信號:不是都在說AI泡沫嗎?怎么AI又行了?
這個問題,恐怕只有我們從黃仁勛眼中的AI真相去尋找答案。
在黃看來,AI 的浪潮還遠沒到頂,甚至剛剛開始進入“真實消耗”階段。
AI 不是泡沫,而是三大轉(zhuǎn)型疊加浪潮
一如既往,黃仁勛始終是AI浪潮的堅定樂觀派。作為世界市值最高的基建霸主的掌舵者,他給出的判斷非常清晰:
關(guān)于AI泡沫有很多討論。從我們的角度來看,我們看到的情況截然不同。
提醒一下,英偉達不同于任何其他加速器。我們在AI的每個階段都表現(xiàn)出色,從預(yù)訓(xùn)練、后訓(xùn)練到推理。
憑借我們二十年來對CUDA-X加速庫的投資,我們在科學(xué)和工程模擬、計算機圖形學(xué)、結(jié)構(gòu)化數(shù)據(jù)處理以及經(jīng)典機器學(xué)習(xí)方面也表現(xiàn)出色。
他表示,世界正在同時經(jīng)歷三個大規(guī)模的平臺轉(zhuǎn)型,而也是英偉達有史以來同時應(yīng)對這三個大的平臺轉(zhuǎn)型。
這是自摩爾定律誕生以來的第一次。英偉達獨特地應(yīng)對著這三個轉(zhuǎn)型中的每一個。
第一,計算平臺本身在轉(zhuǎn)向。摩爾定律放緩后,行業(yè)從 CPU 通用計算遷移到 GPU 加速計算,這是底層的范式切換。
世界在非AI軟件上進行了大量投資,從數(shù)據(jù)處理到科學(xué)和工程模擬,代表著每年數(shù)千億美元的計算、云計算支出。
許多曾經(jīng)僅在CPU上運行的應(yīng)用程序,現(xiàn)在正迅速轉(zhuǎn)向CUDA GPU。加速計算已經(jīng)達到了一個臨界點。
第二,AI 到達了一個“臨界點”,正在改變現(xiàn)有應(yīng)用程序,同時催生全新的應(yīng)用程序。生成式 AI 正在全面取代傳統(tǒng)機器學(xué)習(xí),重新定義搜索、推薦這些真正撐起互聯(lián)網(wǎng)的基礎(chǔ)設(shè)施。
對于現(xiàn)有應(yīng)用程序,生成式AI正在取代經(jīng)典機器學(xué)習(xí),應(yīng)用于搜索排名、推薦系統(tǒng)、廣告定向、點擊率預(yù)測到內(nèi)容審核等超大規(guī)模基礎(chǔ)設(shè)施的基礎(chǔ)領(lǐng)域。
Meta的GEM,一個在大型GPU集群上訓(xùn)練的廣告推薦基礎(chǔ)模型,就是這種轉(zhuǎn)變的例證。在第二季度,Meta報告稱,得益于基于生成式AI的GEM,Instagram的廣告轉(zhuǎn)化率提高了5%以上,F(xiàn)acebook信息流的廣告轉(zhuǎn)化率提高了3%。向生成式AI轉(zhuǎn)型代表著超大規(guī)模云服務(wù)商的巨額收入增長。
第三,下一波浪潮已在路上,即能推理、能規(guī)劃、能使用工具的 Agentic AI,以及面向現(xiàn)實世界的物理 AI,會創(chuàng)造全新的產(chǎn)品和公司。
從像Cursor和QuadCode這樣的編碼助手,到像iDoc這樣的放射學(xué)工具,像Harvey這樣的法律助手,以及像Tesla FSD和Waymo這樣的AI駕駛員,這些系統(tǒng)標(biāo)志著計算的下一個前沿。
當(dāng)今世界上增長最快的公司,OpenAI、Anthropic、xAI、Google、Cursor、Lovable、Replit、Cognition AI、Open Evidence、Abridged、Tesla,正在開創(chuàng) Agentic AI。
而這三場轉(zhuǎn)型都是大規(guī)模、必要和革命性的。每一項都將在未來幾年推動基礎(chǔ)設(shè)施增長。
向加速計算的轉(zhuǎn)型是基礎(chǔ)性的、必要的,在后摩爾定律時代至關(guān)重要。
向生成式AI的轉(zhuǎn)型是變革性的、必要的,為現(xiàn)有應(yīng)用程序和商業(yè)模式賦能。
而向智能體和物理AI的轉(zhuǎn)型將是革命性的,催生新的應(yīng)用程序、公司、產(chǎn)品和服務(wù)。
“在考慮基礎(chǔ)設(shè)施投資時,請考慮這三個基本動態(tài)。”
而英偉達的底氣就來自于:其一家公司的單一架構(gòu)就可以覆蓋所有三種轉(zhuǎn)型。這句話看似簡單,其實是他們能吃下幾乎所有客戶的關(guān)鍵,這是市場的選擇。
英偉達被選中,是因為我們單一的架構(gòu)能夠?qū)崿F(xiàn)所有這三個轉(zhuǎn)型,并且適用于任何形式和模態(tài)的AI,跨越所有行業(yè),跨越AI的每個階段,跨越云中所有多樣化的計算需求,也從云到企業(yè)再到機器人。
英偉達的客戶們:云廠商和模型廠商需求強勁
其實,從另一個角度,也可以理解為什么黃仁勛會堅定地認為,AI不處于泡沫之中。那就是英偉達的客戶需求增減情況。而這個數(shù)據(jù),可以從英偉達 CFO Colette Kress 的數(shù)據(jù)里一覽無遺。
- Blackwell + Rubin 平臺收入能見度:5000 億美元。覆蓋從今年初到 2026 年末,而且這個數(shù)字還沒算上最新簽的 KSA、Anthropic 合同。
- 數(shù)據(jù)中心收入:510 億美元,同比 +66%(再創(chuàng)新高)
Kress 甚至直接說了句很少在財報上聽到的話:“云服務(wù)商的(GPU)已經(jīng)售罄。
云廠商全部滿載,我們的 GPU 安裝量——無論是 Blackwell、Hopper 還是 Ampere——都被完全利用。
AI 基礎(chǔ)設(shè)施需求持續(xù)超過我們的預(yù)期。
分析師預(yù)計 2026 年全球云廠商 CapEx 高達 6000 億美元,比年初預(yù)期高出 2000 億。
除了云廠商,模型公司也并沒有停下擴張規(guī)模。
另一條增長曲線來自基礎(chǔ)模型公司,它們正在瘋狂擴算力:Anthropic、Mistral、OpenAI、Reflection、SSI、Thinking Machines Lab、xAI。
它們正在沿著三大 scaling laws(預(yù)訓(xùn)練、后訓(xùn)練、推理)持續(xù)擴展。
我們看到一個積極的正循環(huán):算力 → 更強的智能 → 更高的采用和利潤 → 進一步擴算力。
而且,Kress 透露了模型公司營收的具體增速:
OpenAI:周活躍用戶 8 億,企業(yè)客戶 100 萬,毛利結(jié)構(gòu)健康
Anthropic:ARR 在一年內(nèi)從 10 億漲到 70 億
Agetic AI 方面,同樣正在各行各業(yè)爆發(fā):
Cursor、Anthropic、Open Evidence、Epic、Abridge 等公司用戶量激增;ServiceNow、CrowdStrike、SAP 都在采用我們?nèi)珬F脚_;Palantir 第一次用上 CUDA X 與 NVIDIA 模型,加速其 Ontology 平臺。
企業(yè)的 ROI 效果十分明確:
RBC:分析師報告時間從小時降到分鐘
聯(lián)合利華:內(nèi)容制作效率翻倍、成本減半
Salesforce 工程團隊:使用 Cursor 后,新代碼產(chǎn)出提升 30% 以上
可以看出,英偉達正面回應(yīng)了“需求會不會掉”的市場疑問:掉不了,因為手里訂單多到數(shù)不過來。
投資與合作:英偉達的生態(tài)飛輪邏輯
電話會上,知名媒體CNBC的分析師提出了一個犀利的問題:英偉達有哪些優(yōu)勢,讓各大公司愿意“綁定”在你們的平臺上?
黃仁勛以Cursor為例,回答了這個問題:幫客戶帶來生產(chǎn)力巨大提升!
我們讓產(chǎn)品給客戶帶來巨大的生產(chǎn)力提升。過去一年,各類“提升生產(chǎn)力的 AI 系統(tǒng)”增速驚人。
最鮮明的例子是 Cursor,它的增長速度幾乎是軟件行業(yè)前所未見的。所有優(yōu)秀的模型都可以在我們的技術(shù)棧上運行,這讓開發(fā)者可以輕松把它們整合進自己的應(yīng)用里;最終,這一切又帶來更高的收入與更廣的采用。
這就是“平臺的力量”。
那么,為什么生態(tài)對英偉達如此重要?這位分析師繼續(xù)犀利地拋出了一個質(zhì)疑:“尤其是,你們投資過的對象,與合作關(guān)系之間,究竟是什么邏輯?”
黃仁勛表示:生態(tài)可以拉動更大的計算需求。并強調(diào)了推理階段讓更多開發(fā)者參與的重要性。
生態(tài)系統(tǒng)極其重要,因為它吸引開發(fā)者構(gòu)建更多應(yīng)用;而所有應(yīng)用又都會拉動對計算的需求,尤其是推理階段,這意味著計算需求會越來越大。
如果應(yīng)用只有訓(xùn)練,沒有推理,那這個應(yīng)用就沒有意義。
對于生態(tài)中,投資于合作之間的動機邏輯方面,黃仁勛給出了自己的投資判斷標(biāo)準(zhǔn):
我們生態(tài)中那批才華橫溢的 AI 公司,有幾項共同特征:
全部使用 NVIDIA 架構(gòu);全部將推理工作負載部署在 NVIDIA;全部應(yīng)用是高頻、真實世界場景;全部在創(chuàng)造實際收入,而不是概念。
“所以我們會對其中一些公司進行投資,不是為了影響他們,而是希望與最優(yōu)秀的團隊并肩,把 AI 的應(yīng)用做大。”
而這些優(yōu)秀的公司會不斷吸引更多開發(fā)者,在 NVIDIA 上開發(fā)更多應(yīng)用,而所有這些最終又轉(zhuǎn)化為更高的推理規(guī)模、更大的模型、更多訓(xùn)練需求。
這就是生態(tài)飛輪。
回應(yīng)循環(huán)交易質(zhì)疑:擴大生態(tài)
而對于此前投資OpenAI所引發(fā)的“循環(huán)交易”的質(zhì)疑,黃仁勛也再次重申:
我們所有投資都圍繞一件事:擴展 CUDA 的觸達范圍、擴大生態(tài)系統(tǒng)。
與 OpenAI 的合作可以追溯到 2016 年,當(dāng)時我交付了第一臺 AI 超級計算機。從那時起,我們就一直深度合作。
無論是訓(xùn)練還是推理,OpenAI 在所有云中的運行都基于 NVIDIA。投資 OpenAI,實質(zhì)是讓我們從技術(shù)上與他們進一步深度協(xié)作、支持他們的高速增長 —— 這是一個史無前例的高速發(fā)展的公司。
而且我們獲得的不是稀釋自家股份,而是持有一家“世代級公司”的股份。我期待這筆投資帶來極其可觀的回報。
產(chǎn)能吃緊,真正的瓶頸:不在芯片
需求沒有問題,所有人真正緊張的是:供應(yīng)端扛不扛得住?電話會里給了一個全面的答案。
產(chǎn)能供應(yīng):還在極度緊張;Blackwell:供不應(yīng)求會持續(xù)數(shù)個季度;整個供應(yīng)鏈:已經(jīng)滿轉(zhuǎn)。
CFO 還點名了偏冷門但關(guān)鍵的公司——Amkor(安靠),用于增強封裝產(chǎn)能;消息一出股價盤后直接跳漲 8%。
最值得關(guān)注的是黃仁勛的回應(yīng)。他沒有回避難題:
“電力、散熱、液冷”都是巨大的挑戰(zhàn)。吉瓦級數(shù)據(jù)中心不僅是芯片問題,還需要能源基礎(chǔ)設(shè)施。
全球算力擴張已經(jīng)撞上物理邊界,這句話基本宣告“缺電”會成為未來兩年的主旋律。
但他也給出一個現(xiàn)實解法:英偉達現(xiàn)金流太強,供應(yīng)商可以拿著訂單去銀行貸款擴產(chǎn)。簡單粗暴,但有效。
另外,老黃還補充了一句值得反復(fù)咀嚼的話:“我們的供應(yīng)鏈基本上包括了全球所有的科技公司。”
5000億自由現(xiàn)金流,怎么花
電話會上,還有一個犀利的問題:
英偉達未來幾年可能產(chǎn)生近 5000 億美元的自由現(xiàn)金流,你們打算怎么使用這筆錢?回購多少?投入生態(tài)多少?
英偉達回應(yīng),主要還是用于支撐公司的高速增長,其次是股票回購。
首先,我們要用現(xiàn)金繼續(xù)支撐公司的增長。沒有哪家公司能在我們這樣的規(guī)模下增長,并維持與英偉達一樣深入、廣泛、可靠的供應(yīng)鏈。
客戶之所以能依賴我們,是因為我們鎖定了極具韌性的供應(yīng)鏈,并且財務(wù)實力足以支撐。當(dāng)我們下訂單,供應(yīng)商可以拿著合同去銀行融資;當(dāng)我們做預(yù)測,他們是認真對待的,因為我們幾十年來一直這么合作。我們知道自己的 offtake(采買承諾),我們規(guī)劃多年、信譽扎實,這都需要非常強健的資產(chǎn)負債表。
其次,我們會繼續(xù)進行股票回購。
Anthropic 也轉(zhuǎn)向英偉達
此外,Kress 還透露了英偉達另一個重要動作:Anthropic 首次采用英偉達架構(gòu)。
其承諾的初始算力規(guī)模高達 1 吉瓦(1GW),包括 Grace Blackwell 與 Rubin 系列。
我們將合作優(yōu)化Anthropic模型以適配CUDA,并提供最佳的性能、效率和TCO。我們還將針對Anthropic的工作負載優(yōu)化未來的英偉達架構(gòu)。Anthropic的計算承諾初步包括高達1千兆瓦的Grace Blackwell和Vera Rubin系統(tǒng)計算容量。
這意味著什么?OpenAI、Anthropic、xAI、Google Gemini……等所有頭部模型開發(fā)者,現(xiàn)在都在英偉達上跑模型。
黃仁勛在問答環(huán)節(jié)講得很直白:“我們是世界上唯一一個能運行所有 AI 模型的平臺。”
放眼全球,只有 NVIDIA 的架構(gòu)可以運行所有主流 AI 模型:OpenAI、Anthropic、xAI(我們與 Elon 和 xAI 合作,把他們帶到沙特的基礎(chǔ)設(shè)施)、Gemini、Thinking Machines……還包括生物學(xué)、化學(xué)、基因模型等科學(xué)計算。這不是認知類 AI 的世界,而是所有行業(yè)都要用 AI。
我們通過生態(tài)投資,與全球最聰明的公司深度技術(shù)共創(chuàng),擴大生態(tài),同時持有這些未來極可能成為世代級公司的股份。這就是我們的投資邏輯。
下一代架構(gòu)Rubin:明年下半年亮相
據(jù)透露,Rubin 平臺按計劃將在 2026 年下半年 亮相,并帶來相對于 Blackwell 的新一輪“X 因子”級別的飛躍。
如何理解X因子?
黃仁勛解釋道:從Ampere到Hopper,從Hopper到Blackwell,Blackwell到Rubin的每一代,我們在數(shù)據(jù)中心中的占比都在增加。Hopper一代大概是20多到25左右。Blackwell一代,特別是Grace Blackwell,大概是30左右——比如30加減。然后Rubin可能比這更高。
在每一代中,加速是X倍,因此客戶的TCO改善了X倍。最重要的是,最終你仍然只有一千兆瓦的功率,一千兆瓦的數(shù)據(jù)中心,一千兆瓦的電力,因此每瓦性能、架構(gòu)的效率極其重要。
黃仁勛補充道,“你的架構(gòu)效率無法通過蠻力實現(xiàn)。這沒有蠻力可言。那一千兆瓦直接轉(zhuǎn)化,你的每瓦性能直接地、絕對地轉(zhuǎn)化為你的收入。
這就是為什么選擇正確的架構(gòu)現(xiàn)在如此重要,世界沒有任何多余的東西可以浪費。”
他再次強調(diào)了英偉達在新品研發(fā)時的“協(xié)同設(shè)計”理念。
所以我們必須在整個堆棧中進行協(xié)同設(shè)計,跨越框架和模型,跨越整個數(shù)據(jù)中心,甚至電力和冷卻,優(yōu)化整個供應(yīng)鏈和生態(tài)系統(tǒng)。
所以每一代,我們的經(jīng)濟貢獻將會更大。我們交付的價值將會更大,但最重要的是,我們每一代的能源效率都將非常出色。
多年的加速計算研究,多年的生態(tài)工具投入,協(xié)同設(shè)計理念下“每年一代”的迭代節(jié)奏,很難想象這家AI巨無霸未來會長成怎樣一個形態(tài)。
這里,小編想以 Kress 那句驕傲的預(yù)測作為結(jié)尾:將眼光放到了本世紀末的英偉達會是什么樣子?
我們相信,憑借一年一更的產(chǎn)品節(jié)奏與全棧設(shè)計能力,英偉達將成為到本世紀末 3–4 萬億美元年度 AI 基礎(chǔ)設(shè)施建設(shè)中的最佳選擇。
本文轉(zhuǎn)載自??51CTO技術(shù)棧??,作者:云昭

















