編輯 | 云昭
剛剛,又有一項世界級的獎項花落AI圈。
當今全球工程界最具聲望的獎項之一,被譽為“工程界的諾貝爾獎”的“伊麗莎白女王工程獎”于近日揭曉。
這次大獎獲得者一口氣囊括了炙手可熱的七位大佬:
黃仁勛、Yoshua Bengio、Geoffrey Hinton、John Hopfield、李飛飛、Yann LeCun、Bill Dally。
圖片
大神Bengio幾個小時前發布的X帖子:
本周我非常榮幸地從國王查理三世陛下手中接過工程學@QEPrize勛章,并很高興聽到他對人工智能安全的看法,以及他希望我們能夠在共同享受人工智能帶來的益處的同時,最大限度地降低風險。
圖片
值得注意的是,這些大佬(七位中的六位,Hopfield因故未能出席)在獲獎后的圓桌分享中也為大家帶來了關于AI發展最新的觀點和洞察。
圓桌首先讓六位巨擘分享了AI發展史上跟自己相關的頓悟時刻。
黃仁勛回憶到自己當時研發英偉達芯片的靈感來源:
這一發現讓我在2010年前后看到一個新的機會——來自多所實驗室的研究人員同時找到了我們:多倫多大學、紐約大學、還有斯坦福。他們都在用一種結構化的方式開發軟件,那就是深度學習。當我看到這種模式時,我發現它與芯片設計有驚人的相似性:同樣依賴高層次表示與結構化方法。
李飛飛則分享了自己當時發現“擴展定律”的探索歷程:
我和學生試遍了各種算法,從支持向量機到神經網絡,最后意識到:缺的是數據。人類在成長過程中被大量感官數據淹沒,而機器的數據卻極度匱乏。于是我們決定做件“瘋狂”的事——構建一個互聯網級的數據集,花了三年,創建了ImageNet,包含1500萬張人工標注的圖像,覆蓋2.2萬個類別。那一刻我意識到:大數據推動機器學習。
大神辛頓則回憶了自己當時發現通過預測下一個詞就可以學習詞義表征的奇妙時刻:
在1984年前后。我用反向傳播算法嘗試訓練一個語言模型來預測下一個詞——雖然規模很小,但我發現它能學習出與詞義相關的特征。僅僅通過預測序列中的下一個符號,它就能把詞語轉化為能表達意義的特征集合。這其實就是一個微型語言模型,原理與今天的大模型一樣,只是小得多。
這次圓桌重點討論了兩個最近飽受熱議的問題:其一,人工智能存在泡沫嗎,泡沫會破裂嗎?其二,人工智能需要多久才能達到人類智能水平?
這兩個問題關乎AI的發展走向,6位大佬各抒己見,勾勒出一幅AI學術、產業、企業的發展全景圖。
期間不得不提一個非常有意思的觀點,黃仁勛和Bill等一眾獲獎者認為:
討論AI何時達到甚至超越人類智能,是個偽命題。
黃仁勛認為,“何時達到人類水平智能”這個問題,更像是個學術問題。答案是:這不重要,因為“那一刻”已經開始。
Bill:我有點同意黃仁勛的看法——這是個錯誤的問題。我不確定AI是否能真正做到這些“人類特質”,但我相信AI能成為人類的巨大助力。
但大神Bengio則提出了不同的看法,表示對類人機器人研究的關注。
我稍有不同意見。我認為從概念上講,沒有理由我們不能造出能做任何人類能做的機器。我認為終有一天,機器能完成我們能做的幾乎一切。
目前在空間感知和機器人操作上AI還落后,但這只是工程問題。在時間表上,不確定性很大,我們應保持謹慎。
因此,我們應該保持開放與謹慎,因為未來可能出現許多不同的發展路徑。
篇幅關系,不再一一展開,大家可以在下文中具體翻看大佬們的精彩觀點。
以下是六位AI巨擘在獲獎后的圓桌采訪中的對話整理,enjoy!
AI之所以能獲得今天的成就不可不知他們的頓悟時刻
主持人: 大家好,早上好、下午好。我非常高興能為大家介紹今天在場的這群真正杰出的人物。我想毫不夸張地說,他們是當今地球上最聰明、最具影響力的六個人之一。今天我們要見到的是2025年“伊麗莎白女王工程獎”的獲獎者,這一獎項旨在表彰他們在推動當今人工智能技術方面的非凡貢獻。憑借你們在機器學習和人工智能領域的開創性成果,以及這些創新對我們生活方式的深刻影響,大家都能理解這場對話有多么難得和令人興奮。
對我個人而言,我非常期待聽你們回顧此刻的AI發展階段,回顧你們的職業旅程,以及你們的工作、個人和彼此之間如何互相影響、推動了技術和公司前行。最后,也希望能聽到你們的前瞻思考,讓我們更清晰地看見未來的方向。能請到各位,我感到無比榮幸,也非常期待這場對話。我會從宏觀到個人層面開始,請每位分享一個讓你在職業生涯中“頓悟”的瞬間——一個改變你研究方向、讓你走上今天這條路的關鍵時刻。也許是在職業早期,也許是最近。那一刻是什么?它如何影響了你今天所推動的技術?我們從Yoshua開始吧。
1.從智能機器到擔憂AI失控
Yoshua Bengio: 好的,我想講兩個時刻。第一個是在我讀研究生時,我在尋找一個有趣的研究方向,讀到了Jeff Hinton早期的一些論文,我心想:哇,這太令人興奮了。也許就像物理學有基本定律一樣,我們也能找到幾個簡單的原理來解釋人類智能,并據此構建智能機器。
第二個時刻是在兩年半前——ChatGPT發布后。我突然意識到,天哪,我們在做什么?如果我們創造出能理解語言、有目標的機器,而這些目標并不受我們控制,會發生什么?如果它們比我們更聰明呢?如果人類濫用這股力量呢?于是我決定徹底調整自己的研究方向和職業生涯,全力投入到解決這些問題上。這兩個時刻看似截然不同,卻同樣重要。
2.內存墻、吳恩達找貓
Bill Dally: 我也有兩個瞬間。第一個是在90年代末我在斯坦福時,當時我們面臨所謂的“內存墻”——也就是從內存讀取數據比執行算術操作要耗費得多得多的能量和時間。我想到可以將計算組織成核(kernels)并通過數據流連接起來,這樣就能在少訪問內存的情況下完成大量計算。這一思路最終催生了“流處理”概念,也為GPU計算奠定了基礎。當初我們構建GPU時,就希望它不僅能用于圖形渲染,還能做科學計算。
第二個瞬間是在2010年,我和同事Andrew Ng在斯坦福吃早餐。他當時在Google用16000個CPU訓練神經網絡來“找貓”,我被他說服了——這項技術前景巨大。回去后,我和Brian Kenzel在NVIDIA用48個GPU重現了實驗,結果讓我深信:這就是NVIDIA未來的方向。我們必須讓GPU更適合深度學習。那一刻,我徹底被說服了。
3.反向傳播、100個訓練樣本預測下一個單詞
Geoffrey Hinton: 對我而言,一個重要的時刻是在1984年前后。我用反向傳播算法嘗試訓練一個語言模型來預測下一個詞——雖然規模很小,但我發現它能學習出與詞義相關的特征。僅僅通過預測序列中的下一個符號,它就能把詞語轉化為能表達意義的特征集合。這其實就是一個微型語言模型,原理與今天的大模型一樣,只是小得多。那時我們只有100個訓練樣本。之所以花了40年才走到今天,是因為當時我們沒有足夠的算力,也沒有足夠的數據,也沒意識到這就是問題所在。我們不明白,為什么“反向傳播”不能直接解決一切。而如今,我們終于有了算力。
4.軟件可以高層抽象和結構化,芯片也可以
黃仁勛: 對我來說,我屬于第一代能用高層抽象和設計工具來構建芯片的工程師。這一發現讓我在2010年前后看到一個新的機會——來自多所實驗室的研究人員同時找到了我們:多倫多大學、紐約大學、還有斯坦福。他們都在用一種結構化的方式開發軟件,那就是深度學習。當我看到這種模式時,我發現它與芯片設計有驚人的相似性:同樣依賴高層次表示與結構化方法。我意識到,也許我們可以像擴展芯片設計那樣擴展軟件和AI能力。當我們意識到GPU計算可以平行化后,就能擴展到多GPU、多個系統乃至數據中心。接下來要做的,就是想象:我們有多少數據?網絡能有多大?能捕捉多少維度?能解決哪些問題?這些都變成了工程問題。深度學習的發現是火花,之后的一切就是工程上的推演。
5.機器學習缺的是數據,如何讓AI既創新又仁善
李飛飛: 我也有兩個關鍵時刻。第一個是在2006至2007年,我從研究生轉為年輕的助理教授。當時我沉迷于“視覺識別”——讓機器理解圖像中物體的意義。但我們面臨一個難題:泛化能力。機器學會了樣本,卻無法識別新樣本。我和學生試遍了各種算法,從支持向量機到神經網絡,最后意識到:缺的是數據。人類在成長過程中被大量感官數據淹沒,而機器的數據卻極度匱乏。于是我們決定做件“瘋狂”的事——構建一個互聯網級的數據集,花了三年,創建了ImageNet,包含1500萬張人工標注的圖像,覆蓋2.2萬個類別。那一刻我意識到:大數據推動機器學習。它成了AI的基礎,也是當下擴展規律的一部分。
第二個時刻是在2018年,我成為Google Cloud的首任AI首席科學家。我們服務幾乎所有行業——醫療、金融、娛樂、制造、農業、能源。那時距“ImageNet時刻”和“AlphaGo時刻”僅幾年,我意識到AI已成為影響每個行業、每個人的文明級技術。于是我思考:在人類邁入AI時代,如何讓技術既創新又仁善?這促使我回到斯坦福,共同創辦“以人為本的AI研究院”,提出“Human-Centered AI”框架——讓人性與價值始終位于技術的核心。
6.直到遇見辛頓,踏上了無監督學習之路
Yann LeCun: 我在大學本科時就對“智能”這個問題著迷,也對人工智能的概念充滿興趣。當我了解到20世紀50、60年代,有人嘗試“訓練”機器而不是“編程”機器時,我被這個想法深深吸引。也許是因為我覺得自己要么太笨、要么太懶,不可能從零構建一個智能系統——所以讓機器自己學習、自己組織似乎更合理。畢竟,生命中的智能正是這樣自組織出來的。我覺得這個概念非常迷人。后來我畢業于工程學院,當時在做芯片設計,但我找不到任何人在研究這個方向。直到我遇到了一些對此感興趣的人,并看到了Geoff Hinton的論文。1983年我開始讀研時,Hinton是我最想見到的人,兩年后我們真的見面了。
主持人: 現在你們算是朋友了嗎?LeCun: 是的。1985年我們第一次共進午餐,我們幾乎能把對方的話說完。當時我有一篇用法語寫的論文投稿到一個會議,Hinton是大會主旨演講人。他讀懂了我論文中的數學內容,那其實是一個類似反向傳播的想法,用來訓練多層神經網絡。早在60年代,人們就知道機器學習的瓶頸在于無法有效訓練多層網絡。而這正是我癡迷的方向,也是他癡迷的方向。那篇論文讓我們真正建立了聯系,也讓我走上了這條研究之路。
之后,當你能訓練復雜系統后,新的問題就出現了——如何讓它做一些有用的事,比如識別圖像?上世紀80年代末我在Hinton手下做博士后時,我們就此展開爭論。我認為監督學習是唯一定義清晰的學習范式——你給機器看一張圖片,并告訴它正確答案。而他則認為,真正的突破必須來自“無監督學習”。當時我并不認同他的觀點。
時間來到2000年代中期,我、Yoshua和Hinton重新聚到一起,重新喚起學界對“深度學習”的興趣。我們當時把賭注壓在“自監督學習”(上,也就是讓機器從數據中自動發現結構,而不是依靠任務標簽去學習——這其實就是今天大型語言模型(LLM)的訓練方式。它們被訓練去預測下一個詞,但這并不是一個明確的“任務”,而是一種讓系統捕捉結構和表示的方法。
主持人: 那難道沒有獎勵機制嗎?沒有告訴機器“你做對了”這種反饋?LeCun: 有,但那不是強化學習那種獎勵。如果模型正確預測了下一個詞,那就是“正確”的信號。它不需要顯式的獎勵函數。實際上,Fei-Fei(李飛飛)要“背鍋”,因為她創造了一個巨大的標注數據集——ImageNet。這讓我們得以用監督學習訓練系統,結果效果驚人。于是我們暫時擱置了自監督學習的研究,因為監督學習太成功了。當時我們都轉向了那條路。
Yoshua Bengio: 我沒有放棄。LeCun(笑): 是的,你沒放棄,我其實也沒完全放棄。但的確,當時整個行業都被監督學習重新吸引了。直到2016、2017年左右,我們才再次意識到:監督學習不會帶我們去想去的地方。于是我們又回到自監督學習上。而如今,大語言模型就是這一方向最成功的例子。
現在,我們在研究如何把這種學習方式擴展到其他數據類型,比如視頻和傳感器數據——這是當前LLM并不擅長的部分,也是未來幾年最重要的新挑戰。
六位大佬談AI:不是泡沫
主持人: 這就引出了當下的現實。如今AI已經不僅是一場技術革新,更是一場巨大的商業浪潮、地緣政治競爭的核心。過去對AI一無所知的人,現在都在蜂擁而入。Jensen,我先從你開始吧——英偉達現在幾乎每天都在上新聞,成了全球市值最高的公司。人們顯然在你們身上看到了什么。你是否擔心外界的熱潮有些超前?AI領域是否會出現泡沫?如果不會,那人們對AI需求最大的誤解又是什么?
主持人:你認為AI泡沫會破裂嗎?
1.每一塊GPU都在滿負荷、Cursor非常賺錢,當然不是泡沫
黃仁勛:在互聯網泡沫時期,行業鋪設了大量光纖,但其中大多數都是“暗光纖”,也就是說并沒有真正投入使用。而今天,幾乎每一塊能找到的GPU都在滿負荷運行、發光發熱。
這就是為什么我認為我們要退一步去理解AI的本質。對很多人來說,AI等同于ChatGPT或圖像生成,這當然沒錯,但那只是AI的一個應用。過去幾年,AI的能力飛躍式發展——它不僅能記憶和泛化,還能推理、思考,并通過檢索來“落地”,能生成更有價值的答案,執行更復雜的任務。
更重要的是,現在有越來越多公司能真正基于AI構建出有盈利能力的業務,比如我們使用的一家AI編程公司Cursor,他們非常賺錢,我們大量依賴他們的工具,效果極佳。還有像Bridged、Open Evidence這類面向醫療行業的AI公司,表現都非常出色。
AI能力的成長帶來了兩條同時爆發的“指數曲線”:一是生成答案所需的算力呈指數級增長;二是AI模型的使用量也在指數級攀升。這兩條曲線疊加,導致了巨大的算力需求。
當我們回頭比較AI產業與傳統軟件產業時,差別非常關鍵。過去的軟件是“預編譯”的——一旦編譯完成,運行時算力需求并不高。而AI不同,它必須具備“上下文感知”,智能只能在當下生成,無法提前產出、再去調用。那種提前生成再讀取的東西叫“內容”;而AI生成的是“智能”,必須實時生產。
因此,我們實際上建立了一個“需要工廠”的行業。AI的“智能生產”需要算力工廠來生成token、生成智能。計算機第一次真正成為了工廠的一部分。為了支撐“以智能為基礎的萬億級產業”,我們需要投入數千億美元建設這些“智能工廠”。
過去的軟件是“工具”,是人用的。而AI是“智能”,是能增強人的存在。它直接介入“勞動”,能“工作”。
所以我的結論是:不,這不是泡沫。我們正處在“智能基礎設施”的早期建設階段。事實上,大多數人今天還沒真正使用AI。但未來,我們幾乎每天、每一刻都將與AI互動。從現在的低使用率到未來的“持續使用”,中間的建設過程就是我們正在經歷的“AI產業擴張期”。
即使某天“大語言模型(LLM)”這一路線走到盡頭,我們的GPU和基礎設施依然能支持新的AI范式。LLM只是AI系統中的一部分,AI由許多模型組成,未來的技術還有很長的路要走。
2.現在談論AI,早已經不再是語言模型了
Yoshua Bengio:我同意。不過我認為我們甚至不該再稱它們為“語言模型”了。它們起初確實是語言模型,但最近的技術進展正在把它們變成“智能體”(agents)——它們可以通過一系列步驟,交互式地與人或計算環境合作,以實現目標。
技術已經與三年前完全不同。我們無法預測兩年、五年或十年后會是什么樣子,但趨勢是清晰的。我們正組織一個國際專家團隊來追蹤AI的演進、風險與應對方式。雖然過去幾年AI取得巨大成功,但這不代表未來會永遠持續這種增長。
當然,如果市場預期過高而技術進展未達標,會帶來金融后果——但從長期來看,我完全認同它的潛力。
3.我們只達到了未來潛在需求的1%
主持人:你認為當前科技公司的估值合理嗎?
Bill Dally :我認為可以從三個趨勢來理解目前的情況。首先,模型正在變得更高效。比如,僅看注意力機制,從最初的標準 Attention,到 GQA,再到 MLA,我們已經能以更少的算力實現相同或更好的結果。這讓原本過于昂貴、不可行的AI任務變得經濟可行,從而擴大了需求。
其次,模型本身持續進步。無論Transformer架構還能走多遠,或者未來是否會出現新的架構,整體趨勢不會倒退——模型會越來越強。而這些模型依然需要GPU。事實上,相比于更專用的芯片,GPU反而更有價值,因為它更靈活,能隨著模型演化一起進化。
最后一點是,我們才剛剛觸及AI應用的冰山一角。幾乎人類生活的每個方面,都可以因為AI的輔助而變得更好——幫助專業人士工作、幫助人們處理日常事務。我認為我們現在可能只達到了未來潛在需求的1%。隨著應用擴張,對AI的使用次數將大幅增長。
所以我不認為這是泡沫。正如黃仁勛所說,我們正處在多重指數曲線的早期階段,一切才剛開始,并且還會持續加速。即使AI范式變化、架構更迭,我們仍然需要“底層的原子”——也就是算力基礎設施——這一點不會變。
4.AI 不過75年,整體還很年輕
李飛飛:從市場角度來看,短期內當然會有自身的波動和調整,但從長期趨勢看,AI整體仍是一個非常年輕的領域。你看這間會議室墻上掛著的是物理公式——物理作為一門學科已經發展了四百多年,即便是現代物理也有一百多年歷史。相比之下,如果從圖靈時代算起,AI不過75年。我們仍然處在探索新邊界的早期階段。
黃仁勛和Yoshua提到的大語言模型與智能體,主要還是“基于語言”的智能。但如果你深入思考人類智能,會發現還有遠超語言的能力。比如我自己正在研究“空間智能”(spatial intelligence),它是感知與行動之間的樞紐。人類與動物在感知、推理、交互與創造方面都具備極其復雜的空間智能,而當今最強大的語言模型在這一點上仍然非常薄弱。
從科學的角度看,AI學科還有大量新領域等待突破,也意味著更多新的應用機會。
5.我們不在泡沫中,但下一代AI不是加算力、數據、投資那么簡單
Yann Lecun:我認為目前我們還不在“泡沫”中,至少從幾個角度看是這樣。LLM 仍是主導范式,圍繞它還能開發出大量應用。正如 Bill 所說,我們可以利用現有技術改善人們的日常生活。無論是軟件層面的創新,還是算力基礎設施的建設,這些投資都是有價值的。
一旦每個人都能擁有智能穿戴設備、讓AI在日常中實時提供輔助,所需的計算量將會極其龐大,因此這類投資絕非浪費。
但從另一個角度說,確實存在“泡沫”的意味——那就是認為當前的大語言模型范式可以一路推進到“人類級智能”。我個人并不相信這一點。我們距離具備人類或動物級智能的系統還差很遠。今天的機器人連“貓”的智力都沒有。
AI的進展不只是“再加點算力、數據或投資”的問題,而是一個更深層的科學問題——我們需要突破,才能進入下一代AI范式。
AI實現人類級智能還要多久?這是個偽命題
主持人:那就請接著這個問題——AI達到人類級智能需要多長時間?
1.AI進步不是一個瞬間發生的事情
Yann Lecun:
這不會是一個瞬間發生的“事件”。AI能力會在不同領域逐步擴展。在未來5到10年,我們可能會取得重要的進展,甚至誕生新的AI范式。但整體來看,實現人類水平智能仍將比我們想象的更久。
2.機器永遠不會完全超越人類
李飛飛:
機器的一些部分會超越人類智能,另一些部分則永遠不會,因為AI和人類智能目標不同、結構不同。
例如,AI的某些能力現在已經超過人類了——問問自己,有多少人類能識別2.2萬個物體?或是能流暢地翻譯100種語言?顯然,大多數人類做不到。
所以我們要保持科學理性。就像飛機會飛,但它們不會像鳥一樣飛。機器智能將能完成極其強大的任務,但人類智能在社會中依然不可替代。
3.現在AI已經可以用于社會,何時超越人已經不重要
黃仁勛:
我們已經擁有足夠的通用智能,能把技術轉化為對社會極其有用的應用——事實上,這已經在發生。
所以我認為,一方面我們已經到了“那一步”,另一方面,這個問題(AI何時超過人類)其實已經不重要了。因為從現在開始,AI技術會持續變強,我們將持續用它來解決真實世界的重要問題。
“何時達到人類水平智能”這個問題,更像是個學術問題。答案是:這不重要,因為“那一刻”已經開始。
4.20年內機器就可以在辯論賽中戰勝人類,AGI會更提前
Geoffrey Hinton:
如果你把問題細化成——“多久之后機器在辯論中總能贏過人類?”那我認為大概20年內。我們現在還沒到,但很可能不到20年就能實現。
如果你把這定義為“通用人工智能(AGI)”,那它會比你想的更快到來。
5.錯誤的問題,AI不是要取代人類,而是增強人類
Bill:我有點同意黃仁勛的看法——這是個錯誤的問題。我們的目標不是讓AI取代人類或超越人類,而是要讓AI增強人類能力。
我們要讓AI去做那些人類不擅長的事:識別2.2萬個類別、解決數學奧賽題、翻譯多語言……讓人類能專注于創造力、共情、與他人互動等獨特能力。
我不確定AI是否能真正做到這些“人類特質”,但我相信AI能成為人類的巨大助力。
6.終有一天,機器能完成我們所做的一切
Yoshua Bengio :我稍有不同意見。我認為從概念上講,沒有理由我們不能造出能做任何人類能做的機器。我認為終有一天,機器能完成我們能做的幾乎一切。
目前在空間感知和機器人操作上AI還落后,但這只是工程問題。在時間表上,不確定性很大,我們應保持謹慎。
不過有一個趨勢值得注意:過去6年,AI在“規劃與多步推理”上的能力呈指數級增長。如果這種趨勢繼續,AI大約在5年內就能達到普通職員的工作水平。
更重要的是,許多公司正在專注于讓AI學會做AI研究,也就是說,讓AI去改進自己的算法、設計下一代AI系統。如果這成功,將帶來連鎖突破——包括更強的機器人和空間理解能力。我們不能斷言它一定會發生,但這方向的進步極快,值得重視。
因此,我們應該保持開放與謹慎,因為未來可能出現許多不同的發展路徑。
主持人:看來大家的共識是——AI的未來在某種意義上已經開始,但它不會以某個“瞬間事件”到來。從現在起,我們要學會與這些系統并肩工作。
我個人非常期待看到未來的變化。也許我們一年后再開一次這樣的討論,世界就已經完全不同了。謝謝各位的精彩對話。
附:歷屆伊麗莎白工程獲獎情況(獎金:900萬英鎊)
圖片
最后,向這些改變世界的科技前輩們致敬!



































