精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

十年內(nèi)出現(xiàn)AGI?下一代Gemini能感知環(huán)境?DeepMind CEO哈薩比斯暢談AI

人工智能 新聞
智能本質(zhì)、對齊、Gemini、超人類AI和多模態(tài)、AGI……在這場干貨滿滿的訪談中,Demis Hassabis可謂「知無不言、言無不盡」。

「如果我們在未來十年內(nèi)擁有類似 AGI 的系統(tǒng),我不會感到驚訝。」Google DeepMind 聯(lián)合創(chuàng)始人和 CEO Demis Hassabis 近日在人工智能播客節(jié)目 Dwarkesh Podcast 上如是說。

在長達一個小時的節(jié)目中,Hassabis 分享了自己對智能本質(zhì)、強化學習、規(guī)模擴展和對齊、AGI、多模態(tài)等主題的看法。機器之心選擇性地整理了其中的主要內(nèi)容并進行了適當編輯以便閱讀。

圖片

智能的本質(zhì)

Dwarkesh Patel:第一個問題:您有神經(jīng)科學背景,那么您是怎么看待智能的?

Demis Hassabis:這個問題很有趣。智能非常寬泛,可普遍用于各種用途。我認為這說明對于大腦處理我們周圍世界的方式,必然存在某種高層級的共同之處,算法層面的共同之處。當然,大腦中有做特定事情的特定部分,但我認為所有這些事情下面可能有一些基本原則作為支撐。

Dwarkesh Patel:您怎么看待這一事實:對于現(xiàn)在的 LLM,當你向其提供大量特定領域的數(shù)據(jù)時,它們往往會在那個領域變得格外地好?難道不能在所有不同領域上實現(xiàn)普遍提升嗎?

Demis Hassabis:首先,我認為當在某個領域內(nèi)獲得提升時,有時候也會在其它領域獲得出人意料的提升。舉個例子,當這些大模型的編程能力提升時,它們的一般推理能力實際上也能得到提升。所以現(xiàn)在是有一定的遷移學習的證據(jù)。而且這也是人腦學習的方式。如果我們大量經(jīng)歷或練習象棋或?qū)懽鞯仁马棧覀兙蜁絹碓缴瞄L對應的事情,即便我們是使用某種通用學習技術和通用學習系統(tǒng)來學習某個特定的領域。

Dwarkesh Patel:以語言和編程為例,在神經(jīng)網(wǎng)絡中,是否存在某種地方存在某種機制讓模型的語言和編程能力一起提升? 

Demis Hassabis:我們目前的分析技術還不足以確定這一點。實際上,對于這些系統(tǒng)構建的表征的機制分析,還有待大量研究。我有時候把這稱為虛擬腦分析(virtual brain analytics)。從某個方面看,這有點像是 fMRI,或者記錄真實大腦中單個細胞的活動。對于這類分析技術,可以怎樣將其類比到人造心智呢?這方面有很多出色的研究成果。比如 Chris Olah 就在研究這個,我很喜歡他的研究。有很多計算神經(jīng)科學的技術可以引入過來分析我們目前正在構建的這些系統(tǒng)。事實上,我也在努力鼓勵我在計算神經(jīng)科學領域的朋友思考這個方向,應用他們的所學來理解大型模型。

Dwarkesh Patel:由于您有神經(jīng)科學背景,您多半了解一些其他 AI 研究者不太了解的有關人類智能的知識。這方面的知識有哪些?

Demis Hassabis:神經(jīng)科學的助益很大。看看過去一二十年的研究就能知道。事實上我已經(jīng)思考這些三十多年了。在這新的一輪 AI 浪潮早期,神經(jīng)科學提供了大量有趣的引導性線索。于是出現(xiàn)了強化學習以及深度學習等技術。我們在這方面也有一些開創(chuàng)性的研究成果,比如經(jīng)歷重放(experience replay)以及已經(jīng)變得非常重要的注意力(attention)概念。很多這些成果的初始靈感都是來自對大腦工作方式的理解,當然它們并不完全一樣。一種是工程開發(fā)出的系統(tǒng),另一種是自然的系統(tǒng)。它們并不是某種算法的一對一映射,而更像是某種指示方向的靈感——或許是某種架構思想,或者算法思想或表征思想。畢竟大腦本身就是通用智能存在的證據(jù)。人類就是這樣的,一旦知道某件事是可能的,就更容易朝那個方向努力,因為你知道這就是一個努力進取直到某時取得成功的問題,而不是能否成功的問題。這能讓人更快地取得進展。

我認為在如今成功的背后,神經(jīng)科學啟迪了很多人的思考,至少是間接的。至于未來,我認為在規(guī)劃方面還有很多有趣的問題有待解決。還有大腦是以何種方式構建出了正確的世界模型?舉個例子,我研究過大腦是如何進行想象的,你也可以將這看作是心智模擬。我們就會問:為了執(zhí)行更好的規(guī)劃,我們是以怎樣的方式創(chuàng)建了對于世界的非常豐富的視覺空間模擬?

LLM 之上的強化學習

Dwarkesh Patel:LLM 能否具備這種類似樹搜索的能力?您對此怎么看?

Demis Hassabis:我認為這是一個非常有潛力的研究方向。我們在持續(xù)不斷地提升大型模型,讓它們成為越來越準確的世界預測器。在效果上,就是讓它們成為越來越可靠的世界模型。這明顯是必要的,但我認為這可能并不是 AGI 系統(tǒng)的充分條件。在這之外,我們還在研究 AlphaZero 這樣的規(guī)劃機制——其可使用模型執(zhí)行明確的規(guī)劃,從而在世界中實現(xiàn)特定的目標。另外可能還會搭配某種鏈式思維或推理路徑,也可能使用搜索來探索巨大的可能性空間。我認為這是我們當前的大模型所缺少的能力。

Dwarkesh Patel:對于這些方法所需的巨量算力,您會怎么獲得?您認為這方面的效率會怎么得到提升?

Demis Hassabis:首先,摩爾定律會幫助我們。每一年,計算能力都在提升;但我們更關注樣本高效型的方法以及復用已有的數(shù)據(jù),比如經(jīng)歷重放。世界模型越好,搜索效率就越高。舉個例子,AlphaGo 的搜索效率就遠高于使用暴力搜索的深藍(Deep Blue)。深藍的每一次決策可能需要查看數(shù)百萬種可能下法。AlphaGo 則只需要大約數(shù)萬次就能決定下一步。但人類的大師級棋手可能只需檢查幾百種下法就能得到一個非常好的下一步?jīng)Q策結(jié)果。這明顯說明,暴力搜索系統(tǒng)對這些棋并沒有真正的模型。AlphaGo 有相當不錯的模型,而頂級人類棋手擁有更豐富、更準確的圍棋或國際象棋模型。這讓他們只需少量搜索就能做出世界級的決策。

Dwarkesh Patel:但是 AlphaGo 勝過了人類冠軍。

Demis Hassabis:當然,所以我們做出了開創(chuàng)性的成果,DeepMind 也因此出名。我們使用游戲作為驗證平臺,因為很顯然在游戲中的搜索效率更高。另外,在游戲中也更容易設定獎勵函數(shù)——不管是獲勝還是贏取分數(shù)。這些是大多數(shù)游戲內(nèi)置的獎勵機制。但對于真實世界系統(tǒng),這卻非常困難——該如何定義正確的目標函數(shù)、正確的獎勵函數(shù)和正確的目標?

Dwarkesh Patel:人類智能有很高的樣本效率,它與 AlphaGo 這些系統(tǒng)得到解答的方式有何不同?比如愛因斯坦如何想出了相對論?

Demis Hassabis:它們大不相同,因為我們的大腦并不會執(zhí)行蒙特卡洛樹搜索。這不是我們的有機大腦的工作方式。為了彌補這一點,人類的大腦會用到直覺。人類會使用自己的知識和經(jīng)歷來構建非常準確的模型,比如愛因斯坦構建了非常準確的物理模型。如果你閱讀一下愛因斯坦的經(jīng)歷,看看他是如何想出那些理論的,你會發(fā)現(xiàn)他習慣視覺化地思考那些物理系統(tǒng),而不只是通過數(shù)學公式。這讓他有了對這些物理系統(tǒng)的非常直覺化的感知。這讓他產(chǎn)生了在當時顯得非常離奇的想法。

我認為這就是我們構建的世界模型的復雜精妙之處。想象一下,如果你的世界模型能讓你抵達你正在搜索的某個樹的某個節(jié)點,然后你就只需要在這個節(jié)點附近搜索即可。這樣一來,你的搜索量就少多了。

Dwarkesh Patel:現(xiàn)在還有一個問題有待解決:強化學習能否讓模型使用自我博弈合成數(shù)據(jù)來克服數(shù)據(jù)瓶頸問題?您似乎對此很樂觀。

Demis Hassabis:是的,我對此非常樂觀。首先,仍然還有大量數(shù)據(jù)可以使用,尤其是多模態(tài)和視頻等數(shù)據(jù)。而且顯然,社會也在一直不斷增加更多數(shù)據(jù)。但我認為創(chuàng)造合成數(shù)據(jù)方面也有很大的發(fā)展空間。這方面有一些不同的方法,比如模擬和自我博弈,模擬方法包括使用非常仿真的游戲環(huán)境來生成接近真實的數(shù)據(jù)。而自我博弈則是讓模型互相交互或交談。這種方法在我們開發(fā) AlphaGo 和 AlphaZero 時效果非常好。

Dwarkesh Patel:那么該如何確保合成的數(shù)據(jù)不是來自模型的數(shù)據(jù)集,而是新數(shù)據(jù)?

Demis Hassabis:我認為這需要一門完整的學科來進行研究。在這方面,我們?nèi)蕴幱跀?shù)據(jù)管理和數(shù)據(jù)分析的初級階段。比如通過分析數(shù)據(jù)分布,能找到分布中的漏洞,這對于公平與偏見等議題來說非常重要。要將其移出系統(tǒng),就需要確保數(shù)據(jù)集能夠代表你想要學習的分布。對此人們有一些可以使用的技巧,比如增大數(shù)據(jù)中特定部分的權重或重放這部分數(shù)據(jù)。也可以想象,如果你發(fā)現(xiàn)你的數(shù)據(jù)集中有如此漏洞,你可以使用生成的數(shù)據(jù)來進行填補。

Dwarkesh Patel:現(xiàn)在人們很關注強化學習,但其實 DeepMind 很多年前就研究過了。是否還有類似這樣的研究方向——早已經(jīng)出現(xiàn)了,但還沒有引起人們重視?

Demis Hassabis:事實上,過去幾十年來這種事情一直在發(fā)生。新舊思想結(jié)合起來就有巨大潛力,比如過去的一些想法與更大規(guī)模模型和大型多模態(tài)模型結(jié)合起來也許就能得到激動人心的結(jié)果。

Dwarkesh Patel:強化學習、LLM、樹搜索,哪種方法有潛力催生出 AGI?

Demis Hassabis:從理論上看,我認為純 AlphaZero 式的方法沒理由不成功。Google DeepMind 和社區(qū)一些人正在研究在假設完全沒有先驗知識、沒有數(shù)據(jù)的前提下,從頭開始構建所有知識。我認為這是有價值的,因為這些想法和算法在有一定知識時也能使用。

話雖如此,但目前來說我認為最可能最快實現(xiàn) AGI 的方法是使用目前世界上已有的知識,比如網(wǎng)絡上的和我們收集的知識。而且我們還有 Transformer 等有能力消化這些信息的可大規(guī)模擴展的算法。你可以將一個模型用作某種形式的先驗,基于其上進行構建并執(zhí)行預測,以此啟動 AGI 學習。沒理由不這樣做。我猜想,在最終的 AGI 系統(tǒng)中,大型多模態(tài)模型會成為整體解決方案的一部分,但它們本身并不足以成為 AGI。它們還需要額外的規(guī)劃搜索能力。

擴展與對齊

Dwarkesh Patel:現(xiàn)在有個規(guī)模擴展假設(scaling hypothesis)。有人猜想,只要擴大模型和數(shù)據(jù)分布的規(guī)模,智能終會出現(xiàn),您認同嗎?

Demis Hassabis:我認為這是一個需要實驗檢驗的問題。幾乎所有人(包括那些最早開始研究規(guī)模擴展假設的人)都很驚訝規(guī)模擴展所帶來的成就。看看現(xiàn)如今的大模型,它們的效果好得簡直不合理!大模型涌現(xiàn)出的一些性質(zhì)相當出人意料;在我看來,大模型是有某種形式的概念和抽象能力。要是回到五年以前,我會說要做到這一點,我們可能還需要另一種算法方面的突破。也許更類似大腦的工作方式。我認為,如果我們想要明確的、簡潔的抽象概念,我們依然需要更加理解大腦,但這些系統(tǒng)似乎可以隱式地學習它們。

另一個出人意料的有趣結(jié)果是這些系統(tǒng)獲得了某種形式的現(xiàn)實基礎知識(grounding/定基),即便它們并未體驗過世界的多模態(tài)——至少在近期的多模態(tài)模型出現(xiàn)之前沒有。只是靠語言就能構建起如此大量的信息和模型,著實讓人驚訝。對此的原因,我有一些假設。我認為大型語言模型能通過 RLHF 反饋系統(tǒng)獲得一些現(xiàn)實基礎知識,因為人類反饋者本身就是生活在現(xiàn)實中的人。我們就立足于現(xiàn)實世界中。所以我們的反饋也是立足于現(xiàn)實的。因此這能讓模型獲得一些現(xiàn)實基礎。另外,也許語言中就包含了更多的現(xiàn)實基礎,如果你能完全洞悉語言,也許能發(fā)現(xiàn)我們之前可能沒考慮到的東西,甚至可能已經(jīng)有語言學家研究過這些方面。這實際上是一個非常有趣的哲學問題。人們甚至可能都尚未觸及其表面。看看過去的進展,暢想未來是非常有趣的。

對于你說的規(guī)模擴展問題,我認為我們應當盡可能地擴大規(guī)模,我們也正在這么做。至于最后會趨近一條漸近線還是撞上鐵墻,這是個實驗問題,不同的人會有不同的意見。但我認為我們應該直接去測試。沒人能想出答案。但與此同時,我們也應該加倍投資創(chuàng)新和發(fā)明。這是谷歌研究院、DeepMind 和谷歌大腦的做法,我們在過去十年中開創(chuàng)性地取得了許多成果。這就是我們的生存之道,

可以說,我們一半的努力是在擴展規(guī)模,另一半則是在研發(fā)未來的架構和算法——它們或許是在模型變得越來越大之后所需的。我大概猜想,未來這兩方面都需要。所以我們要兩方面都盡可能地發(fā)力。我們很幸運,因為我們確實能做到這一點。

Dwarkesh Patel:再多聊聊定基(grounding)。可以想象,有兩件事會讓定基變得更加困難。一是隨著模型變得更加聰明,它們就能在我們無法生成足夠人類標簽的領域工作——因為我們不夠聰明。而是關于計算。目前我們做的都是下一 token 預測。這就像是一個護軌,限制模型讓其像人類一樣談話,像人類一樣思考。現(xiàn)在,如果額外的計算是以強化學習形式出現(xiàn)的呢——我們只知道達成了目標但無法追蹤是如何達成的?如果這兩者組合起來,定基會出現(xiàn)什么問題?

Demis Hassabis:我認為如果系統(tǒng)沒有適當?shù)囟ɑ到y(tǒng)就無法適當?shù)貙崿F(xiàn)這些目標。我認為在某種程度上系統(tǒng)應該有定基,至少要有一些,這樣才能在真實世界中真正實現(xiàn)目標。隨著 Gemini 這樣的系統(tǒng)變得更加多模態(tài),可以在文本數(shù)據(jù)之外處理視頻、音頻和視覺數(shù)據(jù),這些系統(tǒng)就會開始將這些東西融合到一起。我認為這其實就是一種形式的定基。這樣系統(tǒng)就會開始更好地理解真實世界的物理機制。

Dwarkesh Patel:為了對齊比人類更聰明的系統(tǒng),應該怎么做?

Demis Hassabis:我和 Shane(注:Shane Legg,DeepMind 聯(lián)合創(chuàng)始人,現(xiàn)擔任該公司首席 AGI 科學家)還有其他許多人在我們創(chuàng)立 DeepMind 之前就已經(jīng)在考慮這個問題了,因為我們計劃著取得成功。2010 年時,還沒什么人研究 AI,更別說 AGI 了。但我們那時就知道,如果我們能通過這些系統(tǒng)和思想取得成功,創(chuàng)造出的技術將會具有讓人難以置信的變革力量。所以我們 20 年前就在思考了,這樣會有什么正面和負面的后果。正面的后果就是驚人的科學成果,比如 AlphaFold、科學和數(shù)學領域的科學發(fā)現(xiàn)。同時我們也需要確保這些系統(tǒng)是可理解的和可控的。

為了得到經(jīng)過更為嚴格評估的系統(tǒng),人們提出了很多想法。但我們目前還沒有足夠好的評估方法和基準可以確定系統(tǒng)是否欺騙了你、系統(tǒng)是否會泄漏自己的代碼等不良行為。還有些人提出可以使用 AI 來輔助分析,就是使用應用范圍窄的 AI(narrow AI)。它們不具備通用學習能力,而是專門為某個特定領域?qū)iT設計的;它們可以幫助人類科學家分析更通用的系統(tǒng)的行為。我認為一個有很大潛力的方向是創(chuàng)造強化型沙盒或模擬環(huán)境——它們的網(wǎng)絡安全經(jīng)過增強,可以把 AI 困在其中,也能保證外部攻擊者無法進入。這樣一來,我們就可以在這個沙盒中自由地做實驗了。另外也有些人在研究讓人類能夠理解這些系統(tǒng)構建的概念和表征。

時間線和智能爆炸

Dwarkesh Patel:您認為 AGI 會在什么時候出現(xiàn)?

Demis Hassabis:我沒有具體的時間預測,因為我感覺還有很多未知和不確定,而且人類的聰明才智和努力總是會帶來驚喜。這些都可能導致時間線變化。但我要說,在我們 2010 年創(chuàng)立 DeepMind 時,我們認為這個項目需要 20 年時間。實際上,我覺得我們正按預期向目標靠近。這很了不起,因為通常的 20 年計劃總是還要另外 20 年。如果我們在未來十年內(nèi)擁有類似 AGI 的系統(tǒng),我不會感到驚訝。

Dwarkesh Patel:如果有了 AGI,您會使用嗎?您可以將其用來進一步加速 AI 研究。

Demis Hassabis:我認為這是有可能的。這要看我們做出什么決定。我們需要作為一個社會來決定如何使用第一個新生的 AGI 系統(tǒng)或甚至 AGI 原型系統(tǒng)。即便是我們現(xiàn)有的系統(tǒng),我們也需要考慮其安全方面的影響。

Gemini 的訓練

Dwarkesh Patel:目前 Gemini 的開發(fā)遇到了什么瓶頸?既然規(guī)模擴展法效果很好,為什么不直接把它增大一個數(shù)量級?

Demis Hassabis:首先,有實踐方面的限制。一個數(shù)據(jù)中心究竟能有多少算力呢?實際上,這會遇到非常有趣的分布式計算難題。幸運的是,我們有最好的研究者在研究這些難題以及如何實現(xiàn)跨數(shù)據(jù)中心訓練等等。還有硬件方面的難題,我們有自己構建和設計的 TPU 等硬件,也會使用 GPU。至于規(guī)模擴展的效果,也不是總?cè)缒Хò阌行АU大規(guī)模時也還需要擴展超參數(shù),每一種規(guī)模都需要各種不同的創(chuàng)新。不是每一種規(guī)模都能重復一樣的配方。我們必須調(diào)整配方,而且這在某種程度上就像是搞藝術。另外還需要獲得新的數(shù)據(jù)點。

Dwarkesh Patel:在 Gemini 的開發(fā)過程中,您覺得最出人意料的是什么?

Demis Hassabis:我得說沒什么非常出人意料,但是能在那種規(guī)模上進行訓練并從一種組織化的角度去研究它,是非常有趣的。

Dwarkesh Patel:很多人認為其它實驗室的模型的計算效率可能比 DeepMind 的 Gemini 高。您怎么看?

Demis Hassabis:我認為情況并非如此。實際上,Gemini 使用的算力差不多,也許就比傳聞中 GPT-4 使用的算力稍多一點。

Dwarkesh Patel:對于 2010 年剛創(chuàng)立 DeepMind 的您來說,現(xiàn)在的 AI 進展中哪一點最讓您感到意外?

Demis Hassabis:你也采訪過我的同事 Shane。他總是從計算曲線方面進行思考,也常常將 AI 與大腦進行比較——有多少神經(jīng)元或突觸。但現(xiàn)在我們已經(jīng)差不多到大腦中神經(jīng)突觸數(shù)量的數(shù)量級和那樣的計算量了。

但我認為,更根本的問題在于,我們關注的重心始終是通用性和學習。這始終是我們使用任何技術的核心。因此我們把強化學習、搜索和深度學習看作是三種可以擴展并且可以非常通用的算法,無需大量人工設計的人類先驗知識。這不同于 MIT 等在當時構建的 AI——它們是基于邏輯的專家系統(tǒng),需要大量人工編碼。事實證明這種做法是錯誤的。我們在早期看出了發(fā)展趨勢。我們使用游戲作為驗證平臺,發(fā)現(xiàn)結(jié)果還不錯。最后也取得了巨大的成功。AlphaGo 等成功給其他許多人帶去了啟發(fā)。當然,還有我們谷歌研究院和谷歌大腦的同事發(fā)明的 Transformer,這種深度學習方法讓模型可以處理海量數(shù)據(jù)。這些技術就是如今成果的基礎。這些都是一以貫之的傳承。我們當然不可能預測出每一次技術轉(zhuǎn)變,但我認為我們前進的總體方向是正確的。

治理超人類 AI

Dwarkesh Patel:您怎么看待超人類智能的前景?它仍然受私有企業(yè)控制嗎?具體應該如何治理它?

Demis Hassabis:我認為這種技術將會帶來重大影響。大于任何一家公司,甚至大于任何一個行業(yè)。我認為這必需來自民間社會、學術界、政府的許多利益相關者的大規(guī)模合作。好消息是,隨著近期聊天機器人等技術的廣泛使用,社會中其它一些部分被喚醒了,他們開始認識到這種系統(tǒng)正在到來并且他們也將與這些系統(tǒng)互動。這很不錯。這為良好的對話打開了很多大門。

其中一個例子是幾個月前在英國舉辦的 AI Safety Summit。我認為這是一次巨大成功。我們需要進行國際間的對話,要讓整個社會一起來決定我們要使用這些模型做什么、我們希望怎樣使用它們、我們希望它們不被用于什么目的。

Dwarkesh Patel:現(xiàn)在的 AI 系統(tǒng)已經(jīng)非常強大,為什么它們的影響沒有更大呢?

Demis Hassabis:這說明我們依然還處在這個新時代的起點。目前的這些系統(tǒng)已經(jīng)有一些有趣的用例,比如使用聊天機器人系統(tǒng)來為你做總結(jié)、完成一些簡單的寫作任務、進行樣板式寫作;但這些只是我們?nèi)粘I畹囊恍〔糠帧?/span>

我認為,對于更一般化的用例,我們?nèi)匀恍枰碌哪芰Γ热缫?guī)劃和搜索,另外還需要個性化、記憶、情境記憶等。因此長上下文窗口是不夠的,還要記住 100 輪對話之前我們說了什么。一旦這些技術成熟了,我們就會看到新的用例,比如能幫助我們找到更好更豐富材料(書、電影、音樂等)的新推薦系統(tǒng)。那樣我就會每天使用這類系統(tǒng)。我認為我們目前只是觸及了這些 AI 助理的表面,其實未來它們能為我們的一般日常生活和工作做更多事情。另外用它們做科研也不足夠可靠。但我相信未來當我們決定了事實性和定基等問題之后,這些 AI 系統(tǒng)就能變成世界上最好的研究助理。

Dwarkesh Patel:說到記憶,您在 2007 年有一篇論文談到記憶和想象(imagination)有某種程度的相似之處。現(xiàn)在也有人說目前的 AI 就只是記住了些東西。您對此怎么看?只靠記憶就足夠了嗎?

Demis Hassabis:在有限的情況下,也許記住一切就夠了,但這樣無法泛化到原有的分布之外。但很明顯 Gemini 和 GPT-4 等模型確實能夠泛化到新的情況。至于我的那篇論文,我實際上表達的是:記憶(至少是人類記憶)是一種重建的過程。記憶不是磁帶式的精確記錄。我們的大腦是把看起來熟悉的東西組合到一起。這讓我思考想象可能也是這么回事。只不過這時候我們組合的是語義組件(semantic component)——你的大腦將它們組合起來并且認為結(jié)果是全新的。我認為我們目前的系統(tǒng)依然缺少這種能力——即把世界模型的不同部分拿出來組合到一起來模擬新東西,從而幫助用來執(zhí)行規(guī)劃。這就是我所說的想象。

安全、開源和權重安全

Dwarkesh Patel:你們有計劃和其它兩家主要的 AI 實驗室一樣從某種程度上放出 Gemini 的框架嗎?

Demis Hassabis:是的,我們內(nèi)部已經(jīng)做了大量的檢查和平衡,我們也會開始發(fā)布一些東西。未來幾個月,我們有很多博客文章和技術論文發(fā)出來。

Dwarkesh Patel:如何保護模型的權重,使其不被惡意盜用?

Demis Hassabis:這涉及到兩個方面。一是安全,二是開源。安全非常關鍵,尤其是網(wǎng)絡安全。我們 Google DeepMind 非常幸運。因為我們在谷歌的防火墻和云的保護之下,這可以說是世界上最好的安全防護。除此之外,我們 DeepMind 還有特定的措施來保護我們的代碼庫。所以我們有雙重保護。而且我們還在不斷提升和改進,比如使用強化沙盒。我們也在考慮特定的安全數(shù)據(jù)中心或硬件解決方案。所有的前沿實驗室都應該這么做。

開源也很重要。我們是開源和開放科學的大力支持者。我們已經(jīng)發(fā)布了數(shù)千篇論文,包括 AlphaFold、Transformer 和 AlphaGo。但對于核心的基礎技術,我們會考慮如何阻止惡意組織、個人或流氓國家,防止他們使用這些開源系統(tǒng)去實現(xiàn)他們的有害目的。這是我們必須回答的問題。我不知道這個問題的答案,但我也沒能從支持開源一切的人那里聽到讓人信服的答案。我認為這其中必須要有些平衡。但很顯然這是個很復雜的問題。

Dwarkesh Patel:在安全方面,其它一些實驗室有自己的專攻領域,比如 Anthropic 在研究可解釋性。現(xiàn)在你們有了最前沿的模型,你們也會在安全方面做前沿研究嗎?

Demis Hassabis:我們已經(jīng)開創(chuàng)了 RLHF 等技術,這不僅能用于提升性能,也能用于安全。我認為很多自我博弈想法也有潛力用于自動測試新系統(tǒng)的邊界條件。部分問題在于,對于這些非常通用的系統(tǒng),它們的適用范圍非常廣。我認為我們將需要一些自動測試技術以及之前提到的模擬和游戲、非常擬真的虛擬環(huán)境。在這方面我們有很長的研究歷史。另外,很幸運谷歌有大量網(wǎng)絡安全專家和硬件設計師。這也是我們可以獲得的安全保障。

多模態(tài)和進一步的進展

Dwarkesh Patel:對于 Gemini 這樣的系統(tǒng),目前與它們默認的交互方式是通過聊天。隨著多模態(tài)和新能力的加入,這種情況會如何改變?

Demis Hassabis:在理解完整的多模態(tài)系統(tǒng)方面,我們還處于起步階段。與其的交互方式將與我們現(xiàn)在的聊天機器人大不相同。我想明年的下一代版本可能會具有一定的環(huán)境理解能力,比如通過相機或手機。然后我可以想象下一步。模型在理解方面會變得越來越順暢。我們可以使用視頻、聲音甚至觸碰。如果再考慮到使用傳感器的機器人,世界將會開始變得激動人心。我想未來幾年,我們就能看到多模態(tài)對機器人學科意味著什么。

Dwarkesh Patel:Ilya 曾在播客上跟我說過 OpenAI 放棄研究機器人的原因:在該領域的數(shù)據(jù)不夠,至少在那時候是如此。您認為這對機器人的發(fā)展而言依然還是一個瓶頸嗎?

Demis Hassabis:我們的 Gato 和 RT-2 Transformer 取得了激動人心的進展。我們一直以來都很喜歡機器人。我們在這一領域也有出色的研究成果。我們?nèi)匀辉谶M行機器人研究,因為我們其實喜歡這一事實:這是一個數(shù)據(jù)稀少的領域。我們認為這會是一個非常有用的研究方向,其中涉及到的課題包括采樣效率和數(shù)據(jù)效率、從模擬環(huán)境遷移到現(xiàn)實的遷移學習。我們一直在努力研究。

實際上 Ilya 說得對,機器人很有挑戰(zhàn)性就是因為數(shù)據(jù)問題。但我想我們會開始看到大模型可以遷移到機器人領域、在非常普適的領域?qū)W習,并且可以將 Gato 這樣的 token 當作是任意類型的 token 進行處理。這些 token 可以是動作,也可以是詞、圖塊、像素等等。我心中的多模態(tài)就是這樣。但一開始,訓練這樣的系統(tǒng)比簡單直接的文本語言系統(tǒng)更困難。我們之前聊遷移學習時也談到了,對于一個真正的多模態(tài)系統(tǒng),一個模態(tài)是可以從其它模態(tài)獲益的。比如如果模型更加理解視頻,其語言能力也會有所提升。我們最后會有一個這樣的更加通用、更有能力的系統(tǒng)。

Dwarkesh Patel:DeepMind 發(fā)表了許多有趣的研究成果來加速不同領域的科學研究。為什么要構建這樣的特定領域的方案呢?為什么不等到一二十年后讓 AGI 來做?

Demis Hassabis:我想我們并不知道 AGI 將在何時到來。而且我們過去也常常說,我們不必等到 AGI,也能做出些出色的成果來造福這個世界。我個人也對 AI 在科學和醫(yī)療領域的應用充滿熱情。而且你可以看到我們的多篇 Nature 論文關注了多個不同的領域。有很多激動人心的研究方向能影響這個世界。作為擁有數(shù)十億用戶的谷歌的一分子,我們很榮幸有這樣的巨大機會,可以將我們?nèi)〉玫倪M步快速提供給數(shù)十億人,幫助改善、豐富和助力他們的日常生活。

從 AGI 的角度看,我們也需要檢驗我們的想法。我們不能指望閉門造 AI 就能推動發(fā)展,因為這樣只會讓內(nèi)部指標偏離人們真正會關心的真實事物。真實世界應用能提供大量直接的反饋,可以讓我們知道系統(tǒng)是否在進步或者我們是不是需要提高數(shù)據(jù)或樣本效率。因為大多數(shù)真實世界難題都需要這樣。這能不斷推動和引導你的研究方向,以確保它們走在正確的道路上。當然,另一方面是,即便是在 AGI 誕生之前很多年,世界也能從中獲益。

Google DeepMind 內(nèi)部

Dwarkesh Patel:Gemini 的開發(fā)工作涉及到谷歌大腦和 DeepMind 等不同機構的合作。這其中遇到了哪些挑戰(zhàn)?產(chǎn)生了哪些協(xié)同效應?

Demis Hassabis:過去的一年是很棒的一年。當然,挑戰(zhàn)是有的,和任何大型整合工作一樣。但我們是兩個世界級的組織,各自都發(fā)明了許多重要技術,從深度強化學習到 Transformer。因此,我們的很多工作就是將這些匯集起來,實現(xiàn)更加緊密的合作。其實我們過去常常合作,只不過之前是針對具體項目的合作,現(xiàn)在則是更加深度和廣泛的合作。

Gemini 是這一合作的首個成果,其實 Gemini 這個名字就暗含了孿生兄弟姐妹的意思。當然,也有很多事情的效率更高了,像是把計算資源、想法和工程開發(fā)工作匯集到一起。我們目前就處于這個階段,基于世界級的工程開發(fā)來構建前沿系統(tǒng)。我認為進一步的合作是有意義的。

Dwarkesh Patel:您和 Shane 創(chuàng)立 DeepMind 的部分原因是你們擔憂 AI 的安全問題。您認為 AGI 的到來有現(xiàn)實的可能性。您感覺來自谷歌大腦的研究者也有類似看法嗎?這個問題方面是否存在文化差異?

Demis Hassabis:沒有。總體而言,這就是我們在 2014 年與谷歌攜手的原因之一。我認為,谷歌和 Alphabet 整體(不只是谷歌大腦和 DeepMind)都以負責任的態(tài)度認真對待這些問題。差不多我們的座右銘就是大膽嘗試這些系統(tǒng),同時要負起責任。我顯然是一個技術樂觀主義者,但我希望我們對技術保持謹慎,畢竟我們共同為這個世界帶來的東西具有變革性的力量。我認為這很重要。我認為這將成為人類發(fā)明的最重要的技術。

Dwarkesh Patel:最后一個問題。2010 年時,當其他人還覺得 AGI 很荒謬時,您就在思考這個終極目標了。現(xiàn)在隨著這類技術的慢慢起飛,您是怎么想的呢?您是否已經(jīng)在您的世界模型中預想到過?

Demis Hassabis:是的,我確實已經(jīng)在我的世界模型中預想到過這些,至少是從技術角度。但很顯然,我們不一定預料到了公眾會在如此早期階段參與進來。像是 ChatGPT 等一些應用在某些方面還有所欠缺,但人們已經(jīng)有濃烈的興趣去使用它們了。這一點挺讓人意外的。

另外還有更加專業(yè)化的系統(tǒng),比如 AlphaFold 和 AlphaGo 以及一些科學方面的成果,但它們在公眾關注的主線發(fā)展之外,也許幾年后公眾會關注到它們,那時候我們可能就有了更加普遍適用的助理類型的系統(tǒng)。這會創(chuàng)造出一個和現(xiàn)在不一樣的環(huán)境。而且情況可能看起來會更混亂,因為會有很多事情發(fā)生,也會有很多風險投資,好像所有人都失去理智一樣。

我唯一擔憂的是我們能否負責任地、深思熟慮地、科學地對待這種情況,使用科學方法來應對。也就是我說的樂觀但謹慎的方式。我一直都相信這是我們應對 AI 這類事物的方式。我希望我們不會迷失在這場快速襲來的巨大熱潮中。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2025-11-04 01:00:00

谷歌AI 模型Gemini 3

2025-08-04 09:05:00

2013-07-27 21:28:44

2025-01-10 14:15:26

2021-05-22 23:01:21

人工智能網(wǎng)絡安全

2025-09-16 09:05:00

2022-07-06 11:38:40

人工智能AI

2025-03-24 09:30:00

2024-02-07 09:00:00

2025-11-13 17:35:18

微軟AgenticAI 系統(tǒng)

2013-06-27 11:21:17

2025-03-25 10:54:08

2023-06-27 13:37:17

谷歌AI

2025-01-03 09:24:10

模型架構論文

2020-09-16 10:28:54

邊緣計算云計算數(shù)據(jù)中心

2024-12-24 15:07:18

2020-09-27 17:27:58

邊緣計算云計算技術

2023-06-25 07:53:33

AI生成式模型

2013-09-09 16:28:36

2025-08-13 18:32:31

點贊
收藏

51CTO技術棧公眾號

九九九在线视频| 手机av在线网| 国内在线精品| 三级不卡在线观看| 久久韩剧网电视剧| 四虎永久免费观看| 国产精品久久亚洲不卡| 亚洲天堂精品视频| 国产一区二区三区无遮挡| 在线观看日本网站| 希岛爱理av一区二区三区| 日韩欧美一级二级| 99久久国产宗和精品1上映| 欧美猛烈性xbxbxbxb| 岛国精品在线观看| 国产成人高清激情视频在线观看| 一二三四国产精品| 日韩高清一级| 欧美一级二级三级蜜桃| 日韩视频免费在线播放| 亚洲区欧洲区| 欧美高清在线一区| 久久精品日韩精品| a级片免费观看| 日本不卡在线视频| 91超碰中文字幕久久精品| 刘亦菲国产毛片bd| 蜜桃视频欧美| 精品国产人成亚洲区| av网站在线不卡| 中文字幕乱码中文乱码51精品| 18成人在线观看| 日韩亚洲一区在线播放| 天堂网在线播放| 国产精品一区二区果冻传媒| 国产精品第二页| 99热只有这里有精品| 综合精品久久| 国产亚洲精品美女久久久| 91人人澡人人爽| 国产精品欧美一区二区三区不卡| 91黄色免费版| 麻豆传传媒久久久爱| yellow字幕网在线| 亚洲资源在线观看| www.日本三级| 51xtv成人影院| 亚洲色图20p| 一区二区三区我不卡| www视频在线观看免费| 久久夜色精品国产欧美乱极品| 99热在线国产| 精品国产一级片| 国产一区二区导航在线播放| 国产噜噜噜噜久久久久久久久| 久久亚洲精品石原莉奈| 久久国产精品毛片| 日韩暖暖在线视频| 国产女主播喷水视频在线观看| 99国产成+人+综合+亚洲欧美| 高清亚洲成在人网站天堂| 久久久久成人片免费观看蜜芽| 一区二区三区午夜探花| 操91在线视频| 青青草原国产视频| 好看的日韩av电影| 91国内产香蕉| 中文人妻av久久人妻18| 视频在线观看91| 国产精品久久久久久久9999 | 亚洲国产中文字幕在线视频综合 | 一本色道久久综合亚洲91| 波多野结衣乳巨码无在线| 天堂电影一区| 在线精品国精品国产尤物884a| 国产1区2区在线| 国产69精品久久| 欧美精品一二三| 色哟哟免费视频| 欧美18xxxx| 亚洲人成毛片在线播放| 国产主播av在线| 欧美~级网站不卡| 97精品久久久中文字幕免费| 日韩在线播放中文字幕| 蜜桃一区二区三区四区| 亚洲free嫩bbb| 天堂av中文字幕| 欧美国产成人精品| 菠萝蜜视频在线观看入口| 岛国av在线网站| 欧美午夜一区二区| 农村末发育av片一区二区| 亚洲伊人春色| 久久亚洲欧美日韩精品专区| 日韩精品一区二区av| 日韩经典中文字幕一区| 91超碰rencao97精品| 亚欧在线观看视频| 国产精品电影一区二区| 美女扒开大腿让男人桶| 日韩精品麻豆| 精品国产91洋老外米糕| 特级西西www444人体聚色| 欧美1区2区| 日韩女优在线播放| 黄色三级网站在线观看| 国产欧美视频一区二区三区| 毛片av在线播放| 国产精品亚洲d| 亚洲国产精品成人av| 亚洲色图欧美色| 99在线精品视频在线观看| 91精品国产自产在线| 天天躁日日躁狠狠躁喷水| 综合网在线视频| 国产精品亚洲二区在线观看 | 欧美日韩久久一区| 在线精品一区二区三区| 羞羞答答成人影院www| 日韩美女免费视频| 人妻妺妺窝人体色www聚色窝 | √天堂中文官网8在线| 午夜综合激情| 国产精品国产三级欧美二区| 欧美videos极品另类| 色婷婷av一区二区| 完美搭档在线观看| 欧美激情四色| 国产日韩欧美中文| 精品av中文字幕在线毛片| 亚洲高清免费视频| 国产伦精品一区二区三区妓女下载| 精品久久久久中文字幕小说| 88xx成人精品| 六月婷婷综合网| 亚洲精品国产品国语在线app| 奇米影音第四色| 精品毛片免费观看| 国产成人精品日本亚洲| 色综合888| 精品日本美女福利在线观看| 精品人妻一区二区免费| 欧美国产免费| 91麻豆蜜桃| 免费高清在线观看| 欧美日韩精品一区视频| 国产99在线 | 亚洲| 石原莉奈在线亚洲二区| 日本一区二区三区四区在线观看| 自由日本语热亚洲人| 国产网站欧美日韩免费精品在线观看| 久久久久亚洲天堂| 成人国产视频在线观看| av在线播放天堂| 卡通动漫精品一区二区三区| 久久乐国产精品| 天天摸天天碰天天爽天天弄| 午夜伦理一区二区| 激情综合丁香五月| 老**午夜毛片一区二区三区| 日韩精品久久一区| 欧美成a人片免费观看久久五月天| 一区二区三区日韩在线| 久久久999久久久| 国产精品国产馆在线真实露脸| 久久黄色片网站| 欧美激情91| 好看的日韩精品| 亚洲精品一区| 最近2019年好看中文字幕视频| 曰批又黄又爽免费视频| 亚洲男人天堂av网| 亚洲一区二区三区四区av| 亚洲美女一区| 欧洲久久久久久| 欧美一级做a| 欧美精品在线观看| 香蕉国产在线视频| 欧美图区在线视频| 欧美成人三级视频| 久久亚洲精精品中文字幕早川悠里| www.四虎成人| 在线精品视频在线观看高清| 国产精品美女xx| 美女网站视频一区| 久久影视电视剧免费网站清宫辞电视 | 欧美日韩国产丝袜美女| 亚洲区自拍偷拍| 国产一区二区导航在线播放| 欧美爱爱视频免费看| 成人亚洲一区二区| 国产99在线播放| 日本精品在线一区| 欧美黑人狂野猛交老妇| 九色在线观看视频| 日韩情涩欧美日韩视频| 中文字幕一区二区人妻电影| 亚洲人成影院在线观看| 成人手机在线免费视频| 极品少妇xxxx偷拍精品少妇| av之家在线观看| 99久久夜色精品国产亚洲1000部| 国产精品区一区| 日本电影久久久| 5278欧美一区二区三区| bt在线麻豆视频| 国产一区二区三区丝袜 | 亚洲国产精品小视频| 国产精华7777777| 性久久久久久久久久久久| 少妇高潮惨叫久久久久| 91香蕉视频mp4| 欧美人与性动交α欧美精品| 日日欢夜夜爽一区| 亚洲国产精品无码观看久久| 色欧美自拍视频| 欧美13一14另类| 国产精品高潮呻吟久久久久| 91精品美女在线| 欧美动物xxx| 97色伦亚洲国产| 51xtv成人影院| 北条麻妃99精品青青久久| 欧洲成人av| 亚洲精品福利资源站| 国产情侣激情自拍| 欧美日韩国产首页| 青青艹在线观看| 色偷偷一区二区三区| 日韩精品一区二区三| 亚洲一区二区三区国产| 日本老熟俱乐部h0930| 成人免费在线播放视频| 中文国语毛片高清视频| 日本一二三四高清不卡| 天天躁夜夜躁狠狠是什么心态| www.视频一区| 日批免费观看视频| 国产成人精品在线看| 99久久99精品| 韩国女主播成人在线观看| 欧美女同在线观看| 美日韩一区二区三区| 亚洲欧美国产日韩综合| 青椒成人免费视频| jizzzz日本| 精品一区二区三区影院在线午夜 | 久久免费精彩视频| 亚洲午夜精品网| 日韩xxxxxxxxx| 午夜欧美在线一二页| 天天操天天爽天天干| 粉嫩老牛aⅴ一区二区三区| 国产情侣在线视频| 欧美性感美女h网站在线观看免费 欧美性xxxx在线播放 | 青青久久av| 久久精品aaaaaa毛片| 日韩成人一级| 日本精品二区| 久久中文字幕av| 麻豆一区二区三区在线观看| 91精品一区二区三区综合在线爱| 天天在线免费视频| 激情久久综合| 精品人妻一区二区三区四区在线| 亚洲一区中文| 波多结衣在线观看| 国产麻豆精品在线观看| 第一页在线视频| 91亚洲国产成人精品一区二区三| 亚洲乱码国产乱码精品精大量| 久久这里只有精品首页| 欧美a在线播放| 亚洲乱码日产精品bd| 国产亚洲欧美精品久久久久久| 天天综合日日夜夜精品| 天天爽夜夜爽人人爽| 欧美绝品在线观看成人午夜影视| 999av视频| 日韩成人av网| 午夜伦理在线| 久久久人成影片一区二区三区观看 | 无码人妻h动漫| 老司机午夜精品| 亚洲女则毛耸耸bbw| 久久久久国产免费免费| 9999热视频| 欧美午夜丰满在线18影院| 在线免费观看视频网站| 精品剧情在线观看| av片在线看| 97精品伊人久久久大香线蕉 | 一区视频在线| 欧美伦理片在线观看| 成人午夜在线免费| 手机看片国产日韩| 午夜精品久久久久久久| 中文无码av一区二区三区| 日韩亚洲电影在线| 狠狠色伊人亚洲综合网站l | av资源在线播放| 国产精品中文字幕久久久| 超碰在线成人| 91免费网站视频| 视频一区国产视频| 亚洲一级av无码毛片精品| 国产精品久久国产精麻豆99网站| 国语对白一区二区| 欧美精品在线一区二区三区| 午夜黄色小视频| 欧美成人一区在线| 电影在线观看一区二区| 国内视频一区| 欧美色图首页| 福利视频999| 国产情人综合久久777777| 激情综合网五月婷婷| 91精品国产综合久久福利软件| 欧美套图亚洲一区| 午夜免费久久久久| 一本色道69色精品综合久久| 亚洲欧美国产不卡| 久久久久在线| 香蕉网在线播放| 亚洲一区二区三区免费视频| 国产毛片在线视频| 日韩在线观看视频免费| 欧美黑人粗大| 欧美一区二区福利| 久久先锋资源| 免费黄色在线视频| 精品日本美女福利在线观看| 亚洲欧美黄色片| 欧美乱大交做爰xxxⅹ性3| 亚洲高清影院| 久久精品国产精品亚洲精品色| 秋霞电影一区二区| www..com.cn蕾丝视频在线观看免费版| 精品国产91久久久久久| 狠狠躁夜夜躁av无码中文幕| 欧美激情aaaa| jazzjazz国产精品久久| 成年人深夜视频| 成人高清视频在线| 日韩精品成人在线| 日韩黄色高清视频| 久久青青视频| 日韩精品一区二区三区四区五区| 欧美亚洲自偷自偷| 欧美狂猛xxxxx乱大交3| 色视频欧美一区二区三区| 噜噜噜在线观看播放视频| 欧洲美女7788成人免费视频| 综合伊思人在钱三区| 丝袜制服一区二区三区| 国产精品免费aⅴ片在线观看| 中文字幕+乱码+中文字幕明步| 视频一区视频二区国产精品| 日韩一级视频| 激情视频小说图片| 成人一区在线看| 一级片中文字幕| 亚洲视频一区二区三区| 久久影视精品| www.18av.com| 99国内精品久久| 亚洲 日本 欧美 中文幕| 中文字幕久久精品| 精品中文字幕一区二区三区| 91黄色在线看| 久久综合九色综合欧美98| 99re热视频| 欧美另类精品xxxx孕妇| 成人福利一区| 国产日韩成人内射视频| 国产精品麻豆99久久久久久| 精品国产伦一区二区三| 久久久久国产一区二区三区| 中日韩免视频上线全都免费| 色www免费视频| 亚洲国产wwwccc36天堂| 免费福利在线观看| 91在线色戒在线| 亚洲影视综合| 天天色影综合网| 亚洲精品第一页| 亚洲一区二区三区久久久| 久久精品无码中文字幕| 国产日韩欧美不卡在线| www.成人在线观看| 日韩美女免费线视频| 综合天堂久久久久久久| 欧美熟妇一区二区| 欧美一卡2卡三卡4卡5免费| 欧美aaaaa性bbbbb小妇| 性欧美18一19内谢| 久久先锋影音av鲁色资源| 91美女精品网站| 人九九综合九九宗合|