出品 | 51CTO技術棧(微信號:blog51cto)
硅谷很少有播客,比Anthropic CEO Dario更具戲劇性了。
他的發言之犀利,讓人聽得直冒冷汗——
他談和黃仁勛的不合,直言奧特曼做AI的使命“不夠真誠”,不看好Meta的AI路線,甚至主動提起了馬斯克的Grok前陣子的政治翻車事件。
不到一個小時,分分鐘就把硅谷大半圈的人都“得罪”了個遍。
但也正是這種毫不掩飾的直率,讓這場訪談比以往更有火藥味,也更有深度。
談到AI的未來,Dario依然語出驚人:“再過幾年,AI將成為全球最大收入來源,成為最大的產業。而企業家們早已看見這一趨勢?!?/span>

這場播客中最讓小編驚喜的還是,Dario首次在公開場合詳細剖析了AI公司的真實商業模式。
眾所周知,無論是 OpenAI 還是 Anthropic,看起來風光無限,其實每年虧損幾十億美元。
主持人更是當場逼問:“Claude Code的重度用戶讓你們虧錢?200美元訂閱Max Tier,卻相當于獲得了6000美元API額度的使用權(注:不過,Max目前已經新增了限額)?
據說你們今年還要虧30億?”
Dario則拋出一個全新的視角:
“把每個模型看作一個風險投資項目——比如我投入1億美元,第二年賺回2億,那這個模型就是盈利的。再下一代模型,投入10億賺回20億,也是賺錢的。只是我們每年都在不斷投資新模型,所以賬面上看起來在虧錢?!?nbsp;
“這不一定是 Anthropic 的財務數據,但這是整個行業的動態機制。一旦某年停止投入訓練新模型,公司就能開始盈利?!?/span>
然后Dario又表示,開源AI就是一個偽概念,開源再先進,也不會削弱Anthropic的商業價值。
因為——“AI領域的開源,并不等同于軟件領域的開源。你無法“看見”模型內部發生了什么——你能看到的是模型的權重(open weights),不是源代碼(source code),兩者是有本質區別的。開源帶來的“共建、協同、可復用”這些優勢,在AI領域并沒有那么強。”
所以Dario說:
我不在意 DeepSeek是否開源,我只關心它是不是一個好模型,它在哪些任務上勝過我們,這才是我唯一在意的。
最后,他還揭秘了,為什么 Anthropic 更看重 To B,而 OpenAI 更傾向 To C:
“我們認為:AI在企業和專業領域的應用最終可能會超過C端應用。 我說的‘商業用戶’不僅是大公司,還包括創業者、開發者、那些為了提高生產力而使用AI的專業用戶。
只有做商業應用,才能更好地激勵我們把模型做得更好。普通消費者也許根本不在意模型從本科生進化到博士生,但像輝瑞這樣的公司,絕對愿意為此多付10倍的錢。 ”
整場訪談信息量極高,觀點鮮明,每個關注AI圈的人都值得一看。
以下是經過整理的訪談全文,Enjoy:
AI還在指數級增長,上半年Anthropic營收飆至45億
主持人
Anthropic CEO Dario Amodei 今天來到我們節目,來聊聊AI的未來發展路徑,生成式AI到底是不是一個好生意,還有他如何回應那些叫他“doomer”(末世論者)的人。他現在就在舊金山的Anthropic總部和我們面對面交流。Dario,很高興再次見到你,歡迎做客節目。
Dario
謝謝你們邀請我。
主持人
那我們先來回顧一下你這幾個月的動作吧:你說AI可能會淘汰一半的初級白領崗位;你切斷了Windsurf對Anthropic高階模型的訪問權限;在得知OpenAI要收購他們之后,你向政府請求實施出口管制;你還惹怒了英偉達CEO黃仁勛。你這是怎么了?
Dario
我覺得我本人和Anthropic一直都是在堅持做和說我們認為正確的事情。隨著我們越來越接近更強大的AI系統,我開始更明確、更公開地表達這些觀點,讓大家意識到問題的嚴峻性。我這幾年一直在談“擴展法則(scaling laws)”——
AI系統的能力正在增強。幾年前,它們還基本不連貫;前幾年,也就是個聰明的高中生水平;現在,則已經接近大學生甚至博士生的程度。而且它們已經開始在經濟中逐步落地。所以,AI相關的一系列問題——無論是國家安全還是經濟結構——都變得迫在眉睫。雖然Anthropic早就提過這些問題,但現在它們已經從遠景變成了現實,緊迫性顯著上升。
我希望我們能夠清楚地說出我們的判斷,提醒全世界這些潛在的風險。當然,沒有人能準確預測未來會發生什么。但我們愿意分享我們認為可能或很可能發生的情況,并盡可能地提供論據支持,哪怕這些判斷涉及對未來的外推。我覺得我們有責任提醒世界這些事。
我其實非常認可AI的正面價值。我寫過一篇文章叫《充滿愛意的機器(Machines of Loving Grace)》,在里面表達了我對AI積極用途的期待。事實上,我和Anthropic可能比那些自稱“樂觀主義者”或“加速主義者”的人還更能清楚表達AI的潛力。也正因為我們看到了AI可能帶來的美好未來,我們才更有責任去警示它的風險。
主持人
所以說你之所以這么著急發聲,是因為你覺得AI的問題已經迫在眼前了?
Dario
是的,不過這種“緊迫”主要還是技術層面的。社會層面就比較難預測了,比如說AI什么時候會大規模部署?企業何時會花多少錢來用AI?哪些醫療突破是AI驅動的?這些都不好說。
但從底層技術來看,我的判斷就比較確定了,雖然也不是百分百確定。技術的指數增長趨勢仍可能在未來兩年突然停滯,也許是我們沒想到的原因,也可能是像數據、算力這些現實問題導致的。要是真那樣,我之前說的預警都會顯得很可笑,大家可能會嘲笑我。但即便如此,我也完全接受這樣的結果,因為我只是根據我看到的分布來判斷的。
主持人
你在所有AI實驗室領導人里,可能是對“時間線”最緊迫的那個。你剛才也再次提到這點了——那你為什么會有這么短的時間線?我們又憑什么相信你的判斷?
Dario
這其實得看你怎么定義“時間線”。有一個點我一直都在強調——AI圈里喜歡說“AGI(通用人工智能)”、“超級智能”這些詞。你常能聽到某家公司說我們已經實現AGI了,接下來要做超級智能了,或者某個人從AGI轉去研究superintelligence了。這些詞對我來說根本沒意義。我不知道AGI或超級智能具體指什么,它們更像是營銷術語,像是用來刺激大家多巴胺的說法。所以你可以注意到我從不在公開場合使用這些詞,甚至會批評這些詞的使用。但話說回來,我確實是少數幾個非??春肁I能力迅速提升的人之一。
我真正相信的是“指數曲線”:我們每隔幾個月就能看到一個比上一個更強的模型。這是通過更高的算力投入、更豐富的數據、更先進的訓練方法實現的。
最初我們靠的是所謂“預訓練”——用大量互聯網數據喂模型;現在則進入了第二階段,包括強化學習、推理、以及測試時計算等等。我把它們統稱為“第二階段訓練”。這兩個階段現在是一起擴展的——從我們和其他公司發布的模型都可以看出這一點。而我沒看到這個趨勢有被阻斷的跡象?,F在的關鍵是如何進一步擴展這些訓練任務的范圍,特別是在RL(強化學習)這一側。
我們目前在數學和編程等領域看到的進展更顯著,這些模型的能力已經接近高水平專業人士;而在一些更主觀的任務上進展則稍慢。但我認為這只是暫時的障礙。從整體趨勢來看,我看到的是一個指數型增長。我們知道人類其實很難直覺地理解指數增長。
如果某項能力每六個月翻一倍,那么它在實現目標前兩年可能看起來才完成了1/16?,F在是2025年年中,模型的能力正在以爆炸性速度開始滲透經濟。如果你看模型的表現,它們在各類評測中已經趨于飽和。
如果你看營收情況,比如Anthropic的營收,每年都以10倍的速度增長。雖然我們一直比較保守,說“這次可能不會再漲這么多了”。我從不預設什么,也總是很保守地預測未來增速會放緩。
但實際上,從商業角度看:我們2023年的收入是從0增長到1億美元,2024年是從1億增長到10億美元。今年,僅僅是上半年,我們就從10億增長到現在已經超過40億——可能是45億。
所以你可以想象,如果這種指數趨勢再持續兩年——我不是說一定會,但如果真的持續下去,我們就會進入幾千億美元級別。我不是說它一定會發生,而是說當你處于一個指數增長階段時,在真正爆發前兩年,情況看上去可能還“像是剛開始”。
這正是指數增長的基本特性。
90年代互聯網的發展就是這樣。當時網絡傳輸速度和底層計算能力飛快提升,幾年內就變得可能在全球范圍內搭建一個數字通信網絡,而在這之前根本不可想象。除了極少數人,幾乎沒人意識到這種變化會來得如此之快、影響如此之深。我現在的判斷也類似。
當然,也可能有突發情況,比如一堆衛星墜毀了,互聯網的發展也許就會拖慢;又或者經濟崩盤,也可能延遲一點。我們永遠無法精確預測時間線,但我認為現在很多人正被這個“指數”蒙蔽,沒意識到它到底有多快——而我認為,它可能真的會很快。
模型撞墻了嗎,更大規模模型是否有必要?
主持人
不過,現在AI業內很多人都在談“擴展遇到瓶頸”,說規模越大收益越少。你剛剛描繪的場景,似乎與這一觀點完全相悖——他們是不是錯了?
Dario
嗯,我只能以Anthropic的模型為例來談。在我們看到的情況中——比如編程,是我們模型進展最快的領域之一,用戶采用速度也非???。我們不是一家只做編程的公司,但如果你看編程,我們發布了Claude 3.5 Sonnet、3.5 Sonnet V2(姑且叫它3.6)、然后是3.7 Sonnet,接著是4.0 Sonnet 和 4.0 Opus。這一系列四五款模型,每一代在編程能力上都有明顯提升。
如果你看具體的基準測試,比如 sweep benchmark,它在18個月前的通過率可能還只有3%左右,而現在已經提升到72%甚至80%,具體取決于你用什么標準來衡量。實際使用量也在指數級增長。我們正在接近一個階段,模型幾乎可以自主完成大部分編程任務。以我們公司為例,現在Anthropic的大多數代碼都是由Claude系列模型直接生成,或在其協助下完成的。其他一些公司也說過類似的事情。我們看到的,是快速的進展和持續的指數趨勢,并未發現“收益遞減”的現象。
主持人
但大語言模型也存在一些明顯的問題。比如“持續學習”(continual learning)這一塊,最近我們請了 Dwarkesh Patel 來節目,他在 Substack 里也寫了這方面的問題。他的觀點是:模型無法持續學習,這是一個巨大的問題。雖然在很多測試中語言模型的表現超過了人類平均水平,但它們的能力是固定的——模型一旦訓練完成,就不會再學習了。這聽起來像是一個非常明顯的短板。
Dario
你怎么看這個問題?首先我想說,即使我們永遠無法解決“持續學習(continual learning)”和“記憶”的問題,我認為大語言模型(LLMs)仍然有非常大的潛力,能在整個經濟層面帶來深遠影響。
我以前是做生物醫學的。設想一下:如果我有一位非常聰明的諾貝爾獎獲得者,但他不能讀新教材、不能吸收任何新知識——這當然是個限制。但如果我有一千萬個這樣的人,他們依然能在生物學上取得大量突破。他們會有局限,但也會做出很多人類做不到的事情。當然也有些事人類能做他們不能做。但即便在這種被限制的情況下,他們的表現依然是令人驚嘆的、顛覆性的。就算永遠無法解決這個問題,我覺得人們還是低估了這些模型的影響力。更何況,現在模型的上下文窗口(context window)越來越大了,它們實際上在這個窗口內是可以“學習”的。
比如說,我和模型進行一段對話,它在這個上下文中能吸收信息。雖然模型的底層權重不會改變,但就像我現在在和你交流、聽你說話、回應你的觀點,模型也能做到這一點。
從機器學習的角度來看,現在技術上完全可以實現一個擁有上億詞長上下文的模型——這大約相當于一個人一生中聽到的總詞量。這主要是推理時的技術支持問題,而不是原則性障礙。所以,雖然不能解決所有問題,但上下文窗口的擴大已經能彌補很多問題。除此之外,還有一些學習與記憶的方法確實能實現權重的更新。
例如,我們可以用各種類型的強化學習(RL)方式進行訓練。多年前我們常討論“內循環(inner loop)”與“外循環(outer loop)”。內循環指的是模型在一個情境中進行學習,并嘗試優化該情境下的表現;而外循環則指模型在多個情境之間逐步學習。所以這個結構或許可以成為實現持續學習的一種方式。
AI領域的經驗告訴我們:那些一開始看上去像是“根本性障礙”的問題,后來往往沒那么難。比如兩年前大家以為推理能力是個巨大難題,結果我們只是用了RL(強化學習)來訓練模型,讓它自己寫點內容、試著解數學題,結果能力就上來了。所以我覺得,我們可能已經看到一些證據,表明“持續學習”可能也是一個最終可以通過“規模化+方法創新”解決的問題。
主持人
你有沒有想過:你對“規?;钡膱棠羁赡軙屇愫鲆暷承┬碌募夹g路徑?Demis 和 Saba(注:分別是DeepMind和Inflection AI的CEO)都提過,要實現AGI或者“超級強大的AGI”(無論叫什么),可能需要一些全新的技術路線。你對此怎么看?
Dario
我們每天都在開發新技術。Claude 現在非常擅長寫代碼,但我們其實很少在公開場合談論為什么 Claude 代碼能力這么強。
主持人
那為什么它這么強?
Dario
就像我說的,我們不公開談這些細節。不過可以說,每一個Claude的新版本,都會在架構、訓練數據、訓練方法等方面有新的改進。我們一直在開發新技術。新技術是每一代模型的一部分。這也是為什么我一直在強調“人才密度”這么重要——你需要足夠多優秀的人才,才能持續發明出這些新方法。
主持人
但在整個對話過程中有一個懸而未決的問題——Anthropic可能確實有正確的理念,但資源是否夠呢?比如Elon的xAI建立了巨型算力集群,Mark Zuckerberg 在建5GW的數據中心,投入資源非常之多。雖然Anthropic也融資數十億美元,但你面對的是萬億市值的巨頭。
Dario
我們目前為止已經融資將近200億美元——這可不是小數目。
主持人
確實不小。
Dario
而且如果你看看我們與亞馬遜合作所建設的數據中心規模,我認為我們的基礎設施擴張并不比業內其他公司小。在很多情況下,限制并不在資金,而在于能源與基礎建設周期。那些看起來“動輒幾百億美元”的投入,其實是跨越好幾年的承諾,很多時候這些項目甚至還未真正啟動。我們清楚業內大家都在建設什么樣的數據中心,而我們相信,我們會處于相似的數量級。
談扎克伯格挖人:金錢買不到使命認同,不看好Meta的未來
主持人
你剛才提到了“人才密度”。那你怎么看Mark Zuckerberg在人才招募方面的動作?他把這一點和大規模數據中心結合起來,好像已經具備了直接競爭的實力?
Dario
這其實是一個很有意思的話題。我們發現,相比其他公司,從Anthropic被挖走的人要少得多。
并不是因為沒有人來挖。我和很多收到其他公司Offer的員工都聊過,其中一些人甚至根本不愿意和扎克伯格談話,他們直接拒絕了,說“我會繼續留在Anthropic”。我們對此的整體回應是這樣的:我在公司Slack群發了一條信息說——我們不會為了回應個別挖角而去破壞我們的薪酬體系和公平原則。
在Anthropic,我們采用的是分級制度。候選人入職時會被評定為某個等級,我們不對等級進行談判,因為我們認為那樣不公平。我們希望以系統化方式對待每個人。不能因為扎克伯格隨手擲飛鏢剛好選中了你,你就能比你身邊同樣優秀的人多拿10倍薪水。在我看來,唯一能真正傷害公司的方式,就是因為恐慌而破壞公司的文化,用不公平的方式去“保人”。而我們沒有這樣做,我們堅持了自己的原則,也因此更團結,因為我們相信——Anthropic的人,是因為認同使命才留下來的。
我認為Meta等公司在做的,是試圖“買到”一些其實買不到的東西——那就是對使命的認同。我們這里有一種“選擇效應”:留下來的,往往是那些最有熱情、最相信我們使命的人。
主持人
但他們有人才,也有GPU。你不會低估他們吧?
Dario
拭目以待吧。我對他們正在做的事情,整體是偏悲觀的。
“我們是是歷史上成長最快的軟件公司之一”,看好To B而非To C
主持人
那我們來談談你的商業模式。很多人都在問:生成式AI到底是不是一個真正可持續的生意?而我也常常被問到這個問題。你已經提到你們融資將近200億美元:來自Google的30億、Amazon的80億,還有由Lightspeed領投的35億新一輪融資。我想問的是:你怎么做融資路演?畢竟你不是一家大廠附屬的公司,是獨立運營的。你是拿著一套Scaling Law的圖表去問:“能不能給我點錢” 嗎?
Dario
我一直以來的觀點是:人才是最重要的資產。三年前,我們剛剛籌集了幾億美元,而OpenAI已經從微軟融到了130億。大公司都坐擁1000億、2000億美元現金儲備。但我們當時的Pitch是——我們知道怎么把模型做得比別人更好。
也許大家都在一條“擴展曲線”上,但如果我們能用1億美元做到別人花10億美元才能做到的事情,用10億美元做到別人100億美元的事,那在資本效率上,我們就比他們高一個數量級。換句話說,投資Anthropic的錢,能比投其他公司產生10倍回報。
你愿意做一家能把一切成本壓到十分之一的公司?還是一開始就有一大堆錢的公司?如果你有更高的效率,缺錢是個可以彌補的“暫時性問題”;但如果你做事的效率低,再多的錢也彌補不了。投資人并不傻,或者說,不總是傻(笑)。他們是懂“資本效率”這個概念的。
我之前也說過:Anthropic 是歷史上成長最快的軟件公司之一。在我們這個規模上,從2023年的 0 到 1 億美元,再到 2024 年的 10 億美元,如今又從 10 億增長到大約 45 億美元——這是每年 10 倍的增長。每年我都會懷疑還能不能繼續,但它確實就發生了。所以,我認為我們的增長速度已經能很好地說明,我們有實力和“大廠”掰手腕。
主持人
CNBC 報道說,Anthropic 目前有 60%-75% 的收入來自 API 接入,基于內部文件,這是準確的嗎?
Dario
我不會給出確切數字,但可以說大多數收入確實來自API。不過我們的App業務也很興旺,尤其是最近推出的Max Tier服務,面向高階用戶,還有Claude Code,專為程序員設計。我認為我們的應用業務增長也很快。但總體上,是的,API 依然是主要收入來源。
主持人
所以你們是在做一場“對技術最純粹的押注”。比如OpenAI 押注的是 ChatGPT,Google押注的是無論技術發展到哪,它都可以嵌入 Gmail 或 Calendar。但你們為什么選擇這么“純粹”的方式下注?
Dario
嗯,我不會完全用你剛才的說法來描述我們現在的定位。我更愿意說:我們押注的是模型在商業場景中的使用,而不僅僅是API本身。只是,模型的第一個商業用途剛好是通過API形式體現出來的。就像你說的,OpenAI 更側重于C端用戶,Google則專注將AI嵌入它現有的產品體系中。而我們的看法是:AI在企業和專業領域的應用最終可能會超過C端應用。我指的“商業使用”不僅包括大企業,還包括初創公司、開發者,以及那些為了提升生產力而使用AI的“重度用戶”。
而且我認為:做一家專注于商業應用的公司,反而能激勵我們更有動力去不斷提升模型。你可以做這樣一個思想實驗:假設我有一個模型,它現在的水平相當于本科生級別的生物化學知識。然后我把它訓練到博士水平。如果我去找普通消費者,說“嘿,我把它從本科生提升到了博士生”,可能只有1%的人會在意,剩下99%會說“我本來也看不懂”。但如果我把這個消息告訴輝瑞(Pfizer)這樣的公司,那就是天大的事,他們可能會愿意為此多付10倍的錢,因為這對他們的價值是10倍以上。
所以,從幫助模型解決現實世界難題的目標出發,比如我在《Machines of Loving Grace》中寫過的那些事情:解決生物醫學、地緣政治、經濟發展等問題,當然也包括更常規的金融、法律、保險等生產力應用,這些目標反而會驅動我們把模型做得更強。我認為,這可能反而是更健康、更積極的商業路徑。我們選擇這條路線,是因為它與指數級進展的趨勢更加一致。
AI公司在虧損,但每個模型都是盈利的
主持人
那你們是怎么決定要做代碼生成這個用例的?
Dario
就像很多事一樣,我們一開始只是想把模型在各個方面都提升一下,而在這個過程中,代碼這部分特別突出。我過去和成千上萬的工程師共事過,大概在一年前,我遇到過一個我合作過的最厲害的程序員之一,他說:以前的編程模型對我毫無用處,但這次你們的模型,真的做到了我做不到的事。后來我們發布后,立刻開始有快速的用戶增長。這也正好是 Cursor、GitHub Copilot 之類的代碼工具爆紅的時期。我們看到勢頭后,就加大了投入。我認為代碼生成特別有趣有兩個原因:一是它的采用速度非???;二是編程模型本身又能反過來幫助我們開發下一代模型,有一種正反饋優勢。
主持人
現在你們通過 Claude Code 來出售AI編程服務,但定價模型讓一些人感到疑惑。我采訪過一位開發者,他花200美元訂閱Max Tier,卻相當于獲得了6000美元API額度的使用權。Ezra(注:業內分析人士)指出,如果你們的模型越火,這種“超級用戶”反而會讓你們虧得更多。這怎么算得過來呢?
Dario
其實定價機制和速率限制(rate limits)比你想的要復雜。我們在發布Claude Code和Max Tier時,確實沒有完全預料到用戶會怎么使用模型,也沒預料到他們能從中獲取多大的價值。
所以,就在這幾天(指采訪錄制時間點),我們已經對這個訂閱層做了調整,尤其是對大模型的使用?,F在應該已經不可能再用200美元獲得6000美元級別的算力。當然,未來可能還會有進一步的調整。但我們的目標始終是服務好各種不同類型的用戶:重度用戶和輕度用戶。而就算有人通過訂閱獲得了比按API計費更“劃算”的體驗,也并不一定意味著我們真的在賠錢。你所說的一些前提其實并不準確。
主持人
但問題是:你們是否能繼續支持這些重度用例,而不提高價格?比如一些開發者抱怨,用Anthropic新模型結合 Cursor 成本比以前高了很多。有些初創公司告訴我,Claude 經?!跋戮€”,他們猜測是因為你們拿不到足夠的 GPU。我還采訪了 Relit 的 Ajab Mossad(將在下周播出),他說以前模型的token價格一直在下降,但最近已經停止下滑了。是不是這些模型本身的運行成本已經逼近Anthropic自身的極限了?
Dario
我覺得你這些判斷,其實建立在一些錯誤的假設之上……
主持人
這正是我想問CEO你的原因。
Dario
是的,我的思考方式是,我們會從模型創造了多少價值的角度來思考。隨著模型越來越強,我會評估它創造了多少實際價值。而另一個問題是:這些價值是如何在不同角色之間分配的——比如模型開發者、芯片制造商、底層應用構建者等等。所以我認為,你的問題中存在一些假設,并不完全成立。
主持人
那你說說看,哪些假設不對
Dario
我這么說吧——我預計,在相同智能水平下,模型的運行成本會持續下降。而如果是追求“最前沿”的智能水平,那么其成本有可能上升,也有可能下降。我猜測可能會保持穩定。但同時,模型所創造的價值會大幅上升。所以兩年后,我預計模型的運行成本大致相當于現在,但能力將更強、工作更自主、適用范圍更廣。
主持人
我剛才提到Ajab Mossad的觀點是:大模型更難運行,運行成本也更高,雖然一些新技術(比如只激活部分神經元的架構)能減輕計算壓力。換句話說,Anthropic 能夠以較小的后端成本運行大模型,但價格卻沒降低。他認為:要實現軟件行業的利潤率,Anthropic遲早得漲價——現在的毛利率還低于軟件行業平均水平。
Dario
我還是得說,大模型確實比小模型貴。你提到的技術應該是“Mixture of Experts”(MoE,專家混合模型),這是一個在訓練和推理時減少成本的架構優化方法。無論你是否使用MoE,只要是更大的模型,就必然在使用同一類技術的前提下比小模型更貴。所以這個說法其實有點誤導——大模型即使用了MoE,也比小模型用MoE貴。
主持人
我只是猜測,希望你告訴我真相。
Dario
好的,那我再講講成本這塊。人們總以為“毛利率從X%提升到Y%”特別難。但實際上我們在推理效率上每年都取得了巨大進展,常常能讓模型效率提高50%。過去幾年,推理效率已經有了巨大提升,這也是價格持續下降的原因。
主持人
那你們多久才能盈利?我聽說今年虧損大概是30億美元。
Dario
那只是別人說的。這里我們要分清幾件事:
- 模型運行成本:也就是模型每賺1美元,花出去多少。這個部分其實已經相當健康了。
- 人力和辦公成本:比如員工工資和辦公室租金,這一塊占比其實不高。
- 訓練新模型的成本:這才是最大開銷。所謂“公司在虧損、還沒盈利”的說法,其實是有誤導性的。你要從“擴展法則”的視角去理解。
做個假設(這不是Anthropic的真實數據):假設我們在2023年花1億美元訓練一個模型,2024年部署這個模型,營收是2億美元。但同年又花了10億美元去訓練下一代模型。那么:
- 2024年賬面上看是虧損8億;
- 到2025年,新模型賺2億美元,又花100億訓練下一個;
- 又是賬面虧損。
你看上去像是每年都在虧損,但如果把每個模型看作一個“風險投資項目”——比如我投了1億美元,第二年賺了2億,那么這個模型本身是賺錢的。再下一代模型,投10億,賺20億,也是賺錢的。每個模型是盈利的,只是公司每年賬面虧損。
我不是在說這就是Anthropic的數據,但這是這個行業的整體動態機制。一旦某年停止投入訓練新模型,公司就能開始盈利——但沒有人會那樣做,因為大家都在投下一代模型。
所以我覺得,這種“公司每年都虧損”的想法,其實不太對。
AI開源是一個偽命題,不會削弱Claude的商業價值
主持人
一旦開源技術足夠強大,是不是就能把 Anthropic 替換掉,直接用開源的?
Dario
你知道,這個行業一直有一個現象——每當AI進入一個新的社群,這個社群就會帶著自己那套思維習慣來看待AI的發展。我在2014年剛進入AI行業時,遇到的那一代機器學習研究者就是這樣:他們有自己一套認知框架,總覺得新技術“只是炒作”“不可能擴展”“規?;涣恕?。但由于AI本身是指數發展的,這些想法最終都被打臉了。
后來同樣的事也發生在企業部署AI的階段,在創業圈也發生了。現在我們進入了一個新階段——世界上的商業領袖、投資人,也有自己那一套“價值鏈分層”的思維方式,他們關心“價值會落在哪一層?”“會不會被開源取代?”等等。
在這套語境中,開源(open source)就被看成了一個“破壞性因素”——它能讓所有人看到一切,所以它被認為會削弱商業價值。但我并不來自這個世界,我沒有那種習慣性的思維,反而因此看得更清楚一些。很多時候,越不了解上一代行業語法的人,反而預測得更準。
我一直認為,AI領域的開源,并不等同于軟件領域的開源。你無法“看見”模型內部發生了什么——你能看到的是模型的權重(open weights),不是源代碼(source code),兩者是有本質區別的。所以開源帶來的“共建、協同、可復用”這些優勢,在AI領域并沒有那么強。
所以我從來不在意一個模型是不是開源。我看到新模型發布時,我首先關心的是:它好不好?它比我們強嗎? 就這么簡單。
比如 DeepSeek,我不在意它是否開源。我只關心它是不是一個好模型,它在哪些任務上勝過我們,這才是我唯一在意的。
而且最終你還是得把模型部署在云端,這些大模型推理成本極高。即使你看到了權重,也需要非常復雜的基礎設施來運行?,F在很多云服務已經允許你對模型進行微調,甚至我們也在研究一些可視化模型激活值的解釋界面。所以我認為“是否開源”這個標準,根本就不構成競爭重點。
在我看來,開源其實是個“偽命題”。
主持人
可如果它是免費、低成本的呢?
Dario
它不是真的“免費”。你仍然需要為推理(inference)付出成本,仍然需要有人去優化它的運行效率。
談個人經歷:父親患病離世,讓他堅定了從生物轉向AI
主持人
好吧,那我們換個話題。我想更了解你這個人——我們還剩一點時間,聊聊你的成長經歷和你是如何走到今天的。你小時候在舊金山長大,生活是什么樣的?
Dario
是的,我小時候的舊金山其實還沒有經歷太多“高端化(gentrification)”,科技熱潮也還沒開始。我上高中的時候,硅谷熱才剛剛興起。其實我那時候對科技一點興趣都沒有——我覺得“搞網站”之類的事情非常無聊;“創辦公司”這種事也完全不是我感興趣的方向。
我感興趣的是科學、物理、數學,我想探索世界的底層規律,想要做一些讓世界變得更好的事情。所以盡管我當時就生活在科技中心,但我幾乎對那一切都沒有關注?,F在回想起來,也許那時候有很多值得我學的東西,但我當時完全沒在意。
主持人
你母親是猶太人,父親是意大利人——在我老家長島(Long Island),我們會叫你“披薩百吉餅(pizza bagel)”。
Dario
“披薩百吉餅”?哈哈,這個說法我還是第一次聽。
主持人
你和父母的關系怎么樣?
Dario
我和他們關系一直都很親密。他們教會我對“對錯”和“什么是重要的事情”有清晰的判斷。我最記得的是,他們給予我一種強烈的責任感——他們一直都是有社會責任感的人,努力讓世界變得更好,這對我影響很大。我們家庭氛圍非常有愛也很關心彼此。
我和我妹妹丹妮拉關系也非常好,她后來成了我在Anthropic的聯合創始人。我們很早就決定,希望有一天能一起工作。雖然沒想到會發展成現在這樣的規模,但我們確實很早就有了這個共同的目標。
主持人
我采訪過很多認識你的人,他們都說你父親的病對你影響很深。你能談談這段經歷嗎?
Dario
是的,他確實生病了很久,最終在2006年去世。這其實是促使我后來從事生物學的一個重要原因——這點我們在采訪中還沒提到。在進入AI之前,我其實是進入了生物領域。
我當時去了普林斯頓,最初的志向是做理論物理學家,一開始還在做一些宇宙學的研究。但就在那段時間,我父親去世了。這件事對我產生了很大影響,也是促使我轉向生物學、試圖解決人類疾病和生命科學問題的原因之一。我開始和系里做生物物理、計算神經科學的教授接觸,這也成了我從物理轉向生物與計算神經科學的契機。后來,我才最終走上了AI這條路。
我之所以進入AI,其實是這個動機的延續。我在生物領域工作多年后逐漸意識到:生物問題的復雜性,已經超出了人類大腦的處理能力。要理解這些問題,可能需要幾百上千位科學家,但他們又常常無法高效協作、整合知識。而我當時開始接觸AI,感覺它是唯一能跨越這個人類認知極限的技術,能夠幫助我們真正理解并解決生物學問題。所以說,這其中其實有一條清晰的主線。
主持人
我可能記得不太清,但據我了解,你父親當時的病,在他患病那幾年基本無藥可治,但后面幾年,醫學上已有很大突破??梢哉f說這個嗎?
Dario
是的,確實如此。實際上,在他去世之后的三四年里,這種疾病的治愈率從50%躍升到了95%。
主持人
那一定讓你覺得非常不公平吧?你父親被帶走,結果幾年后這病就能治好了。
Dario
當然會有這種感覺。但這也正是為什么我會覺得解決這些問題如此緊迫——某個人在某個時間點找到了解藥,拯救了無數生命;可如果這個解藥能早幾年問世,本可以拯救更多人。我覺得這正是AI爭議中最矛盾的地方之一。
AI 的確有巨大益處,而我希望每個人都能盡早獲得這些益處。某種程度上,我可能比很多人都更明白這些益處的緊迫性。所以當我說AI有風險、我對某些事感到擔憂時,其實我很清楚這背后的利害關系。
當有人說我是“末世論者”,說我想拖慢AI進展,我真的會非常生氣。你也聽到了,我的父親就是因為某些療法晚幾年才出現而去世的。我當然明白這項技術的潛力。我寫《Machines of Loving Grace》的時候,就列出了這項技術能如何改善數十億人生活的路徑。
但那些在 Twitter 上一味鼓吹“加速主義”的人,我覺得他們根本沒有人文關懷的視角,他們腦子里只有腎上腺素,只想“加速!加速!”我看不到他們是真的在乎什么。當這樣的人稱我為 doomer,我會覺得他們完全不具備道德資格來這么評價別人,我也徹底失去了對他們的尊重。
主持人
我注意到“impact(影響力)”這個詞在你身上被反復提及。很多跟你共事過的人都說你對“產生影響”有一種執念。甚至有人告訴我,你不看《權力的游戲》,因為你覺得這不與“影響力”相關,是在浪費時間。
Dario
其實不太準確。我不看《權力的游戲》,是因為我覺得它太負面了。劇中的角色,有的是環境所致,有的則是本性惡劣,最后無論是情節還是人物走向,每個人的結局似乎都比開頭還糟糕。我個人是非常希望能創造“正和局面”(positive-sum situations)的人。
主持人
好吧,但我還是推薦你看(笑),這劇真的很好。
Dario
我知道我知道(笑),只是我一直很抗拒,所以很久都沒去看。
主持人
我們回到“impact”(影響力)這個話題上吧??梢哉f,你整個職業生涯其實就是在追尋這個“影響力”——如果我沒有理解錯,你是想防止更多人經歷你父親那樣的境遇,對嗎?
Dario
是的,我覺得你說得沒錯,雖然這只是其中的一部分。我確實一直在思考:如何真正有效地幫助人。因為有太多試圖幫助他人的努力,有些有效,有些則沒什么效果。所以我始終覺得,幫助別人這件事必須有戰略,有腦子。
這意味著它往往是一條漫長的路徑,可能需要通過公司,通過一系列看似與“影響”無關的技術工作去實現。但我一直試圖讓這條“軌跡”最終指向那個目標。這就是我為什么進入AI的原因:我當時看到,生物領域的問題幾乎是“不可解”的,或者說進展太慢。
OpenAI、奧特曼的AI使命不夠真誠
Dario
我之所以創辦公司,是因為我之前在其他公司工作時,感受到它們的運行方式并不是圍繞真正“產生影響”而展開的。雖然很多公司喜歡講“使命”故事來吸引人才,但我漸漸發現,那些故事并不真誠。
主持人
聽起來你其實在說 OpenAI,對吧?據我所知,你當時掌握了 OpenAI 50% 的算力,也主導了 GPT?3 項目。如果真的有人最在意“影響力”和“安全性”,那不就是你嗎?
Dario
確實有一段時間是這樣的,特別是在我們擴展 GPT?3 的時候。不過不是始終如此。當時我在 OpenAI 工作,我和很多后來的 Anthropic 聯合創始人一起做項目。
主持人
你們當時被叫做“附錄團隊(Appendices)”,是你起的名字嗎?
Dario
不是我起的,也不是他們自稱的。那是別人給起的稱呼,我從來沒有用過這個詞。
主持人
明白,謝謝澄清。
Dario
當時我們確實在推進模型的擴展。事實上,GPT 和 GPT?3 的最初目標是AI 對齊研究(alignment)的延伸。我們當時,包括我、Paul Christiano,還有后來一起創辦 Anthropic 的團隊成員,發明了“來自人類反饋的強化學習”(RLHF)方法,目的是讓模型更能符合人類意圖。
這其實是我們后來想研究的另一個方法“可擴展監督(scalable supervision)”的前身。而我們發現,早期的小模型,比如 GPT?1,根本無法很好地應用這些技術。所以我們必須訓練更大的模型 GPT?2 和 GPT?3,來測試這些 alignment 方法是否真的有效。
這也讓我意識到一件事:AI系統的能力與對齊問題,其實是交織在一起的。你很難只研究安全而不去碰能力問題,反過來也一樣。真正影響這個行業走向的,其實是一些組織層面的決策:什么時候發布模型?內部怎么設置研究方向?這些比純粹的技術更重要。這也促使我們這些后來的 Anthropic 創始人,決定獨立出來,按我們的方式去做。
主持人
但正因為你說“能力和安全是一體的”,而你當時又是 OpenAI 能力前沿的領導者——你一旦離開,OpenAI 肯定還會繼續訓練模型。那為什么不留下來從內部推動安全呢?你不是更有影響力嗎?
Dario
問題是這樣的:模型是否發布、公司治理結構、公司如何對外表述、是否對社會負責——這些都不是你光靠“訓練模型”就能決定的。我認為公司領導者必須是真正可信、有真誠動機的人。即便你是技術上的核心人物,但如果你是在為一個動機并不真誠、也不想讓世界變得更好的人工作,那你所做的一切,最終也只是在為錯誤的事情添磚加瓦。
談和黃仁勛的矛盾:他完全曲解了我,我們只是想做個行業榜樣
主持人
你肯定也聽過像黃仁勛這樣的批評者說,“Dario覺得只有他能安全地做這件事”,所以——用那個關鍵詞來說——你其實想“控制整個行業”。
Dario
我從來沒說過那種話。那是徹頭徹尾的謊言,是我聽過最荒謬的指控之一。
主持人
哦對,我如果誤引了黃仁勛的原話,抱歉。
Dario
沒事,他確實這么說了。
主持人
那他當時的意思是……
Dario
是的,那些話本身就荒謬至極。事實上我多次公開表達,并且 Anthropic 的行動也體現了,我們追求的是一種叫做“向上的競賽”(Race to the Top)的理念。我在許多播客中都說過這件事,Anthropic 的行為也證明了這一點。
當其他公司陷入“向下的競賽”(Race to the Bottom)時,大家都在拼命搶先發布產品。而我認為,當你進行一場向下的競賽時,無論誰贏了,大家都是輸家:你發布了一個不安全的系統,它要么幫了你的對手,要么帶來經濟問題,要么就是本身危險。相反,“向上的競賽”意味著無論誰贏,大家都受益。
舉個例子就是我們的“負責任的擴展政策(Responsible Scaling Policies)”。我們是第一個提出這套政策的公司。我們沒有說“別人也該這么做”或者“你不這樣就是壞人”,我們也沒把它當作商業優勢,而是主動公開,并鼓勵其他公司效仿。后來我們發現,其他公司內部確實也有人推動這類政策,而我們公開發布的行為,為他們提供了說服管理層的理由。
在模型可解釋性研究方面我們也是這樣做的。我們公開發布所有的成果,允許其他公司使用,哪怕這可能會削弱我們的商業優勢。比如憲法式訓練(constitutional)、危險能力評估(dangerous capabilities evals)等安全方向,我們始終在試圖為整個行業樹立榜樣。
當然,成為一家有商業實力的公司也有助于實現這些目標。我從沒說過“只有我們能造出安全AI”,任何人若從我說過的話中得出這個結論,那都是極端的惡意曲解。
再過幾年,AI就會成為世界上最大的收入來源
主持人
那我們就在這里收尾吧。你現在可以說是找到了自己的影響力,幾乎是在實現夢想的路上。想想AI在生物學等各領域的潛力吧。但與此同時你也說這是一項危險的技術。我好奇,你這種想要產生影響的愿望,會不會在無意中加速了這項技術的發展,同時低估了它可能根本無法被控制的可能性?
Dario
我認為,在整個行業中,我是最早、最頻繁警告AI技術危險性的人之一。我們剛才花了十幾二十分鐘討論那些掌管萬億美元公司的大佬們是如何批評我,責怪我總是在談論這些危險的。美國政府官員、一些市值四萬億美元公司的領導人都在質疑我,說我動機可疑,說我在胡言亂語。但我還是會繼續講。
我其實認為,隨著AI帶來的經濟效益迅猛增長(而且是指數級地增長),如果我判斷沒錯的話,再過幾年AI會成為世界上最大的收入來源,會成為最大的產業。而企業家們其實早就意識到了。問題是,我們現在處在一個非常可怕的局面——有數千億、甚至可能達到二十萬億美元的資本,正全力支持讓AI發展得更快。而像我們這樣雖然也有價值的公司,在這股浪潮面前看起來微不足道,可能只有600億美元的估值。即便如此,我仍然在不斷發聲。哪怕這會惹惱政府官員,比如因為我們反對暫停監管、支持芯片出口管制、或是公開談論AI的經濟影響,每次這么做,我都會遭到不少同行的攻擊。
主持人
但你依然是在假設我們是可以控制它的,我的問題就在于這一點。
Dario
是的,但我要告訴你,我到底付出了多少努力、堅持了多久,在面對所有壓力和危險時,仍然選擇站出來說話。如果我真認為這項技術無法控制,哪怕只是覺得它是場賭博,我也不會這么做。
有些人說,你是不是覺得AI出問題的概率是5%或10%,你這是在擲骰子。但我的想法不是這樣的。
我認為這是一個多階段的博弈。我們每開發出一個更強大的模型,就得配合更嚴格的測試體系。隨著我們一步步接近更強的AI模型,我就會發出更大的聲音,采取更激烈的行動——因為我真的很擔心。雖然我們在解決這些風險上取得了一些進展,但進展的速度并不一定匹配技術發展的速度。當我覺得兩者失衡了,我就會更大聲地提醒。所以你問我為什么一直在說這些?其實就是因為指數增長正在逼近一個危險的節點,而我們的風險管理還沒有跟上技術發展的速度。
如果我真相信技術無法控制,而我目前完全看不到這種證據——事實上,每發布一個模型,我們對模型的控制能力就更強。雖然它們仍然可能出現一些意外行為,但如果我們只是靠目前的對齊技術來控制未來更強大的模型,那我肯定會非常擔心,甚至會大聲疾呼:“大家都別再搞下去了”。我認為(芯片方面)的出口管制其實是一個有效的手段。
如果幾年之后,模型能力大幅領先,而我們還是用現在這些對齊技術,那我一定會主張全面降速。而我現在之所以一直在警告風險,就是為了我們不用降速——而是可以投入資源,把安全技術做得更扎實,從而讓整個行業繼續前進。因為哪怕一家愿意減速,其他公司不會停,地緣對手更不會停。這對他們來說是生死存亡的競賽。所以我們沒有多少回旋余地——這是一場必須參與的競賽。我能做的,就是加快安全技術的發展。
我寫了很多文章討論可解釋性、安全技術方向的重要性。我們把所有的安全研究公開發布,因為我們認為這是公共產品,是每個人都需要共享的內容。
如果你有更好的策略,能平衡技術的好處、不可避免性和它的風險,我非常愿意聽。我每天入睡前都在思考這個問題,因為我非常清楚利害關系——包括它能帶來的好處、它能挽救的生命。
這些我都親眼見過。我也親眼看到模型出錯。比如 grok 就是一個例子。人們現在可能會不以為然,但當這些模型開始采取行動、進入制造環節,甚至參與醫療干預時,就不會再有人笑了?,F在它們只是“在說話”,但以后不是。這需要我們用極其嚴肅的態度來對待,因為這是一場高風險決策。
讓我很擔心的是,一方面我們有一群“末日論者”(doomers)。有人說我是末日論者,其實我不是。但確實有那些堅信“AI根本不可能安全”的人。我看過他們的論點,都是些胡言亂語。承認模型有風險、甚至可能危及人類,這是合理的。但聲稱我們邏輯上可以證明它們永遠無法被安全控制,那就太扯了。這種回應是缺乏理性和道德嚴肅性的。
同樣地,那些掌握了20萬億美元資本、卻整天串聯在一起、眼里只有美元符號的人,說“我們應該10年都不監管這項技術”,這也是非常不嚴肅的態度。
還有人說:“你們這些擔心AI安全的人,只是想自己壟斷技術?!边@也是一種荒唐、缺乏道德嚴肅性的說法。
我們坐在這里做了所有能做的研究。每當覺得有必要,我們都會發聲。比如在談論AI的經濟影響時,我們設立了專門的經濟研究委員會,有實時追蹤模型的經濟指數,也給研究者發放資金,讓他們能理解AI對經濟的影響。
那些比我在技術上投入更多資金的人,卻輕描淡寫地對我進行人身攻擊——我認為這跟那些末日論者一樣,都是缺乏理性和道德責任感的態度。我們真正需要的,是更多的思考、更多的坦誠、更多愿意為了公眾利益發聲的人——而不是沉迷于“X平臺上的熱?!焙洼p率的觀點。我們需要有人真正去了解這個局面,做研究、出成果、帶來啟發和見解。我正在盡我所能去做這件事,雖然不完美,但我盡力了。如果能有更多人也愿意這樣做,那就太好了。
主持人
Dario,我在鏡頭外說過,但現在想在結尾公開說一遍:我很欣賞 Anthropic 的公開精神。我們從你們的各種實驗中學到了很多,不管是模型紅隊測試,還是“自動售貨機Claude”項目,雖然今天沒來得及展開講,但你們的透明確實讓這個世界變得更好。感謝你愿意花時間坐下來接受這次訪談。
Dario
謝謝你邀請我。
主持人
感謝大家的收聽和觀看,我們下期節目再見。
























