一句「你還好嗎」值40億?斯坦福博士出走xAI,押注AGI共情力
在這個人人都想造出「更聰明AI」的年代,Eric Zelikman卻反其道而行——他想造一個「更有感情」的AI。
這位從斯坦福走出的年輕研究員,曾是馬斯克的xAI核心成員。
可就在9月,他帶著新的野心離開了那家以算力和理性著稱的公司。
他的新公司叫Humans&,名字聽起來更像一個未完的句子。
Zelikman希望Humans&能夠架起AI與人類之間的橋梁,而非取代。
如今,他正以40億美元估值、籌集10億美元資金,要打造一套具備「情感智能」的模型。
在他看來,這才是AI真正通往「智慧」的下一步。
離開馬斯克,他要造一個「懂你」的AI
在硅谷,Eric Zelikman是那種「被天才氣質(zhì)耽誤了的理想主義者」。
他是斯坦福計算機(jī)系博士,曾在馬斯克的xAI做研究,是那篇讓語言模型學(xué)會「think before speaking」的論文作者。
那篇論文,讓AI學(xué)會「先思考,再發(fā)言」;而現(xiàn)在,他希望AI在對話前能先感知用戶的情緒,并根據(jù)情感的變化作出更合適的回應(yīng)。。
想象一下,AI在你感到沮喪時,不是機(jī)械地回答,而是通過捕捉到你語氣中的疲憊和情緒變化,提供一種更溫暖、更體貼的回應(yīng)。

今年9月,他離開了xAI。那是一家以算力和速度為信仰的公司,研究員們在顯卡的轟鳴聲里追求極致推理。
Zelikman卻越來越清楚,這些模型再聰明,也是冰冷的。
在一次播客里,他說:
模型現(xiàn)在太像在玩回合制游戲。它不理解自己說的每一句話,對人意味著什么。
離開那天,他沒帶走任何技術(shù)文檔,只有一個念頭:要讓AI變得更像人。
于是,他創(chuàng)立了新公司Humans&。
像一個未完的句子,也像他理想中的關(guān)系——AI,不是人類的替代品,而是人與人之間的延伸。
據(jù)報道,Zelikman正在以40億美元估值、籌集10億美元資金推動這一計劃。
投資人名單尚未公開,但業(yè)內(nèi)普遍認(rèn)為,這是今年最受矚目的「情感AI」項目之一。
AI越來越聰明,人類卻開始覺得孤獨
Zelikman離開xAI,并不只是換了家公司,而是換了一種信仰。
在他看來,如今的語言模型已經(jīng)足夠強大。它們能寫代碼、作詩、生成戰(zhàn)略報告,卻依然「不了解人」。
「它們不理解長期后果,」他在播客中解釋道,「當(dāng)你把對話的每一輪都當(dāng)成一場獨立的游戲,模型就會變得短視。它不會在意自己說的話,會讓誰受到影響?!?/span>
這是一個許多AI研究者都心照不宣的痛點:模型算力越來越高,卻越來越「冷漠」。
它們能預(yù)測語言,卻無法預(yù)測情緒;能完成任務(wù),卻不懂體諒。
研究發(fā)現(xiàn),人們對AI創(chuàng)作的故事比人寫的少共情。
一項對985名參與者的實驗中,當(dāng)故事由AI撰寫時,參與者表現(xiàn)出的同理心明顯低于人類作者那組。

這也讓Zelikman萌生出一種逆向沖動——既然機(jī)器在理解世界上已經(jīng)無所不能,那它是否也該學(xué)會理解「人」?
他的回答,就是Humans&。
這家公司要訓(xùn)練一種全新的AI模型,不再以正確率或推理深度為唯一指標(biāo),而是加入「理解與共情」的目標(biāo)函數(shù)。
模型將根據(jù)用戶的對話上下文、語氣變化和情緒表達(dá)來調(diào)整反應(yīng),使其在理解和回應(yīng)時更具共情力。
在他看來,AI的下一步,是學(xué)會識別并回應(yīng)你在對話中的情緒波動,而不僅僅是根據(jù)關(guān)鍵詞回答問題。
它不可能完美,但一定可以比現(xiàn)在更好。
資本押注:情感AI成下一片戰(zhàn)場
在硅谷,AI的熱度從沒降過,只是風(fēng)口變了。
去年,資本追著「推理更強」的大模型跑;今年,他們盯上了「更懂人」的那一個。
就在幾個月前,前OpenAI首席技術(shù)官Mira Murati創(chuàng)辦的Thinking Machines Labs,在還沒推出產(chǎn)品的情況下,就以120億美元估值拿下20億美元種子輪融資——投資人名單里全是頂級基金。

現(xiàn)在,Eric Zelikman的Humans&成了這股「情感AI」浪潮的新代表。
他要創(chuàng)造的,不是更高效的機(jī)器,而是「有情感的算法」。它不僅能夠快速計算,還能理解人與人之間的情感連接。
在播客里,Zelikman這樣解釋他的野心:
AI的目標(biāo),不只是完成任務(wù),而是理解人。
他相信,真正的智能,不該只是會推理的大腦,而要有能共情的「心」。

投資人也在押注這種轉(zhuǎn)向——從算力競爭,到「心力」競爭。
雖然「情感AI」看起來潮,但多篇文獻(xiàn)指出,AI模擬情緒能力還遠(yuǎn)不能等同于「真正理解」。
有研究說,人工智能能夠識別情緒類別,但無法體驗或內(nèi)在感受同理心。
畢竟,在這個情緒焦慮被算法放大的時代,誰能先造出一個「懂人」的AI,誰就可能定義下一場革命。
AI的下一步:從理性到共情
人類創(chuàng)造AI的初衷,是為了讓機(jī)器更聰明。
但十年后,我們或許會發(fā)現(xiàn),真正改變世界的,不是聰明,而是「理解」。
Eric Zelikman提出的愿景——「讓模型理解人」,聽起來像一句浪漫口號,卻恰好點中了AI發(fā)展的瓶頸。
如今的語言模型,無論多強大,本質(zhì)上仍是一種「預(yù)測機(jī)器」:它能猜出下一個詞,卻猜不出一句話背后的心情。
AI還不會理解那些無聲的部分,語氣、停頓、欲言又止。
它不會分辨「沒事」背后的委屈,也不會在「再見」之后問一句「你還好嗎」。
甚至有研究表明,當(dāng)人們知曉是AI產(chǎn)生的「共情」時,他們對那些交互的信任度會下降。

而Zelikman想讓機(jī)器在這些縫隙里變得更柔軟。
模型的目標(biāo)是理解你。它不會完美,但能比現(xiàn)在更好。
這句話很像是給AI的一封情書,也像是人類寫給自己的提醒。
也許,AI真正的終點,不是取代人類,而是讓人類被更好地理解。
在算力的盡頭,也許正是人心。
硅谷這一輪AI競賽,看起來仍舊是關(guān)于速度、參數(shù)和估值。
但在這些數(shù)字背后,正在發(fā)生的,或許是一場更隱秘的轉(zhuǎn)向——從追求「正確答案」,到尋找「情緒理解」;從造出能替人思考的機(jī)器,到造出愿意傾聽的機(jī)器。
Zelikman走出xAI,也許并不是離開馬斯克的理性世界,而是走向一種新的信仰:讓AI重新學(xué)會共情。
這場冒險還沒有結(jié)束。
但至少,它讓我們看到,技術(shù)的盡頭不一定是冰冷的金屬,而可能是一次人類自我理解的回環(huán)。































