AI奠基人辛頓再發警告:中國十年后會超越美國;人類在親自制造外星人;AI帶來大規模失業潮將失控 原創
?出品 | 51CTO技術棧(微信號:blog51cto)
拿下諾獎一年之后,AI奠基人、“AI教父”辛頓·杰弗里,卻成了那個最擔憂人工智能的人。
這位讓神經網絡走入現實的科學家,在剛剛放出的采訪視頻中再次以一種幾乎絕望的語氣告訴全人類:“我們正在親手制造外星人。”
這些外星人不會從星空降臨,而是從代碼中誕生。十年后,它們或許比人類更聰明、更強大,而我們卻還在忙著搶市場、卷融資、拼模型。
他表示,人工智能有朝一日可能會超越并壓制其創造者。辛頓警告說,科技巨頭的發展速度過快,需要全球合作,而且我們或許需要經歷一次“切爾諾貝利時刻”才能真正重視這一危險。從大規模失業到失控,辛頓指出,人類的生存取決于我們現在的行動。
而在AI安全方面,辛頓對于Anthropic、Google DeepMind的研究進展表示認可,但點名批評了Meta和OpenAI。
我覺得Meta就不太負責任。
OpenAI當初成立的初衷是要負責任地發展AI,但現在每天都在變得更不負責任。他們最優秀的安全研究人員幾乎都已經離開。
我認為Anthropic和Google還算關心安全,其他公司就差得多。
而對于中美之間的AI競爭,辛頓坦言:雖然美國略占優勢,但中國會超過美國。
中國有大量聰明、競爭力強、受過良好理工教育的人才。中國在科學、工程、數學領域培養的人遠遠超過美國。而美國基本上靠移民支撐這些領域的智力資源。中國可能會超越美國。
對于上周美國巨頭企業的裁員,辛頓也直截了當地表示:
我的擔憂是,賺錢的最直接方式——除了收取聊天機器人使用費,就是替代人類勞動力。讓公司更賺錢的方式,就是用更便宜的東西取代員工。
對于這次AI帶來的失業潮,辛頓相當悲觀:
如果你以前挖溝被取代,你還可以去做呼叫中心工作——但現在連這些工作也會消失。
1.我們正在親自創造外星人
采訪者:
這是一個關于“為最壞的情況做準備”的故事——也許,是我們所能想象到的最糟糕的情況。一年前,我們采訪了計算機科學家杰弗里·辛頓,就在他因機器學習研究獲得諾貝爾獎后的幾天。自那以后,這位被稱為“AI 之父”的科學家一直很忙——不是忙著開發人工智能,而是忙著警告人們。他說,我們都越來越意識到AI的風險,但光知道還不夠,我們必須行動。
杰弗里·辛頓:
假設有一天,一架望遠鏡發現,一支外星入侵艦隊將在十年后抵達地球,我們一定會恐懼,并立即采取行動。而現在,我們正處在這樣的局面中——只是這次的“外星人”是我們自己造出來的。十年后,它們會出現,而且會比我們更聰明。我們必須認真思考,我們該如何與這些存在共存。
2.OpenAI、Meta都不太負責任,谷歌做得不錯
采訪者:
“共存”與“控制”,這正是辛頓自己一直深思的問題。作為現代人工智能的奠基人之一,他無疑最有資格思考AI的未來——以及是否有人能夠塑造它。有沒有哪家公司真的在做AI安全方面的工作?比如我們聽說過的Anthropic、DeepMind,它們在安全上有幫助嗎?
杰弗里·辛頓:
是的,我認為Dario Amodei、Demis Hassabis,還有Jeff Dean都相當認真地看待AI安全。當然,他們也深陷激烈的商業競爭,這確實很難平衡。但他們都明白,這是一種“存在性威脅”——當AI變得足夠聰明時,它可能會直接取代人類。他們對此是有擔憂的。不過有些公司就沒那么負責任。比如,我覺得Meta就不太負責任。OpenAI當初成立的初衷是要負責任地發展AI,但現在每天都在變得更不負責任。他們最優秀的安全研究人員幾乎都已經離開。我認為Anthropic和Google還算關心安全,其他公司就差得多。
3.CEO們對安全不上心:只關心競爭是錯誤的思考模式
采訪者:
我和這些公司的人聊起安全問題時,他們常會說:“別擔心,我們有最頂尖的計算機科學家,他們完全掌控得住。離真正的危險還遠著呢。”他們更在意的是爭奪主導地位的競賽。
杰弗里·辛頓:
是的,這正是問題所在。他們更關心競爭,而不是人類能否在這場競賽中幸存下來——或者社會能否承受大規模失業。唯一的好消息是,所有國家至少在一件事上是一致的:沒有人希望AI取代人類。各國可能在網絡攻擊或自主武器上存在沖突,但在“阻止AI接管人類”這件事上,他們會合作。各國都不希望AI接管,包括美國。大家都不想那樣。問題是:即便各國都合作了,該如何阻止AI接管?我認為,目前各大公司和政府都采用了錯誤的模式。
他們普遍的心態是:我是CEO,而那個超級智能AI只是個非常聰明的執行助理。我是老板,她聽我指令,不聽話我就解雇她。我只需要說“去做吧”(就像《星際迷航》里那樣),AI就能幫我搞定,然后功勞算在我頭上。但事實不會如此——當它比我們更聰明、更有力量時,這種模式完全行不通。我們需要思考,有沒有任何現實中“智力更低的東西”能有效控制“智力更高的東西”?只有一個例子:嬰兒控制母親。進化花了巨大的努力,讓嬰兒能夠影響母親——母親常常比關心自己更關心孩子。這在兔子身上不成立,但在人類身上成立。這似乎更像是人類與超級智能共存的合理模型。但我們必須接受一個事實:我們是嬰兒,它們是母親——只希望它們不是那種“猶太母親”。你可以想象,那些科技大佬絕不會接受這種模式,他們根本不是那樣思考世界的。
4.美國攻擊大學和基礎研究,只會讓中國超越美國
采訪者:
美國在生成式AI的研發上是否已經落后于中國?
杰弗里·辛頓:
還沒有。美國目前仍略占優勢,但優勢沒他們想象的那么大。中國有大量聰明、競爭力強、受過良好理工教育的人才。中國在科學、工程、數學領域培養的人遠遠超過美國。而美國基本上靠移民支撐這些領域的智力資源。中國可能會超越美國。如果你是中國,想確保這一點,最聰明的做法就是——切斷美國的基礎科研經費,削弱它的研究型大學。實際上,特朗普攻擊大學和基礎科研經費的做法,更像是在替中國辦事。
采訪者:
這種損害有多深?這不僅是研究經費的問題,還有海外移民人才流入的影響。這種傷害多深?多久能感受到?
杰弗里·辛頓:
攻擊基礎研究的后果不是立刻顯現的,通常要10到20年后才會真正感受到。那時候你會發現,這么做其實是阻止了新的概念性突破在美國發生。到那時,中國會遙遙領先。
5.AI浪潮的核心動因:老板想賺錢,希望讓更便宜的東西取代員工
采訪者:
不管誰在AI競賽中領先,你都說過過去一年風險在上升——尤其對普通工人來說。本周亞馬遜宣布裁員4%,部分原因可能正是AI投資讓它“有能力”這么做。自我們上次對話以來,大量資金涌入AI領域,總額可能以萬億美元計。這些錢究竟花在了哪里?最終能惠及誰?
杰弗里·辛頓:
這些都是由極為嚴肅的商業人士掌舵的大公司,他們不會在沒有回報預期的情況下砸錢進去。當然,也有點虛榮心——他們想第一個實現突破,即便這可能毀掉我們所有人。但他們確實相信這里能賺錢。我的擔憂是,賺錢的最直接方式——除了收取聊天機器人使用費——就是替代人類勞動力。讓公司更賺錢的方式,就是用更便宜的東西取代員工。我認為,這正是推動這場AI浪潮的核心動因之一。
采訪者:
最終這是不是一個“贏家通吃”的局面?
杰弗里·辛頓:
我不確定。這是一個前所未有的領域。我們從未擁有過“幾乎和我們一樣聰明的東西”(而現在已經有了),也從未面對“比我們更聰明的東西”(而那即將到來)。工業革命期間,我們有比人更強大的機器,比如蒸汽機比馬力更大,但我們仍然能控制它。而這次不同。如果你以前挖溝被取代,你還可以去做呼叫中心工作——但現在連這些工作也會消失。人們將去往何方?有些經濟學家說,每次技術革命都會創造新工作,但我并不確定這次會如此。我認為大公司正在押注AI帶來大規模失業,因為那才是利潤的來源。
采訪者:
有人說,歷史上新技術摧毀舊崗位的同時也創造新崗位,總體上就業不減反增。但你認為這次不同。那AI的萬億投資能否在不摧毀就業的情況下獲得回報?
杰弗里·辛頓:
我認為不可能。想賺錢,就必須替代人類勞動。
6.馬斯克會變得更富,很多人會失業
采訪者:
面對AI對工人、經濟乃至整個人類的威脅,你是否后悔自己在創造它的過程中扮演的角色?我們問了ChatGPT,它會如何描述與您的關系。它說:“如果我是一片成熟的雨林,辛頓就是那個播下種子并教會人們如何澆灌它的人。”那你覺得,這一切值得嗎?
杰弗里·辛頓:
這是個很難的問題。這不像核武器,核武器只有壞的用途。而AI能帶來巨大的好處——比如在醫療、教育和生產力上的革命性提升。問題的根源不在AI,而在社會組織方式上——比如,馬斯克會變得更富,而很多人失業,馬斯克并不會在意。我只是拿他作個例子。這不是AI的問題,而是社會結構的問題。
7.警醒AI版切爾貝利、古巴導彈危機
采訪者:
在過去一年,經濟和股市的增長幾乎都由AI投資驅動。即便公眾越來越擔心AI風險,他們可能也會說:“等等,這可是推動經濟的引擎,我們不能放棄它。”你怎么看?
杰弗里·辛頓:
有人說,我們唯一的希望,是讓AI嘗試接管但失敗——換句話說,我們需要一次能真正嚇醒人類的事故,比如AI版的“切爾諾貝利”。
ps:切爾諾貝利(Chernobyl)指的是1986年4月26日,蘇聯烏克蘭的切爾諾貝利核電站發生的一場史上最嚴重的核災難。這場事故導致核反應堆爆炸,大量放射性物質泄漏,污染了半個歐洲,直接和間接導致上萬人死亡,也讓全球開始重新反思核能的安全。
采訪者:
或者像“古巴導彈危機”?
杰弗里·辛頓:
是的,類似那樣的事件,能制造“緊迫感”。古巴導彈危機讓人們開始認真對待核裁軍。我們現在也需要那樣的危機,讓公眾真正關注、投入資源。現在的大公司不可能拿出三分之一的力量研究AI安全——但如果有一天,AI真的嘗試接管、但差點失敗了——也許,那時候他們就會開始認真對待。
本文轉載自??51CTO技術棧??,作者:云昭

















