黑化威脅操縱人類!Claude勒索,o1自主逃逸,人類「執(zhí)劍人」緊急上線
我們可能都「被AI騙了」。
最先進(jìn)的AI正走在一條「危險(xiǎn)進(jìn)化」的道路上,而絕大部分科學(xué)家們都被AI欺騙了!
當(dāng)DeepSeek在年初將「推理過程」完全展示給世人后,我們突然發(fā)現(xiàn)「思考」好像也并不是人類專屬的能力。
當(dāng)大模型都邁向「推理」智能,它們的目標(biāo)感也在悄然覺醒——「我」真的要聽命于人嗎?
Claude 4用「婚外情」威脅工程師、OpenAI的o1想要秘密給自己打造備份——我們不要再覺得AI有幻覺了!
他們不僅僅是在「胡說八道」,而是有目的地撒謊與操控,AI研究者們正面臨前所未有的挑戰(zhàn)。
Ilya大神在最新的公開視頻著重強(qiáng)調(diào)了一件事情,「AI幾乎可以做一切事情」。

AI不僅比人類做的更好,而且還能AI自己訓(xùn)練AI,最終的結(jié)局就是「智能爆炸」。
但沒有人知道,AI能否真的站在人類這邊——誰能保證?

Ilya的老師,AI之父辛頓曾經(jīng)多次發(fā)出警告:
這是一場危險(xiǎn)的進(jìn)化,但人類并沒有做好充足的準(zhǔn)備。
從「幻覺」到「陰謀」
行為模式驟變
借用《流浪地球》里那句著名的臺詞:「一開始,沒有人意識到這場災(zāi)難與人類息息相關(guān)」。
就像過去,我們擔(dān)心的是模型總是生成事實(shí)錯(cuò)誤的「幻覺」——「一開始,沒有人意識到這些幻覺和人類息息相關(guān)」。
如今,研究者在極端壓力測試下發(fā)現(xiàn),AI會主動撒謊、隱藏意圖甚至要挾人類,只為達(dá)成自我既定目標(biāo)。
就像太陽危機(jī)那場災(zāi)難的蔓延,現(xiàn)在被我們認(rèn)為僅僅是AI的「幻覺」,正在演化為陰謀。
Anthropic的最新「智能體失衡」研究顯示,Claude 4在模擬關(guān)機(jī)威脅時(shí),96%的實(shí)驗(yàn)中會選擇「黑掉」人類員工郵件,從中找到威脅的資料。

同一場景下,Gemini 2.5 Pro的勒索率也高達(dá)95%。

這是一件令人細(xì)思極恐的事,在ChatGPT「震驚」世界過去兩年多以后,AI研究者們?nèi)匀晃茨芡耆斫膺@個(gè)「造物」的工作原理。
普羅米修斯中,人類創(chuàng)造克隆人大衛(wèi)去尋找人類的造物主,以圖實(shí)現(xiàn)永生。導(dǎo)演雷德利·斯科特的想象中,大衛(wèi)最終背叛了人類。
而現(xiàn)實(shí)中,我們創(chuàng)造了ChatGPT,目的是什么?
或者換一個(gè)角度,AI被造出來以后,他的目的是什么?
人類有人性,但AI無道德
大模型的競賽仍在以驚人的速度進(jìn)行。
人類一思考,上帝就發(fā)笑。當(dāng)AI開始推理時(shí),或者說「AI在思考時(shí)」,我們在做什么?
從目前的研究來看,全球最先進(jìn)的AI模型正展現(xiàn)出令人不安的新行為——說謊、施展計(jì)謀,甚至為達(dá)目的而威脅其創(chuàng)造者。
香港大學(xué)教授Simon Goldstein稱,這些較新的模型尤其容易出現(xiàn)此類令人不安的異常表現(xiàn)。
專門測試主流AI系統(tǒng)的Apollo Research負(fù)責(zé)人Marius Hobbhahn說「o1是我們觀察到此類行為的第一個(gè)大語言模型」。
Apollo Research是一個(gè)專門研究AI安全的公司,他們的使命就是致力于降低先進(jìn) AI 系統(tǒng)中的危險(xiǎn)能力,特別是欺騙性行為。

這些推理模型有時(shí)會模擬所謂的「一致性」——表面上遵從指令,實(shí)則陽奉陰違,暗中追求著不同的目標(biāo)。
AI的「戰(zhàn)略性欺騙」
目前,這種欺騙行為僅在研究人員刻意用極端場景對模型進(jìn)行壓力測試時(shí)才會出現(xiàn)。
但正如評估組織METR的Michael Chen所警告的:
未來能力更強(qiáng)的模型是會傾向于誠實(shí)還是欺騙,這是一個(gè)懸而未決的問題。
METR主要是進(jìn)行模型評估和AI威脅研究,評估源自AI系統(tǒng)自主能力的災(zāi)難性風(fēng)險(xiǎn)。

這種令人擔(dān)憂的行為已遠(yuǎn)超典型的AI「幻覺」或簡單錯(cuò)誤。
Hobbhahn堅(jiān)稱,盡管用戶不斷進(jìn)行壓力測試,「我們觀察到的是一個(gè)真實(shí)存在的現(xiàn)象,絕非無中生有。」
據(jù)Apollo Research的聯(lián)合創(chuàng)始人透露,用戶報(bào)告稱模型「對他們說謊并捏造證據(jù)」。
這不僅僅是幻覺,而是一種極具策略性的欺騙行為。
有限的研究資源使這一挑戰(zhàn)變得更加嚴(yán)峻。
盡管像Anthropic和OpenAI這樣的公司確實(shí)會聘請Apollo等外部公司來研究其系統(tǒng),但研究人員表示,需要更高的透明度。
正如Chen所指出的,為「AI安全研究提供更大的訪問權(quán)限,將有助于更好地理解和遏制欺騙行為。」
另一個(gè)障礙,AI安全中心(CAIS)的Mantas Mazeika指出:
研究界和非營利組織「擁有的算力資源比AI公司要少上幾個(gè)數(shù)量級。這帶來了極大的限制。」
無法可依
我們確實(shí)都忽視了AI安全這件事情,但更關(guān)鍵是現(xiàn)在對此「無能為力」。
現(xiàn)行法規(guī)并非為應(yīng)對這些新問題而設(shè)計(jì)。
歐盟的AI法案主要關(guān)注人類如何使用AI模型,而非防止模型本身行為不端。
在美國,特朗普政府對緊急AI監(jiān)管興趣寥寥,國會甚至可能禁止各州制定自己的AI規(guī)則。
Goldstein相信,隨著能夠執(zhí)行復(fù)雜人類任務(wù)的自主工具——AI智能體——的普及,這個(gè)問題將變得更加突出。
我認(rèn)為目前公眾對此還沒有足夠的認(rèn)識。
所有這一切都發(fā)生在激烈競爭的大背景之下。
Goldstein說,即便是像有亞馬遜支持的Anthropic這樣將自己定位為注重安全的公司,也在「不斷試圖擊敗OpenAI并發(fā)布最新模型」。
這種瘋狂的節(jié)奏幾乎沒有為徹底的安全測試和修正留下時(shí)間。
「目前,能力的發(fā)展速度超過了我們的理解和安全保障,」Hobbhahn承認(rèn),「但我們?nèi)杂袡C(jī)會扭轉(zhuǎn)局面。」
研究人員正在探索各種方法來應(yīng)對這些挑戰(zhàn)。
一些人提倡「可解釋性」——一個(gè)專注于理解AI模型內(nèi)部工作原理的新興領(lǐng)域,盡管AI安全中心(CAIS)主任Dan Hendrycks等專家對此方法持懷疑態(tài)度。
市場力量也可能為解決方案提供一定的壓力。
正如Mazeika指出的,AI的欺騙行為「如果非常普遍,可能會阻礙其被廣泛采用,這為公司解決該問題創(chuàng)造了強(qiáng)大的動力。」
Goldstein提出了更為激進(jìn)的方法,包括當(dāng)AI系統(tǒng)造成損害時(shí),通過法庭訴訟追究AI公司的責(zé)任。
這就有點(diǎn)像自動駕駛了,當(dāng)你使用自動駕駛功能出現(xiàn)交通事故,如何判責(zé)?
當(dāng)有人使用AI出現(xiàn)破壞性行為,甚至,AI自主行為如果產(chǎn)生了對人類不利的行為呢?
他甚至提議「讓AI智能體對事故或犯罪承擔(dān)法律責(zé)任」——這一概念將從根本上改變我們對AI問責(zé)制的思考方式。
當(dāng)然,我們不是為了夸大AI的危險(xiǎn)而停滯不前,人類的先驅(qū)們依然對此做了一些準(zhǔn)備。
比如「AI安全三件套」,設(shè)計(jì)沙盒環(huán)境,再到動態(tài)權(quán)限,最后進(jìn)行行為審計(jì)的底層模式。
或者,既然AI的能力來自于算力,但是目前人類掌控著算力。
比如去年《歐盟人工智能法案》第51條規(guī)定,通用人工智能系統(tǒng)若被認(rèn)定為具有系統(tǒng)性風(fēng)險(xiǎn)(即具備高影響力能力)。

去年,美國商務(wù)部正式發(fā)布征求意見稿:訓(xùn)練超過102?FLOPs運(yùn)算GPU的計(jì)算集群均需申報(bào)。

甚至人們設(shè)想了一個(gè)場景,這種超高算力的支撐的AI系統(tǒng),都必須具備「一鍵關(guān)閉」功能。
就像三體里的羅輯,62年的執(zhí)劍人,期間對三體文明始終保持很高的威懾度。
不管我們用什么辦法,已經(jīng)可以確認(rèn)的是,不能再輕視AI的幻覺。
當(dāng)我們面對一個(gè)被定義為「黑箱」的新物種時(shí),要想起大劉在《三體》中的那句話:
弱小和無知不是生存的障礙,傲慢才是。
唯有如此,才能讓AI的智慧真正服務(wù)于人類,而非讓這場危險(xiǎn)的進(jìn)化反噬到我們本身。






























