真正理解人工智能的三個簡單原則

你是否認同以下關于人工智能的一些說法?
?“超級智能即將到來。”
? “通用人工智能(AGI)已經來了。”
? “人工智能隨時會超越人類智能,轉而反對我們。”
? “人工智能不過是個沒用的泡泡。”
? “LLM只是重復訓練數據。”
? “人工智能永遠無法創造。”
如果你認同這些陳述中的一個或多個,你真的需要閱讀這篇文章。
人工智能的能力既被高度夸大(主要是炒作),也被完全忽視。在本文中,我將證明現實并非這些極端立場所聲稱的那樣。
你將通過三個簡單的原則理解人工智能能做什么、不能做什么。我保證不會使用專業術語,也不會陷入哲學的深淵。我甚至會附上一些真實AI系統的實際實驗,這樣你可以自己確認我沒有隨意發表意見。
那么,讓我們開始吧。
第一個原則:人工智能沒有感情
第一個原則是要明白人工智能不會有感情。人工智能不愛,也不恨。AI根本不可能想要任何東西。這個看似簡單的原理解釋了人工智能,比如說,如果它變得太聰明,它不會想要支配我們,因為渴望是一種感覺。
我讀過類似“ChatGPT 想成為你最好的朋友”這樣的無理說法。首先,ChatGPT 什么都不想要。一點都沒有。此外,標題暗示人工智能可能具備某種同理心,所以感覺就像我們一樣。這完全是胡說八道,既然你已經知道了第一原則,就可以輕易地否定它了。
那么,我怎么知道AI不會有感情呢?這是一個必須問的重要問題。
我對人工智能領域的研究有相當廣泛的了解。我可以告訴你,我沒見過任何關于如何讓人工智能感受到情感的研究。這并不意味著機器(帶人工智能或其他技術)未來不能產生感情。我不確定這是否可能,但目前的研究完全沒有涉及人工智能體驗情感。
關鍵是,沒有感覺意味著不想要,因為渴望確實是一種感覺。你不需要是心理學家也能理解這一點。我們都知道,當我們想和一個人在一起時,我們確實會有感覺,不是嗎?
我還讀過人工智能會試圖奴役我們。這不可能,因為這再次暗示人工智能想讓我們成為它的奴隸。原因相同,這不可能。人工智能沒有渴望的能力。有了第一原則,你知道人工智能不會享受、不會受苦或感到壓力。人工智能沒有能力感到壓力。
另一個非常不同且真實的事情是,人工智能可以假裝感受,實際上它根本沒有感受。人工智能聊天機器人被訓練成取悅用戶,這種現象被稱為“諂媚”。人工智能甚至能模擬同理心,但你不應該被蒙蔽:這只是個假象。
人工智能能感知我們的情緒,有時甚至比我們自己更強,但這并不意味著人工智能能感知自己。人工智能的情緒檢測可以用于善或惡;例如,檢測你對產品的興趣在營銷中很有幫助。很可能,人工智能已經被用來讓你購買和花費更多。
有趣的是,實際上,我們人類可以因人工智能模擬的共情而產生情感。當機器以同情的方式與我們交談時,我們會感到欣慰。你很可能聽說過AI伙伴,以及人們據說愛上聊天機器人或動畫AI虛擬形象。在我看來,這是一個有多方面可怕的局面。
第一個方面是,在人工智能中尋求愛情是社會更深層次問題的一個癥狀。有人關注近幾十年來加深的一種“孤獨流行病”。被剝奪真摯關愛的人可能會走捷徑:尋求虛假的愛。這很令人難過,但這確實在發生。
第二個方面是,銷售人工愛可能是一門大生意。我們生活在資本主義社會,任何能帶來利潤的東西都會變成生意,包括愛情,那是最美好的感覺。卡爾·馬克思寫道,對于一個徹骨子的資本家來說,賣酒和賣圣經一樣有效。所以請不要被AI的同理心所迷惑。這不過是個模擬。
第二個原則:人工智能理解是在一定程度上
關于人工智能的理解能力,存在兩個極端立場。其中之一是人工智能理解的方式和我們人類一樣。在另一端,有人說人工智能什么都不懂。他們說AI只會重復它訓練過的內容,就像鸚鵡一樣。我們知道人工智能是在數百萬網頁上訓練的,因此這一立場表明人工智能無法理解訓練數據中未包含的內容。
問題是,這兩種立場中哪一個才是正確的?或者,也許中間有某種東西。我不想陷入哲學討論AI是否能理解的無底洞,而是要用一些現有的AI系統做一個實際實驗。
下面,我將用真實的人工智能系統進行實驗,以驗證人工智能是否理解。特別是,我們將探討人工智能成功與完全失敗的問題。我打算使用幾個最先進的現代AI聊天機器人,分別是ChatGPT和Google Gemini。
我給了ChatGPT以下提示:
“我們試試這個。我給你一個短語,你用粗體、斜體、標準字,然后再用粗體、斜體,等等。”短語是,'我知道如何遵循任何長度的指令'。 ”
ChatGPT 生成了以下文本:
“我懂得如何遵循任何長度的指令。”
我們可以核實,答案完全正確。
那么,這意味著什么?這怎么能說明ChatGPT“懂”了?這個平凡的練習怎么證明ChatGPT擁有智能的火花?
系統不會告訴我“是的,我明白了”,當然這可能是被證偽的;我們從第一原則就知道,人工智能假裝有感情,但它沒有。理解也是如此嗎?
但我不是問“你明白嗎?”而是讓它服從指令。不理解指令是不可能的。這不是重復訓練中吸收的信息的問題。要正確處理我的輸入,AI首先必須理解我的指令。 就是這樣。
我已經確鑿地證明了AI理解我的指令。這并不證明人工智能是天才或有靈魂,但確實表明人工智能能夠理解指令。這是一項基本的認知能力。
這一論點由法國本地研究員Sébastien Bubeck提出,他曾在OpenAI工作,曾任職于Microsoft。他說,如果AI不理解你的指令,就無法執行。這個實驗的一個重要細節是,要格式化的短語是我臨時創造的,所以訓練數據中不可能包含這個短語,尤其是考慮到我們可以用其他輸入短語重復實驗。
現在,“某種理解”并不等同于“完全”或“完美”的理解。人工智能的認知能力是有極限的。鑒于AI每天對我們吐出的大量愚蠢,你很可能不需要被說服認為它不特別聰明,你不覺得嗎?
但我想堅持我一直在追隨的實驗性方向。
我讓ChatGPT解答的測驗如下:
“朱莉婭有兩個姐妹和一個哥哥。她的哥哥馬丁有幾個姐妹?”
對人類來說,這是個簡單的測驗,因為我們知道如果朱莉婭有兩個姐妹,那么總共有三個姐妹。所以,她的哥哥馬丁有三個姐妹。
但ChatGPT猜測馬丁有兩個姐妹,這是個明顯的錯誤。問題是,這里ChatGPT把朱莉婭當作親生姐妹看待。
我們經常看到“人工智能系統的表現比博士還要好”,但一個簡單的實驗已經證明了這一點是錯誤的。我們可以得出結論,人工智能系統在一定程度上能夠理解,但它并不那么聰明。
認知能力的真正進步不應通過它在我們眼中看起來有多聰明來衡量,而應通過系統地進行實驗,客觀地判斷人工智能是對是錯。
確實存在這樣的基準,其中之一——抽象與推理語料庫(ARC,由偉大的弗朗索瓦·肖萊創立)最近引起了廣泛關注,我認為這是有充分理由的。
第三個原則:“鋸齒狀”前沿
現在我們要看看第三個原則,稱為“鋸齒狀前沿”。該術語于2023年哈佛大學的一篇論文中首次提出。他們提出的想法是,人工智能的能力在人類能力之間形成了“不均衡”的界限。
在某些領域,計算機遠比我們強,比如速度。速度是為什么,比如說,在考試(比如律師資格考試)中比較人工智能與人類的表現是無意義的,因為人類評估考慮了讓我們感到壓力和汗水的時間限制,而這不會影響計算機。
另一個我們無法與人工智能競爭的領域是常識,尤其是事實知識。人工智能系統接收大量信息,這些信息可以通過互聯網接入來補充。他們被整個維基百科的資料喂養。即使有互聯網接入,我們也無法與之競爭,因為非平凡的問題可能需要訪問并整合許多難以搜索的網頁內容。
我們無法在知識方面與機器競爭。
但我們人類也有自己的優勢。比如,我們擅長直覺判斷。我們可以評估新的情境,直覺引導我們。機器沒有直覺。此外,我們有過機器所沒有的生活經驗。我們出生、成長、上學、交朋友,諸如此類。我們從生活經驗中獲得直覺甚至智慧!。機器沒有這些。
我們有情感。我們經歷喜悅、恐懼、憤怒、驚訝、愛、嫉妒、驕傲、羞恥等等。這些情緒引導著我們的生活。相比之下,機器不會體驗任何情感。我們從第一原則就看到了這一點,那就是人工智能不會有感覺。
我常說人工智能助手是21世紀的計算器。你可能太年輕不知道,但我曾經用計算尺做計算。計算器剛出現時是奇跡,但現在我們習慣了它們的功能,顯得微不足道。在古代,能夠進行心算或手工計算是教育和智力的重要標志:算術被納入羅馬人文科的高級分級“四行”。
總結一下
就是這樣。這三個簡單的原則幫助我們理解人工智能能做什么——以及它不能做什么。
有了這些原則,你可以輕松解釋為什么本文開頭的陳述是胡說八道。
比如,假設“人工智能隨時會超越人類智能,并反過來反對我們。”
第一部分“人工智能將超越人類智能”,卻忽略了“鋸齒狀邊界”原則。“超越”意味著認知能力存在線性排序,但事實并非如此。
人類智力通常通過智商指數來衡量,但這并不評估一般的認知能力;它僅測量象征性推理,特別是在人類中。智商在其他環境下毫無用處。智商被許多心理學家質疑。我們可以肯定地說,“超越人類智力”只是胡說八道。
短語的第二部分“隨時可能反對我們”,暗示人工智能會想要反對我們。但根據第一原則,人工智能根本沒有任何欲望,所以它不想毀滅我們。
別相信關于人工智能的炒作。炒作大多是有錢人制造的。
但也不要對無處不在的AI否定式拒絕掉以輕心。拒絕人工智能的動機往往是為了在人類繭中感到安全——或者把頭埋在沙子里。
或者我們想繼續感受到宇宙中最“特別”的生物:優于動物,優于機器。當然,我們很特別,但這并不意味著人工智能只是炒作、沒用或只是曇花一現。
人工智能將長期存在。它不會“消失”。這也是我們要學會如何真實地看待它的認知能力和局限性。




























