
譯者 | 李睿
審校 | 重樓
從圖像識別、語言翻譯到在國際象棋比賽中擊敗人類,人工智能如今取得了非凡的成就。然而,人工智能并非萬能,其在一些關鍵領域和任務上的能力仍遠遜于人類。目前的人工智能系統是“狹義”的專家,擅長解決定義明確的問題,但在需要常識、創造力或情感理解的情境中卻難以應對。本文將探討人工智能尚未有效替代人類的核心領域和實際應用,進一步凸顯了人工智能的固有局限性,進而闡明人類在這些方面不可替代的價值。
具體而言,人工智能目前在以下領域表現尤為不足:
創造力和原創性
創造力是公眾對人工智能最常見的誤解之一,因此需要澄清一些誤解。事實上,“人工智能并不具備人類意義上的真正創造力。”
迄今為止,人工智能在創造性領域的表現本質上是模仿。它缺乏進行有意義或帶有意圖的創新的能力。在創造性領域,人類的創造力仍然占據上風。雖然人工智能可以通過從現有作品中學習模式來創作藝術或寫作,但它缺乏想象力、文化洞察力和情感深度。雖然人工智能擅長整合已知信息,但難以進行巧妙的創造。這意味著人工智能藝術家可以重新混合不同風格,或者人工智能作家可以模仿某種流派,但要構思出蘊含深刻含義的原創概念或者能夠在深層次上與人類產生共鳴的故事則是另一回事。

圖1 人工智能面臨“有嘴無腦”的困境
在一項調查中,76%的人認為人工智能生成的內容并不是“真正的藝術”,他們認為人工智能創造的內容缺乏真實性或靈魂。人類創造者利用個人經驗、豐富情感和明確意圖進行創作——其核心在于自我表達。而人工智能沒有自己的想法和目的,其輸出僅僅是執行預設指令的結果。因此,從科學創新、小說創作到設計實踐,這些依靠原創思想和創造性而蓬勃發展的領域仍然很難被人工智能真正顛覆。人工智能是一種強大的創意工具,但就目前而言,它更像是聰明的模仿者,而不是真正的靈感來源。專家認為人工智能“有嘴無腦”是可以理解的!
倫理與道德推理
人工智能缺乏真正的道德指南或者對倫理的理解,這在一定程度上是由于道德困境的復雜性所致。在倫理考量方面,沒有絕對的“是”或“否”。倫理觀念可能會隨著時代的發展而演變,并且深受文化和政治的影響。人工智能可以遵循預先設定的規則和算法,但它不具備人類價值觀或良知。因此,人工智能缺乏復雜倫理決策所需的價值觀、同理心和道德推理能力。
例如,在醫療分類或自動駕駛場景中,人們無法信任沒有人類監督的人工智能做出的最終決策。人工智能可能會機械地優化結果(如效率或效用)而忽視公平性或同理心。在刑事司法領域,用于量刑或警務的算法由于基于歷史數據進行訓練而顯示偏見,這可能會加劇不公平的偏見。

圖2 結果和價值之間的權衡
這些人工智能工具無法識別個體情況或公平性,機器缺乏人類的道德推理和同理心。簡而言之,每當決定涉及道德判斷或責任時,人類的判斷仍然是不可替代的,因為人類能夠以人工智能無法做到的方式權衡是非。
判斷與人類價值觀
現實世界的決策往往不存在單一的“正確答案”。它們取決于個人價值觀、文化背景和情境判斷。人工智能系統對此缺乏自己的理解,它依靠數據和目標進行決策,而不是對意義、情感或價值共鳴的把握。
以廣告宣傳活動的設計或制定社區政策為例。其成功與否遠不止于測試數據(如點擊率)。關鍵在于它是否契合目標受眾的情感、價值觀與文化語境——美學、價值觀、基調,所有這些都來自人類的經驗。就人類價值觀而言,沒有一刀切的解決方案,因為他們深受過去經驗的影響、人工智能無法察言觀色,它不知道某件事對某個人意味著什么。

圖3 人類價值觀與傳統數據點的區別
這就是與道德、文化或判斷相關的選擇仍然需要人類主導的根據原因。人類擁有感知微妙差異、理解深層背景的獨特能力,能夠直覺性地察覺問題所在——即便所有量化指標看似完美。人工智能并不是為這種理解而設計的。
荷蘭的福利政策就是一個很好的案例,該政策旨在為荷蘭居民提供經濟援助,其資格的篩選取決于機器學習算法。但由于預測工具存在缺陷,導致對移民和低收入女性的評估出現了不公平的情況。這進一步凸顯了其訓練數據中的偏見。
情商和同理心
情商和同理心是許多人類角色的關鍵要素,也是人工智能的一個主要盲點。雖然人工智能可以模擬禮貌的對話,但它缺乏情商,無法真正理解或分享感受。例如,在醫療保健和心理咨詢領域,患者不僅需要專業的診斷或治療建議,往往還需要同理心和情感支持。在某些情況下,安慰和幫助是應對心理困擾的治療性干預手段。

圖4 情感的鴻溝是人工智能的優化陷阱
人工智能治療師或護理人員或許能夠提供信息,但人工智能無法對人類能夠感受到的難以言喻的情感線索做出反應。同樣,客戶服務聊天機器人可以處理簡單的查詢,但憤怒或苦惱的客戶可能需要能夠感同身受并解決矛盾的人工客服的幫助。建立有意義的人際關系(無論是作為老師、咨詢師還是護士)都需要同理心、對情感的細致理解以及對社交線索的適應能力,這些都是人類獨有的特征。現實世界的經驗反映了這一點:護理、咨詢和社會工作中的角色仍然依賴于情感,因為人工智能無法提供用戶所需的溫暖和理解。在能夠真正感受到或深度模擬人類情感之前,人工智能在任何需要情感聯系的應用中仍然存在局限性。
身體感知和運動技能
配備人工智能的機器人在受控環境(如工廠)中取得了長足的進步,但它們仍難以應對現實世界的復雜性。有一個廣為人知的觀點叫做“莫拉維克悖論”:人類認為容易的任務(行走、感知和操縱物體)是人工智能最難復制的功能。人工智能可以擊敗國際象棋大師,但家用機器人仍然無法疊好衣物。

圖5 機器人難以完成基本的任務
模仿人類的感知和感覺運動技能需要對無數變量的實時理解,這對人工智能來說極具挑戰性。例如,自動駕駛汽車可以在繪制地圖的道路上以最優的方式行駛,但在不可預測、非結構化的環境中會表現不佳,例如在處理道路上意外出現的障礙物或人類手勢等環境變化迅速的情況下。護理人員移動病人或廚師實時調整食譜依賴于人工智能所缺乏的人類智能和直覺。盡管機器人取得了長足的進步,但人類的靈活性和對現實世界的適應能力在很大程度上仍然是無與倫比的。
領導力和戰略愿景
領導力的核心在于激勵人心、在不確定性中做出判斷以及建立深厚信任。在這些高度依賴智慧的領域,人工智能的表現存在根本性局限——因為照本宣科的管理法替代真實的領導力。管理者和高管依賴于人工智能無法模仿的人際交往和戰略技能,這些技能是他們多年經驗積累的結果。

圖6 結果導向的短視決策
人工智能可能比任何人都更快地處理業務指標,但它無法感知團隊士氣的微妙變化,也無法預測最近的決策對未來的影響。有效溝通和同理心是良好領導力的關鍵要素,而這些是人類固有的品質。正如一項分析指出,通過愿景、同理心和溝通來激勵和引導他人的行為是人工智能無法企及的人類能力。
此外,人們通常不愿意在重要問題上接受機器的指令;他們希望領導者理解他們的價值觀,并且愿意為自己的決策承擔責任。如果由人工智能主導的決策導致事故,那誰為負責?程序員,公司,還是算法本身?人類喜歡找出根本原因。然而,當問題根源涉及復雜的人工智能系統時,往往缺乏可行的追責路徑或有效的約束機制,
關鍵模式
綜合考慮人工智能在諸多領域表現出的局限性,可以確定一些關鍵的模式:
- 能夠感知模式,而不能理解意義:人工智能在處理數據時沒有真正理解情境、情感或意圖。
- 可以執行規則,難以應對模糊性:人工智能在結構化的環境中工作,但在不可預測、混亂的現實世界中會崩潰。
- 只能模仿,而不會原創:人工智能將現有的內容重新整合在一起,沒有真正的創造力、直覺或自我驅動的目的。
- 只生成結果,不承擔后果:人工智能不能像人類那樣關心后果、承擔責任或做出符合道德的決策。
- 知識聚合者,而不是智慧擁有者:人工智能缺乏來自生活經驗和人類洞察力的判斷力、靈活性和視角。
人工智能的局限性是恒定不變的嗎?
本文聚焦于當前人工智能技術所展現的能力,必須明確的是,這些局限性并不是恒定不變。人工智能領域正在快速發展與演進,可以預見,其現有的局限性將隨著技術進步而逐步減少。人工智能在未來能夠克服一些挑戰,這不足為奇。而如果人工智能在某些方面(例如倫理)能夠取得突破,將會看到人工智能運作方式的范式轉變。
常見問題解答
Q1:為什么人工智能不能取代人類的創造力?
答:人工智能模仿現有數據的模式,但缺乏想象力、情感和意圖。它并非出于目的或意義進行創作,只是根據訓練輸出內容。人類憑借個人經歷和情感進行創作,雖然人工智能可以重新組合內容,但無法真正創新。
Q2:可以信任人工智能做出倫理或道德決策嗎?
答:不能。人工智能并不理解倫理,只是遵循規則。它缺乏同理心、文化意識和是非感。在涉及公平或責任的復雜決策中,人類判斷仍然至關重要。
Q3:人工智能在現實應用中最失敗的地方是什么?
答:人工智能在非結構化、不可預測的情境中表現不佳。它無法感知情感、處理細微差別或像人類一樣適應變化。而需要同理心、判斷力或身體感知的角色(例如護理人員、領導者或社會工作者)仍然依賴于人類。
原文標題:Limits of AI: Domains and Tasks Beyond AI’s Reach,作者:Vasu Deo Sankrityayan
































