自主式AI應用面臨的最大障礙

所謂的自主式AI正在登場——據說它能帶來超智能的AI助手,能夠替我們執行復雜任務。這被視為繼ChatGPT、Claude等僅能回答問題或生成內容的聊天機器人之后的下一代AI。
相關技術的開發者和銷售方告訴我們,我們正處于一個“全自動化”未來的邊緣:AI之間可以協作,并訪問外部系統來完成大量日常的知識處理與決策任務。然而,就像“幻覺”、數據隱私和版權等新興問題曾給生成式AI設置了難以跨越的障礙一樣,自主式AI也面臨著自己的挑戰。
以下是我對開發智能體、希望采用該技術的企業,以及整個社會在實現自主式AI愿景之前必須克服的主要難題的梳理。
信任:最核心的挑戰
要讓智能體真正走向主流,達到足夠的采用規模,信任是首要前提。
數據信任:我們必須愿意讓它們處理敏感和個人數據,以便替我們做出決策。
技術信任:我們要相信技術本身可靠,不會被“幻覺”或其他AI缺陷所干擾。
決策信任:如果讓AI幫我們做重要選擇(如購物決策),我們必須確信它不會浪費我們的錢。
現實中,智能體并非毫無瑕疵,且已經有人證明它們可以被欺騙。企業雖然看到潛在價值,卻同樣清楚一旦失去客戶信任將帶來嚴重的聲譽和業務損失。降低這些風險需要嚴密的規劃與合規措施,而這對許多企業來說構成不小的門檻。
自主式基礎設施的缺失
自主式AI依賴智能體與第三方系統交互和操作,但目前許多第三方系統尚未為此做好準備。
一些“電腦操作型”智能體(如 OpenAI Operator、Manus AI)通過計算機視覺來識別屏幕內容,從而像人類一樣操作網站和應用,即便這些網站和應用并未專門為它們開發接口。
然而它們遠非完美,當前基準測試表明,它們在許多任務上的成功率仍低于人類。
隨著自主式框架的成熟,全球的數字基礎設施也會隨之發展。就像智能手機普及后,移動友好型網站花了幾年才成為常態。
但在當下,這對需要智能體交互的電商、政府門戶等服務運營方帶來風險:
如果智能體做出錯誤的購買決定或誤提交法律文件,責任歸誰?
在這些問題得到解決前,服務提供方可能會猶豫是否允許智能體接入其系統。
安全隱患
稍加想象就能看出,智能體有潛在的安全噩夢:
它們被賦予廣泛且受信任的工具、平臺和數據訪問權限,既是強大的助手,也可能成為網絡犯罪的高價值目標。
一旦遭劫持或被濫用,犯罪分子可能直接操控我們的決策。
結合深度偽造釣魚等高科技攻擊,智能體可能為黑客、詐騙者和勒索者開辟新的攻擊途徑。
因此,無論是個人還是企業在部署智能體時,都必須具備抵御此類威脅的能力,但并非所有人都已做好準備。
文化與社會障礙
最后,還有超越技術層面的文化與社會因素:
有些人對讓AI替自己做決定感到不安,無論這些決定多么瑣碎。
也有人擔心AI對就業、社會甚至環境的影響。
這些都是完全合理且可以理解的顧慮,不能僅靠自上而下的宣傳或教育來消除。
要解決這些問題,必須證明智能體能夠可靠、可信且符合倫理地運作,同時建立一個有效管理變革、并能公平分享自主式AI成果的社會文化。
未來的智能體
自主式AI的愿景令人震撼:數以百萬計的智能系統在全球范圍內協同互動,以更高效、更強大的方式完成任務。
但正如我們所見,阻礙這一愿景的障礙既有人類因素,也有技術因素。
我們不僅需要解決諸如AI幻覺等基礎問題,構建可讓智能體安全可信運行的基礎設施,還必須讓整個社會為人與機器協作模式的根本轉變做好準備。
只有完成這些,智能體才能真正安全、普及,并在提升我們生活品質的同時,避免帶來新的風險。


























