未來戰(zhàn)爭——人工智能如何改變戰(zhàn)爭規(guī)則
AI進入軍事的必然趨勢
當(dāng)今的軍事環(huán)境,已經(jīng)遠遠超越了傳統(tǒng)的“鋼鐵與火藥”的對抗。網(wǎng)絡(luò)攻擊、電磁干擾與動能打擊交織在一起,構(gòu)成了一個高度復(fù)雜的作戰(zhàn)生態(tài)。敵手可能在毫秒之間切換戰(zhàn)術(shù),從網(wǎng)絡(luò)滲透到電子壓制,再到無人機群的突襲。這種多維度的威脅格局,迫使各國防務(wù)體系必須尋找新的技術(shù)手段來保持優(yōu)勢。
人工智能正是在這樣的背景下被推向前臺。它已經(jīng)在軍事中展現(xiàn)出強大的應(yīng)用潛力,通過傳感器融合,AI 能夠在海量數(shù)據(jù)中快速提煉出關(guān)鍵情報;在威脅識別中,AI 可以比人類更快地發(fā)現(xiàn)潛在目標(biāo);在作戰(zhàn)方案生成上,AI 則能在短時間內(nèi)模擬多種戰(zhàn)術(shù)路徑,為指揮官提供決策參考。速度、精度與規(guī)模,成為 AI在軍事中的三大優(yōu)勢。
AI 的引入并非沒有風(fēng)險。將其嵌入指揮控制鏈,意味著一旦模型脆弱或推理過程不透明,可能導(dǎo)致錯誤決策;信任錯配則可能讓人類過度依賴或過度懷疑 AI;責(zé)任缺口更是一個敏感問題——當(dāng)AI 的建議導(dǎo)致誤判或違反國際法時,究竟由誰承擔(dān)后果?這些問題讓“AI 軍事化”不僅是技術(shù)挑戰(zhàn),更是倫理與法律的考驗。
正因如此,這個領(lǐng)域的研究者們提出了一個新的視角:不再把人機團隊看作一個“整體代理”,而是深入到其內(nèi)部動態(tài),去理解人類與 AI 如何在協(xié)作中不斷學(xué)習(xí)、適應(yīng)與調(diào)整。只有這樣,才能真正構(gòu)建一個可信、可控、可問責(zé)的軍事人機協(xié)作體系。
本研究團隊體現(xiàn)了技術(shù)與軍事的跨學(xué)科的特征,Clara Maathuis 來自荷蘭開放大學(xué),長期關(guān)注人機交互與可信 AI 的倫理與責(zé)任問題;而Kasper Cools 則同時隸屬于比利時皇家軍事學(xué)院與布魯塞爾自由大學(xué),兼具軍事戰(zhàn)略與學(xué)術(shù)研究的雙重背景。這樣的組合,使得研究既有技術(shù)與建模的嚴謹性,又能貼近軍事應(yīng)用的實際需求。
1.相關(guān)研究與學(xué)術(shù)背景
在人機協(xié)作的探索上,民用領(lǐng)域已經(jīng)走在前列。醫(yī)療診斷中,放射科醫(yī)生與 AI 影像識別系統(tǒng)協(xié)作,能夠顯著提升癌癥檢測的準確率;制造業(yè)里,工人與協(xié)作機器人(cobots)并肩作業(yè),優(yōu)化生產(chǎn)流程并提升安全性;在創(chuàng)意產(chǎn)業(yè),設(shè)計師與生成式 AI 工具共同創(chuàng)作,拓展了藝術(shù)與設(shè)計的邊界。這些案例證明,人機協(xié)作并非科幻,而是現(xiàn)實中切實可行的生產(chǎn)力工具。
在軍事領(lǐng)域,AI 的應(yīng)用也在不斷推進。它被用于戰(zhàn)場數(shù)據(jù)分析,幫助指揮官在復(fù)雜環(huán)境中快速提煉信息;在戰(zhàn)術(shù)決策支持中,AI 能夠提供多方案推演,輔助人類評估風(fēng)險與收益。美國陸軍等機構(gòu)甚至將“人機共學(xué)”列為未來關(guān)鍵研究方向,強調(diào) AI 不僅要“幫人”,更要與人類形成動態(tài)的學(xué)習(xí)與適應(yīng)關(guān)系。
但現(xiàn)有研究仍存在明顯不足。多數(shù)研究停留在外部視角,把人機團隊當(dāng)作一個整體來評估,而缺乏對內(nèi)部共學(xué)過程的細致刻畫。信任與自治的管理機制尚不成熟,往往采用靜態(tài)的自治水平設(shè)定,難以應(yīng)對戰(zhàn)場上瞬息萬變的環(huán)境。結(jié)果就是,AI 要么被過度依賴,要么被過度限制,無法發(fā)揮最佳效能。
因此,學(xué)術(shù)界與軍事實踐者都在呼吁,需要新的方法論框架,能夠動態(tài)地捕捉人機之間的學(xué)習(xí)、反饋與信任校準過程。只有這樣,才能真正實現(xiàn)“可信的人機協(xié)作”,讓 AI 成為戰(zhàn)場上的可靠隊友,而不是潛在風(fēng)險源。
2.研究方法與建模思路
在這項研究中,技術(shù)團隊并沒有滿足于提出一個抽象的概念框架,而是選擇了一條更為嚴謹?shù)穆窂健ㄟ^科學(xué)的方法論與建模工具,將“人機共學(xué)”這一復(fù)雜過程具象化、可驗證化。
首先,研究采用了設(shè)計科學(xué)研究(Design Science Research, DSR)方法論。與傳統(tǒng)的實證研究不同,DSR更強調(diào)“構(gòu)建與評估”——它要求研究者不僅要提出理論假設(shè),還要創(chuàng)造出一個可操作的“人工制品”(artifact),并通過實驗或模擬來驗證其有效性。
在軍事人機協(xié)作的語境下,這意味著研究團隊不僅要討論“人機共學(xué)”的必要性,還要真正設(shè)計出一個能夠運行的模型,去捕捉人類與 AI 在任務(wù)執(zhí)行中如何相互學(xué)習(xí)、相互調(diào)整。
為了實現(xiàn)這一目標(biāo),研究者選擇了系統(tǒng)動力學(xué)(System Dynamics, SD)作為建模工具。SD 的優(yōu)勢在于,它能夠通過“存量(stocks)”與“流量(flows)”的形式,刻畫系統(tǒng)中各要素的積累與變化,并通過反饋回路展現(xiàn)復(fù)雜系統(tǒng)的動態(tài)演化。
軍事行動中的人機協(xié)作,恰恰是一個充滿非線性關(guān)系、時間延遲與多重反饋的復(fù)雜系統(tǒng):信任的建立與崩塌并非線性過程,自治權(quán)的授予與收回往往滯后于環(huán)境變化,而認知負荷的積累更可能在某個臨界點突然引發(fā)系統(tǒng)性風(fēng)險。SD 的建模能力,正好契合了這種復(fù)雜性。
在模型構(gòu)建中,研究團隊特別強調(diào)了幾個關(guān)鍵特征:
- 反饋回路的作用:例如,當(dāng) AI 的解釋質(zhì)量提升時,人類的學(xué)習(xí)速度也會加快,進而反過來提升 AI 的表現(xiàn),這就是一個典型的正向強化回路。
- 非線性關(guān)系的捕捉:信任并不是隨著 AI 表現(xiàn)線性增長的,它可能在某個閾值后迅速上升,也可能因一次錯誤而驟然下降。
- 時間延遲的影響:戰(zhàn)場環(huán)境的變化往往比人機團隊的適應(yīng)速度更快,這種延遲可能導(dǎo)致自治權(quán)的調(diào)整滯后,從而帶來風(fēng)險。
最終,研究的目標(biāo)是構(gòu)建一個能夠體現(xiàn)人機共學(xué)(co-learning)的動態(tài)模型。這個模型不僅要能模擬人類與 AI 在軍事任務(wù)中的互動,還要揭示其中的關(guān)鍵變量如何相互作用:人類專長如何影響 AI 的學(xué)習(xí),AI 的解釋如何塑造人類的信任,共享態(tài)勢感知如何推動自治權(quán)的調(diào)整,認知負荷如何觸發(fā)安全機制。
通過這樣的建模,研究者希望為未來的軍事 AI 系統(tǒng)提供一個可驗證的理論與實踐基礎(chǔ),讓“人機共學(xué)”不再停留在概念層面,而成為可以被量化、被優(yōu)化的作戰(zhàn)能力。
換句話說,這一部分的研究方法與建模思路,正是研究的“工程核心”。它讓抽象的“人機協(xié)作學(xué)習(xí)”變成了一個可以被實驗、被推演、甚至被軍事組織采納的動態(tài)框架。
3.模型設(shè)計:四大核心維度
研究團隊提出了一個由四個維度構(gòu)成的人機共學(xué)模型。這四個維度并非孤立存在,而是通過復(fù)雜的反饋回路彼此交織,構(gòu)成了一個動態(tài)的、可演化的系統(tǒng)。它們共同回答了一個關(guān)鍵問題——在瞬息萬變的軍事環(huán)境中,人類與 AI 如何才能真正形成一個可信賴的作戰(zhàn)團隊。

圖1:模型組件。
可調(diào)自治(Adjustable Autonomy)
在傳統(tǒng)的軍事 AI 應(yīng)用中,自治水平往往是靜態(tài)設(shè)定的,要么完全依賴人類指揮,要么在特定任務(wù)中放任AI 自主。但戰(zhàn)場環(huán)境并不會給出如此穩(wěn)定的條件。研究者提出的“可調(diào)自治”機制,強調(diào) AI 的自治水平應(yīng)當(dāng)隨著任務(wù)狀態(tài)、信任度以及環(huán)境不確定性而動態(tài)調(diào)整。
比如,當(dāng)戰(zhàn)場態(tài)勢清晰、AI 表現(xiàn)穩(wěn)定時,可以適度提升其自治權(quán);而在環(huán)境波動劇烈或信任度下降時,則應(yīng)迅速收回權(quán)限。這一機制通過“自治平衡回路(B1)”和“認知負荷安全回路(B3)”來實現(xiàn):前者確保自治權(quán)不會在不確定性下失控,后者則在認知負荷過高時自動降低自治,以保護人類決策者的安全邊界。
多層控制(Multi-layered Control)
軍事行動的高風(fēng)險性決定了任何 AI 的決策都不能缺乏監(jiān)督。多層控制機制的設(shè)計,正是為了讓人類與 AI 在不同層級上相互監(jiān)督與問責(zé)。它不僅包括人類對 AI 的監(jiān)控,也包括 AI 對人類操作的提醒與校正,從而形成雙向的安全網(wǎng)。
隨著 AI 自治水平的提升,監(jiān)督與問責(zé)的需求也會同步增加,這就是“監(jiān)督與問責(zé)回路(B2)”的作用所在。它保證了透明度與責(zé)任鏈條的完整性,避免了“黑箱式”決策在高風(fēng)險環(huán)境中帶來的不可控后果。
雙向反饋(Bidirectional Feedback)
真正的人機共學(xué),不是單向的“AI 學(xué)人”或“人學(xué) AI”,而是雙向的知識與經(jīng)驗交換。在這一維度中,AI 需要能夠解釋自己的推理過程、表達不確定性,而人類則通過標(biāo)注、經(jīng)驗輸入和情境判斷來反哺 AI。這種互動不僅提升了雙方的理解,還能逐步形成共享的心理模型。
研究團隊將其歸納為兩個關(guān)鍵反饋回路:一是“共學(xué)強化回路(R1)”,強調(diào)解釋質(zhì)量越高,學(xué)習(xí)速度越快;二是“性能-信任強化回路(R2)”,當(dāng) AI 表現(xiàn)超出預(yù)期時,信任度提升,進而推動更高水平的協(xié)作。
協(xié)作決策(Collaborative Decision-Making)
在最終的決策環(huán)節(jié),人類與 AI 不再是“主從關(guān)系”,而是共同生成、評估并提出決策方案。每一個方案都附帶置信度與理由,既讓人類能夠理解 AI 的邏輯,也讓 AI 能夠吸收人類的判斷。這一機制通過 R1、R2 與 B3 三個回路共同作用:解釋與學(xué)習(xí)的強化推動更高質(zhì)量的決策,信任與性能的提升讓協(xié)作更順暢,而認知負荷的安全機制則確保人類不會在高壓環(huán)境下被信息淹沒。
整體來看,這四大維度構(gòu)成了一個有機整體:自治水平的調(diào)整決定了 AI 的行動邊界,多層控制確保了透明與問責(zé),雙向反饋推動了共學(xué)與信任,而協(xié)作決策則是最終的落點,讓人機團隊能夠在復(fù)雜戰(zhàn)場中做出既高效又合法的判斷。它們共同描繪出一個未來的軍事圖景:AI 不再是冷冰冰的工具,而是一個能夠與人類并肩作戰(zhàn)、共同成長的“智能戰(zhàn)友”。
4.案例研究:比例性評估(Proportionality Assessment)
為了驗證這一人機共學(xué)模型的有效性,研究團隊選擇了一個極具代表性的軍事任務(wù)——比例性評估。所謂比例性評估,是國際法框架下軍事行動必須遵循的原則之一:在執(zhí)行打擊時,預(yù)期的軍事優(yōu)勢必須與可能造成的附帶損害相權(quán)衡,確保行動在法律與倫理上都站得住腳。
在他們設(shè)定的場景中,一支聯(lián)合部隊計劃對敵方的綜合防空網(wǎng)絡(luò)實施一次網(wǎng)絡(luò)-動能聯(lián)合打擊。目標(biāo)是通過遠程零日漏洞攻擊,暫時癱瘓敵方的指揮控制服務(wù)器,從而為有人機群突破空域創(chuàng)造一個六十分鐘的窗口。

圖2:比例評估用例模擬。
問題在于,這一防空網(wǎng)絡(luò)位于一座沿海城市,而城市基礎(chǔ)設(shè)施同時服務(wù)于軍事與民用系統(tǒng)。換句話說,任何攻擊都可能波及醫(yī)院的遙測系統(tǒng)或港口的交通控制,帶來嚴重的附帶損害。這種高度城市化的環(huán)境,使得環(huán)境不確定性被設(shè)定為Oenv=0.35,屬于高風(fēng)險狀態(tài)。
在仿真初始條件下,人類操作員的專長水平為H=0.50,AI 的能力為 A=0.40。共享態(tài)勢感知較低,僅為 S=0.25,信任度也處于謹慎狀態(tài) T=0.40,AI 的自治水平被嚴格限制在 U=0.20。這意味著在一開始,人機團隊的協(xié)作基礎(chǔ)并不牢固,更多依賴人類的判斷與監(jiān)督。

圖3:比例評估用例模擬。
隨著任務(wù)推進,前 30 分鐘的仿真結(jié)果顯示出積極的趨勢。通過雙向反饋機制,人類與 AI 的能力都在提升,態(tài)勢感知逐漸對齊,信任度也隨之上升。自治水平在謹慎的框架下逐步提高,而認知負荷始終保持在安全閾值之下。在這一階段,比例性評估的得分保持為正,意味著軍事優(yōu)勢與附帶損害之間的平衡尚在可接受范圍內(nèi)。
然而隨著環(huán)境波動的加劇,系統(tǒng)的脆弱性逐漸顯現(xiàn)。高不確定性導(dǎo)致信任度迅速崩潰,而監(jiān)督機制的反應(yīng)速度卻滯后于這種變化。結(jié)果是自治水平驟降,AI 的作用被大幅削弱。由于軍事優(yōu)勢部分依賴于 AI 的自治與快速響應(yīng),這一驟降直接導(dǎo)致優(yōu)勢下滑。
同時,盡管自治收縮在一定程度上抑制了附帶損害的擴大,但比例性得分仍然在大部分時間內(nèi)跌入負值。最終,仿真顯示比例性得分僅在44% 的任務(wù)窗口內(nèi)保持為正,未能滿足合法性與作戰(zhàn)有效性的雙重標(biāo)準。
這一案例的結(jié)論耐人尋味。模型成功再現(xiàn)了軍事學(xué)說中的預(yù)期行為,在不確定性升高時,自治會自動收縮,認知負荷保護機制會啟動,以避免人類決策者被壓垮。但同時,它也揭示了人機協(xié)作的脆弱性——信任的崩潰往往比監(jiān)督機制更快,導(dǎo)致自治驟降與軍事優(yōu)勢喪失。換句話說,人機共學(xué)模型雖然能夠在穩(wěn)定環(huán)境下維持平衡,但在高風(fēng)險的城市化戰(zhàn)場中,這種平衡極易被打破。
這不僅是對模型的驗證,更是對未來軍事 AI 系統(tǒng)設(shè)計的警示,如果不能在實時風(fēng)險輸入、信任校準與自治調(diào)整之間找到更穩(wěn)健的機制,那么 AI 在戰(zhàn)場上的角色仍然可能從“可靠隊友”滑向“潛在負擔(dān)”。
5.研究結(jié)論與未來展望
這項研究的最大貢獻,在于提出了一個可信的人機共學(xué)模型。它并不是停留在概念層面的空談,而是通過系統(tǒng)動力學(xué)的方式,將自治、監(jiān)督、反饋與協(xié)作決策四個維度有機結(jié)合,構(gòu)建出一個可操作的框架。這個模型不僅能夠模擬人類與 AI 在軍事任務(wù)中的互動,還兼顧了技術(shù)與法律責(zé)任的雙重要求,避免了“技術(shù)萬能論”帶來的盲點。
從應(yīng)用價值來看,這一模型為未來軍事 AI 系統(tǒng)的設(shè)計提供了理論與實踐的參考。它強調(diào) AI 在戰(zhàn)場上應(yīng)當(dāng)被視為“隊友”,而不是替代者。AI 的角色是與人類并肩作戰(zhàn),提供數(shù)據(jù)處理與模式識別的優(yōu)勢,同時接受人類在倫理判斷與創(chuàng)造性思維上的補充。這樣的定位,既能發(fā)揮 AI 的長處,又能避免因過度依賴而帶來的風(fēng)險。
研究團隊也提出了幾個值得關(guān)注的方向。首先是引入實時風(fēng)險數(shù)據(jù)流,讓模型能夠在動態(tài)環(huán)境中更快地調(diào)整自治與信任水平。其次是嵌入隨機化的附帶損害估算器,使比例性評估更貼近現(xiàn)實中的不確定性。最后是在多樣化的軍事場景中進行驗證,確保模型不僅適用于單一案例,而是能夠推廣到更廣泛的作戰(zhàn)環(huán)境中。換句話說,這一研究為未來的軍事 AI 系統(tǒng)奠定了基礎(chǔ),但仍需要不斷迭代與擴展。
6.評論與啟示
我們認為,這項研究傳遞了一個重要信號,AI 在軍事中的應(yīng)用不能再是單向的“人用 AI 工具”,而必須轉(zhuǎn)向“人機共學(xué)”的關(guān)系。只有當(dāng) AI 能夠解釋自身的推理,人類能夠理解并反饋,雙方才能形成真正的協(xié)作閉環(huán)。這種共學(xué)關(guān)系,才是未來軍事 AI 系統(tǒng)的核心競爭力。
從政策層面來看,信任與責(zé)任機制是決定軍事 AI 能否被采納的關(guān)鍵。沒有透明的解釋機制,信任就無法建立;沒有清晰的責(zé)任鏈條,AI 的應(yīng)用就會陷入法律與倫理的灰色地帶。研究中的多層控制與監(jiān)督機制,正是為了解決這一問題。它提醒我們,技術(shù)設(shè)計必須與政策規(guī)范同步推進。
從戰(zhàn)略層面來看,未來戰(zhàn)爭的競爭力不僅取決于 AI 算法的性能,更取決于人機協(xié)作的質(zhì)量。一個國家如果能夠在戰(zhàn)場上實現(xiàn)高效、可信的人機共學(xué),就能在復(fù)雜多變的環(huán)境中保持優(yōu)勢。反之,即便擁有最先進的算法,如果缺乏信任與協(xié)作機制,也可能在關(guān)鍵時刻失去主動權(quán)。
因此,這項研究不僅是對軍事 AI 技術(shù)的探索,更是對未來戰(zhàn)爭形態(tài)的前瞻。它告訴我們,真正的智能戰(zhàn)爭,不是 AI 取代人類,而是人類與 AI 在共學(xué)中共同成長。
參考資料:???https://arxiv.org/abs/2510.01815v1??
本文轉(zhuǎn)載自???波動智能???,作者:FlerkenS?

















