填補AI模型治理鴻溝:CISO必知的五大關鍵發現

盡管大多數企業都意識到對AI模型進行強有力治理的必要性,但許多企業仍在努力彌補可能減緩AI應用速度并增加風險的種種差距。Anaconda一項針對300多名AI從業者和決策者的新調查結果凸顯了開源工具存在的安全隱患、模型監控不一致以及AI工具鏈碎片化帶來的運營挑戰。
盡管經過驗證,安全擔憂依然居高不下
開源軟件是AI開發的核心,但同時也帶來了需要謹慎管理的供應鏈風險,大多數受訪者都制定了相關流程,以驗證Python軟件包的安全性和合規性,這些流程包括從自動化漏洞掃描到維護內部軟件包注冊表以及進行人工審查等多種方式。
即便如此,安全仍是AI開發過程中最常見的風險,39%的受訪者都提到了這一點。近三分之二的企業曾因安全擔憂而推遲AI部署,許多企業報告稱,排查依賴性問題所花費的時間影響了生產效率。盡管大多數團隊對修復漏洞充滿信心,但事件頻發表明,目前的方法不足以跟上AI項目的規模和復雜性。
當被問及改善治理的首要任務時,最常見的回答是使用集成度更高的工具,將開發和安全工作流程結合起來。受訪者還指出,需要提高模型組件的可見性,并對團隊進行額外培訓。
各企業的模型監控情況參差不齊
調查發現,各企業對追蹤模型譜系的重要性有著深刻認識,83%的企業表示會記錄基礎模型的來源,81%的企業會記錄模型依賴關系,然而,并非所有文檔都全面,近五分之一的受訪者表示根本沒有正式文檔。
性能監控也存在類似差距,盡管70%的受訪者建立了檢測模型漂移或意外行為的機制,但仍有30%的受訪者在生產環境中沒有正式監控,常見做法包括自動化性能監控、異常警報系統和定期人工審查,更成熟的團隊還采用A/B測試和再培訓計劃,但這些方法遠未普及。
缺乏持續一致的監控可能會留下盲點,影響合規性和性能。隨著AI在生產環境中應用更加深入,檢測和應對模型漂移的能力將成為一項關鍵的治理職能。
工具鏈碎片化阻礙治理進展
只有26%的企業表示擁有高度統一的AI開發工具鏈,其余企業的工具鏈則處于部分統一和碎片化狀態,其中一小部分但值得注意的是,其工具鏈高度碎片化。
碎片化會造成可見性差距、工作重復和安全控制不一致,從而加大治理難度,它還增加了影子IT的風險,即團隊在無人監督的情況下使用未經批準的工具。當治理流程疊加在互不相同的系統上時,就會變得緩慢而繁瑣,進而促使團隊繞過這些流程。
調查表明,統一工具和流程也是一項文化挑戰,25%的受訪者指出,數據科學團隊對安全措施的抵制是一個關鍵問題。將治理嵌入日常工作流程的集成平臺可以減少這種摩擦,有助于創新與監督保持一致。

























