可信AI的七大特征和數據可信空間 原創
早期AI發展主要關注“能不能做”(能力),例如:“算法準確率能否更高?”“模型能否處理更大數據?”。但隨著AI深度融入社會,人們發現僅僅有能力是不夠的,還必須關注“應不應該做”(責任)。
不可信的AI會帶來巨大風險:
- 偏見與歧視:招聘AI可能歧視女性,司法評估AI可能對特定種族更苛刻。
- 黑箱決策:AI拒絕你的貸款申請,卻無法給出令人信服的理由。
- 安全漏洞:自動駕駛汽車因一個不起眼的貼紙(對抗性攻擊)而誤判,引發事故。
- 隱私侵犯:訓練數據包含個人敏感信息,導致隱私泄露。
- 責任不清:AI醫療診斷出錯,責任在醫生、醫院還是開發者?
為了解決這些問題,“可信AI”的概念應運而生,它將AI的發展重心從純粹的“能力”拓展到了“責任”。
一、可信AI的典型特征
可信人工智能 指的是人工智能系統的設計、開發、部署和使用的整個生命周期都符合倫理、法律和技術標準,從而能夠贏得用戶、消費者、監管機構和社會公眾信任的一系列方法和實踐。
簡單來說,它回答了一個關鍵問題:“我們為什么要相信這個AI系統?” 可信AI的目標是確保AI不僅是強大的、高效的,更是負責任、可靠且有益于人類的。
可信AI七大特征

▎有效性與可靠性(Valid and Reliable)
有效性是指通過提供客觀證據,確認AI系統是否滿足預期的使用需求。如果AI系統不準確、不可靠或在新的數據和環境下表現差,就會增加AI的風險,降低其可信度。可靠性是指AI系統在一定時間和條件下,是否能夠持續、無故障地按要求工作。可靠性意味著系統在預期使用條件下,以及在一段時間內,是否能穩定運行。除此之外,準確性和魯棒性對系統的可信度也非常重要:準確性指的是AI的預測或計算結果與真實值或公認正確值的接近程度;魯棒性是指AI系統在各種不同條件下,是否能穩定運行并保持功能。這四個特性相輔相成,共同決定了AI系統的性能和可信度:有效性確保系統能夠實現其設計目標,可靠性確保系統能夠在實際應用中持續有效地工作,準確性確保系統的輸出是正確的,魯棒性確保系統在變化的環境中依然能夠穩定表現。
▎安全性(Safe)
AI系統的安全性要求它們在預定條件下不會對人類生命、健康、財產或環境造成威脅。安全的AI系統應該:
- 通過負責任的設計和開發保證安全;
- 為部署者提供清晰的使用指南;
- 部署者和用戶做出負責任的決策;
- 提供基于證據的風險評估和說明。
AI系統的安全性管理要根據具體的風險類型和嚴重性,采取不同的管理方法。對于潛在的嚴重風險,如可能危及生命的安全問題,應該優先采取最嚴格的安全措施。
▎安全與韌性(Secure and Resilient)安全指AI系統在面臨攻擊或不當使用時,能夠保護機密性、完整性和可用性。AI系統的安全和韌性是密切相關的,但也有不同。韌性側重于恢復功能,而安全則包括避免、應對或恢復攻擊的策略。
韌性是指AI系統及其生態系統在遭遇意外事件或環境變化時,能否保持正常運作,或者在需要時能夠安全地退化。
▎可問責與透明(Accountable and Transparent)
AI的可信度離不開可問責性,而可問責性又依賴于透明性。透明性意味著AI系統的工作過程和輸出信息應對用戶開放,幫助用戶理解系統如何做出決策。透明性越高,用戶對AI系統的信任度也會越高。透明性不僅包括系統設計和訓練數據,還包括系統部署的過程和決策者的責任。
AI系統的透明性應當根據不同角色的需求進行定制,確保適當的信息可以被相關人員理解。在一些情況下,透明性有助于及時糾正系統的錯誤,減少負面影響。
▎可解釋與可理解(Explainable and Interpretable)
可解釋性指的是能夠解釋AI系統內部的工作機制,可理解性則是讓用戶理解系統輸出的意義。兩者結合,有助于提高系統的可信度,使得用戶能夠理解AI系統的決策過程。
- 可解釋性可以幫助開發者和監管者調試、監控系統,并做好文檔記錄和治理。
- 可理解性可以幫助用戶明白AI系統的決定為何會如此,及其對用戶的意義。
透明性、可解釋性和可理解性是相互支持的特性,它們共同幫助用戶理解AI系統的決策過程。
▎隱私增強(Privacy-Enhanced)
隱私增強指的是保護個人信息和身份的規范和措施,隱私增強技術(PETs)可以幫助設計更加保護隱私的AI系統。隱私保護和安全、偏見、透明性之間存在權衡,因此需要平衡這些特性。例如,隱私增強技術可能會影響系統的準確性,進而影響某些領域的公平性決策。
▎公平—有害偏見管理(Fair – with Harmful Bias Managed)
公平性是AI中的一個重要議題,涉及到如何處理偏見和歧視等問題。公平性標準很復雜,因文化和應用的不同而有所差異。AI系統中的有害偏見可能會放大不平等和歧視,影響不同群體。偏見可以表現為系統性偏見、計算偏見和人類認知偏見等形式。AI系統可能加速偏見的傳播,但我們也可以通過改善透明性和公平性來減輕這些負面影響。
tips:
在AI可信度的討論中,“Safe”和“Security”這兩個詞都涉及到系統的保護和避免風險,但它們的含義和關注點有所不同:
- Safe(安全性)更側重于AI系統在特定條件下是否會導致對人類生命、健康、財產或環境的威脅。它強調的是系統在使用過程中避免造成直接的傷害或危險。簡單來說,“safe”關注的是系統運行是否會帶來不可接受的風險,特別是對生命、健康等方面的威脅。
- 例如,一個自動駕駛系統必須是“safe”的,因為它不能在行駛過程中對乘客或行人構成危險。
- 關注點:如何設計、開發和使用AI系統,以確保其操作過程中不會對人類或環境造成危害。
- Security(安全)則更多關注防止外部攻擊、濫用或非法訪問。它涵蓋了保護系統的機密性、完整性和可用性,確保數據不會被未經授權的用戶訪問或篡改。安全性還涉及應對黑客攻擊、數據泄露、系統入侵等風險。
- 例如,AI系統的安全性確保它不會被黑客攻破,避免數據泄露或不當使用。
- 關注點:防止惡意攻擊或外部干擾,保護系統不受攻擊、破壞或非法訪問。
二、什么是數據可信空間
數據可信空間 是一個技術和治理框架,其核心目標是在互不信任的多方之間,實現數據的安全、合規、可控的共享和融合計算,而不需要共享原始數據本身。
您可以把它想象成一個“數據交易市場”或“數據協作平臺”,但這個市場有非常嚴格的規則和安保措施:
- 規則:所有參與者必須遵守共同的技術標準和法律法規。
- 安保:利用隱私計算等技術,確保數據“可用不可見”。
數據可信空間的三大核心技術支柱是:
- 隱私計算:這是實現“數據可用不可見”的關鍵技術,主要包括:
- 聯邦學習:各方在不交換原始數據的情況下,共同訓練一個機器學習模型。只有模型的參數更新(而非數據本身)被加密交換。
- 安全多方計算:通過密碼學技術,多方共同計算一個函數,各方除了自己的輸入和最終結果,無法獲知其他任何一方的輸入信息。
- 可信執行環境:在一個硬件隔離的安全“飛地”中處理加密數據,保證即使云平臺運營商也無法看到數據內容。
- 區塊鏈技術:用于構建信任機制。
- 存證與審計:記錄所有數據使用、訪問和計算的行為,確保過程可追溯、不可篡改,實現有效的問責。
- 智能合約:自動執行數據使用的規則。例如,只有付費后,智能合約才授權訪問計算結果。
- 數據治理與確權:
- 明確數據的來源、所有權、使用權和收益權。
- 確保數據流通符合法律法規要求。
數據可信空間的典型應用場景:
- 聯合風控:幾家銀行想聯合建立一個更精準的反欺詐模型,但又不能直接共享客戶的交易數據。他們可以接入“數據可信空間”,在加密環境下聯合建模。
- 醫療研究:多家醫院希望共同研究某種疾病,但患者病歷極度敏感。他們可以在空間內進行聯合分析,得出統計結論,而病歷數據始終留在各自醫院。
- 政務數據開放:政府在不暴露公民隱私的前提下,向研究機構或企業開放脫敏后的數據價值。
三、兩者的關系:相輔相成
數據可信空間是實現可信AI的重要基礎設施和前提保障。
- 數據可信空間為可信AI提供“高質量的燃料”:
- 可信AI的“公平性”和“可靠性”需要大量高質量、多樣化的數據來訓練模型,以避免偏見。數據可信空間使得跨組織、跨行業的數據安全融合成為可能,極大地豐富了訓練數據源。
- 數據可信空間為可信AI的“隱私”和“問責”支柱提供技術解決方案:
- 它通過隱私計算技術從根本上解決了AI訓練和應用中的隱私泄露問題。
- 它通過區塊鏈技術實現了數據流通過程的可審計、可問責,滿足了監管要求。
- 可信AI是數據可信空間價值實現的“終極輸出”:
- 建立數據可信空間的最終目的,往往是為了產出更強大、更可靠、更可信的人工智能模型和服務,從而創造更大的業務價值和社會價值。
總結一下:
- 可信AI是一個目標,關注的是AI系統本身應具備的倫理屬性和技術特性(公平、可靠、透明等)。
- 數據可信空間是一個工具和平臺,關注的是如何安全地讓數據流動起來以釋放價值,是實現可信AI(尤其是其隱私和問責要求)的關鍵路徑。
兩者共同構成了未來數據要素化和人工智能健康發展不可或缺的基石。
本文轉載自???數智飛輪?? 作者:天涯咫尺TGH

















