近期,由于人工智能(AI)和機器學習,尤其是深度學習的進步,可解釋人工智能(XAI)研究領域受到了廣泛的關注。XAI這一研究領域的重點在于確保AI系統的推理和決策可被人類用戶理解。在軍事領域,可解釋性通常要保證以下幾點:人類用戶運行的AI系統擁有恰當的心理模型;專家可從AI系統及其隱性戰術和戰略行為中獲得見解和知識;AI系統遵循國際和國家法律;開發者能夠在部署前確定AI系統的缺陷或錯誤。本文依據瑞典國防研究所報告《探索軍事深度學習應用程序中的可解釋人工智能技術》認為,這類AI系統由于建模過程過于復雜,無法使用其他可解釋的替代方案,因此本質上難以理解。盡管深度學習的XAI領域仍處于發展初期,但已出現不少解釋技術。當前的XAI技術主要用于開發用途,如確定錯誤等。不過,如果這些技術可為用戶使用的AI系統打造合適的心理模型、進行戰術開發并確保未來軍事AI系統遵循國家和國際法律,那么就應對其進行更多的研究。本文將依據該報告,介紹XAI技術及其在軍事中的應用。
關鍵詞
人工智能,可解釋人工智能,深度學習當今人工智能(AI)成功的主要原因是機器學習(ML)的突破,更確切的說,是深度學習(DL)的突破。深度學習是一項具有顛覆性潛力的技術,人們使用深度神經網絡可實現傳統技術無法完成的復雜建模。如,深度學習可以用于準確的轉寫(言語到文本)、翻譯(文本到文本)、進行即時戰略游戲(影像到動作)、讀唇語(影像到文本)、面部識別(圖片到識別)以及控制自動駕駛車輛(影像到行動)等。
然而,由于深度學習仍處于發展初期,且不存在能夠保證模型準確性的數學框架,因此,在開發、部署、運用和維護軍用神經網絡模型時,勢必會遇到很多挑戰和問題,需要人們不斷思考并找出解決方案。
在作戰人員、數據分析師等軍事人員看來,最大的挑戰或許在于可解釋性。根據經驗,如果行動會影響到人類生活,則對可解釋性的需求將大大提高。可解釋性之所以重要,是因為它會影響用戶對系統的信任和依賴。信任關系必須保持一定的平衡,信任程度過高會導致對系統的誤用,信任程度過低,則系統無法發揮作用。歸根結底,解釋旨在幫助用戶為系統建立合適的心理模型,以保證系統得到有效的利用。
深度學習有提升戰斗機、潛艇、無人機、衛星監視系統等復雜軍事系統的自主性的潛力,但它也可能使這些系統變得更加復雜、更加難以解釋。主要原因在于,深度學習是“端到端”的機器學習技術,即機器通過學習從輸入數據中提取最重要的特征從而獲得高性能。這一過程區別于人工通過直覺提取特征的傳統技術,被稱作表征學習。表征學習常常能夠帶來高性能,但它同樣要求模型具有高度表達力和非線性特征。因此,使用深度學習訓練而成的深度神經網絡可能包含數百萬甚至數十億個參數,就算人們已經對算法、模型架構、訓練數據等有了深入的了解,也難以解釋這些模型。
美國國防部先進研究計劃局(DARPA)于2016年啟動了可解釋人工智能(XAI)項目,項目旨在:一、生成可解釋性更高的模型,同時維持高水平的學習性能(預測準確度);二、使人類用戶能夠理解、適度信任和有效管理新一代AI工具。該項目啟動后,取得了多項技術進步。一些XAI技術已被打包到軟件庫并進行運行。軍事人員可利用這些軟件庫來深入了解深度神經網絡,同時消除其錯誤并對其進行校驗。這一步在大方向上沒有錯,但從軍事角度出發,為軍事用戶量身定制XAI技術和工具同樣關鍵,這要求其具備高解釋水平。
XAI技術
在任何會對人類生活產生影響的軍用高風險決策AI系統中,XAI都是一個關鍵組成部分。以關注短期決策的戰術級AI應用為例,這類AI的功能包括對無人車輛的自主控制以及武器和監視系統的目標識別、跟蹤和打擊能力。在戰爭的作戰和戰略層面,XAI也同樣重要,而這一層面的長期決策和規劃活動可能會影響全人類。在作戰和戰略層,AI系統通常被用于信息分析,同時也會通過模擬來提出計劃或行動方案。XAI在軍事系統中的主要作用包括:
心理模型:XAI可支持用戶為AI系統創建合適的心理模型。無論軍事系統是否啟用了AI,用戶都必須對系統的運行邊界有清晰的認識,以保證對系統合理有效的使用。
見解:深度神經網絡可用于獲取知識和識別復雜程序中人類未知的模型。通過使用XAI技術,人們可以發現并學習這些知識。使用強化學習開發戰術和戰略就是對XAI的一次典型運用。開發過程中,XAI可能會生成對軍事領域更深刻的見解。
法律法規:XAI可用于確保AI系統遵循國家和國際法律。致命自主武器系統(LAWS)可能是最有爭議的AI應用。有人希望禁止此類應用,也有人認為,只要LAWS能改進精度并將附帶損傷降至最小,就可以存在。瑞典國防研究所報告認為,在開發用于規定LAWS這類AI系統啟動的時間、地點的規則方面,XAI可發揮重要作用。
消除錯誤:文獻中有無數個將XAI用于識別深度神經網絡錯誤的案例。通常情況下,如果圖片中的版權水印、模擬器虛假數據或非現實的游戲數據出現在訓練數據中,深度神經網絡就會出現錯誤,在運行測試數據時表現良好,而在運行真實數據時失誤頻頻。如果能夠把XAI技術集成到開發程序中,這類問題就能夠在部署前被檢測和解決。
XAI技術主要有:全局解釋技術,如大型高維數據集的可視化技術、模型評估;局部解釋技術,如梯度顯著性、相關性分數逐層傳播技術、沙普利值附件解釋、局部可理解的與模型無關的解釋、用于解釋黑盒模型的隨機輸入采樣;混合解釋技術,如譜相關性分析。
評估XAI技術
XAI領域一個常被忽視但又至關重要的環節是對提出的XAI技術進行評估。本節將從人為因素出發,引入評估標準。人為因素評估中,作戰人員、分析師等用戶是衡量AI系統中XAI效果的核心。本節還將介紹可用于比較局部XAI技術的測試方法。
1.人為因素評估
對XAI技術的人為因素評估將測試各解釋是否考慮了全部重要因素,以便用戶充分利用AI系統。比如,用戶可能有不同的目的、需求、知識、經驗、任務背景、使用案例等。和開發各類系統一樣,在從系統規格到用戶測試的AI系統開發全流程中,將以上因素納入考量十分重要。由于深度學習的XAI技術是一個新興的研究領域,因此該技術的初始用戶通常是對模型性能評估感興趣的系統開發人員。然而,目前還無法確定這些XAI技術是否對軍事用戶有用。《可解釋AI指標:挑戰與前景》一文給出了6個用于評估解釋的指標:
解釋優度:在XAI技術開發過程中,從用戶的角度出發,列出一份清單。該清單以解釋方面的現有文獻為基礎,從解釋的7個方面進行評估,如解釋能否幫助用戶理解AI系統的工作方式、解釋能否使用戶滿意、解釋是否足夠詳細和全面等。
解釋滿意度:從解釋優度出發,衡量用戶對解釋的體驗的測量量表。該量表包括8個以陳述形式表現的項目(7個優度項目和1個關于解釋是否對用戶目標有用的項目)。一項效度分析顯示,該量表十分可靠,可用于區分解釋的好壞。
心理模型引導度:好的解釋可加深用戶對AI系統工作方式和決策原理的理解。在認知心理學中,這被稱為AI系統的用戶心理模型。文章建議用4個任務來衡量人工智能系統的用戶心理模型,如提示回顧任務,即用戶在運用AI系統完成一項任務后,描述其推理過程;又如預測任務,即用戶對AI系統后續的行為做出預測。一項對比了用戶心理模型和專家心理模型的研究顯示了用戶心理模型的完整度。
好奇心驅動度:好的解釋可以驅動用戶研究和解決心理模型中存在的知識缺口。文章建議通過要求客戶確定促使其尋求解釋的因素來衡量好奇心驅動度這一指標。可能的驅動因素如AI系統行動的合理性、其他選項被排除的原因、AI系統的運行與預期不符的原因等。
解釋信任度:好的心理模型可使用戶對AI系統保持適度的信任并在其運行范圍內進行操作。文章建議使用涵蓋8個項目的測量量表來衡量用戶對AI系統的信任度。這些項目包括用戶對使用系統的信心、系統的可預測性和可靠性等。
系統性能:XAI的最終目的是提升系統的整體性能,使其優于未啟用XAI技術時的AI系統。衡量性能的指標包括主要任務目標完成度、用戶對AI系統響應的預測能力、用戶接受度等。
未來將會有更多研究進一步探索如何在評估AI系統的XAI技術時理解這些指標。
2.評估局部解釋技術
模型處理的數據類型不同,則顯著性圖的視覺效果也不同。如,熱圖通常用于處理圖像,而彩色編碼字符和單詞則通常用于處理文本。圖1展現了使用熱圖制作顯著性圖的視覺效果。這一案例使用梯度顯著性(1.b)和相關性分數逐層傳播技術(1.c)來為數字0(1.a)生成熱圖。圖片中的像素等重要維度用紅、橙、黃等暖色表示,不重要的維度則用暗藍、藍、淺藍等冷色表示。兩種技術顯著的不同點通過高亮維度的位置可得到直觀的展示。本節將繼續介紹用于定量比較和評估局部解釋的技術,以找出能夠給出最準確解釋的技術。
圖1. MNIST圖像及其對應的熱圖;熱圖使用梯度顯著性和相關性分數逐層傳播技術來生成。圖中的重要維度或像素用紅、橙、黃等暖色表示
①刪除
在改變或刪去輸入的過程中,通過測量模型的準確預測能力可計算出刪除指標。需要注意的是,在這種情況下,刪去意味著將輸入的值轉換為中性的事物,如圖像背景等。刪除過程由XAI技術生成的顯著性圖引導,以便在刪除相對不重要的維度中的值前,刪除相對更重要維度中的值。在刪除過程中,如果解釋較優,則性能快速下降,反之則性能緩慢下降。
圖2使用圖1.b梯度顯著性圖說明了刪除過程。圖2.b刪除了50個最重要的像素,此時,人們依舊可以輕松地看出該圖展示的是數字0。圖2.f刪除了過半的像素(400個像素),此時,人們很難認出圖片展示的是數字0。
圖2. 從MNIST圖像的刪除過程中導出的6張圖片,這些圖片分別刪除了0、50、100、200、300和400像素
②插入
插入指標是刪除的互補方法。圖3用刪除過程中使用的MNIST圖像展示了插入過程。圖3.a的全黑圖像為初始輸入,隨著越來越多的輸入維度按照顯著性圖的優先順序插入,可以檢測到準確性不斷提高。插入過程中,在輸入中插入的信息越多,模型預測的準確度應隨之提高,也就是說,解釋較優時,準確性提高的速度會更快,反之則更慢。
圖3. 從MNIST圖像的插入過程中導出的6張圖片,這些圖片分別插入了0、50、100、200、300、400像素
③評估指標
本報告為演示刪除和插入過程,使用了梯度顯著性和相關性分數逐層傳播技術。演示中使用了分類器以及從MINST數據集中隨機抽取的100張采樣圖像來評估XAI技術。
圖4和圖5分別展示了插入和刪除過程的結果。曲線下面積(AUC)這一測量值可用于對多個XAI技術進行定量比較。在刪除過程中,較小的AUC值優于較大的AUC值,而在插入過程中則相反,為較大的AUC值優于較小的AUC值。
從圖4可以看出,相關性分數逐層傳播技術的性能曲線降幅更大,并且在刪除過程中收斂到較低的平均概率值。這一點與熱圖一致,與梯度顯著性的熱圖相比,相關性分數逐層傳播技術的熱圖中暖色更少(見圖1.b和圖1.c),這說明,與梯度顯著性相比,相關性分數逐層傳播技術能夠用更少的特征更快地找到解釋。從圖5中也可以得出同樣的結論。從圖5.b中可以看出,在插入僅幾十個特征后,平均概率急速上升,并在插入約100個特征后達到高性能水平。
圖4. 梯度顯著性和相關性分數逐層傳播技術的刪除曲線
圖5. 梯度顯著性和相關性分數逐層傳播技術的插入曲線
結論
深度學習將用于補充和替代軍事系統中的部分功能。事實上,用于從海量圖像數據中自主探測和跟蹤興趣目標的軍用監視系統已經開始評估深度學習技術。與傳統的軟件技術相比,深度學習技術擁有多項優勢,其中最重要的一項優勢是,深度學習可用于傳統軟件技術無法完成的復雜建模流程。此外,深度學習還可以促進主動學習,通過AI系統與用戶的互動來獲得用于增強作戰系統模型的高質量數據。
然而,這些優勢也在技術和作戰層面帶來了挑戰。報告就重點關注了可解釋性帶來的挑戰。深度學習的劣勢在于,盡管學習算法、模型架構和訓練數據都不算陌生且易于理解,但模型本身的行為卻難以解釋。通常情況下,這一點在音樂推送、廣告推薦等民用應用中不是問題,但在軍事領域,理解和解釋AI系統的行為卻是至關重要。這是因為,無論是在作戰層面,還是在需要軍方領導和政治決策者進行長期決策的戰略層面,AI系統提供的決策和建議都可能會對全人類的生活造成深遠影響。
雖然戰斗機、潛艇、坦克和指控決策支持工具等復雜軍事系統同樣難以掌握,但構建這些系統的技術本質上是可解釋的,因此這些系統如果出現錯誤,可以通過對整個系統的排查來找出問題并加以解決。然而,這在深度學習領域是難以實現的。現實應用中的深度神經網絡通常由幾百萬甚至幾十億參數組成,即使是模型的制造者也無法系統地解決模型中出現的錯誤。
報告提出了多個用于解決可解釋性挑戰的前沿XAI技術。值得注意的是,盡管本報告在這方面獲得了部分進展,但用于軍用深度學習應用的AI技術依舊處于發展初期。并且,報告提出的這些XAI技術尚未經過軍事環境的檢驗,因此無法保證現有XAI技術能夠賦能高風險軍事AI系統對深度學習的使用。
編輯:黃飛
?
評論
查看更多