當前,“智能化”成為人類社會發展的新趨勢,席卷醫療、金融、法律、物流等多個領域。可以說,我們正在經歷著由人工智能帶來的第二次“文藝復興”。第一次文藝復興是神下去了,人上來了,人的理性凸顯,而這一次的“文藝復興”,則是信息迷霧走了,萬物智能來了,人的智能延展。在人工智能迅猛發展的背景下,科幻電影中的人機大戰、超級戰士等奇異詭譎的情節與場景越來越趨向現實,人工智能的發展與應用正在逐步改寫現代戰爭的進化軌跡。
一、智勝革命:AI 技術催生軍事智能化
人工智能技術的運用,不僅在宏觀層面上促進了軍隊武器裝備、作戰指揮、組織形態等方面的智能化,還從深層次推動現代戰爭呈現云腦主導、人機一體、自主協同、分布殺傷等特征,從而催生出軍事智能化體系。
(一)設計戰爭
人工智能技術使設計戰爭成為可能,而算法就是設計戰爭的關鍵工具。可以說,設計算法就是設計戰爭。現代戰爭不僅涉及多源信息的采集和融合處理問題,更涉及有關作戰任務規劃的多層算法問題,因此對數據處理能力提出了巨大挑戰。而算法的實質在于群體智能,是人機混合智能,相對于個體智能,它具有強集成性、大吸蓄性、高靶向性及易升級性。好的算法與優質問題、復雜場景及實踐迭代直接相關,能夠承載實戰的龐大數據量。作戰雙方通過利用算法,得以模擬和預演實戰,從而在多次實驗中調整戰法策略,將戰爭轉變為經過設計的實驗成品。當前,美軍提出“算法戰”概念,并組建“算法戰跨功能小組”,以推動人工智能、大數據及機器學習等“戰爭算法”關鍵技術的研究。針對算法的探索,將是各國爭相競逐的重要領域,也是打開現代戰爭新局面的關鍵所在。
(二)輔助決策
以往戰爭中指揮員的決策,一方面來源于情報、偵察、監視等手段,另一方面受指揮員自身的經驗、靈感、聯想等主觀因素影響,依靠人腦決策出現的“靈機一動”“神機妙算”成為戰爭制勝的法寶。而人機一體的決策手段則將“人腦”與“外腦”有機結合,為指揮員的決策提供了新參照,能夠彌補以往軍事網絡信息系統的不足,從而構建起功能強大的網絡信息體系,提高軍隊的智能化評估和輔助決策能力。自20世紀50年代以來,美、俄等軍事大國不斷發展指揮控制自動化系統,企圖增強信息優勢和決策優勢,如美軍研發出指揮、控制、通信、計算機、情報與偵察監視系統(C4ISR),推進“網絡中心戰”建設,開發針對網絡入侵的智能診斷信息系統。未來,人工智能技術的運用將為決策進一步賦能。如在 2015 年,DARPA 啟動的“大機理”項目,就旨在開發基于大數據的智能技術,通過信息的快速提取、智能推理、綜合處理等,根據作戰任務自動制定作戰方案,輔助指揮官實現“任務式指揮”,縮短從信息處理到決策部署的時間周期,實現指揮決策的高效性及科學性。
(三)戰爭控局
古往今來,戰爭一直是人類的噩夢,造成巨大殺傷的武器成為籠罩在人類上方的烏云,實現戰爭在時間、規模、目標與結局等方面的可控是人類在戰爭中長久追求的目標。除運用條約、協議等政治手段之外,以往戰爭中的雙方難以真正實現戰爭可控,比如二戰初期德國利用“閃電戰”策略,但后來的戰爭卻演變成了曠日持久的消耗戰,核生化武器造成的超乎預期的災難性后果,也顯示出在傳統技術基礎上實現戰 爭可控的難度。人工智能技術有利于加強戰略籌劃,實現“知彼知己”的戰略態勢,提升作戰模擬推演的有效性,對抗雙方的戰爭設計與實驗有助于控制戰爭。另一方面,人工智能促進武器裝備創新,智能化高技術武器裝備減少了非必要殺傷,客觀上也為可控性戰爭提供了物質技術條件。
二、冰山隱患:潛藏的風險與挑戰
人工智能技術對撬動軍事變革的作用不容小覷,但與此同時,戰爭中的技術、倫理、道德等一系列風險與挑戰也逐步顯現。由于現有實踐與技術條件的限制,人工智能究竟是點燃希望的火把還是開啟地獄的鑰匙,仍需人們謹慎思考與探索。
(一)指揮失序
不少科幻電影已對人工智能的威脅展開了討論。電影《機械公敵》中原本以保護人類為使命的機器人出現集體失序,對人類展開了殘暴攻擊,《西部世界》中機器人的內部系統不斷進化,最終反叛并傷害人類。由于目前人工智能技術的發展局限,人工智能的指揮系統容易在執行程序復雜的情景中出現失序,比如美軍在伊拉克戰場上的軍事機器人失控事件。在人機協同作戰方式中,過度依賴人工智能無疑增強了指揮系統失控的風險性,這就如同把槍交付給了機器人,而當機器人不聽從人類指揮時,槍口對準的對象將可能是戰爭中的任何一方,因此人工智能帶來的人機結合作戰方式必須將人置于主體地位,保證人類指揮員對系統的控制權,并建立應急預警機制與意外發生時的后臺程序都極為必要。
(二)倫理失范
早在 1950年,科幻作家阿西莫夫就提出了“機器人三大法則”,以規范機器人的行為并確保機器人相對人類的附屬地位。在倫理界并未制定統一機器人倫理準則的情況下,這三大法則已逐漸成為機器人的非正式倫理規范。然而,人工智能的倫理失范風險并沒有因此減弱。在以往的戰爭法則中,人類之間的對抗如棋局一般保持相對平衡,戰爭雙方互相控制且對彼此的傷亡負責,而一旦加入人工智能技術,人類的傷亡是否單純由機器負責?對機器的損傷是否需要人類負責?人類又能如何避免人工智能成為無尺度暴力的工具?由此可見,人工智能帶來的倫理挑戰不只是單純的倫理法則可以解決的,更需要人類對人工智能本質的清醒深刻認識以及對人機關系的精準定位。
(三)暴力失控
人工智能應用于戰爭始終存在走向暴力失控的風險,智能化武器是造成安全威脅的主要來源。2017 年,包括特斯拉公司首席執行官埃隆·馬斯克和谷歌人工智能公司聯合創始人穆斯塔法·蘇萊曼在內的116 名世界領先機器人和人工智能公司的領導人聯名發布了一封公開信,公開呼吁禁止發展致命性自動化武器,并阻止高科技軍備競賽。人工智能與自動化武器結合的產物便是全自動武器系統,這意味著人工智能的加入使得戰爭的殺傷難度顯著降低,以往戰場上的戰馬、鋼盔、刀劍、槍彈也許都不再需要,指揮官可能只需一個按鈕、一句指令就能達到理想的殺傷目的。在這種情況下,全自動武器一旦投入使用,戰爭的殺傷效率將超乎以往,武裝沖突迅速升級并擴大的可能性將難以預計。
三、對沖方略:“三位一體”綜合應對
面對人工智能的風險與挑戰,應當堅持“三位一體”的應對策略。當前,人工智能的軍事應用浪潮已不可避免,因此無論是來自技術還是倫理的挑戰,都應堅持探索與發展人工智能技術,加強人工智能的技術預測與評估,在充分試驗與分析的基礎上逐步推進人工智能技術的軍事應用。
(一)搶占智能科技高地
當前,人工智能已成為各大國競相爭奪的科技高地,主要發達國家紛紛將人工智能提升到國家戰略高度加以發展。美軍已將智能化無人系統作為支撐第三次“抵消戰略”的顛覆性技術領域給予重點投資。美國空軍首席科學家辦公室頒布的面向 2035年的《無人系統地平線》技術評估和預測報告,認為未來各類無人系統與作戰平臺的自動化、自主性和遠程遙控性能將隨著技術的進步而不斷取得突破。未來,隨著超大規模計算、量子計算、云計算、大數據等技術的進步,人工智能的信息處理與控制技術將獲得極大發展,在現代戰爭中所占的技術比重將顯著增加。在這樣的大背景下,唯有跟上智能科技發展步伐,及時制定人工智能發展規劃與戰略,見之于未萌,識之于未發,才能把握戰爭形態變化趨勢,洞悉戰爭形態演變規律,實現克敵制勝。
(二)探索戰爭倫理規約
近年來,國際人工智能界日益重視人工智能中的倫理與法律問題,并推動相關技術標準及社會規范的研討和制定,如 IEEE 全球人工智能與倫理倡議、阿西洛馬人工智能 23 條倫理原則,我國的《新一代人工智能發展規劃》也專門提出人工智能倫理與法律的“三步走”規劃。在完善人工智能戰爭倫理規范的過程中,應確保人類對智能化武器的控制權,將人機關系納入戰爭倫理的討論維度之中,針對人工智能使用的特殊領域與戰場情境建立獨立的倫理評價體系,防范人類戰爭倫理與人工智能參與后的戰爭倫理相混雜,將技術、倫理與法律等控制手段配合使用、高度融合。
(三)加強國際合作對話
生命未來研究所在 2015 年人工智能國際會議上提交了一份信件,指出:“如果主要軍事力量運用了人工智能,那么全球軍事競賽將不可避免,而最終的結果就是,人工智能將成為下一個卡拉什尼科夫沖鋒槍。美國運用人工智能則必然招致報復和一場人工智能大戰。”值得注意的是,該信得到了 17000多個簽名和 20000多個附議簽名。人工智能風險的承受者不再只是單一國家,而是整個國際社會。無論是發展抑或遏制人工智能技術在現代戰爭中的應用,國際間的合作對話都必不可少。各國應加強人工智能技術與倫理層面的交流與溝通,建立起長期有效的對話機制,根據現有國際準則推進人工智能相關研究,共同應對人工智能的風險與挑戰。
-
機器人
+關注
關注
211文章
28632瀏覽量
207968 -
AI
+關注
關注
87文章
31485瀏覽量
269872
原文標題:競逐的前沿:人工智能會顛覆未來戰爭嗎
文章出處:【微信號:mcuworld,微信公眾號:嵌入式資訊精選】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論