它們具有看似復雜的結果,但也有可能被愚弄,范圍從相對無害-將動物誤識別為另一動物-到引導自動駕駛汽車的網絡將停車標志誤解為指示停車標志的潛在危險是可以安全進行的。
休斯頓大學的一位哲學家在發表于《自然機器智能》上的一篇論文中暗示,關于這些假定故障背后原因的普遍假設可能是錯誤的,這些信息對于評估這些網絡的可靠性至關重要。
隨著機器學習和其他形式的人工智能越來越深入地融入社會,從自動柜員機到網絡安全系統,其用途廣泛,UH哲學副教授卡梅倫·巴克納(Cameron Buckner)表示,了解由什么導致的明顯故障的來源至關重要。
研究人員稱其為“對抗性例子”,是指當深度神經網絡系統遇到用于構建網絡的訓練輸入之外的信息時,會誤判圖像或其他數據。它們很罕見,被稱為“對抗性”,因為它們通常是由另一個機器學習網絡創建或發現的-機器學習領域中的一種邊緣技術,介于創建復雜示例的更復雜方法與檢測和避免它們的更復雜方法之間。
巴克納說:“這些對抗性事件中的一些反而可能是人工產物,為了更好地了解這些網絡的可靠性,我們需要更好地了解它們是什么。”
換句話說,不發火可能是由網絡需要處理的內容和所涉及的實際模式之間的相互作用引起的。這與完全被誤解不是完全一樣的。
巴克納寫道:“理解對抗性例子的含義需要探索第三種可能性:至少其中一些模式是人工制品。”“……因此,目前簡單地丟棄這些模式既有代價,也有天真地使用它們的危險。”
導致這些機器學習系統犯錯誤的對抗事件不一定是故意的瀆職造成的,但這是最高的風險所在。
巴克納說:“這意味著惡意行為者可能欺騙依賴于本來可靠的網絡的系統。”“那有安全應用程序。”
責任編輯:lq
-
網絡安全
+關注
關注
10文章
3181瀏覽量
59986 -
機器學習
+關注
關注
66文章
8428瀏覽量
132838 -
自動駕駛
+關注
關注
784文章
13897瀏覽量
166697
發布評論請先 登錄
相關推薦
評論