當前,人工智能技術已經被應用于監控攝像頭中,出現在交通、安防、零售、社區等多個場景。而對抗性樣本有可能欺騙神經網絡,導致其產生錯誤的輸出。
近日,來自比利時魯汶大學的研究人員,在預印本平臺(arXiv.org)上分享的一篇論文中,研究人員展示了簡單的印刷圖案如何能夠欺騙一個用來識別圖像中人物的人工智能系統。
研究人員打印出特別設計的彩色圖片并掛在脖子上,從人工智能的角度來看,這可能相當于“隱形斗篷”,也就是說,人工智能檢測不出右邊的人。
正如研究人員寫道:“我們相信,如果我們將這項技術與復雜的服裝模擬技術相結合,就可以設計出一種T恤印花,它可以讓一個人在自動監控攝像頭下幾乎隱形。”
這可能看起來很奇怪,但實際上是人工智能世界中一個眾所周知的現象。這些類型的模式被稱為對抗性樣本,它們利用計算機視覺系統的缺陷來誘騙它們看到不存在的東西。
在過去,對抗性樣本被用來欺騙面部識別系統。許多研究人員警告說,對抗性的例子具有潛在的危險性。例如,它們可以用來欺騙自動駕駛汽車,將停車標志當成路燈柱,或者它們可以欺騙旨在識別疾病的醫學人工智能視覺系統,這可能是為了醫療欺詐,甚至是故意造成傷害。
如何對對抗性樣本進行有效的防御是很多學者的重要研究課題。不過,到目前為止,研究人員尚未找到針對對抗樣本的最佳防御策略,希望在不久之后,該研究領域會出現突破性的進展。
-
人工智能
+關注
關注
1791文章
47336瀏覽量
238698
發布評論請先 登錄
相關推薦
評論