在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于分割后門訓練過程的后門防御方法

CVer ? 來源:CVer ? 2023-01-05 09:23 ? 次閱讀

香港中文大學(深圳)吳保元教授課題組和浙江大學秦湛教授課題組聯合發表了一篇后門防御領域的文章,已順利被ICLR2022接收。近年來,后門問題受到人們的廣泛關注。隨著后門攻擊的不斷提出,提出針對一般化后門攻擊的防御方法變得愈加困難。該論文提出了一個基于分割后門訓練過程的后門防御方法。本文揭示了后門攻擊就是一個將后門投影到特征空間的端到端監督訓練方法。在此基礎上,本文分割訓練過程來避免后門攻擊。該方法與其他后門防御方法進行了對比實驗,證明了該方法的有效性。

1 背景介紹

后門攻擊的目標是通過修改訓練數據或者控制訓練過程等方法使得模型預測正確干凈樣本,但是對于帶有后門的樣本判斷為目標標簽。例如,后門攻擊者給圖片增加固定位置的白塊(即中毒圖片)并且修改圖片的標簽為目標標簽。用這些中毒數據訓練模型過后,模型就會判斷帶有特定白塊的圖片為目標標簽(如下圖所示)。

e70ad1a4-8c76-11ed-bfe3-dac502259ad0.png

基本的后門攻擊

模型建立了觸發器(trigger)和目標標簽(target label)之間的關系。

2 相關工作

2.1 后門攻擊

現有的后門攻擊方法按照中毒圖片的標簽修改情況分為以下兩類,修改中毒圖片標簽的投毒標簽攻擊(Poison-Label Backdoor Attack),維持中毒圖片原本標簽的干凈標簽攻擊(Clean-Label Backdoor Attack)。

投毒標簽攻擊: BadNets (Gu et al., 2019)是第一個也是最具代表性的投毒標簽攻擊。之后(Chen et al., 2017)提出中毒圖片的隱身性應與其良性版本相似,并在此基礎上提出了混合攻擊(blended attack)。最近,(Xue et al., 2020; Li et al., 2020; 2021)進一步探索了如何更隱蔽地進行中毒標簽后門攻擊。最近,一種更隱形和有效的攻擊,WaNet (Nguyen & Tran, 2021年)被提出。WaNet采用圖像扭曲作為后門觸發器,在變形的同時保留了圖像內容。

干凈標簽攻擊: 為了解決用戶可以通過檢查圖像-標簽關系來注意到后門攻擊的問題,Turner等人(2019)提出了干凈標簽攻擊范式,其中目標標簽與中毒樣本的原始標簽一致。在(Zhao et al,2020b)中將這一思想推廣到攻擊視頻分類中,他們采用了目標通用對抗擾動(Moosavi-Dezfooli et al., 2017)作為觸發。盡管干凈標簽后門攻擊比投毒標簽后門攻擊更隱蔽,但它們的性能通常相對較差,甚至可能無法創建后門(Li et al., 2020c)。

2.2 后門防御

現有的后門防御大多是經驗性的,可分為五大類,包括

基于探測的防御(Xu et al,2021;Zeng et al,2011;Xiang et al,2022)檢查可疑的模型或樣本是否受到攻擊,它將拒絕使用惡意對象。

基于預處理的防御(Doan et al,2020;Li et al,2021;Zeng et al,2021)旨在破壞攻擊樣本中包含的觸發模式,通過在將圖像輸入模型之前引入預處理模塊來防止后門激活。

基于模型重構的防御(Zhao et al,2020a;Li et al,2021;)是通過直接修改模型來消除模型中隱藏的后門。

觸發綜合防御(Guo et al,2020;Dong et al,2021;Shen et al,2021)是首先學習后門,其次通過抑制其影響來消除隱藏的后門。

基于中毒抑制的防御(Du et al,2020;Borgnia et al,2021)在訓練過程中降低中毒樣本的有效性,以防止隱藏后門的產生

2.3 半監督學習和自監督學習

半監督學習:在許多現實世界的應用程序中,標記數據的獲取通常依賴于手動標記,這是非常昂貴的。相比之下,獲得未標記的樣本要容易得多。為了同時利用未標記樣本和標記樣本的力量,提出了大量的半監督學習方法(Gao et al.,2017;Berthelot et al,2019;Van Engelen & Hoos,2020)。最近,半監督學習也被用于提高模型的安全性(Stanforth et al,2019;Carmon et al,2019),他們在對抗訓練中使用了未標記的樣本。最近,(Yan et al,2021)討論了如何后門半監督學習。然而,該方法除了修改訓練樣本外,還需要控制其他訓練成分(如訓練損失)。

自監督學習:自監督學習范式是無監督學習的一個子集,模型使用數據本身產生的信號進行訓練(Chen et al,2020a;Grill et al,2020;Liu et al,2021)。它被用于增加對抗魯棒性(Hendrycks et al,2019;Wu et al,2021;Shi et al,2021)。最近,一些文章(Saha et al,2021;Carlini & Terzis, 2021;Jia et al,2021)探索如何向自監督學習投入后門。然而,這些攻擊除了修改訓練樣本外,它們還需要控制其他訓練成分(例如,訓練損失)。

3 后門特征

我們對CIFAR-10數據集(Krizhevsky, 2009)進行了BadNets和干凈標簽攻擊。對有毒數據集進行監督學習以及對未標記數據集進行自監督學習SimCLR(Chen et al., 2020a)。

e712cb16-8c76-11ed-bfe3-dac502259ad0.png

后門特征的t-sne展示

如上圖(a)-(b)所示,在經過標準監督訓練過程后,無論在投毒標簽攻擊還是干凈標簽攻擊下,中毒樣本(用黑點表示)都傾向于聚在一起形成單獨的聚類。這種現象暗示了現有的基于投毒的后門攻擊成功原因。過度的學習能力允許模型學習后門觸發器的特征。與端到端監督訓練范式相結合,模型可以縮小特征空間中中毒樣本之間的距離,并將學習到的觸發器相關特征與目標標簽連接起來。相反,如上圖(c)-(d)所示,在未標記的中毒數據集上,經過自監督訓練過程后,中毒樣本與帶有原有標簽的樣本非常接近。這表明我們可以通過自監督學習來防止后門的產生。

4 基于分割的后門防御

基于后門特征的分析,我們提出分割訓練階段的后門防御。如下圖所示,它包括三個主要階段,(1)通過自監督學習學習一個純化的特征提取器,(2)通過標簽噪聲學習過濾高可信樣本,(3)半監督微調。

e71b41b0-8c76-11ed-bfe3-dac502259ad0.png

方法流程圖

4.1 學習特征提取器

我們用訓練數據集 去學習模型。模型的參數 包含兩部分,一部分是骨干模型(backbone model)的參數另一部分是全連接層(fully connected layer)的參數。我們利用自監督學習優化骨干模型的參數

其中是自監督損失(例如,NT-Xent在SimCLR (Chen et al,2020)). 通過前面的分析,我們可以知道特征提取器很難學習到后門特征。

4.2 標簽噪聲學習過濾樣本

一旦特征提取器被訓練好后,我們固定特征提取器的參數并用訓練數據集進一步學習全連接層參數,

其中是監督學習損失(例如,交叉熵損失(cross entropy))。

雖然這樣的分割流程會使得模型很難學到后門,但是它存在兩個問題。首先,與通過監督學習訓練的方法相比,由于學習到的特征提取器在第二階段被凍結,預測干凈樣本的準確率會有一定的下降。其次,當中毒標簽攻擊出現時,中毒樣本將作為“離群值”,進一步阻礙第二階段的學習。這兩個問題表明我們需要去除中毒樣本,并對整個模型進行再訓練或微調。

我們需要判斷樣本是否帶有后門。我們認為模型對于后門樣本難以學習,因此采用置信度作為區分指標,高置信度的樣本為干凈樣本,而低置信度的樣本為中毒樣本。通過實驗發現,利用對稱交叉熵損失訓練的模型對于兩種樣本的損失差距較大,從而區分度較高,如下圖所示。

e7221864-8c76-11ed-bfe3-dac502259ad0.png

對稱交叉熵損失和交叉熵損失對比

因此,我們固定特征提取器利用對稱交叉熵損失訓練全連接層,并且通過置信度的大小篩選數據集為高置信度數據和低置信度數據。

4.3 半監督微調

首先,我們刪除低置信度數據的標簽 。我們利用半監督學習微調整個模型 。

其中是半監督損失(例如,在MixMatch(Berthelot et al,2019)中的損失函數)。

半監督微調既可以避免模型學習到后門觸發器,又可以使得模型在干凈數據集上表現良好。

5 實驗

5.1 數據集和基準

文章在兩個經典基準數據集上評估所有防御,包括CIFAR-10 (Krizhevsky, 2009)和ImageNet (Deng等人,2009)(一個子集)。文章采用ResNet18模型 (He et al., 2016)

文章研究了防御四種典型攻擊的所有防御方法,即badnets(Gu et al,2019)、混合策略的后門攻擊(blended)(Chen et al,2017)、WaNet (Nguyen & Tran, 2021)和帶有對敵擾動的干凈標簽攻擊(label-consistent)(Turner et al,2019)。

e732c362-8c76-11ed-bfe3-dac502259ad0.png

后門攻擊示例圖片

5.2 實驗結果

實驗的判斷標準為BA是干凈樣本的判斷準確率和ASR是中毒樣本的判斷準確率。

e73b94ce-8c76-11ed-bfe3-dac502259ad0.png

后門防御對比結果

如上表所示,DBD在防御所有攻擊方面明顯優于具有相同要求的防御(即DPSGD和ShrinkPad)。在所有情況下,DBD比DPSGD的BA超過20%,而ASR低5%。DBD模型的ASR在所有情況下都小于2%(大多數情況下低于0.5%),驗證了DBD可以成功地防止隱藏后門的創建。DBD與另外兩種方法(即NC和NAD)進行比較,這兩種方法都要求防御者擁有一個干凈的本地數據集。如上表所示,NC和NAD優于DPSGD和ShrinkPad,因為它們采用了來自本地的干凈數據集的額外信息。特別是,盡管NAD和NC使用了額外的信息,但DBD比它們更好。特別是在ImageNet數據集上,NC對ASR的降低效果有限。相比之下,DBD達到最小的ASR,而DBD的BA在幾乎所有情況下都是最高或第二高。此外,與未經任何防御訓練的模型相比,防御中毒標簽攻擊時的BA下降不到2%。在相對較大的數據集上,DBD甚至更好,因為所有的基線方法都變得不那么有效。這些結果驗證了DBD的有效性。

5.3 消融實驗

e745c75a-8c76-11ed-bfe3-dac502259ad0.png

各階段消融實驗

在CIFAR-10數據集上,我們比較了提出的DBD及其四個變體,包括

DBD不帶SS,將由自監督學習生成的骨干替換為以監督方式訓練的主干,并保持其他部分不變

SS帶CE,凍結了通過自監督學習學習到的骨干,并在所有訓練樣本上訓練剩下的全連接層的交叉熵損失

SS帶SCE, 與第二種變體類似,但使用了對稱交叉熵損失訓練。

SS帶SCE + Tuning,進一步微調由第三個變體過濾的高置信度樣本上的全連接層。

如上表所示,解耦原始的端到端監督訓練過程在防止隱藏后門的創建方面是有效的。此外,比較第二個和第三個DBD變體來驗證SCE損失對防御毒藥標簽后門攻擊的有效性。另外,第4個DBD變異的ASR和BA相對于第3個DBD變異要低一些。這一現象是由于低可信度樣本的去除。這表明,在采用低可信度樣本的有用信息的同時減少其副作用對防御很重要。

5.4 對于潛在的自適應性攻擊的抵抗

如果攻擊者知道DBD的存在,他們可能會設計自適應性攻擊。如果攻擊者能夠知道防御者使用的模型結構,他們可以通過優化觸發模式,在自監督學習后,使中毒樣本仍然在一個新的集群中,從而設計自適應性攻擊,如下所示:

攻擊設定

對于一個-分類問題,讓代表那些需要被投毒的干凈樣本,代表原標簽為的樣本,以及是一個被訓練的骨干。給定攻擊者預定的中毒圖像生成器,自適應性攻擊旨在優化觸發模式,通過最小化有毒圖像之間的距離,同時最大化有毒圖像的中心與具有不同標簽的良性圖像集群的中心之間的距離,即。

其中,是一個距離判定。

實驗結果

自適應性攻擊在沒有防御的情況下的BA為94.96%,和ASR為99.70%。然而,DBD的防御結果為BA93.21%以及ASR1.02%。換句話說,DBD是抵抗這種自適應性攻擊的。

6 總結

基于投毒的后門攻擊的機制是在訓練過程中在觸發模式和目標標簽之間建立一種潛在的連接。本文揭示了這種連接主要是由于端到端監督訓練范式學習。基于這種認識,本文提出了一種基于解耦的后門防御方法。大量的實驗驗證了DBD防御在減少后門威脅的同時保持了預測良性樣本的高精度

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 觸發器
    +關注

    關注

    14

    文章

    2002

    瀏覽量

    61273

原文標題:ICLR 2022 | DBD:基于分割后門訓練過程的后門防御方法

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    GPU是如何訓練AI大模型的

    在AI模型的訓練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU是如何訓練AI大模型的。
    的頭像 發表于 12-19 17:54 ?189次閱讀

    FP8模型訓練中Debug優化思路

    目前,市場上許多公司都積極開展基于 FP8 的大模型訓練,以提高計算效率和性能。在此,我們整理并總結了客戶及 NVIDIA 技術團隊在 FP8 模型訓練過程中的 debug 思路和方法,供大家參考。
    的頭像 發表于 09-06 14:36 ?369次閱讀
    FP8模型<b class='flag-5'>訓練</b>中Debug優化思路

    AI訓練的基本步驟

    AI(人工智能)訓練是一個復雜且系統的過程,它涵蓋了從數據收集到模型部署的多個關鍵步驟。以下是對AI訓練過程的詳細闡述,包括每個步驟的具體內容,并附有相關代碼示例(以Python和scikit-learn庫為例)。
    的頭像 發表于 07-17 16:57 ?2455次閱讀

    脈沖神經網絡怎么訓練

    脈沖神經網絡(SNN, Spiking Neural Network)的訓練是一個復雜但充滿挑戰的過程,它模擬了生物神經元通過脈沖(或稱為尖峰)進行信息傳遞的方式。以下是對脈沖神經網絡訓練過程的詳細闡述。
    的頭像 發表于 07-12 10:13 ?678次閱讀

    機器學習中的數據分割方法

    在機器學習中,數據分割是一項至關重要的任務,它直接影響到模型的訓練效果、泛化能力以及最終的性能評估。本文將從多個方面詳細探討機器學習中數據分割方法,包括常見的
    的頭像 發表于 07-10 16:10 ?2046次閱讀

    BP神經網絡的基本結構和訓練過程

    網絡結構,通過誤差反向傳播算法(Error Backpropagation Algorithm)來訓練網絡,實現對復雜問題的學習和解決。以下將詳細闡述BP神經網絡的工作方式,涵蓋其基本原理、訓練過程、應用實例以及優缺點等多個方面。
    的頭像 發表于 07-10 15:07 ?4982次閱讀
    BP神經網絡的基本結構和<b class='flag-5'>訓練過程</b>

    機器人視覺技術中常見的圖像分割方法

    機器人視覺技術中的圖像分割方法是一個廣泛且深入的研究領域。圖像分割是將圖像劃分為多個區域或對象的過程,這些區域或對象具有某種共同的特征,如顏色、紋理、形狀等。在機器人視覺中,圖像
    的頭像 發表于 07-09 09:31 ?826次閱讀

    解讀PyTorch模型訓練過程

    PyTorch作為一個開源的機器學習庫,以其動態計算圖、易于使用的API和強大的靈活性,在深度學習領域得到了廣泛的應用。本文將深入解讀PyTorch模型訓練的全過程,包括數據準備、模型構建、訓練循環、評估與保存等關鍵步驟,并結合
    的頭像 發表于 07-03 16:07 ?1131次閱讀

    深度學習的典型模型和訓練過程

    深度學習作為人工智能領域的一個重要分支,近年來在圖像識別、語音識別、自然語言處理等多個領域取得了顯著進展。其核心在于通過構建復雜的神經網絡模型,從大規模數據中自動學習并提取特征,進而實現高效準確的預測和分類。本文將深入解讀深度學習中的典型模型及其訓練過程,旨在為讀者提供一個全面而深入的理解。
    的頭像 發表于 07-03 16:06 ?1627次閱讀

    神經網絡前向傳播和反向傳播在神經網絡訓練過程中的作用

    神經網絡是一種強大的機器學習模型,它通過模擬人腦神經元的連接方式來處理復雜的數據。神經網絡的核心是前向傳播和反向傳播算法。本文將詳細介紹神經網絡的前向傳播和反向傳播的區別,并探討它們在神經網絡訓練過程
    的頭像 發表于 07-03 11:11 ?1548次閱讀

    卷積神經網絡的基本結構和訓練過程

    處理具有空間層次結構的數據時表現出色。本文將從卷積神經網絡的歷史背景、基本原理、網絡結構、訓練過程以及應用領域等方面進行詳細闡述,以期全面解析這一重要算法。
    的頭像 發表于 07-02 18:27 ?1004次閱讀

    CNN模型的基本原理、結構、訓練過程及應用領域

    CNN模型的基本原理、結構、訓練過程以及應用領域。 卷積神經網絡的基本原理 1.1 卷積運算 卷積運算是CNN模型的核心,它是一種數學運算
    的頭像 發表于 07-02 15:26 ?3963次閱讀

    卷積神經網絡的基本原理、結構及訓練過程

    訓練過程以及應用場景。 一、卷積神經網絡的基本原理 卷積運算 卷積運算是卷積神經網絡的核心,它是一種數學運算,用于提取圖像中的局部特征。卷積運算的過程如下: (1)定義卷積核:卷積核是一個小的矩陣,用于在輸入圖像上滑動,提取局部特征。 (2)滑動窗口:將
    的頭像 發表于 07-02 14:21 ?2868次閱讀

    深度學習模型訓練過程詳解

    詳細介紹深度學習模型訓練的全過程,包括數據預處理、模型構建、損失函數定義、優化算法選擇、訓練過程以及模型的評估與調優。
    的頭像 發表于 07-01 16:13 ?1429次閱讀

    后門!ASML可遠程鎖光刻機!

    來源:國芯網,謝謝 編輯:感知芯視界 Link 5月22日消息,據外媒報道,臺積電從ASML購買的EUV極紫外光刻機,暗藏后門,可以在必要的時候執行遠程鎖定! 據《聯合早報》報道,荷蘭方面在
    的頭像 發表于 05-24 09:35 ?602次閱讀
    主站蜘蛛池模板: 美女扒开尿囗给男生桶爽| 午夜a视频| 欧美黄色片免费| 手机看片精品国产福利盒子| 天天插天天插天天插| 天天干狠狠插| 国产特黄一级一片免费| 西西午夜影院| avbobo在线| 最近2018中文字幕免费看手机 | 国产美女视频一区二区三区| 国产片无遮挡在线看床戏| a网在线| 乱高h辣黄文np公交车| 欧美日本俄罗斯一级毛片| 国产美女叼嘿视频免费看 | yezhulu在线永久网址yellow| 男人午夜小视频| 精品成人| 四虎国产在线观看| 玖玖在线免费视频| 99色播| 好吊日在线| 亚洲人一区| avtt天堂网 手机资源| 男女性生动态免费视频| 亚洲成熟| 女人爽到喷水的视频大全在线观看| 韩国最新三级网站在线播放| 日韩一级免费毛片| 久久性妇女精品免费| www亚洲一区| 久久午夜国产片| 又粗又长又爽又长黄免费视频| 伊人久久狼人| 免费一级视频在线播放| bt种子磁力天堂torrent| 精品亚洲国产国拍| 日本视频三区| 三级免费黄录像| 999www成人免费视频|