在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)會犯一些人類根本不會犯的錯誤

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:通信信號處理研究所 ? 作者:通信信號處理研究 ? 2021-01-05 14:10 ? 次閱讀

如今,深度學(xué)習(xí)已經(jīng)不僅局限于識別支票與信封上的手寫文字。比如,深度神經(jīng)網(wǎng)絡(luò)已成為許多CV應(yīng)用的關(guān)鍵組成部分,包括照片與視頻編輯器、醫(yī)療軟件與自動駕駛汽車等。神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與人類大腦相似,觀察世界的方式也與人類更相近。但是,神經(jīng)網(wǎng)絡(luò)還是會犯一些人類根本不會犯的錯誤,改進(jìn)空間仍很大。

ebcb00ac-4e9c-11eb-8b86-12bb97331649.png

對抗樣本:如果在這張熊貓圖片上添加一個不可察覺的噪聲層,會導(dǎo)致卷積神經(jīng)網(wǎng)絡(luò)將熊貓誤識別為長臂猿。這些情況通常被稱為“對抗樣本”(adversarial examples),不經(jīng)意就改變AI模型的行為。對抗機(jī)器學(xué)習(xí)是當(dāng)前人工智能體系的最大挑戰(zhàn)之一。對抗樣本可能會導(dǎo)致機(jī)器學(xué)習(xí)模型的意外失敗,或使模型容易受到網(wǎng)絡(luò)攻擊。因此,構(gòu)建可抵御對抗攻擊的AI系統(tǒng),已成為AI研究的熱門話題之一。在CV中,保護(hù)深度學(xué)習(xí)系統(tǒng)免受對抗攻擊的方法之一,是應(yīng)用神經(jīng)科學(xué)領(lǐng)域的研究發(fā)現(xiàn),來縮小神經(jīng)網(wǎng)絡(luò)與哺乳動物視覺系統(tǒng)之間的差距。使用這一方法,MIT與MIT-IBM Watson AI Lab的研究人員發(fā)現(xiàn),若將哺乳動物視覺皮層的特征直接映射到深度神經(jīng)網(wǎng)絡(luò)上,則能夠創(chuàng)建行為可預(yù)測、且面對對抗干擾(adversarial perturbation)時更“魯棒”的AI系統(tǒng)。在論文“Simulating a Primary Visual Cortex at the Front of CNNs Improves Robustness to Image Perturbations”中,研究人員介紹了一種叫做“VOneNet”的架構(gòu),將當(dāng)前的深度學(xué)習(xí)技術(shù)與受神經(jīng)科學(xué)啟發(fā)的神經(jīng)網(wǎng)絡(luò)相結(jié)合。

這項(xiàng)工作是由來自慕尼黑大學(xué)、路德維希·馬克西米利安大學(xué)和奧格斯堡大學(xué)的科學(xué)家的幫助下完成的,已被NeurIPS 2020接收。1

關(guān)于卷積神經(jīng)網(wǎng)絡(luò)

目前,計(jì)算機(jī)視覺所使用的主要架構(gòu)是卷積神經(jīng)網(wǎng)絡(luò)(CNN)。當(dāng)多個卷積層堆疊在一起時,卷積層可訓(xùn)練于從圖像中學(xué)習(xí)和提取層次特征。疊得較低的層可以發(fā)現(xiàn)角、邊等常規(guī)圖案,疊得較高的層則會越來越擅長發(fā)現(xiàn)圖像上的具體事物,比如物體與人。

ede745e4-4e9c-11eb-8b86-12bb97331649.png

圖注:神經(jīng)網(wǎng)絡(luò)的每一層都會從輸入圖像中提取特定特征。與傳統(tǒng)的全連接網(wǎng)絡(luò)相比,ConvNet更“魯棒”、計(jì)算效率也更高。但是,CNN和人類視覺系統(tǒng)處理信息的方式之間仍然存在根本差異。“深度神經(jīng)網(wǎng)絡(luò)(尤其是CNN)已經(jīng)成長為出色的視覺皮層模型,更令人驚訝的是,與專門用于解釋神經(jīng)科學(xué)數(shù)據(jù)的計(jì)算模型相比,它們更擬合從大腦中收集的實(shí)驗(yàn)數(shù)據(jù) 。”MIT-IBM Watson AI Lab的IBM總監(jiān)David Cox介紹道。“但并不是每個深度神經(jīng)網(wǎng)絡(luò)都能很好地匹配大腦數(shù)據(jù),且大腦與DNN之間一直都存在差距。”自2000年開始,Cox進(jìn)入MIT師從神經(jīng)科學(xué)教授James DiCarlo以來,他就一直在探索神經(jīng)科學(xué)和人工智能的交叉領(lǐng)域。

“但是,能夠欺騙DNN的圖像卻永遠(yuǎn)也不可能欺騙人類的視覺系統(tǒng),” Cox說。“同時,DNN難以抵抗圖像的自然退化(比如增加噪音),因此,魯棒性通常是DNN的一個開放問題。考慮到這一點(diǎn),我們認(rèn)為可以從這個角度去尋找大腦和DNN之間的差異。”“大腦是一個功能強(qiáng)大且高效的信息處理機(jī)器。那么,我們是否能從大腦中學(xué)習(xí)可以實(shí)際有用的新技巧呢?同時,我們可以利用對人工系統(tǒng)的了解來提供指導(dǎo)理論和假設(shè),幫助我們進(jìn)行了解人類大腦的實(shí)驗(yàn)。” Cox說。2

類腦神經(jīng)網(wǎng)絡(luò)

這篇論文的主要作者是Joel Dapello和Tiago Marques,Cox和導(dǎo)師DiCarlo加入他們,主要研究當(dāng)神經(jīng)網(wǎng)絡(luò)的激活與大腦活動相似時,神經(jīng)網(wǎng)絡(luò)是否對對抗攻擊更具有“魯棒性”。AI研究人員測試了在ImageNet數(shù)據(jù)集上訓(xùn)練的幾種流行的CNN架構(gòu),包括AlexNet,VGG和ResNet的各種變體。此外,他們還測試了一些已經(jīng)過“對抗訓(xùn)練”的深度學(xué)習(xí)模型,在這個過程中,神經(jīng)網(wǎng)絡(luò)在對抗樣本中進(jìn)行訓(xùn)練,以避免分類錯誤。科學(xué)家使用“ BrainScore”指標(biāo)評估了AI模型,該指標(biāo)比較了深度神經(jīng)網(wǎng)絡(luò)的激活和大腦的神經(jīng)反應(yīng)。然后,他們通過白盒對抗攻擊測試來測量每個模型的魯棒性,在測試中,攻擊者對目標(biāo)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和參數(shù)有充分了解。“令我們驚訝的是,模型越像大腦,系統(tǒng)對抗對抗攻擊的魯棒性就越強(qiáng),” Cox說。“受此啟發(fā),我們好奇,是否有可能通過在網(wǎng)絡(luò)輸入階段添加基于神經(jīng)科學(xué)實(shí)驗(yàn)的視覺皮層模擬來提高魯棒性(包括對抗性魯棒性)。”

f4388278-4e9c-11eb-8b86-12bb97331649.png

圖注:研究表明,BrainScores更高的神經(jīng)網(wǎng)絡(luò),對白盒對抗攻擊也具有更強(qiáng)的魯棒性。3

VOneNet與VOneBlock

為了進(jìn)一步驗(yàn)證他們的發(fā)現(xiàn),研究人員開發(fā)了一個叫做“VOneNet”的混合深度學(xué)習(xí)架構(gòu),將標(biāo)準(zhǔn)的CNN與一層以神經(jīng)科學(xué)為靈感的神經(jīng)網(wǎng)絡(luò)相結(jié)合。VOneNet用VOneBlock代替了CNN的前幾層。VOneBlock是一種根據(jù)靈長類動物的初級視覺皮層(也稱為V1區(qū)域)所形成的神經(jīng)網(wǎng)絡(luò)架構(gòu)。也就是說,圖像數(shù)據(jù)首先由VOneBlock處理,然后再傳遞到網(wǎng)絡(luò)的其余部分。VOneBlock本身由Gabor filter bank(GFB)、簡單和復(fù)雜的細(xì)胞非線性、神經(jīng)元隨機(jī)性(neuronal stochasticity)組成。GFB與其他神經(jīng)網(wǎng)絡(luò)中的卷積層相似。但是,盡管經(jīng)典的神經(jīng)網(wǎng)絡(luò)具有隨機(jī)參數(shù)值,在訓(xùn)練期間也會對參數(shù)進(jìn)行調(diào)整,但GFB參數(shù)的值是根據(jù)初級視覺皮層的激活來確定和調(diào)整的。

f4623b7c-4e9c-11eb-8b86-12bb97331649.png

圖注:VOneBlock是一種模仿初級視覺皮層功能的神經(jīng)網(wǎng)絡(luò)架構(gòu)。“ GFB的權(quán)重與VOneBlock的架構(gòu)選擇是根據(jù)生物學(xué)來設(shè)計(jì)的。這意味著,我們?yōu)閂OneBlock所做的所有選擇都受到了神經(jīng)生理學(xué)的限制。換句話說,我們設(shè)計(jì)了VOneBlock來盡可能地模仿靈長類動物的初級視覺皮層(V1 區(qū)域)。我們考慮了過去四十年中從幾項(xiàng)研究中收集到的可用數(shù)據(jù),以確定VOneBlock參數(shù)。”論文的共同作者之一Tiago Marques介紹道。

盡管不同靈長類動物的視覺皮層存在一定差異,但也有許多共同特征,尤其是在V1區(qū)域。“大量研究表明,猴子的物體識別能力接近人類。我們的模型使用了已發(fā)布的可用數(shù)據(jù)來表征猴子的V1神經(jīng)元的反應(yīng)。盡管我們的模型仍只是靈長類動物V1的近似值(它不包括所有已知數(shù)據(jù),這些數(shù)據(jù)甚至在某種程度上受到了限制——我們對V1處理信息的過程了解還不夠),但這是一個很好的近似值。”Marques解釋。除了GFB層之外,VOneBlock的簡單和復(fù)雜細(xì)胞還為神經(jīng)網(wǎng)絡(luò)提供了在不同條件下檢測特征的靈活性。“最終,物體識別的目標(biāo)是不依賴物體的確切形狀、大小、位置和其他低層特征來識別物體的存在,”Marques說。“在VOneBlock中,簡單和復(fù)雜的單元在不同圖像擾動下的支持性能方面似乎起到互補(bǔ)的作用。簡單單元對于處理常見的損壞特別重要,而復(fù)雜單元則擅長處理白盒對抗性攻擊。”4

VOneNet的運(yùn)作

VOneBlock的優(yōu)勢之一是與當(dāng)前CNN架構(gòu)的兼容性。VOneBlock在設(shè)計(jì)時專門設(shè)置了即插即用功能,這意味著它可以直接替代標(biāo)準(zhǔn)CNN結(jié)構(gòu)的輸入層。緊隨VOneBlock核心的過渡層則可以確保其輸出與CNN架構(gòu)的其余部分兼容。研究人員將VOneBlock插入幾個在ImageNet數(shù)據(jù)集上表現(xiàn)良好的CNN架構(gòu)。有趣的是,添加了簡單的塊后,白盒對抗攻擊的魯棒性得到了顯著提高,且性能優(yōu)于基于訓(xùn)練的防御方法。研究人員在論文中寫道:“在標(biāo)準(zhǔn)CNN架構(gòu)的前端模擬靈長類初級視覺皮層的圖像處理,可以顯著提高其對圖像擾動的魯棒性,甚至使它們的性能優(yōu)于最新的防御方法。”

f51f6314-4e9c-11eb-8b86-12bb97331649.png

圖注:實(shí)驗(yàn)表明,包括VOneBlock的卷積神經(jīng)網(wǎng)絡(luò)在抵抗白盒對抗攻擊時更具有靈活性。“添加了V1的模型實(shí)際上非常簡單。我們只是更改系統(tǒng)的第一階段,同時保持網(wǎng)絡(luò)的其余部分不變,且此V1模型的生物保真度也仍然非常簡單。”Cox 說,并提到可以將更多細(xì)節(jié)和細(xì)微差別添加到這個模型中,使其與人類大腦更接近。Cox認(rèn)為:“在某些方面,簡單是一種優(yōu)勢,因?yàn)樗綦x了可能重要的較小原則集,但有趣的是,它探索了生物保真度的其他方面是否重要。”該論文挑戰(zhàn)了過去幾年中在AI研究領(lǐng)域越來越普遍的一種趨勢。許多AI科學(xué)家在研究中沒有應(yīng)用關(guān)于腦機(jī)制的最新發(fā)現(xiàn),而是專注于利用可用的龐大計(jì)算資源和大數(shù)據(jù)集來訓(xùn)練越來越大規(guī)模的神經(jīng)網(wǎng)絡(luò),來推動AI領(lǐng)域的進(jìn)步。但這種方法給人工智能研究帶來了許多挑戰(zhàn)。VOneNet證明,生物智能仍然有很大的發(fā)展?jié)摿Γ梢越鉀QAI研究正面臨的一些基本問題。論文所介紹的模型直接采自靈長類動物神經(jīng)生物學(xué),只需要較少的訓(xùn)練便能實(shí)現(xiàn)更類人的行為。這是良性循環(huán)的新轉(zhuǎn)折:神經(jīng)科學(xué)和人工智能相互促進(jìn)并增強(qiáng)了對方的理解和能力。在未來,本文的研究人員將進(jìn)一步探索VOneNet的特性,以及神經(jīng)科學(xué)和AI研究發(fā)現(xiàn)的進(jìn)一步融合。據(jù)Cox介紹,這項(xiàng)工作目前只有一個局限性,即雖然已經(jīng)證明了添加V1塊可以帶來改進(jìn),但他們卻無法很好地理解為什么會有這樣的改進(jìn)。發(fā)展理論,以找到改善的原因,能夠幫助AI研究人員最終了解真正重要的步驟,并建立更高效的系統(tǒng)。原文鏈接:https://bdtechtalks.com/2020/12/07/vonenet-neurscience-inspired-deep-learning/

原文標(biāo)題:即插即用:把仿生模塊和CNN拼接,對抗攻擊魯棒性顯著提高!

文章出處:【微信公眾號:通信信號處理研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4772

    瀏覽量

    100792
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47294

    瀏覽量

    238578
  • 自動駕駛
    +關(guān)注

    關(guān)注

    784

    文章

    13823

    瀏覽量

    166486

原文標(biāo)題:即插即用:把仿生模塊和CNN拼接,對抗攻擊魯棒性顯著提高!

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    C++新手容易的十個編程錯誤

    簡單的總結(jié)下?C++ 新手容易一些編程錯誤,給新人們提供個參考。 1 有些關(guān)鍵字在 cpp 文件中多寫了 對于 C++ 類,
    的頭像 發(fā)表于 11-15 12:42 ?374次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中個基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及
    的頭像 發(fā)表于 07-10 15:20 ?1100次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能
    的頭像 發(fā)表于 07-05 09:52 ?580次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)樣嗎

    神經(jīng)網(wǎng)絡(luò)種基于樹結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,它通過遞歸地將輸入數(shù)據(jù)分解為更小的子問題來處理序列數(shù)據(jù)。RvNN的核心思想是將復(fù)雜的序列問題
    的頭像 發(fā)表于 07-05 09:28 ?877次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實(shí)際上是同個概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?774次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    結(jié)構(gòu)。它們在處理不同類型的數(shù)據(jù)和解決不同問題時具有各自的優(yōu)勢和特點(diǎn)。本文將從多個方面比較循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別。 基本概念 循環(huán)神經(jīng)網(wǎng)絡(luò)種具有循環(huán)連接的
    的頭像 發(fā)表于 07-04 14:24 ?1304次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)的區(qū)別

    處理序列數(shù)據(jù)方面具有顯著的優(yōu)勢,但它們在結(jié)構(gòu)和工作原理上存在一些關(guān)鍵的區(qū)別。 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN) 1.1 RNN的結(jié)構(gòu) 循環(huán)神經(jīng)網(wǎng)絡(luò)種具有循環(huán)連接的
    的頭像 發(fā)表于 07-04 14:19 ?927次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和反向傳播神經(jīng)網(wǎng)絡(luò)區(qū)別在哪

    神經(jīng)網(wǎng)絡(luò)在許多領(lǐng)域都有廣泛的應(yīng)用,如語音識別、圖像識別、自然語言處理等。然而,BP神經(jīng)網(wǎng)絡(luò)也存在一些問題,如容易陷入局部最優(yōu)解、訓(xùn)練時間長、對初始權(quán)重敏感等。為了解決這些問題,研究者們提出了
    的頭像 發(fā)表于 07-04 09:51 ?439次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)優(yōu)點(diǎn)和缺點(diǎn)有哪些

    、自然語言處理等。然而,BP神經(jīng)網(wǎng)絡(luò)也存在一些優(yōu)點(diǎn)和缺點(diǎn)。本文將介紹BP神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)和缺點(diǎn)。 、BP神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn) 自學(xué)習(xí)能力:BP
    的頭像 發(fā)表于 07-03 11:05 ?954次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)在許多領(lǐng)域都有廣泛的應(yīng)用,如語音識別、圖像識別、自然語言處理等。然而,BP神經(jīng)網(wǎng)絡(luò)也存在一些問題,如容易陷入局部最優(yōu)解、訓(xùn)練時間長、對初始權(quán)重敏感等。為了解決這些問題,研究者們提出了
    的頭像 發(fā)表于 07-03 11:00 ?815次閱讀

    bp神經(jīng)網(wǎng)絡(luò)是深度神經(jīng)網(wǎng)絡(luò)

    Network)有相似之處,但它們之間還是存在一些關(guān)鍵的區(qū)別。 、引言 神經(jīng)網(wǎng)絡(luò)種模擬人腦神經(jīng)元結(jié)構(gòu)的計(jì)算模型,它由大量的
    的頭像 發(fā)表于 07-03 10:14 ?853次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    結(jié)構(gòu)、原理、應(yīng)用場景等方面都存在定的差異。以下是對這兩種神經(jīng)網(wǎng)絡(luò)的比較: 基本結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)種多層前饋神經(jīng)網(wǎng)絡(luò),由輸入層、隱藏層和
    的頭像 發(fā)表于 07-03 10:12 ?1195次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    不同的神經(jīng)網(wǎng)絡(luò)模型,它們在結(jié)構(gòu)、原理、應(yīng)用等方面都存在定的差異。本文將從多個方面對這兩種神經(jīng)網(wǎng)絡(luò)進(jìn)行詳細(xì)的比較和分析。 引言 神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-02 14:24 ?4079次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型有哪些

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNNs)是類具有多個隱藏層的神經(jīng)網(wǎng)絡(luò),它們在許多領(lǐng)域取得了顯著的成功,如計(jì)算機(jī)視覺、自然語言處理、語音識別等。以下是一些常見
    的頭像 發(fā)表于 07-02 10:00 ?1449次閱讀

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時代,錯綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進(jìn)人們的視線,通過深度學(xué)習(xí)解決若干問題的案例越來越多。一些
    的頭像 發(fā)表于 01-11 10:51 ?2057次閱讀
    詳解深度學(xué)習(xí)、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用
    主站蜘蛛池模板: 操黄色| 中文字幕一区二区三区不卡 | 69日本xxxxxxxxx19| 六月丁香激情| 午夜a视频| 国产在线欧美精品卡通动漫| 福利片午夜| 亚洲 欧美 综合| 色老头网站久久网| 欧美一区二区在线观看视频| 免费看日本大片免费| 国产乱人视频在线看| 在线观看免费xx高清视频| 天天摸天天看| 欧美日韩色图| 久久99精品久久久久久牛牛影视 | 欧美三级午夜伦理片| 国产大片免费观看中文字幕| 免费在线h视频| 国产亚洲第一| 四虎永久免费地址| 噜啪啪| 永久在线| 国产午夜在线视频| 亚洲一区二区三区在线| 在线观看a网站| 色操网| 国产看色免费| 手机看片福利永久| 人人澡人人搞| 一色屋成人免费精品网站| 日本视频www色| 日本妈妈4| 国产三级在线播放| 天天干天天拍天天操| riav久久中文一区二区| 免费a网址| 日本黄色视| brazzersvideosexhd欧美高清 | 毛片区| 亚洲第七页|