在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

增量學習的概念

深度學習自然語言處理 ? 來源:NewBeeNLP ? 作者:NewBeeNLP ? 2021-03-05 15:50 ? 次閱讀

1. 增量學習的概念

1.1 什么是增量學習

人類有終身不斷獲取、調整和轉移知識的能力,雖然在我們的一生中,我們確實傾向于逐漸忘記之前學習過的知識,但只有在極少的情況下,對新知識的學習會災難性地影響已經學到的知識,這樣的學習能力被稱為增量學習的能力。

具體來講,「增量學習的能力就是能夠不斷地處理現實世界中連續的信息流,在吸收新知識的同時保留甚至整合、優化舊知識的能力。」

增量學習(Incremental Learning)已經有20多年的研究歷史,但增量學習更多地起源于認知神經科學對記憶和遺忘機制的研究,因此不少論文的idea都啟發于認知科學的發展成果,本文不會探討增量學習的生物啟發,關于面向生物學和認知科學的增量學習綜述可見 Continual lifelong learning with neural networks: A review[1]。

1.2 為什么要增量學習

機器學習領域,增量學習致力于解決模型訓練的一個普遍缺陷:「災難性遺忘(catastrophic forgetting)」,也就是說,一般的機器學習模型(尤其是基于反向傳播的深度學習方法)在新任務上訓練時,在舊任務上的表現通常會顯著下降。

造成災難性遺忘的一個主要原因是「傳統模型假設數據分布是固定或平穩的,訓練樣本是獨立同分布的」,所以模型可以一遍又一遍地看到所有任務相同的數據,但當數據變為連續的數據流時,訓練數據的分布就是非平穩的,模型從非平穩的數據分布中持續不斷地獲取知識時,新知識會干擾舊知識,從而導致模型性能的快速下降,甚至完全覆蓋或遺忘以前學習到的舊知識。

為了克服災難性遺忘,我們希望模型一方面必須表現出從新數據中整合新知識和提煉已有知識的能力(可塑性),另一方面又必須防止新輸入對已有知識的顯著干擾(穩定性)。這兩個互相沖突的需求構成了所謂的「穩定性-可塑性困境(stability-plasticity dilemma)」。

解決災難性遺忘最簡單粗暴的方案就是使用所有已知的數據重新訓練網絡參數,以適應數據分布隨時間的變化。盡管從頭訓練模型的確完全解決了災難性遺忘問題,但這種方法效率非常低,極大地阻礙了模型實時地學習新數據。而增量學習的主要目標就是在計算和存儲資源有限的條件下,在穩定性-可塑性困境中尋找效用最大的平衡點。

1.3 增量學習的特點

增量學習和持續學習(Continual Learning)、終身學習(Lifelong Learning)的概念大致是等價的,它們都是在連續的數據流中訓練模型,隨著時間的推移,更多的數據逐漸可用,同時舊數據可能由于存儲限制或隱私保護等原因而逐漸不可用,并且學習任務的類型和數量沒有預定義(例如分類任務中的類別數)。

但增量學習目前還沒有一個特別清晰的定義,因此比較容易與在線學習,遷移學習和多任務學習等概念混淆,「尤其要注意增量學習和在線學習的區別,在線學習通常要求每個樣本只能使用一次,且數據全都來自于同一個任務,而增量學習是多任務的,但它允許在進入下一個任務之前多次處理當前任務的數據」。上圖表現了增量學習和其他學習范式的區別,一般來說,增量學習有如下幾個特點:

學習新知識的同時能夠保留以前學習到的大部分知識,也就是模型在舊任務和新任務上均能表現良好。

計算能力與內存應該隨著類別數的增加固定或者緩慢增長,最理想的情況是一旦完成某一任務的學習,該任務的觀測樣本便被全部丟棄。

模型可以從新任務和新數據中持續學習新知識,當新任務在不同時間出現,它都是可訓練的。

由于增量學習問題的復雜性和挑戰的多樣性,人們通常只討論特定設置下的增量學習。以一個圖像分類模型為例,我們希望模型具有增量學習新的圖像和新的類別的能力,但前者更多地與遷移學習有關,因此任務增量學習(Task-incremental Learning)和難度更高一點的類增量學習(Class-incremental Learning)是深度學習社區當前主要考慮的增量學習范式。

「本文主要討論近幾年關注度最高的類增量學習范式」,更廣泛更詳細的增量學習介紹可參考專著《Lifelong Machine Learning》[2]。

2. 增量學習的實現方式

增量學習是一個連續不斷的學習過程,在這個過程中,我們假設模型已經學習了前 個任務:,當面對任務 和對應的數據 時,我們希望可以利用從舊任務中學習到的先驗知識幫助 的學習,然后更新模型所學習到的知識。這個過程要求我們在當前任務 中尋找參數 最小化下面的損失函數:

其中舊數據 是部分可見或完全不可見的。

增量學習方法的種類有很多種劃分方式,本文將其劃分為以下三種范式:

正則化(regularization)

回放(replay)

參數隔離(parameter isolation)

其中基于正則化和回放的增量學習范式受到的關注更多,也更接近增量學習的真實目標,參數隔離范式需要引入較多的參數和計算量,因此通常只能用于較簡單的任務增量學習。關于其他劃分方式和不同類別的增量學習的優缺點對比可見A Comprehensive Study of Class Incremental Learning Algorithms for Visual Tasks[3],下面僅介紹基于正則化和回放的增量學習的經典方法以及相關進展。

2.1 基于正則化的增量學習

基于正則化的增量學習的主要思想是「通過給新任務的損失函數施加約束的方法來保護舊知識不被新知識覆蓋」,這類方法通常不需要用舊數據來讓模型復習已學習的任務,因此是最優雅的一類增量學習方法。Learning without Forgetting (ECCV 2016)[4]提出的LwF算法是基于深度學習的增量學習的里程碑之作,在介紹LwF算法之前,我們先了解一些最簡單的增量學習方法。

上圖展示了一個具有多頭網絡結構的模型學習新任務的不同策略,其中(a)為已經訓練好的基于CNN的原始模型, 表示不同任務共享的CNN參數, 表示與原始任務相關的MLP參數,當加入一個新的分類任務時,我們可以增加一個隨機初始化的MLP參數 。基于 來學習 的方法包括如下幾類:

微調(Fine-tuning):微調沒有舊任務參數和樣本的指導,因此模型在舊任務上的表現幾乎一定會變差,也就是發生災難性遺忘。

聯合訓練(Joint Training):聯合訓練相當于在所有已知數據上重新訓練模型,效果最好,因此通常被認為是「增量學習的性能上界」,但訓練成本太高。

特征抽取(Feature Extraction):特征抽取只訓練 ,共享參數 沒有得到更新,雖然不影響模型在舊任務上的表現,但不能有效捕獲新任務獨有的特征表示,在新任務上的表現通常不如人意。

LwF算法是介于聯合訓練和微調訓練之間的訓練方式,LwF的特點是它不需要使用舊任務的數據也能夠更新 。LwF算法的主要思想來自于knowledge distillation[5],也就是使新模型在新任務上的預測和舊模型在新任務上的預測相近。

具體來說,LwF算法先得到舊模型在新任務上的預測值,在損失函數中引入新模型輸出的蒸餾損失,然后用微調的方法在新任務上訓練模型,從而避免新任務的訓練過分調整舊模型的參數而導致新模型在舊任務上性能的下降。算法流程如下圖所示,其中 用于權衡模型的穩定性和可塑性。

但是,這種方法的缺點是高度依賴于新舊任務之間的相關性,當任務差異太大時會出現任務混淆的現象(inter-task confusion),并且一個任務的訓練時間會隨著學習任務的數量線性增長,同時引入的正則項常常不能有效地約束模型在新任務上的優化過程。

不少研究者圍繞著LwF算法的思想提出了很多改進策略,比較有名的包括Encoder Based Lifelong Learning (ICCV 2017)[6]提出的基于低維特征映射的EBLL算法,以及Overcoming catastrophic forgetting in neural networks (PNAS 2017)[7]提出的基于貝葉斯框架的EWC算法,EWC算法實際上對應了一個通用的「參數約束」方法,它引入了一個額外的和參數有關的正則損失:

該損失會根據不同參數的重要性來鼓勵新任務訓練得到的新模型參數盡量靠近舊模型參數。后續對EWC作出改進了論文也很多,比如Rotate your Networks: Better Weight Consolidation and Less Catastrophic Forgetting (ICPR 2018)[8]。

概括起來,基于正則化的增量學習方法通過引入額外損失的方式來修正梯度,保護模型學習到的舊知識,提供了一種緩解特定條件下的災難性遺忘的方法。不過,雖然目前的深度學習模型都是過參數化的,但模型容量終究是有限的,我們通常還是需要在舊任務和新任務的性能表現上作出權衡。近幾年,不少研究者也提出了各種類型的正則化手段,有興趣的話可以參考下面的論文:

Learning without Memorizing (CVPR 2019)[9]

Learning a Unified Classifier Incrementally via Rebalancing (CVPR 2019)[10]

Class-incremental Learning via Deep Model Consolidation (WACV 2020)[11]

2.2 基于回放的增量學習

從字面意思上來看,基于回放的增量學習的基本思想就是"溫故而知新",在訓練新任務時,一部分具有代表性的舊數據會被保留并用于模型復習曾經學到的舊知識,因此「要保留舊任務的哪部分數據,以及如何利用舊數據與新數據一起訓練模型」,就是這類方法需要考慮的主要問題。

iCaRL: Incremental Classifier and Representation Learning (CVPR 2017)[12]是最經典的基于回放的增量學習模型,iCaRL的思想實際上和LwF比較相似,它同樣引入了蒸餾損失來更新模型參數,但又放松了完全不能使用舊數據的限制,下面是iCaRL設計的損失函數:

LwF在訓練新數據時完全沒用到舊數據,而iCaRL在訓練新數據時為每個舊任務保留了一部分有代表性的舊數據(iCaRL假設越靠近類別特征均值的樣本越有代表性),因此iCaRL能夠更好地記憶模型在舊任務上學習到的數據特征。

另外Experience Replay for Continual Learning (NIPS 2019)[13]指出這類模型可以動態調整舊數據的保留數量,從而避免了LwF算法隨著任務數量的增大,計算成本線性增長的缺點。基于iCaRL算法的一些有影響力的改進算法包括End-to-End Incremental Learning (ECCV 2018)[14]和Large Scale Incremental Learning (CVPR 2019)[15],這些模型的損失函數均借鑒了知識蒸餾技術,從不同的角度來緩解災難性遺忘問題,不過災難性遺忘的問題還遠沒有被滿意地解決。

iCaRL的增量學習方法會更新舊任務的參數 ,因此很可能會導致模型對保留下來的舊數據產生過擬合,Gradient Episodic Memory for Continual Learning (NIPS 2017)[16]針對該問題提出了梯度片段記憶算法(GEM),GEM只更新新任務的參數而不干擾舊任務的參數,GEM以不等式約束的方式修正新任務的梯度更新方向,從而希望模型在不增大舊任務的損失的同時盡量最小化新任務的損失值。

GEM方向的后續改進還有Efficient Lifelong Learning with A-GEM (ICLR 2019)[17]和Gradient based sample selection for online continual learning (NIPS 2019)[18]。

另外,也有一些工作將VAE和GAN的思想引入了增量學習,比如Variational Continual Learning (ICLR 2018)[19]指出了增量學習的貝葉斯性質,將在線變分推理和蒙特卡洛采樣引入了增量學習,Continual Learning with Deep Generative Replay (NIPS 2017)[20]通過訓練GAN來生成舊數據,從而避免了基于回放的方法潛在的數據隱私問題,這本質上相當于用額外的參數間接存儲舊數據,但是生成模型本身還沒達到很高的水平,這類方法的效果也不盡人意。

總體來說,基于回放的增量學習的主要缺點是需要額外的計算資源和存儲空間用于回憶舊知識,當任務種類不斷增多時,要么訓練成本會變高,要么代表樣本的代表性會減弱,同時在實際生產環境中,這種方法還可能存在「數據隱私泄露」的問題。

3. 增量學習的應用

增量學習的優點是可以隨時訓練新數據,不需要保留大量訓練數據,因此存儲和計算開銷都比較小,同時還能夠有效避免用戶的隱私泄露問題,這在「移動邊緣計算的場景」下是非常有價值有意義的。「但目前的增量學習依舊是一個很開放的研究問題,很大程度上還處于理論探索階段,在很多方面學界都沒有達成統一的共識,不少論文給出的結論常常會相互沖突,因此增量學習還沒有在細分領域中得到大規模的應用和落地。」

3.1 計算機視覺

大部分增量學習研究都是面向圖像分類任務的,近幾年也有不少論文將增強學習推廣到了更復雜目標檢測和語義分割任務上,下面列舉了一些有代表性的工作。

圖像分類

A comprehensive, application-oriented study of catastrophic forgetting in DNNs (ICLR 2019)[21]

A Comprehensive Study of Class Incremental Learning Algorithms for Visual Tasks[22]

目標檢測

Incremental Few-Shot Object Detection (CVPR 2020)[23]

Incremental Learning of Object Detectors without Catastrophic Forgetting (ICCV 2017)[24]

語義分割

Modeling the Background for Incremental Learning in Semantic Segmentation (CVPR 2020)[25]

Incremental Learning Techniques for Semantic Segmentation (ICCV workshop 2019)[26]

Incremental Learning for Semantic Segmentation of Large-Scale Remote Sensing Data[27]

3.2 自然語言處理

目前增量學習的研究主要還是面向計算機視覺,在自然語言處理領域還沒有得到太多關注。一個主要原因是目前自然語言處理社區的注意力主要集中在以BERT為代表的自監督表示學習上,在大規模預訓練模型的推廣下,增量學習的應用價值就不是太明顯了。

LAMOL: LAnguage MOdeling for Lifelong Language Learning (ICRL 2020)[28]

Episodic Memory in Lifelong Language Learning (NIPS 2019)[29]

Continual Learning for Sentence Representations Using Conceptors (NAACL 2019)[30]

Neural Topic Modeling with Continual Lifelong Learning (ICML 2020)[31]

Incremental Natural Language Processing: Challenges, Strategies, and Evaluation (COLING 2018)[32]

3.3 機器人

機器人是增量學習天然的應用場景,因為機器人必須學會通過連續的觀察來適應環境并與之互動,增量學習正好能夠很好地刻畫真實世界的環境,不過機器人領域本身有很多更重要的問題需要解決,因此增量學習的應用也不太多。

Continual Learning for Robotics: Definition, Framework, Learning Strategies, Opportunities and Challenges[33]

Efficient Adaptation for End-to-End Vision-Based Robotic Manipulation (ICML workshop 2020)[34]

4. 增量學習面臨的問題和挑戰

4.1 定量評估指標

增量學習的一些常見評估指標包括「準確率、記憶能力和遷移能力」等,其中記憶能力和遷移能力是衡量模型可塑性和穩定性的指標,但這些指標具體的公式定義卻是有爭議的。雖然人們已經提出了各種各樣的增量學習方法,但是在基準數據集的選取和評估算法有效性的指標上還沒有達成廣泛的共識。

其中一點是增量學習通常需要引入額外的超參數來平衡模型的穩定性和可塑性,這些超參數通常在驗證集上被優化,「但這本質上違反了增量學習不能獲取未來數據的因果律,從而會導致人們作出過于樂觀的結論,在真實的生產環境中常常無法重現實驗結果。」

針對超參數選取的問題,A continual learning survey: Defying forgetting in classification tasks (2020)[35]提出了一種通用的增量學習超參數搜索框架,并設計了一系列相對公平的指標來比較增量學習算法,匯報了一些SOTA增量學習算法的表現。

在此基礎上,Class-incremental learning: survey and performance evaluation (2020)[36]在多個數據集上對最新的一些增量學習方法進行了綜合對比,作者發現在基于正則化的增量學習中,最早提出的LwF算法的表現是相當穩健的,許多后續改進的方法在一些條件下反而不如LwF算法,另外基于數據約束的方法(LwF)實際上通常比基于參數約束的方法(EWC)表現得更好,然而目前人們的研究注意力是偏向后者的。下面是另外一些討論和提出增量學習評估指標和模型對比的論文,這里不再一一介紹:

A comprehensive, application-oriented study of catastrophic forgetting in DNNs (ICLR 2019)[37]

Don’t forget, there is more than forgetting: new metrics for Continual Learning (ICML workshop 2020)[38]

Towards robust evaluations of continual learning[39]

4.2 真正的增量學習

增量學習本身是一個很開放的概念,目前人們研究的基于深度學習的增量學習大多限制在「有監督分類、任務式增量和多頭網絡結構的框架」下,這種特定領域的訓練方案通常不能直接應用于高度動態化和非結構化的真實環境中,Towards Robust Evaluations of Continual Learning[40]指出「多頭設定下的增量學習隱藏了增量學習問題真正的難度」。另外,雖然目前人們主要研究的是有監督學習,但探索更接近真實環境的無監督增量學習,以及其他類型的增量方式也是非常有意義的。

目前的增量學習方法通常「隱式地要求任務的性質差異不能太大」,當任務的性質和難度差異太大時,大部分增量學習方法的性能都會嚴重下降,甚至低于簡單的基線模型。另外,有不少研究表明「目前還沒有任何一種增量學習方法在任何條件下都能表現良好」,大部分增量學習方法「對模型結構,數據性質、超參設定都比較敏感」,因此探索在所有任務設定中表現更穩健的增量學習方法也是很有意義的。

責任編輯:lq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 圖像分類
    +關注

    關注

    0

    文章

    90

    瀏覽量

    11934
  • 機器學習
    +關注

    關注

    66

    文章

    8422

    瀏覽量

    132736

原文標題:增量學習(Incremental Learning)小綜述

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的一個核心領域,它使計算機能夠從數據中學習并做出預測或決策。自然語言處理與機器學習之間有著密切的關系,因為機器學習提供了一種強大的工具,用于從大量文本數據中提取模式和知識,從而提高NLP系
    的頭像 發表于 12-05 15:21 ?511次閱讀

    增量式拉線編碼器:精準測量與位移控制的優選解決方案

    在自動化與精密制造領域,精確測量與控制是提升生產效率與產品質量的基石。隨著技術的不斷進步,增量式拉線編碼器作為一種高效、可靠的位移測量工具,正逐漸成為眾多工業應用中的優選解決方案。本文將深入探討增量
    的頭像 發表于 12-02 08:47 ?220次閱讀
    <b class='flag-5'>增量</b>式拉線編碼器:精準測量與位移控制的優選解決方案

    增量編碼器與絕對值編碼器的區別

    增量編碼器與絕對值編碼器的區別:增量編碼器與絕對值編碼器在精度特點對比 增量編碼器的精度取決于脈沖的數量和測量的細分程度,通常情況下,其精度相對較低。絕對值編碼器由于可以直接讀取絕對位置,精度通常
    的頭像 發表于 11-18 16:38 ?718次閱讀
    <b class='flag-5'>增量</b>編碼器與絕對值編碼器的區別

    直播預約 |數據智能系列講座第4期:預訓練的基礎模型下的持續學習

    神經網絡,特別是預訓練的基礎模型研究得到了廣泛的應用,但其仍然主要依賴于在大量樣本上的批量式訓練。本報告將探討實現模型的增量式訓練,針對深度神經網絡在增量學習新任務
    的頭像 發表于 10-18 08:09 ?237次閱讀
    直播預約 |數據智能系列講座第4期:預訓練的基礎模型下的持續<b class='flag-5'>學習</b>

    光學和磁性增量編碼器之間的差異應用說明

    電子發燒友網站提供《光學和磁性增量編碼器之間的差異應用說明.pdf》資料免費下載
    發表于 09-12 10:07 ?0次下載
    光學和磁性<b class='flag-5'>增量</b>編碼器之間的差異應用說明

    增量旋轉編碼器

    電子發燒友網站提供《增量旋轉編碼器.pdf》資料免費下載
    發表于 09-03 11:51 ?0次下載
    <b class='flag-5'>增量</b>旋轉編碼器

    遷移學習的基本概念和實現方法

    遷移學習(Transfer Learning)是機器學習領域中的一個重要概念,其核心思想是利用在一個任務或領域中學到的知識來加速或改進另一個相關任務或領域的學習過程。這種方法在數據稀缺
    的頭像 發表于 07-04 17:30 ?1757次閱讀

    人工智能、機器學習和深度學習是什么

    在科技日新月異的今天,人工智能(Artificial Intelligence, AI)、機器學習(Machine Learning, ML)和深度學習(Deep Learning, DL)已成為
    的頭像 發表于 07-03 18:22 ?1321次閱讀

    位置式PID與增量式PID的區別

    PID(比例-積分-微分)控制器作為工業自動化領域中的核心控制算法,廣泛應用于各種需要精確控制的系統中。在PID控制器的實現中,有兩種主要的控制模式:位置式PID和增量式PID。雖然兩者在原理上都是
    的頭像 發表于 06-05 16:23 ?7041次閱讀

    增量式編碼器結構應用與工作原理

    增量式編碼器的工作原理:增量式編碼器的核心部分是碼盤,它通過旋轉來產生脈沖信號。碼盤上有一系列的條紋,這些條紋會依據旋轉的方向,根據光電傳感器產生脈沖信號。這些脈沖信號經過放大和整形后,可以輸出給控制系統使用。
    的頭像 發表于 06-04 10:15 ?1957次閱讀
    <b class='flag-5'>增量</b>式編碼器結構應用與工作原理

    圖機器學習入門:基本概念介紹

    圖機器學習(GraphMachineLearning,簡稱GraphML)是機器學習的一個分支,專注于利用圖形結構的數據。在圖形結構中,數據以圖的形式表示,其中的節點(或頂點)表示實體,邊(或鏈接
    的頭像 發表于 05-16 08:27 ?521次閱讀
    圖機器<b class='flag-5'>學習</b>入門:基本<b class='flag-5'>概念</b>介紹

    光纖絕對式和光纖增量式編碼器的區別

    絕對式編碼器和增量式編碼器二者有什么區別呢?分別有什么特征,適合什么樣的應用呢?歡迎閱讀文章了解~
    的頭像 發表于 05-15 10:43 ?446次閱讀
    光纖絕對式和光纖<b class='flag-5'>增量</b>式編碼器的區別

    增量式編碼器原理圖及參數說明

    ? ? ? 增量式編碼器是一種將位移轉換成周期性的電信號,再把這個電信號轉變成計數脈沖的裝置,用脈沖的個數表示位移的大小。增量式編碼器沒有固定的起始零點,輸出的是與轉角的增量成正比的脈沖,需要用
    的頭像 發表于 03-05 08:43 ?2107次閱讀
    <b class='flag-5'>增量</b>式編碼器原理圖及參數說明

    如何將增量旋轉編碼器與Arduino連接

    在本教程中,您將學習如何將增量旋轉編碼器與Arduino連接,以讀取旋鈕的運動。這對于在機器人和其他應用程序中創建用戶界面或讀取機械位置非常有用。
    的頭像 發表于 02-11 10:00 ?1458次閱讀
    如何將<b class='flag-5'>增量</b>旋轉編碼器與Arduino連接

    什么是深度學習?機器學習和深度學習的主要差異

    2016年AlphaGo 擊敗韓國圍棋冠軍李世石,在媒體報道中,曾多次提及“深度學習”這個概念
    的頭像 發表于 01-15 10:31 ?1094次閱讀
    什么是深度<b class='flag-5'>學習</b>?機器<b class='flag-5'>學習</b>和深度<b class='flag-5'>學習</b>的主要差異
    主站蜘蛛池模板: 欧美一卡二卡科技有限公司| 天堂国产| 中文字幕一区二区精品区| 国产高清网站| bbbb毛片免费看| 91视频免费观看| 日本亚洲免费| 中文字幕天天躁夜夜狠狠综合| 国产精品久久久久免费| 亚洲香蕉国产高清在线播放| 四虎永久在线精品网址| 欧美午夜影视| 国产美女视频免费| 亚洲午夜久久久精品影院| 天天操夜夜操美女| 草草影院www色极品欧美| 91大神在线精品网址| 男男互攻h啪肉np文厉世| 亚洲韩国在线一卡二卡| 如色网| 黄色二级视频| 午夜影视体验区| 国内精品久久久久久久久野战| 欧美性xx18一19| 日本一区二区三区在线观看视频| 一级毛片ab片高清毛片| 日本免费黄色大片| 国产你懂的在线| 天堂网站www天堂资源在线| 99热色| 国产亚洲欧美一区| 色视网站| 国产精品igao在线观看樱花日本 | 99热成人精品热久久669| 五月情婷婷| 久青草免费视频手机在线观看| 成年网站在线| 激情五月综合| 李老汉的性生生活2| 日韩欧美一级| 成人伊在线影院|