在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

基于半監(jiān)督學習的多示例多標簽改進算法

SwM2_ChinaAET ? 來源:lq ? 2019-10-01 17:12 ? 次閱讀

摘要:多示例多標簽學習框架是一種針對解決多義性問題而提出的新型機器學習框架,在多示例多標簽學習框架中,一個對象是用一組示例集合來表示,并且和一組類別標簽相關(guān)聯(lián)。E-MIMLSVM+算法是多示例多標簽學習框架中利用退化思想的經(jīng)典分類算法,針對其無法利用無標簽樣本進行學習從而造成泛化能力差等問題,使用半監(jiān)督支持向量機對該算法進行改進。改進后的算法可以利用少量有標簽樣本和大量沒有標簽的樣本進行學習,有助于發(fā)現(xiàn)樣本集內(nèi)部隱藏的結(jié)構(gòu)信息,了解樣本集的真實分布情況。通過對比實驗可以看出,改進后的算法有效提高了分類器的泛化性能。

0 引言

對于監(jiān)督學習,通過訓練集中已知類樣本學習構(gòu)造一個判決邊界,并設定臨閾值,來實現(xiàn)對未知樣本的預測[1]。通常使用一個示例描述單個對象并與其類別相關(guān)聯(lián)。但是,實際上每個對象都可能不止有一個語義,如一幅含有獅子、大象、草原的圖,可以將其歸為“大象”類別,也可以將其歸為“獅子”類別,甚至可以因為動物和草原的存在將其歸為“非洲”的類別。因此,當僅通過一個示例來表示一個對象時,顯然難以獲得期望的效果。為了處理這個難題,相關(guān)學者提出了多示例多標簽(Multi-Instance Multi-Label,MIML)[2]機器學習模型,最大特點是:在該框架中是用一組示例集合來表示一個對象,同時該對象與多個標簽相關(guān)聯(lián)。對于真實世界中對象的表示能力更強,其他的機器學習框架可以看作是多示例多標簽框架的一種簡化表示形式。支持向量機(Support Vector Machine,SVM)是建立在統(tǒng)計學習理論基礎上的一種機器學習方法,其泛化準確率高,計算效率高,結(jié)果易解釋[3]。傳統(tǒng)的SVM多為監(jiān)督學習,然而在實際中,有標簽的樣本數(shù)據(jù)是稀少的,無標簽的樣本數(shù)據(jù)的獲取相對較易。半監(jiān)督學習即通過將無標簽樣本數(shù)據(jù)加入訓練集中,對其學習建模來增強模型的泛化性能。因此,出現(xiàn)了將半監(jiān)督學習和SVM方法進行結(jié)合來訓練分類函數(shù)的研究。

1 相關(guān)工作

傳統(tǒng)監(jiān)督學習是一種單示例單標記學習框架。學習任務是學得一個映射函數(shù):f:X→Y。在多示例學習問題中[2],用包含一組示例的集合來表示訓練集中的每個對象,同時將該對象歸屬于單個類別標簽中。該模型主要學習一個分類器(即映射函數(shù)fMIL:2x→Y)來標記未知的示例包的標簽。代表性的多示例學習算法有多示例最近鄰算法Citation-kNN、多示例神經(jīng)網(wǎng)絡算法BP-MIP等[4]。在多標簽學習問題中[2],對象僅由單個示例表示,并屬于一組標簽。該框架模型的任務是學習fMIL:x→2Y函數(shù)的映射,然后使用此映射來預測未知集合中的標簽類別。代表性的多標簽學習算法有二元相關(guān)(BR)算法和分類器鏈(CC)算法[5]等。

在MIML框架下,有兩種解決問題的方式,一種是應用退化的方式,以多示例學習或多標簽學習作為橋梁,對MIML問題進行退化,如MIMLSVM[6]和MIMLSVM+[7]等。但是在退化時,有時標簽間的關(guān)聯(lián)信息會被忽視,進而影響到實際的分類效果。為了避免信息丟失,另一種思路是改造算法找到適應MIML框架的機器學習算法。代表性算法主要有D-MIMLSVM算法、M3MIML算法[8]等。

2 改進的算法

2.1 E-MIMLSVM+算法

2.2 E-MIMLSVM+算法中引入半監(jiān)督

半監(jiān)督學習即把大量無標記的數(shù)據(jù)和少量有標記的數(shù)據(jù)一塊訓練,構(gòu)建起泛化性能強的分類器,有標簽的數(shù)據(jù)和無標簽的數(shù)據(jù)的空間結(jié)構(gòu)分布相似,應用無標簽的樣本來訓練,有助于提高訓練出模型的性能。半監(jiān)督SVM屬于半監(jiān)督領域中的學習算法,它基于SVM和半監(jiān)督學習的聚類假設,嘗試尋找能將兩類有標簽樣本分隔,并且通過穿過低密度區(qū)域來劃分超平面,如此一來就能同時利用有標簽的數(shù)據(jù)和無標簽的數(shù)據(jù)。半監(jiān)督SVM中最經(jīng)典的是TSVM和S3VM[13]。通過文獻[13]對類中心的有效性分析可以獲得基于類中心估計的半監(jiān)督支持向量機meanS3VM。它只需要最大化兩個類的類別平均值,來代替之前對所有的未標記樣本進行標記的方式。這很大程度上提升了半監(jiān)督SVM的求解速度。假設存在有標記的樣本集Dl={(x1,y1),(x2,y2),…,(xi,yi)},未標記的樣本集Du={xl+1,xl+2,…,xl+u},meanS3VM算法[13]可形式化定義為:

通過分析可以得到,式(7)只需要估計無標簽樣本的類別平均值即可。與S3VM相比,meanS3VM避免了對所有未標記樣本類別標簽的估計。實際上,meanS3VM算法最大化了兩個類的類別平均值。由于meanS3VM算法大量減少了約束條件的個數(shù),因此,對半監(jiān)督SVM的求解速度更快了,從而使得半監(jiān)督SVM的時間開銷變少。可以證明[14],當給定樣本集可分時,meanS3VM的損失函數(shù)與標準SVM一致;當給定樣本集不可分時,meanS3VM的損失函數(shù)不會超過標準支持向量機hinge損失的兩倍。為了充分利用未標記樣本的空間分布信息,來進一步提升分類器的泛化性能,在本文中,使用半監(jiān)督SVM算法——meanS3VM對E-MIMLSVM+算法進行了改進。由于meanS3VM算法適用于傳統(tǒng)的半監(jiān)督學習問題,本文改進了meanS3VM算法中核函數(shù)的計算方式,用多示例核函數(shù)進行替代。使得meanS3VM算法能夠適用于多示例多標簽學習中,從而得到改進算法SE-MIMLSVM+。令給定有標簽樣本集S={(Xi,Yi)|1≤i≤l},無標簽樣本集U={(Xi,Yi)|l+1≤i≤l+μ},測試樣本集T={(Xi,Yi)|1≤i≤M},則SE-MIMLSVM+算法的優(yōu)化問題變?yōu)椋?/p>

其中,ξiy和ρ分別代表的是有標簽數(shù)據(jù)和無標簽數(shù)據(jù)的松弛變量,W0反映了不同任務間的共同特征,vy反映了不同任務間的區(qū)別,參數(shù)μ用于協(xié)調(diào)不同任務間的相似程度。從式(4)建立的模型可以看出,每一個分類模型fy都有一個共同的參數(shù)w0,也就是說分類模型假設每一個標簽相互都是有關(guān)聯(lián)關(guān)系的。但是實際的情況是,并非所有標簽都存在關(guān)聯(lián)關(guān)系。因此可以先在標簽空間中聚類,從而將標簽空間劃分成許多具有標簽相關(guān)性的子集,每一個示例包和標簽之間的標簽指示陣表示為Y。為了衡量標簽之間的聯(lián)系信息,在聚類的過程中使用的是Y列上的皮爾遜相關(guān)系數(shù)。

2.3 改進算法步驟

因為ω和d的雙線性約束,所以式(7)是一個非凸優(yōu)化模型。可以使用凸松弛算法或交替優(yōu)化算法得到未標記樣本估計好的類中心然后帶入式(7)將其變?yōu)橥箖?yōu)化問題,使用凸優(yōu)化軟件包求解。這里選擇使用求解速度更快的交替優(yōu)化算法來處理相關(guān)問題。SE-MIMLSVM+的算法流程如下:

①使用有標簽的樣本Sk訓練SVM分類器。②使用訓練出來的SVM分類器對未標記的樣本集U進行預測,利用預測值初始化d的值。③在本輪迭代中,固定d的取值來優(yōu)化變量α,然后再固定α的值來優(yōu)化d的值。④重復步驟③的迭代過程,直至達到訓練所指定的迭代次數(shù),得到未標記樣本集U的類別平均值估計。⑤根據(jù)得到的類別估計平均值和有標簽樣本集求解式(8)得到一個SVM分類器。(5)對于未知標簽的樣本集X,使用T-Criterion[15]準則的最終預測函數(shù)為:

3 實驗

3.1 實驗設置

在本文中,用半監(jiān)督算法meanS3VM來優(yōu)化改進E-MIMLSVM+算法,并將對比MIMLSVM+、MIMLSVM、E-MIMLSVM+這3個MIML算法,以此來驗證改進算法的分類性能。其中3個對比算法中的參數(shù)分別根據(jù)文獻[6]-[7]中的實驗設置為最優(yōu)。根據(jù)參考文獻[13]將meanS3VM算法中的參數(shù)調(diào)整為最優(yōu)。實驗同樣應用十折交叉法,將數(shù)據(jù)集分成訓練集和測試集兩份,各1 000個數(shù)據(jù)。實驗期間,從訓練集中無規(guī)則的選擇100個樣本作為有標記的訓練集,并且剩下的900個作為無標記的訓練集。由于本實驗對比的3個多示例多標簽算法無法訓練未標記的樣本,因此每次隨機抽取1 000個樣本用作訓練集,其余樣本用作測試集。反復10次實驗以計算平均值以及方差。實驗使用周志華等提供的多示例多標簽數(shù)據(jù)集,分為場景集和文本集[6],為了公平起見,算法均使用相同的樣本集和測試集。第一部分為場景樣本集,共有樣本圖像2 000個,數(shù)據(jù)集中的樣本均被標記了一組類別標簽。所有可能的類標簽為沙漠、山脈、海洋、日落和樹木,其中,屬于一個以上的類(如海+日落)的樣本的數(shù)目約占數(shù)據(jù)集的22%,許多組合類(如山+日落+樹)約占0.75%,單個標簽的樣本數(shù)目約占77%。平均而言,每個示例都與1.24個類標簽相關(guān)聯(lián)。每幅圖片通過SBN方法[16]用包含9個示例的示例包進行表示,每個示例為15維的特征向量。第二個樣本集是文本樣本集,這個樣本集來源于被廣泛研究的Reuters-21578[17]。該樣本集分為7個類別標簽,共2 000個樣本文檔。原始的數(shù)據(jù)集在刪除標簽集或主文本為空的文檔后保留8 866了個文檔,之后經(jīng)過隨機刪除只有一個類標簽的文檔后,得到實驗所用的含有2 000個樣本文檔的文本數(shù)據(jù)集。在該數(shù)據(jù)集中,每個文檔平均所屬于1.15±0.37個標簽,屬于多個標簽的文檔占比約為15%。通過使用滑動窗口[18]技術(shù)將文檔表示為一組示例。每個包中包括一組243維的特征向量,每一個向量代表了這篇文檔的某一個部分。每一個包最少包含2個示例,最多包含26個示例,平均每一個包中含有3.56±2.71個示例。本實驗中使用的場景樣本集和文本樣本集,其結(jié)構(gòu)特征如表1所示。

3.2 實驗結(jié)果

本實驗選取多示例多標簽領域的5個評價指標[2]:Hamming loss、one-error、coverage、ranking loss和average precision。前4項評價指標的值越小,說明算法的分類效果越好;最后一項評價指標的值越大,說明分類效果越好。表2和表3分別顯示了各個算法在兩個集上的實驗表現(xiàn)。表中“±”前面的值為實驗進行十折交叉驗證后,對5個評價指標的計算取值,“±”后面的值是計算得到的方差。

從表中可以看出,SE-MIMLSVM+算法前4項評價指標的值都是最小的,而average precision的值則是最大的,這說明改進算法在場景樣本集和文本樣本集上取得了優(yōu)于其他多示例多標簽算法的分類效果。

4 結(jié)論

本文討論了基于退化策略并且使用SVM分類的多示例多標簽算法E-MIMLSVM+。通過在E-MIMLSVM+算法中引入利用未標記樣本學習并且求解速度較快的半監(jiān)督支持向量機meanS3VM,對原始算法進行了改進。與其他多示例多標簽算法相比,改進算法提高了分類準確率,增強了分類器的泛化能力。

參考文獻

[1] 李斌,李麗娟。基于改進TSVM的未知網(wǎng)絡應用識別算法[J]。電子技術(shù)應用,2016,42(9):95-98.

[2] ZHOU Z H,ZHANG M L,HUANG S J,et al.Multi-instance multi-label learning[J].Artificial Intelligence,2012,176(1):2291-2320.

[3] 張磊,殷夢婕,肖超恩,等。基于優(yōu)化型支持向量機算法的硬件木馬監(jiān)測[J]。電子技術(shù)應用,2018,44(11):17-20.

[4] 張苗。基于多示例學習的圖像檢索算法研究[D]。合肥:中國科學技術(shù)大學,2017.

[5] READ J,PFAHRINGER B,HOLMES G,et al.Classifier chains for multi-label classification[J].Machine Learning,2011,85(3):333.

[6] ZHOU Z H,ZHANG M L.Multi-instance multi-label learning with application to scene classification[A].Advances in Neural Information Processing Systems 19[C].MIT Press,2007:1609-1616.

[7] LI Y X,JI S W,KUMAR S,et al.Drosophila gene expression pattern annotation through multi-instance multi-label learning[J].IEEE/ACM Transactions on Computational Biology and Bionformatics,2012,9(1):98-112.

[8] ZHANG M L,ZHOU Z H.M3MIML:a maximum margin method for multi-instance multi-label learning[C].Eighth IEEE International Conference on Data Mining.IEEE,2008:688-697.

[9] 周志華。機器學習[M]。北京:清華大學出版社,2016.

[10] EVGENIOU T,PONTIL M.Regularized multi-task learning[A].Tenth ACM Sigkdd International Conference on Knowledge Discovery & Data Mining[C].ACM,2004:109-117.

[11] ZHANG J,GHAHRAMANI Z,YANG Y.Flexible latent variable models for multi-task learning[J].Machine Learning,2008,73(3):221-242.

[12] EVGENIOU T,MICCHELLI C A,PONTIL M.Learning multiple tasks with Kernel methods[J].Machine Learning Research,2005,6(4):615-637.

[13] LI Y F,KWOK J T,ZHOU Z H.Semi-supervised learning using label mean[A].International Conference on Machine Learning[C].ACM,2009:633-640.

[14] 李宇峰。半監(jiān)督支持向量機學習方法的研究[D]。南京:南京大學,2013.

[15] BOUTELL M R,LUO J,BROWN C.M.Learning multilabel scene classification[J].Pattern Recognition,2004,37(9):1757-1771.

[16] MARON O,RATAN A L.Multiple-instance learning for natural scene classification[A].Proceedings of the 15th International Conference on Machine Learning[C].Morgan Kaufmann Publishers Inc,1998:341-349.

[17] SEBASTIANI F.Machine learning in automated text categorization[J].Computer Science,2015,34(1):1-47.

[18] ANDREWS S,TSOCHANTARIDIS I,HOFMANN T.Support vector machines for multiple-instance learning[A].Advances in Neural Information Processing Systems[C].ResearchGate,2003:561-568.

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4625

    瀏覽量

    93123
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4344

    瀏覽量

    62813
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8429

    瀏覽量

    132852

原文標題:【學術(shù)論文】基于半監(jiān)督學習的多示例多標簽改進算法

文章出處:【微信號:ChinaAET,微信公眾號:電子技術(shù)應用ChinaAET】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    康謀方案 | 源相機數(shù)據(jù)采集與算法集成測試方案

    如何滿足不同應用場景下對圖像采集和算法測試的多樣化需求?本文為您帶來源相機數(shù)據(jù)采集與算法集成測試方案,通過BRICKplus/BRICK2與ADTF的結(jié)合,輕松實現(xiàn)源相機快速集成和
    的頭像 發(fā)表于 12-11 09:59 ?2887次閱讀
    康謀方案 | <b class='flag-5'>多</b>源相機數(shù)據(jù)采集與<b class='flag-5'>算法</b>集成測試方案

    時空引導下的時間序列自監(jiān)督學習框架

    【導讀】最近,香港科技大學、上海AI Lab等多個組織聯(lián)合發(fā)布了一篇時間序列無監(jiān)督預訓練的文章,相比原來的TS2Vec等時間序列表示學習工作,核心在于提出了將空間信息融入到預訓練階段,即在預訓練階段
    的頭像 發(fā)表于 11-15 11:41 ?299次閱讀
    時空引導下的時間序列自<b class='flag-5'>監(jiān)督學習</b>框架

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    收集海量的文本數(shù)據(jù)作為訓練材料。這些數(shù)據(jù)集不僅包括語法結(jié)構(gòu)的學習,還包括對語言的深層次理解,如文化背景、語境含義和情感色彩等。 自監(jiān)督學習:模型采用自監(jiān)督學習策略,在大量無標簽文本數(shù)據(jù)
    發(fā)表于 08-02 11:03

    【《大語言模型應用指南》閱讀體驗】+ 基礎篇

    章節(jié)最后總結(jié)了機器學習的分類:有監(jiān)督學習、無監(jiān)督學習監(jiān)督學習、自監(jiān)督學習和強化
    發(fā)表于 07-25 14:33

    深度學習算法在嵌入式平臺上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學習算法在各個領域的應用日益廣泛。然而,將深度學習算法部署到資源受限的嵌入式平臺上,仍然是一個具有挑戰(zhàn)性的任務。本文將從嵌入式平臺的特點、深度
    的頭像 發(fā)表于 07-15 10:03 ?1575次閱讀

    神經(jīng)網(wǎng)絡如何用無監(jiān)督算法訓練

    標記數(shù)據(jù)的處理尤為有效,能夠充分利用互聯(lián)網(wǎng)上的海量數(shù)據(jù)資源。以下將詳細探討神經(jīng)網(wǎng)絡如何用無監(jiān)督算法進行訓練,包括常見的無監(jiān)督學習算法、訓練過程、應用及挑戰(zhàn)。
    的頭像 發(fā)表于 07-09 18:06 ?852次閱讀

    深度學習中的無監(jiān)督學習方法綜述

    應用中往往難以實現(xiàn)。因此,無監(jiān)督學習在深度學習中扮演著越來越重要的角色。本文旨在綜述深度學習中的無監(jiān)督學習方法,包括自編碼器、生成對抗網(wǎng)絡、聚類算法
    的頭像 發(fā)表于 07-09 10:50 ?854次閱讀

    機器學習算法原理詳解

    機器學習作為人工智能的一個重要分支,其目標是通過讓計算機自動從數(shù)據(jù)中學習改進其性能,而無需進行明確的編程。本文將深入解讀幾種常見的機器學習算法
    的頭像 發(fā)表于 07-02 11:25 ?1225次閱讀

    機器學習的經(jīng)典算法與應用

    關(guān)于數(shù)據(jù)機器學習就是喂入算法和數(shù)據(jù),讓算法從數(shù)據(jù)中尋找一種相應的關(guān)系。Iris鳶尾花數(shù)據(jù)集是一個經(jīng)典數(shù)據(jù)集,在統(tǒng)計學習和機器學習領域都經(jīng)常被
    的頭像 發(fā)表于 06-27 08:27 ?1696次閱讀
    機器<b class='flag-5'>學習</b>的經(jīng)典<b class='flag-5'>算法</b>與應用

    一屏萬象,場景無限: 藍牙墨水屏標簽多功能場景應用帶您領略未來

    研發(fā)的智能藍牙墨水屏顯示標簽規(guī)格,應用場景,超低功耗,設備聯(lián)動,提供二次開發(fā)定制,API對接,SDK云云對接等特色,滿足不同行業(yè)客戶不斷拓展的多元化需求。
    的頭像 發(fā)表于 05-27 11:11 ?496次閱讀
    一屏萬象,場景無限: 藍牙墨水屏<b class='flag-5'>標簽</b>多功能<b class='flag-5'>多</b>場景應用帶您領略未來

    適用于串LED照明的 UCC25710 LLC 橋控制器數(shù)據(jù)表

    電子發(fā)燒友網(wǎng)站提供《適用于串LED照明的 UCC25710 LLC 橋控制器數(shù)據(jù)表.pdf》資料免費下載
    發(fā)表于 04-08 10:46 ?1次下載
    適用于<b class='flag-5'>多</b>串LED照明的 UCC25710 LLC <b class='flag-5'>半</b>橋控制器數(shù)據(jù)表

    TLE9867QXA20如何實現(xiàn)一主從?

    您好,團隊,我在我的應用程序中使用 TLE9867QXA20,一主一從,現(xiàn)在我想為我的應用實現(xiàn)一主從概念。 我參考了以下示例代碼,實現(xiàn)了一個主站和一個從站。 請?zhí)峁┦褂?LIN 實現(xiàn)一主從的
    發(fā)表于 03-04 07:26

    機器學習基礎知識全攻略

    監(jiān)督學習通常是利用帶有專家標注的標簽的訓練數(shù)據(jù),學習一個從輸入變量X到輸入變量Y的函數(shù)映射。Y = f (X),訓練數(shù)據(jù)通常是(n×x,y)的形式,其中n代表訓練樣本的大小,x和y分別是變量X和Y的樣本值。
    發(fā)表于 02-25 13:53 ?274次閱讀
    機器<b class='flag-5'>學習</b>基礎知識全攻略

    矽力杰車規(guī)級通道橋驅(qū)動

    矽力杰通道橋驅(qū)動方案SA521xx系列汽車行業(yè)電動化和智能化的迅猛發(fā)展促使多路橋驅(qū)動芯片在直流電機、LED和繼電器驅(qū)動以及高邊供電等域控器領域得到廣泛應用。ZCU要求多路橋驅(qū)動
    的頭像 發(fā)表于 02-19 13:05 ?1423次閱讀
    矽力杰車規(guī)級<b class='flag-5'>多</b>通道<b class='flag-5'>半</b>橋驅(qū)動
    主站蜘蛛池模板: 精品伊人久久香线蕉| 成人免费黄色网| 国产免费糟蹋美女视频| 99热这里精品| www.九色视频| 天天色天天草| 国产精品一区二区三区免费视频| 亚洲美女高清一区二区三区| 开心激情五月婷婷| 欧美一级特黄aaaaaa在线看片 | 日韩欧美卡一卡二卡新区| 寡妇影院首页亚洲图片| 51精品国产| 久久草在线视频国产一| 超碰v| 在线视频亚洲一区| 717影院理论午夜伦不卡久久| 午夜在线视频网站| 欧美日本俄罗斯一级毛片| 中文字幕一区二区三区精品| 69国产视频| 中文字幕精品一区影音先锋| 国产热| 狠狠色狠狠色综合婷婷tag| xvideos69日本hd| 性xxxx奶大欧美高清| 35qao强力打造免费上线高清| 成人aaa| 日韩有码电影| 日韩a级毛片| 久久综合久| 久久久免费视频观看| 农村女人的一级毛片| 国产一区二区三区影院| 天天做天天爱天天爽天天综合| 放荡的俄罗斯美女bd| 亚洲韩国日本欧美一区二区三区| 亚洲综合狠狠| 天天躁夜夜躁| 香蕉婷婷| 久久精品免费视频观看|