在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

何愷明、Ross Girshick等大神深夜扔出“炸彈”:ImageNet預(yù)訓(xùn)練并非必須

DPVg_AI_era ? 來(lái)源:未知 ? 作者:李倩 ? 2018-11-24 10:09 ? 次閱讀

何愷明、Ross Girshick等大神深夜扔出“炸彈”:ImageNet預(yù)訓(xùn)練并非必須。大神們使用隨機(jī)初始化變得到了媲美COCO冠軍的結(jié)果,無(wú)情顛覆“預(yù)訓(xùn)練+微調(diào)”思維定式——再看此前預(yù)訓(xùn)練與此后微調(diào)所付出的種種,嗚呼哀哉,好不苦矣!

ImageNet 有用嗎?

當(dāng)然有用。

但 ImageNet 預(yù)訓(xùn)練卻并非必須!

剛剛,何愷明等人在arxiv貼出一篇重磅論文,題為《重新思考“ImageNet預(yù)訓(xùn)練”》,讓似乎本已經(jīng)平靜的ImageNet湖面,再掀波瀾!

Facebook 人工智能研究所何愷明、Ross Cirshick 和 Piotr Dollar 三人在arxiv上貼出最新論文:重新思考ImageNet預(yù)訓(xùn)練

過(guò)去幾年來(lái),使用ImageNet這套大規(guī)模數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練的視覺(jué)模型,對(duì)于執(zhí)行計(jì)算機(jī)視覺(jué)任務(wù)而言都是必不可少的存在。雖然并沒(méi)用多少時(shí)間,但人們似乎都默認(rèn),計(jì)算機(jī)視覺(jué)任務(wù)需要使用ImageNet預(yù)訓(xùn)練模型。

然而,何愷明等人卻站出來(lái)說(shuō)——不!

ImageNet 預(yù)訓(xùn)練模型并非必須,ImageNet 能做的只是加速收斂,對(duì)最終物體檢測(cè)的精度或?qū)嵗指畹男阅懿o(wú)幫助。

他們使用隨機(jī)初始化的模型,不借助外部數(shù)據(jù),取得了不遜于COCO 2017冠軍的結(jié)果。

大神不愧為大神——此前我們預(yù)訓(xùn)練ImageNet模型再辛辛苦苦微調(diào),都是為了什么?!

不用ImageNet預(yù)訓(xùn)練,隨機(jī)初始化就能媲美COCO冠軍!

何愷明等人研究表明,在COCO數(shù)據(jù)集上進(jìn)行隨機(jī)初始化訓(xùn)練,其效果能做到不次于在ImageNet上進(jìn)行預(yù)訓(xùn)練。

而且,即使只用COCO中10%的訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,依然有可能實(shí)現(xiàn)上述結(jié)果。

他們還發(fā)現(xiàn),可以在相當(dāng)于ImageNet規(guī)模4倍大的數(shù)據(jù)集上,使用隨機(jī)初始化訓(xùn)練,而結(jié)果不發(fā)生過(guò)擬合。

圖1:我們?cè)贑OCO train2017數(shù)據(jù)集上使用ResNet-50 FPN[26]和GroupNorm[48]訓(xùn)練Mask R-CNN[13],并在val2017數(shù)據(jù)集上評(píng)估邊界框AP,通過(guò)隨機(jī)權(quán)重或ImageNet預(yù)訓(xùn)練初始化模型。我們通過(guò)改變學(xué)習(xí)率降低(準(zhǔn)確率提高)的迭代來(lái)探索不同的訓(xùn)練計(jì)劃。從隨機(jī)初始化訓(xùn)練出來(lái)的模型需要更多的迭代來(lái)收斂,但是只收斂到一個(gè)與finetuning相似的解決方案。

實(shí)驗(yàn)表明,ImageNet的預(yù)訓(xùn)練在訓(xùn)練的早期加速了收斂,但并不一定提供正則化或提高最終目標(biāo)任務(wù)的精度。

具體說(shuō),何愷明等人通過(guò)實(shí)驗(yàn)觀察到以下情況:

1、ImageNet預(yù)訓(xùn)練方式加快了收斂速度,特別是在訓(xùn)練早期,但隨機(jī)初始化訓(xùn)練可以在訓(xùn)練一段時(shí)間后趕上來(lái)。考慮到前者還要進(jìn)行模型的微調(diào),訓(xùn)練總時(shí)間二者大體相當(dāng)。由于在研究目標(biāo)任務(wù)時(shí)經(jīng)常忽略ImageNet預(yù)訓(xùn)練的成本,因此采用短期訓(xùn)練進(jìn)行的“對(duì)照”比較可能會(huì)掩蓋隨機(jī)初始化訓(xùn)練的真實(shí)表現(xiàn)。

2、ImageNet預(yù)訓(xùn)練不能自動(dòng)提供性能更優(yōu)的正則化。在使用較少的圖像(不到COCO數(shù)據(jù)集的10%)進(jìn)行訓(xùn)練時(shí),我們發(fā)現(xiàn)必須選擇新的超參數(shù)進(jìn)行微調(diào)(來(lái)自預(yù)訓(xùn)練)以避免過(guò)度擬合。當(dāng)用這些同樣的超參數(shù)進(jìn)行隨機(jī)初始化訓(xùn)練時(shí),該模型精度可以達(dá)到預(yù)訓(xùn)練模型的水平,無(wú)需任何額外的正則化處理。

3、當(dāng)目標(biāo)任務(wù)或指標(biāo)對(duì)空間定位預(yù)測(cè)更敏感時(shí),ImageNet預(yù)訓(xùn)練模型沒(méi)有表現(xiàn)出任何優(yōu)勢(shì)。我們觀察到,采用隨機(jī)初始化訓(xùn)練時(shí),預(yù)測(cè)性能出現(xiàn)明顯改善。我們還發(fā)現(xiàn),采用隨機(jī)初始化訓(xùn)練的收斂速度也較預(yù)訓(xùn)練模型快。直觀地說(shuō),基于分類(lèi)任務(wù)的類(lèi)ImageNet的預(yù)訓(xùn)練方式,與本地化的敏感目標(biāo)任務(wù)之間的任務(wù)間存在鴻溝,這可能會(huì)限制預(yù)訓(xùn)練模型的優(yōu)勢(shì)。

有沒(méi)有ImageNet預(yù)訓(xùn)練,區(qū)別真沒(méi)那么大

作者在論文中寫(xiě)道,他們的結(jié)果挑戰(zhàn)了ImageNet對(duì)依賴任務(wù)進(jìn)行預(yù)訓(xùn)練的傳統(tǒng)思想,他們的發(fā)現(xiàn)將鼓勵(lì)人們重新思考當(dāng)前計(jì)算機(jī)視覺(jué)中“預(yù)訓(xùn)練和微調(diào)”的“范式”。

那么,完全從零開(kāi)始訓(xùn)練,與使用ImageNet預(yù)訓(xùn)練相比,最大的不同在哪里呢?

答案是“時(shí)間”。

使用ImageNet做預(yù)訓(xùn)練的模型已經(jīng)具備了邊緣、紋理等低級(jí)表征,而完全從零開(kāi)始訓(xùn)練的模型需要迭代更久,因此需要更多的訓(xùn)練時(shí)間。

但是,從所需要的訓(xùn)練樣本的像素(而非實(shí)例數(shù))來(lái)看,隨機(jī)初始化與使用ImageNet預(yù)訓(xùn)練,兩者其實(shí)相差不太多。

圖2:在所有訓(xùn)練迭代中看到的圖像、實(shí)例和像素的總數(shù),分別表示預(yù)訓(xùn)練+微調(diào)(綠色條)vs.隨機(jī)初始化(紫色條)。我們考慮到ImageNet預(yù)訓(xùn)練需要100 epochs,fine-tuning采用2× schedule (~24 epochs over COCO),隨機(jī)初始化采用6× schedule (~72 epochs over COCO)。我們計(jì)算ImageNet實(shí)例為1 per image (COCO是~7),和ImageNet像素為224×224,COCO為800×1333。

下圖展示了另一個(gè)例子,使用隨機(jī)初始化(深紅和深綠)和ImageNet預(yù)訓(xùn)練(淺紅和淺綠),在多種情況下,兩者的結(jié)果都是可比的。

區(qū)別大嗎?

真的沒(méi)有那么大!

圖5:使用Mask R-CNN對(duì)不同系統(tǒng)進(jìn)行隨機(jī)初始化與預(yù)訓(xùn)練的比較,包括:(i)使用FPN和GN的baseline,(ii)使用訓(xùn)練時(shí)間多尺度增強(qiáng)的baseline,(iii)使用Cascade RCNN[3]和訓(xùn)練時(shí)間增強(qiáng)的baseline,以及(iv)加上測(cè)試時(shí)間多尺度增強(qiáng)的baseline。上圖:R50;下圖R101。

此論文實(shí)驗(yàn)部分寫(xiě)得非常漂亮,了解詳情推薦閱讀原文(地址見(jiàn)文末)。

“ImageNet時(shí)代完結(jié)”,從零開(kāi)始訓(xùn)練完全可行

何愷明等人在這篇論文中,探討了以下幾點(diǎn):

無(wú)需更改架構(gòu),就能對(duì)目標(biāo)任務(wù)進(jìn)行從頭開(kāi)始的訓(xùn)練。

從頭開(kāi)始訓(xùn)練需要更多的迭代,以充分收斂。

在許多情況下,從頭開(kāi)始的訓(xùn)練并不比ImageNet預(yù)訓(xùn)練的同個(gè)模型差,甚至在只有10k COCO圖像的情況下也是如此。

ImageNet預(yù)訓(xùn)練加速了目標(biāo)任務(wù)的收斂。

ImageNet預(yù)訓(xùn)練不一定有助于減少過(guò)擬合,除非數(shù)據(jù)量真的非常小。

如果目標(biāo)任務(wù)對(duì)定位比對(duì)分類(lèi)更敏感,那么ImageNet預(yù)訓(xùn)練的幫助較小。

從目前的文獻(xiàn)來(lái)看,這些結(jié)果是令人驚訝的,并對(duì)當(dāng)前凡是計(jì)算機(jī)視覺(jué)任務(wù)就先拿ImageNet來(lái)預(yù)訓(xùn)練的做法不啻一記當(dāng)頭棒喝。

這些結(jié)果表明,當(dāng)沒(méi)有足夠的目標(biāo)數(shù)據(jù)或計(jì)算資源來(lái)對(duì)目標(biāo)任務(wù)進(jìn)行訓(xùn)練時(shí),ImageNet預(yù)訓(xùn)練方式是一種基于“歷史”的解決方法(并且可能會(huì)持續(xù)一段時(shí)間)。

現(xiàn)在看,ImageNet標(biāo)注方便、應(yīng)用廣泛,似乎是“免費(fèi)”資源,拿來(lái)用即可。

但不是的,拋開(kāi)構(gòu)建ImageNet花費(fèi)了多少人力物力和時(shí)間不說(shuō),對(duì)于某些任務(wù)而言,如果目標(biāo)數(shù)據(jù)與ImageNet相差太大,用在微調(diào)ImageNet預(yù)訓(xùn)練模型上的時(shí)間和精力,還不如直接從頭開(kāi)始訓(xùn)練。

這項(xiàng)工作也并非要我們徹底拋棄預(yù)訓(xùn)練模型,而是表明(至少視覺(jué)檢測(cè)任務(wù))除了用 ImageNet 預(yù)訓(xùn)練之外,還存在另一種訓(xùn)練方式,從零開(kāi)始訓(xùn)練也完全可以。

這篇論文貼出來(lái)沒(méi)多久,知乎上便出現(xiàn)了討論“如何評(píng)價(jià)何愷明等 arxiv 新作 Rethinking ImageNet Pre-training?”

截止發(fā)稿前,點(diǎn)贊最高的回答來(lái)自中科院計(jì)算所博士“王晉東不在家”:

我不是排斥使用ImageNet pretrained network,我只是覺(jué)得,應(yīng)該找一些領(lǐng)域,讓ImageNet真正有用。不妨試試用這些預(yù)訓(xùn)練好的網(wǎng)絡(luò)去進(jìn)行醫(yī)學(xué)圖像分類(lèi)、極端圖像(低分辨率、逆光、精細(xì)圖像、衛(wèi)星)分類(lèi),這才是ImageNet的正確價(jià)值。

不過(guò),欣喜的是,也有一批采用了淺層網(wǎng)絡(luò),或者是加入對(duì)抗機(jī)制的淺層網(wǎng)絡(luò),在最近的頂會(huì)上有所突破。

不能一直隨大流,是時(shí)候重新思考了。

另一位計(jì)算機(jī)視覺(jué)從業(yè)者mileistone也表示:

深度學(xué)習(xí)領(lǐng)域理論發(fā)展慢于應(yīng)用,像“train from scratch”類(lèi)似的common practice很多,這些common practice很多沒(méi)有理論支撐,我們也沒(méi)法判斷有沒(méi)有道理,我們只知道大家都這么用。因?yàn)榭少|(zhì)疑的地方太多了,我們很容易失去獨(dú)立思考的能力。

希望更多的“rethink”文章出來(lái),這些文章像鯰魚(yú)一樣,持續(xù)激發(fā)深度學(xué)習(xí)領(lǐng)域的活力。

何愷明等人認(rèn)為,他們的論文和實(shí)驗(yàn)表明,隨機(jī)初始化也有可能生成媲美COCO冠軍的結(jié)果,正因如此,計(jì)算機(jī)視覺(jué)從業(yè)者才更應(yīng)該慎待預(yù)訓(xùn)練特征。

計(jì)算機(jī)視覺(jué)的通用表征,仍然值得我們?nèi)プ非蟆?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:何愷明拋出重磅炸彈!ImageNet并非必要

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于不同量級(jí)預(yù)訓(xùn)練數(shù)據(jù)的RoBERTa模型分析

    NLP領(lǐng)域的研究目前由像RoBERTa經(jīng)過(guò)數(shù)十億個(gè)字符的語(yǔ)料經(jīng)過(guò)預(yù)訓(xùn)練的模型匯主導(dǎo)。那么對(duì)于一個(gè)預(yù)訓(xùn)練模型,對(duì)于不同量級(jí)下的
    發(fā)表于 03-03 11:21 ?1841次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的預(yù)訓(xùn)練

    數(shù)據(jù)格式的轉(zhuǎn)換、數(shù)據(jù)字段的匹配和整合。通過(guò)數(shù)據(jù)級(jí)凈化,可以進(jìn)一步提高數(shù)據(jù)的質(zhì)量和可用性,為后續(xù)的數(shù)據(jù)分析和建模提供更有價(jià)值的數(shù)據(jù)支持。 在得到了大語(yǔ)言模型的數(shù)據(jù)之后,就是對(duì)其進(jìn)行預(yù)訓(xùn)練。大圓模型擁有
    發(fā)表于 05-07 17:10

    索尼發(fā)布新的方法,在ImageNet數(shù)據(jù)集上224秒內(nèi)成功訓(xùn)練了ResNet-50

    近年來(lái),許多研究人員提出了多種方案來(lái)解決這兩個(gè)問(wèn)題(見(jiàn)原文參考文獻(xiàn))。這些工作利用ImageNet/ResNet-50訓(xùn)練來(lái)衡量訓(xùn)練效果。ImageNet/ResNet-50分別是最流
    的頭像 發(fā)表于 11-16 10:01 ?9823次閱讀

    ResNet原始結(jié)果無(wú)法復(fù)現(xiàn)?大神受到了質(zhì)疑

    但是,如果只是簡(jiǎn)單地將層堆疊在一起,增加網(wǎng)絡(luò)的深度并不會(huì)起太大作用。這是由于難搞的梯度消失(vanishing gradient)問(wèn)題,深層的網(wǎng)絡(luò)很難訓(xùn)練。因?yàn)樘荻确聪騻鞑サ角耙粚樱貜?fù)相乘可能使梯度無(wú)窮小。結(jié)果就是,隨著網(wǎng)絡(luò)的層數(shù)更深,其性能趨于飽和,甚至開(kāi)始迅速下降。
    的頭像 發(fā)表于 04-19 11:21 ?1.8w次閱讀
    ResNet原始結(jié)果無(wú)法復(fù)現(xiàn)?<b class='flag-5'>大神</b><b class='flag-5'>何</b><b class='flag-5'>愷</b><b class='flag-5'>明</b>受到了質(zhì)疑

    新的預(yù)訓(xùn)練方法——MASS!MASS預(yù)訓(xùn)練幾大優(yōu)勢(shì)!

    專(zhuān)門(mén)針對(duì)序列到序列的自然語(yǔ)言生成任務(wù),微軟亞洲研究院提出了新的預(yù)訓(xùn)練方法:屏蔽序列到序列預(yù)訓(xùn)練(MASS: Masked Sequence to Sequence Pre-traini
    的頭像 發(fā)表于 05-11 09:34 ?7089次閱讀
    新的<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>方法——MASS!MASS<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>幾大優(yōu)勢(shì)!

    騰訊開(kāi)源首個(gè)3D醫(yī)療影像大數(shù)據(jù)預(yù)訓(xùn)練模型

    自然圖像領(lǐng)域中存在著許多海量數(shù)據(jù)集,如ImageNet,MSCOCO。基于這些數(shù)據(jù)集產(chǎn)生的預(yù)訓(xùn)練模型推動(dòng)了分類(lèi)、檢測(cè)、分割應(yīng)用的進(jìn)步。
    發(fā)表于 08-20 15:03 ?1978次閱讀

    華為扔出一顆重磅炸彈:華為云手機(jī),橫空出世!

    山窮水盡疑無(wú)路,柳暗花又一春! 9月1日,華為突然扔出一顆重磅炸彈:華為云手機(jī),橫空出世! 看吧,華為首創(chuàng)全球首個(gè) ARM 芯片的 云手機(jī) , 今天正式公測(cè)了,在一個(gè)月公測(cè)期,價(jià)值 5950 元
    的頭像 發(fā)表于 09-11 12:05 ?7091次閱讀

    小米在預(yù)訓(xùn)練模型的探索與優(yōu)化

    導(dǎo)讀:預(yù)訓(xùn)練模型在NLP大放異彩,并開(kāi)啟了預(yù)訓(xùn)練-微調(diào)的NLP范式時(shí)代。由于工業(yè)領(lǐng)域相關(guān)業(yè)務(wù)的復(fù)雜性,以及工業(yè)應(yīng)用對(duì)推理性能的要求,大規(guī)模預(yù)
    的頭像 發(fā)表于 12-31 10:17 ?2625次閱讀
    小米在<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>模型的探索與優(yōu)化

    如何實(shí)現(xiàn)更綠色、經(jīng)濟(jì)的NLP預(yù)訓(xùn)練模型遷移

    NLP中,預(yù)訓(xùn)練大模型Finetune是一種非常常見(jiàn)的解決問(wèn)題的范式。利用在海量文本上預(yù)訓(xùn)練得到的Bert、GPT模型,在下游不同任務(wù)上分
    的頭像 發(fā)表于 03-21 15:33 ?2219次閱讀

    利用視覺(jué)語(yǔ)言模型對(duì)檢測(cè)器進(jìn)行預(yù)訓(xùn)練

    預(yù)訓(xùn)練通常被用于自然語(yǔ)言處理以及計(jì)算機(jī)視覺(jué)領(lǐng)域,以增強(qiáng)主干網(wǎng)絡(luò)的特征提取能力,達(dá)到加速訓(xùn)練和提高模型泛化性能的目的。該方法亦可以用于場(chǎng)景文本檢測(cè)當(dāng)中,如最早的使用ImageNet
    的頭像 發(fā)表于 08-08 15:33 ?1411次閱讀

    什么是預(yù)訓(xùn)練 AI 模型?

    預(yù)訓(xùn)練 AI 模型是為了完成特定任務(wù)而在大型數(shù)據(jù)集上訓(xùn)練的深度學(xué)習(xí)模型。這些模型既可以直接使用,也可以根據(jù)不同行業(yè)的應(yīng)用需求進(jìn)行自定義。 如果要教一個(gè)剛學(xué)會(huì)走路的孩子什么是獨(dú)角獸,那么我們首先應(yīng)
    的頭像 發(fā)表于 04-04 01:45 ?1456次閱讀

    什么是預(yù)訓(xùn)練AI模型?

    預(yù)訓(xùn)練 AI 模型是為了完成特定任務(wù)而在大型數(shù)據(jù)集上訓(xùn)練的深度學(xué)習(xí)模型。這些模型既可以直接使用,也可以根據(jù)不同行業(yè)的應(yīng)用需求進(jìn)行自定義。
    的頭像 發(fā)表于 05-25 17:10 ?1051次閱讀

    PyTorch教程-15.9。預(yù)訓(xùn)練 BERT 的數(shù)據(jù)集

    模型可能不適合醫(yī)學(xué)特定領(lǐng)域的應(yīng)用。因此,在自定義數(shù)據(jù)集上預(yù)訓(xùn)練 BERT 變得越來(lái)越流行。為了便于演示 BERT 預(yù)訓(xùn)練,我們使用較小的
    的頭像 發(fā)表于 06-05 15:44 ?815次閱讀

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    預(yù)訓(xùn)練模型(Pre-trained Model)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)重要概念,尤其是在自然語(yǔ)言處理(NLP)和計(jì)算機(jī)視覺(jué)(CV)領(lǐng)域中得到了廣泛應(yīng)用。預(yù)
    的頭像 發(fā)表于 07-03 18:20 ?2889次閱讀

    大語(yǔ)言模型的預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語(yǔ)言模型的預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過(guò)在海量無(wú)標(biāo)簽數(shù)據(jù)上進(jìn)行訓(xùn)練,使模型學(xué)習(xí)到語(yǔ)言的通用知識(shí),為后續(xù)的任務(wù)微調(diào)奠定基礎(chǔ)。本文將深入探討大語(yǔ)言模型
    的頭像 發(fā)表于 07-11 10:11 ?438次閱讀
    主站蜘蛛池模板: 狠狠操狠狠干| aa亚洲| 最新大黄网站免费| 99久久综合精品免费| 日本wwwxx| 国内精品久久久久影院薰衣草| 日本理论在线观看被窝网| 日本精品三级| 久久精品94精品久久精品| 丁香久久婷婷| 亚色中文| 久久亚洲国产成人影院| jiucao在线观看精品| 中文字幕一区二区三区在线观看| 婷婷在线免费观看| 欲色综合| 三级视频中文字幕| 精品三级内地国产在线观看| 波多野结衣在线免费视频| 欧美激情二区三区| 成人午夜亚洲影视在线观看| 49pao强力在线高清基地| 91最新网站免费| 最新四虎4hu影库地址在线| 天天综合色一区二区三区| 欧美xxxxbbbb在线播放| 国产精品手机在线| 国内自拍网红在综合图区| 99r8这里精品热视频免费看| 四色成人网| 手机看片www xiao2b cm| 国产伦精品一区二区三区免| 欧美精品xxxⅹ欧美| 韩国理伦片在线观看2828| 色老二精品视频在线观看| 天堂电影免费在线资源| 青草99| a级毛片网| 国产伦精品一区二区三区网站| 亚洲三级黄| 色中色官网|