在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何從13個(gè)Kaggle比賽中挑選出的最好的Kaggle kernel

新機(jī)器視覺(jué) ? 來(lái)源:AI公園 ? 作者:Prince Canuma ? 2021-06-27 09:26 ? 次閱讀

導(dǎo)讀

覆蓋了模型相關(guān)的方方面面,從數(shù)據(jù)準(zhǔn)備到模型的推理,每個(gè)階段的方法和要點(diǎn),非常多的參考資料,足夠看一段時(shí)間了。

任何領(lǐng)域的成功都可以歸結(jié)為一套小規(guī)則和基本原則,當(dāng)它們結(jié)合在一起時(shí)會(huì)產(chǎn)生偉大的結(jié)果。機(jī)器學(xué)習(xí)和圖像分類(lèi)也不例外,工程師們可以通過(guò)參加像Kaggle這樣的競(jìng)賽來(lái)展示最佳實(shí)踐。在這篇文章中,我將給你很多資源來(lái)學(xué)習(xí),聚焦于從13個(gè)Kaggle比賽中挑選出的最好的Kaggle kernel。

這些比賽是:

Intel Image Classification:https://www.kaggle.com/puneet6060/intel-image-classification

Recursion Cellular Image Classification:https://www.kaggle.com/c/recursion-cellular-image-classification

SIIM-ISIC Melanoma Classification:https://www.kaggle.com/c/siim-isic-melanoma-classification

APTOS 2019 Blindness Detection:https://www.kaggle.com/c/aptos2019-blindness-detection/notebooks

Diabetic Retinopathy Detection:https://www.kaggle.com/c/diabetic-retinopathy-detection

ML Project?—?Image Classification:https://www.kaggle.com/c/image-classification-fashion-mnist/notebooks

Cdiscount’s Image Classification Challenge:

https://www.kaggle.com/c/cdiscount-image-classification-challenge/notebooks

Plant seedlings classifications:

https://www.kaggle.com/c/plant-seedlings-classification/notebooks

Aesthetic Visual Analysis:

https://www.kaggle.com/c/aesthetic-visual-analysis/notebooks

我們會(huì)討論調(diào)試深度學(xué)習(xí)解決方案的三個(gè)主要方面:

數(shù)據(jù)

模型

損失函數(shù)

還有很多例子項(xiàng)目(和參考資料)供你參考。

數(shù)據(jù)

圖像預(yù)處理 + EDA

每一個(gè)機(jī)器學(xué)習(xí)/深度學(xué)習(xí)解決方案都從原始數(shù)據(jù)開(kāi)始。在數(shù)據(jù)處理管道中有兩個(gè)基本步驟。第一步是探索性數(shù)據(jù)分析 (EDA)。它幫助我們分析整個(gè)數(shù)據(jù)集并總結(jié)它的主要特征,比如類(lèi)分布、大小分布等等。通常使用可視化方法來(lái)顯示這種分析的結(jié)果。第二步是圖像預(yù)處理,目的是對(duì)原始圖像提高圖像數(shù)據(jù)(也稱(chēng)為圖像特征)的質(zhì)量,通過(guò)抑制不必要的扭曲,縮放,增強(qiáng)重要的特征,使數(shù)據(jù)更適合模型并提高性能。你可以鉆研這些Kaggle筆記本,看看一些圖像預(yù)處理技術(shù):

Visualisation:

https://www.kaggle.com/allunia/protein-atlas-exploration-and-baseline#Building-a-baseline-model-

Dealing with Class imbalance:https://www.kaggle.com/rohandeysarkar/ultimate-image-classification-guide-2020

Fill missing values (labels, features and, etc.):https://www.kaggle.com/datafan07/analysis-of-melanoma-metadata-and-effnet-ensemble

Normalisation?:https://www.kaggle.com/vincee/intel-image-classification-cnn-keras

Pre-processing:

https://www.kaggle.com/ratthachat/aptos-eye-preprocessing-in-diabetic-retinopathy#3.A-Important-Update-on-Color-Version-of-Cropping-&-Ben‘s-Preprocessing

數(shù)據(jù)增強(qiáng)

數(shù)據(jù)增強(qiáng) 可以通過(guò)從現(xiàn)有的訓(xùn)練樣本中生成更多的訓(xùn)練數(shù)據(jù)來(lái)擴(kuò)展我們的數(shù)據(jù)集。通過(guò)大量的隨機(jī)轉(zhuǎn)換生成新的樣本,這些轉(zhuǎn)換不僅可以生成可信的圖像,而且還反映了真實(shí)的場(chǎng)景 —— 稍后將對(duì)此進(jìn)行詳細(xì)介紹。這種技術(shù)得到了廣泛的應(yīng)用,不僅僅是在訓(xùn)練模型的數(shù)據(jù)樣本太少的情況下。在這種情況下,模型開(kāi)始記憶訓(xùn)練集,但無(wú)法泛化(在從未見(jiàn)過(guò)的數(shù)據(jù)上表現(xiàn)很差)。通常,當(dāng)一個(gè)模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但在驗(yàn)證數(shù)據(jù)上表現(xiàn)很差時(shí),我們稱(chēng)之為過(guò)擬合。為了解決這個(gè)問(wèn)題,我們通常會(huì)嘗試獲取新數(shù)據(jù),如果沒(méi)有可用的新數(shù)據(jù),則可以使用數(shù)據(jù)增強(qiáng)。注:一般的經(jīng)驗(yàn)法則是始終使用數(shù)據(jù)增強(qiáng)技術(shù),因?yàn)樗兄谑刮覀兊哪P鸵?jiàn)識(shí)更多的變化并更好地泛化。即使我們有一個(gè)很大的數(shù)據(jù)集,也要使用數(shù)據(jù)增強(qiáng),但這是以較慢的訓(xùn)練速度為代價(jià)的,因?yàn)樵鰪?qiáng)是在線(xiàn)完成的(即在訓(xùn)練期間)。此外,對(duì)于每個(gè)任務(wù)或數(shù)據(jù)集,我們必須使用反映可能的現(xiàn)實(shí)場(chǎng)景的增強(qiáng)技術(shù)(例如,如果我們有一個(gè)貓/狗探測(cè)器,我們可以使用水平翻轉(zhuǎn)、剪裁、亮度和對(duì)比度,因?yàn)檫@些增強(qiáng)匹配不同的照片拍攝方式。這里是一些Kaggle比賽notebooks,你可以查看流行的數(shù)據(jù)增強(qiáng)技術(shù):

Horizontal Flip:

https://www.kaggle.com/datafan07/analysis-of-melanoma-metadata-and-effnet-ensemble

Random Rotate and Random Dihedral:https://www.kaggle.com/iafoss/pretrained-resnet34-with-rgby-0-460-public-lb

Hue, Saturation, Contrast, Brightness, Crop:https://www.kaggle.com/cdeotte/triple-stratified-kfold-with-tfrecords

Colour jitter:

https://www.kaggle.com/nroman/melanoma-pytorch-starter-efficientnet

模型

開(kāi)發(fā)一個(gè)基線(xiàn)

在這里,我們使用一個(gè)非常簡(jiǎn)單的架構(gòu)創(chuàng)建一個(gè)基本的模型,沒(méi)有任何正則化或dropout層,看看我們是否能超過(guò)50%的準(zhǔn)確率基線(xiàn)。盡管我們不可能總能達(dá)到這個(gè)目標(biāo),但如果我們?cè)趪L試了多種合理的架構(gòu)后不能超過(guò)基線(xiàn),那么輸入數(shù)據(jù)可能不包含模型進(jìn)行預(yù)測(cè)所需的信息

用Jeremy Howard的名言:“你應(yīng)該能夠在15分鐘內(nèi)使用50%或更少的數(shù)據(jù)集快速測(cè)試你是否正在朝著一個(gè)有希望的方向前進(jìn),如果沒(méi)有,你必須重新考慮一切。”

開(kāi)發(fā)一個(gè)足夠大可以過(guò)擬合的模型

一旦我們的基線(xiàn)模型有足夠的能力超過(guò)基線(xiàn)分?jǐn)?shù),我們就可以增加基線(xiàn)模型的能力,直到它在數(shù)據(jù)集上過(guò)擬合為止,然后我們就開(kāi)始應(yīng)用正則化。我們可以通過(guò)以下方式增加模塊容量:

添加更多層

使用更好的結(jié)構(gòu)

更完善的訓(xùn)練流程

結(jié)構(gòu)

根據(jù)文獻(xiàn),以下架構(gòu)的改進(jìn)提高了模型的容量,但幾乎沒(méi)有改變計(jì)算復(fù)雜度。

Residual Networks

Wide Residual Networks

Inception

EfficientNet

Swish activation

Residual Attention Network

大多數(shù)時(shí)候,模型容量和精度是正相關(guān)的 —— 隨著容量的增加,精度也會(huì)增加,反之亦然。

訓(xùn)練過(guò)程

下面是一些你可以用來(lái)調(diào)整你的模型的訓(xùn)練過(guò)程,通過(guò)實(shí)例項(xiàng)目來(lái)看看它們是如何工作的:

Mixed-Precision Training

Large Batch-Size Training

Cross-Validation Set

Weight Initialization

Self-Supervised Training (Knowledge Distillation)

Learning Rate Scheduler

Learning Rate Warmup

Early Stopping

Differential Learning Rates

Ensemble

Transfer Learning

Fine-Tuning

超參數(shù)調(diào)試

參數(shù)不同,hyperparameters是由你在配置模型時(shí)指定的(即學(xué)習(xí)率、epoch的數(shù)量、hidden units的數(shù)量、batch size大小等)。你可以通過(guò)使用hyperparameter調(diào)優(yōu)庫(kù),比如Scikit learn Grid Search,Keras Tuner來(lái)自動(dòng)化這個(gè)過(guò)程,而不是去手動(dòng)配置。這些庫(kù)會(huì)在你指定的范圍內(nèi)嘗試所有的hyperparameter組合,返回表現(xiàn)最好的模型。需要調(diào)優(yōu)的超參數(shù)越多,過(guò)程就越慢,因此最好選擇模型超參數(shù)的最小子集進(jìn)行調(diào)優(yōu)。并不是所有的模型超參數(shù)都同樣重要。一些超參數(shù)會(huì)對(duì)機(jī)器學(xué)習(xí)算法的行為產(chǎn)生巨大的影響,進(jìn)而影響其性能。你應(yīng)該小心地選擇那些對(duì)模型性能影響最大的參數(shù),并對(duì)它們進(jìn)行調(diào)優(yōu)以獲得最佳性能。

正則化

這種方法迫使模型學(xué)習(xí)有意義和具有泛化能力的數(shù)據(jù)表示,通過(guò)對(duì)記憶/過(guò)擬合和欠擬合進(jìn)行懲罰來(lái)實(shí)現(xiàn),使模型對(duì)于它沒(méi)見(jiàn)過(guò)的數(shù)據(jù)更魯棒。解決上述問(wèn)題的一個(gè)簡(jiǎn)單方法是獲得更多的訓(xùn)練數(shù)據(jù),因?yàn)橐粋€(gè)模型訓(xùn)練的數(shù)據(jù)越多,自然就會(huì)泛化得越好。這里有一些技巧你可以試著減輕過(guò)擬合和欠擬合,項(xiàng)目如下:

Adding Dropout:https://www.kaggle.com/allunia/protein-atlas-exploration-and-baseline

Adding or changing the position of Batch Norm:https://www.kaggle.com/allunia/protein-atlas-exploration-and-baseline

Data augmentation:https://www.kaggle.com/cdeotte/triple-stratified-kfold-with-tfrecords

Mixup:https://arxiv.org/abs/1710.09412

Weight regularization:https://www.kaggle.com/allunia/protein-atlas-exploration-and-baseline

Gradient clipping:https://www.kaggle.com/allunia/protein-atlas-exploration-and-baseline

損失函數(shù)

損失函數(shù)也被稱(chēng)為成本函數(shù)或目標(biāo)函數(shù),用于查找目標(biāo)輸出的模型之間的差異,并幫助模型最小化它們之間的距離。

這里是一些最流行的損失函數(shù),與項(xiàng)目實(shí)例,你會(huì)發(fā)現(xiàn)一些技巧,以提高你的模型的能力:

Label smoothing

Focal loss

SparseMax loss and Weighted cross-entropy

BCE loss, BCE with logits loss and Categorical cross-entropy loss

Additive Angular Margin Loss for Deep Face Recognition

評(píng)估 + 錯(cuò)誤分析

在這里,我們做消融研究,并分析我們的實(shí)驗(yàn)結(jié)果。我們確定了我們的模型的弱點(diǎn)和長(zhǎng)處,并確定了未來(lái)需要改進(jìn)的地方。在這個(gè)階段,你可以使用以下技術(shù),并在鏈接的示例中查看它們是如何實(shí)現(xiàn)的:

Tracking metrics and Confusion matrix:

https://www.kaggle.com/vincee/intel-image-classification-cnn-keras

Grad CAM:https://arxiv.org/pdf/1610.02391v1.pdf

Test Time Augmentation (TTA):

https://www.kaggle.com/iafoss/pretrained-resnet34-with-rgby-0-460-public-lb

有許多實(shí)驗(yàn)跟蹤和管理工具,采取最小設(shè)置為你自動(dòng)保存所有數(shù)據(jù),這使消融研究更容易。

最后

有許多方法來(lái)調(diào)整你的模型,并且新的想法總是會(huì)出現(xiàn)。深度學(xué)習(xí)是一個(gè)快速發(fā)展的領(lǐng)域,沒(méi)有什么靈丹妙藥。我們必須做很多實(shí)驗(yàn),足夠的試驗(yàn)和錯(cuò)誤會(huì)帶來(lái)突破。

英文原文:https://neptune.ai/blog/image-classification-tips-and-tricks-from-13-kaggle-competitions

—版權(quán)聲明—

來(lái)源丨AI公園 作者 | Prince Canuma 編譯 | ronghuaiyang

僅用于學(xué)術(shù)分享,版權(quán)屬于原作者。

若有侵權(quán),請(qǐng)聯(lián)系刪除或修改!

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • eda
    eda
    +關(guān)注

    關(guān)注

    71

    文章

    2759

    瀏覽量

    173301
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4332

    瀏覽量

    62640
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8419

    瀏覽量

    132675
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5503

    瀏覽量

    121182

原文標(biāo)題:圖像分類(lèi):來(lái)自Kaggle中13個(gè)項(xiàng)目的Tips和Tricks

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Kaggle知識(shí)點(diǎn):使用大模型進(jìn)行特征篩選

    方法依賴(lài)于數(shù)據(jù)集中的樣本點(diǎn)進(jìn)行統(tǒng)計(jì)推斷,而基于文本的方法需要描述性的上下文以更好地在特征和目標(biāo)變量之間建立語(yǔ)義關(guān)聯(lián)。這種方法利用了大型語(yǔ)言模型(LLMs)豐富的語(yǔ)
    的頭像 發(fā)表于 12-03 01:06 ?1250次閱讀
    <b class='flag-5'>Kaggle</b>知識(shí)點(diǎn):使用大模型進(jìn)行特征篩選

    如何參數(shù)和價(jià)格2個(gè)維度來(lái)挑選合適的LoRa模塊

    “參數(shù)”、“價(jià)格”這2個(gè)維度來(lái)幫助大家看看如何挑選合適的LoRa模塊。 什么是LoRa? LoRa是創(chuàng)建長(zhǎng)距離通信連接的物理層無(wú)線(xiàn)調(diào)制技術(shù),屬于線(xiàn)性調(diào)制擴(kuò)頻技術(shù)(Chirp Spread Spectrum,CSS)的一種,也叫寬帶線(xiàn)性調(diào)頻技術(shù)(Chirp Modulati
    的頭像 發(fā)表于 11-26 11:09 ?259次閱讀
    如何<b class='flag-5'>從</b>參數(shù)和價(jià)格2<b class='flag-5'>個(gè)</b>維度來(lái)<b class='flag-5'>挑選</b>合適的LoRa模塊

    關(guān)于LRU(Least Recently Used)的邏輯實(shí)現(xiàn)

    Cache替換策略里還是有較大的用途的。對(duì)于一個(gè)N路組相連,當(dāng)對(duì)應(yīng)的entry滿(mǎn)了之后,當(dāng)有新的訪(fǎng)問(wèn)請(qǐng)求到來(lái)后需N個(gè)entry挑選出
    的頭像 發(fā)表于 11-12 11:47 ?247次閱讀
    關(guān)于LRU(Least Recently Used)的邏輯實(shí)現(xiàn)

    挑選海外云服務(wù)器提供商攻略

    挑選海外云服務(wù)器提供商是一個(gè)綜合考量多方面因素的過(guò)程。在明確自身需求的基礎(chǔ)上,可以性能、成本、安全、服務(wù)等多個(gè)維度進(jìn)行全面評(píng)估。
    的頭像 發(fā)表于 10-15 18:20 ?172次閱讀

    MOS管品牌之“巔峰對(duì)決”

    在電子世界的廣袤領(lǐng)域中,MOS管猶如一個(gè)個(gè)忠誠(chéng)的衛(wèi)士,守護(hù)著電路的穩(wěn)定運(yùn)行。而當(dāng)我們探尋哪個(gè)品牌的MOS管最好時(shí),就如同在眾多英雄豪杰挑選出最耀眼的那顆星。首先,國(guó)際知名品牌英飛凌
    的頭像 發(fā)表于 08-30 12:34 ?766次閱讀
    MOS管品牌之“巔峰對(duì)決”

    工業(yè)生產(chǎn)中不可或缺的“操作利器”—RFID揀貨標(biāo)簽

    揀貨的發(fā)展過(guò)程是一個(gè)人工化到自動(dòng)化、智能化不斷演進(jìn)的過(guò)程!近年來(lái),備受關(guān)注的“貨尋人”技術(shù)深受各企業(yè)的喜愛(ài),能夠依據(jù)自身具體需求,在眾多揀選技術(shù)挑選出最佳匹配項(xiàng)。。那么,“貨到人”
    的頭像 發(fā)表于 07-15 15:50 ?332次閱讀
    工業(yè)生產(chǎn)中不可或缺的“操作利器”—RFID揀貨標(biāo)簽

    linux kernel通過(guò)修改鏈接腳本lds文件,如何在esp32的linker.lf文件實(shí)現(xiàn)?

    linux kernel通過(guò)修改鏈接腳本lds文件實(shí)現(xiàn),請(qǐng)問(wèn)如何在esp32的linker.lf文件實(shí)現(xiàn)? linux kernel實(shí)現(xiàn)過(guò)程: 鏈接腳本: . = ALIGN(4
    發(fā)表于 06-26 06:19

    三星貼片電容挑選技巧是什么呢?

    其實(shí)關(guān)于三星貼片電容的挑選技巧首先要注意三星貼片電容的表面質(zhì)量以及功能,這是比較重要的兩個(gè)方面,一般情況下,建議企業(yè)用戶(hù)在挑選電容的時(shí)候,可以根據(jù)這兩個(gè)細(xì)節(jié)做
    的頭像 發(fā)表于 05-22 14:04 ?269次閱讀

    大學(xué)生學(xué)單片機(jī)不能錯(cuò)過(guò)的比賽

    單片機(jī)比賽是電子和計(jì)算機(jī)領(lǐng)域的一項(xiàng)重要賽事,旨在提升參賽者的專(zhuān)業(yè)技能、團(tuán)隊(duì)協(xié)作能力和創(chuàng)新思維。以下是一些常見(jiàn)的單片機(jī)比賽
    的頭像 發(fā)表于 05-15 09:50 ?1848次閱讀
    大學(xué)生學(xué)單片機(jī)不能錯(cuò)過(guò)的<b class='flag-5'>比賽</b>

    BP神經(jīng)網(wǎng)絡(luò)算法的基本流程

    訓(xùn)練經(jīng)過(guò)約50次左右迭代,在訓(xùn)練集上已經(jīng)能達(dá)到99%的正確率,在測(cè)試集上的正確率為90.03%,單純的BP神經(jīng)網(wǎng)絡(luò)能夠提升的空間不大了,但kaggle上已經(jīng)有人有卷積神經(jīng)網(wǎng)絡(luò)在測(cè)試集達(dá)到了99.3%的準(zhǔn)確率。
    發(fā)表于 03-20 09:58 ?2224次閱讀
    BP神經(jīng)網(wǎng)絡(luò)算法的基本流程

    OpenVINO?協(xié)同Semantic Kernel:優(yōu)化大模型應(yīng)用性能新路徑

    作為主要面向 RAG 任務(wù)方向的框架,Semantic Kernel 可以簡(jiǎn)化大模型應(yīng)用開(kāi)發(fā)過(guò)程,而在 RAG 任務(wù)中最常用的深度學(xué)習(xí)模型就是 Embedding 和 Text completion,分別實(shí)現(xiàn)文本的語(yǔ)義向量化和文本生成
    的頭像 發(fā)表于 03-08 10:41 ?716次閱讀
    OpenVINO?協(xié)同Semantic <b class='flag-5'>Kernel</b>:優(yōu)化大模型應(yīng)用性能新路徑

    NBA比賽收視率的背后是什么?

    在夏季季后賽之前,還有82場(chǎng)常規(guī)賽,那么賽程安排就是NBA的一個(gè)重要任務(wù)。30支球隊(duì)要進(jìn)行82場(chǎng)比賽,每支球隊(duì)市值都超過(guò)10億美元。僅電視轉(zhuǎn)播收入每年就超過(guò)20億美元,球迷和廣告商都希望他們的球隊(duì)
    的頭像 發(fā)表于 02-24 08:04 ?381次閱讀
    NBA<b class='flag-5'>比賽</b>收視率的背后是什么?

    【Rust AI】01. 使用Jupyter學(xué)習(xí)Rust

    ,例如根據(jù)乘客的特征預(yù)測(cè)乘客是否能夠幸存。這是一個(gè)適合數(shù)據(jù)分析和機(jī)器學(xué)習(xí)初學(xué)者的經(jīng)典數(shù)據(jù)集,廣泛用于 Kaggle 競(jìng)賽。”
    的頭像 發(fā)表于 01-14 11:16 ?1784次閱讀
    【Rust AI】01. 使用Jupyter學(xué)習(xí)Rust

    基于51單片機(jī)的比賽計(jì)分系統(tǒng)

    電子發(fā)燒友網(wǎng)站提供《基于51單片機(jī)的比賽計(jì)分系統(tǒng).rar》資料免費(fèi)下載
    發(fā)表于 01-12 10:26 ?6次下載

    基于51單片機(jī)的比賽計(jì)分設(shè)計(jì)

    電子發(fā)燒友網(wǎng)站提供《基于51單片機(jī)的比賽計(jì)分設(shè)計(jì).rar》資料免費(fèi)下載
    發(fā)表于 01-07 09:35 ?2次下載
    主站蜘蛛池模板: 色婷婷激情五月综合| 伊人久久亚洲综合天堂| 国内精品网站| 久久草在线看| 黄色免费在线网址| 高清一级毛片一本到免费观看| 精品久草| 1024你懂的国产欧美日韩在 | 视色4se成人午夜精品| 特黄毛片| 欧美一卡二三卡四卡不卡| 免费黄色| 国产成人一区二区在线不卡| bt在线搜索| 天天干天天上| 国产精品露脸脏话对白| 黄 在线| 美女扒开尿口给男人桶动态图 | 奇米影视狠狠| 四虎永久免费地址| 三级四级特黄在线观看| 欧美日韩亚洲国产一区二区综合 | 成人精品一级毛片| 五月婷婷丁香六月| 日本黄色的视频| 黄色毛片免费网站| 有没有免费的视频在线观看 | 来啊mm影院亚洲mm影院| 国产91色综合久久免费分享| 午夜在线免费观看视频| 狠狠干夜夜爽| 亚洲国产精品第一页| 亚洲成a人v在线观看| 免费看特级淫片日本| www.91在线| 国产免费午夜高清| 欧洲精品不卡1卡2卡三卡| 四虎永久免费最新在线| 久久黄网站| 精品玖玖| 新版天堂中文在线8官网|