在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何將神經(jīng)網(wǎng)絡(luò)用于推薦系統(tǒng)應(yīng)用

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:Benedikt Schifferer ? 2022-04-22 10:11 ? 次閱讀

深度學(xué)習(xí)( Deep learning , DL )是解決計(jì)算機(jī)視覺(jué)或自然語(yǔ)言等機(jī)器學(xué)習(xí)問(wèn)題的最新方法,它的性能優(yōu)于其它方法。最近的趨勢(shì)包括將 DL 技術(shù)應(yīng)用于推薦引擎。許多大型公司,如 AirBnB 、 Facebook 、 Google 、 Home Depot 、 LinkedIn 和 Pinterest ,都分享了他們將 DL 用于推薦系統(tǒng)的經(jīng)驗(yàn)。

最近, NVIDIA 和 RAPIDS 。 AI 團(tuán)隊(duì)與 DL 贏得了三場(chǎng)比賽: VZX1 、 信號(hào)和日期挑戰(zhàn) 和 ACM WSDM2021 Booking 。 com 挑戰(zhàn)賽 。

推薦系統(tǒng)的領(lǐng)域是復(fù)雜的。在這篇文章中,我將重點(diǎn)介紹神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)及其組件,例如嵌入層和完全連接層、遞歸神經(jīng)網(wǎng)絡(luò)單元( LSTM 或 GRU )和變壓器塊。我討論了流行的網(wǎng)絡(luò)架構(gòu),比如 Google 的 Wide & Deep 和 Facebook 的 Deep Learning Recommender Model ( DLRM )。

DL 推薦系統(tǒng)的優(yōu)點(diǎn)

有許多不同的技術(shù)來(lái)設(shè)計(jì)推薦系統(tǒng),例如關(guān)聯(lián)規(guī)則、基于內(nèi)容或協(xié)同過(guò)濾、矩陣分解或訓(xùn)練線性或基于樹(shù)的模型來(lái)預(yù)測(cè)交互可能性。

使用神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)是什么?一般來(lái)說(shuō), DL 模型可以獲得更高的精度。首先, DL 可以利用額外的數(shù)據(jù)。許多傳統(tǒng)的機(jī)器學(xué)習(xí)技術(shù)需要更多的數(shù)據(jù)。但是,當(dāng)您增加神經(jīng)網(wǎng)絡(luò)的容量時(shí),該模型可以使用更多的數(shù)據(jù)來(lái)提高性能。

第二,神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)是靈活的。例如,您可以針對(duì)多個(gè)目標(biāo)(多任務(wù)學(xué)習(xí))訓(xùn)練 DL 模型,例如“用戶是否將項(xiàng)目添加到購(gòu)物車(chē)中?”、“使用項(xiàng)目開(kāi)始結(jié)賬?”、或“購(gòu)買(mǎi)項(xiàng)目?”。每個(gè)目標(biāo)都有助于模型從數(shù)據(jù)中提取信息,并且目標(biāo)可以相互支持。

其他設(shè)計(jì)方法包括向推薦模型中添加多模態(tài)數(shù)據(jù)。您可以通過(guò)使用卷積神經(jīng)網(wǎng)絡(luò)處理產(chǎn)品圖像或使用 NLP 模型處理產(chǎn)品描述來(lái)實(shí)現(xiàn)這一點(diǎn)。神經(jīng)網(wǎng)絡(luò)應(yīng)用于許多領(lǐng)域。您可以將新開(kāi)發(fā)(如優(yōu)化器或新層)轉(zhuǎn)移到推薦系統(tǒng)。

最后, DL 框架經(jīng)過(guò)了高度優(yōu)化,可以處理各種域的數(shù) TB 到數(shù) PB 的數(shù)據(jù)。下面是如何為推薦系統(tǒng)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)。

基本構(gòu)造塊:嵌入層

嵌入層用密集向量表示類(lèi)別。這種技術(shù)在自然語(yǔ)言處理中非常流行,可以嵌入具有密集表示的單詞。具有相似意義的詞具有相似的嵌入向量。

您可以將相同的技術(shù)應(yīng)用于推薦系統(tǒng)。最簡(jiǎn)單的推薦系統(tǒng)是基于用戶和項(xiàng)目的:您應(yīng)該向用戶推薦哪些項(xiàng)目?您有用戶 ID 和項(xiàng)目 ID 。單詞是 users 和 items ,因此使用兩個(gè)嵌入表(圖 1 )。

pYYBAGJiDsCAKBl2AADJPefLtp4158.png

圖 1 。嵌入維度為 4 的表

計(jì)算用戶嵌入和項(xiàng)目嵌入之間的點(diǎn)積,得到最終分?jǐn)?shù),即用戶與項(xiàng)目交互的可能性。最后一步可以應(yīng)用 sigmoid 激活函數(shù)將輸出轉(zhuǎn)換為 0 到 1 之間的概率。

latex.php?latex=dot+product%3A+u+%5Ccdot+v+%3D+%5CSigma+a_i+%5Ccdot+b_i&bg=ffffff&fg=000&s=2&c=20201002

poYBAGJiDsGAUHxvAACFEkyRuNM823.png

圖 2 。具有兩個(gè)嵌入表和點(diǎn)積輸出的神經(jīng)網(wǎng)絡(luò)

該方法等價(jià)于矩陣分解或交替最小二乘法( ALS )。

具有完全連接層的較深模型

神經(jīng)網(wǎng)絡(luò)的性能是基于具有多個(gè)非線性層的深層結(jié)構(gòu)。通過(guò)將嵌入層的輸出通過(guò)多個(gè)具有 ReLU 激活的完全連接層提供,可以擴(kuò)展先前的模型。

一個(gè)設(shè)計(jì)選擇是如何組合兩個(gè)嵌入向量。您可以僅串聯(lián)嵌入向量,也可以將向量逐元素相乘,類(lèi)似于點(diǎn)積。輸出之后是多個(gè)隱藏層。

pYYBAGJiDsKAdwFBAADV4f76e1M154.png

圖 3 。具有兩個(gè)嵌入表和多個(gè)完全連接層的神經(jīng)網(wǎng)絡(luò)

向神經(jīng)網(wǎng)絡(luò)中添加元數(shù)據(jù)信息

到目前為止,您只使用了用戶 ID 和產(chǎn)品 ID 作為輸入,但是您通常可以獲得更多的信息。其他用戶信息可以是性別、年齡、城市(地址)、自上次訪問(wèn)以來(lái)的時(shí)間或用于支付的信用卡。一件商品通常有一個(gè)品牌、價(jià)格、類(lèi)別或在過(guò)去 7 天內(nèi)售出的數(shù)量。這些信息有助于模型更好地推廣。修改神經(jīng)網(wǎng)絡(luò)以使用附加特征作為輸入。

poYBAGJiDsKAeI4QAACDPv33ycM555.png

圖 4 。具有元信息和多個(gè)完全連接層的神經(jīng)網(wǎng)絡(luò)

流行建筑

嵌入層和完全連接層是理解一些最新出版的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的主要組成部分。在這篇文章中,我將從 2016 年開(kāi)始報(bào)道谷歌的廣度和深度,從 2019 年開(kāi)始報(bào)道 Facebook 的 DLRM 。

谷歌的廣度和深度

谷歌的廣度和深度包含兩個(gè)部分:

記憶共同特征組合的寬塔

用來(lái)概括罕見(jiàn)或未觀察到的特征組合的深塔

創(chuàng)新之處在于,這兩個(gè)組件同時(shí)訓(xùn)練,這是可能的,因?yàn)樯窠?jīng)網(wǎng)絡(luò)是靈活的。深塔通過(guò)嵌入層提供分類(lèi)特征,并將輸出與數(shù)字輸入特征連接起來(lái)。級(jí)聯(lián)向量通過(guò)多個(gè)完全連接的層饋送。

你聽(tīng)上去熟悉嗎?是的,那是你以前的神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)。新的組成部分是寬塔,它只是輸入特征的線性組合,具有類(lèi)似的線性/邏輯回歸。每個(gè)塔的輸出相加,得到最終的預(yù)測(cè)值。

Facebook 的 DLRM

Facebook 的 DLRM 與帶有元數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)類(lèi)似,但有一些特定的差異。數(shù)據(jù)集可以包含多個(gè)分類(lèi)特征。 DLRM 要求所有的分類(lèi)輸入都通過(guò)一個(gè)具有相同維數(shù)的嵌入層。稍后,我將討論這一點(diǎn)的重要性。

接下來(lái),將連續(xù)的輸入串聯(lián)起來(lái)并通過(guò)稱(chēng)為底部多層感知器( MLP )的多個(gè)完全連接的層饋送。底層 MLP 的最后一層具有與嵌入層向量相同的維數(shù)。

DLRM 使用了一個(gè)新的組合層。它在所有嵌入向量對(duì)和底部 MLP 輸出之間應(yīng)用按元素相乘。這就是為什么每個(gè)向量都有相同的維數(shù)。所得到的向量被串聯(lián)并饋送到另一組完全連接的層(頂部 MLP )。

pYYBAGJiDsOAbM9wAAE9ps7wIZ0181.png

圖 5 。左側(cè)顯示廣度和深度架構(gòu),右側(cè)顯示 DLRM 架構(gòu)。

基于會(huì)話的推薦系統(tǒng)

當(dāng)我為推薦系統(tǒng)分析不同的基于 DL 的體系結(jié)構(gòu)時(shí),我假設(shè)輸入具有表格數(shù)據(jù)結(jié)構(gòu),而忽略了用戶交互的本質(zhì)。但是,用戶在訪問(wèn)網(wǎng)站時(shí),在一個(gè)會(huì)話中有多個(gè)交互。例如,他們?cè)L問(wèn)一家商店并查看多個(gè)產(chǎn)品頁(yè)面。您可以使用用戶交互序列作為輸入來(lái)提取模式嗎?

在一個(gè)會(huì)話中,用戶連續(xù)查看多條牛仔褲,您應(yīng)該推薦另一條牛仔褲。在另一個(gè)會(huì)話中,同一個(gè)用戶連續(xù)查看多雙鞋,您應(yīng)該推薦另一雙鞋。這就是基于會(huì)話的推薦系統(tǒng)背后的直覺(jué)。

謝天謝地,您可以將 NLP 中的一些技術(shù)應(yīng)用于推薦系統(tǒng)域。用戶的交互具有順序結(jié)構(gòu)。

pYYBAGJiDsWAWB7HAAEAE9DMGpA620.png

圖 6 。基于會(huì)話的神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)

序列可以通過(guò)使用遞歸神經(jīng)網(wǎng)絡(luò)( RNN )或基于變壓器的結(jié)構(gòu)作為序列層來(lái)處理。用嵌入向量表示項(xiàng)目 ID ,并通過(guò)序列層提供輸出。序列層的隱藏表示可以添加為深度學(xué)習(xí)體系結(jié)構(gòu)的輸入。

其他選擇

當(dāng)我把這篇文章的重點(diǎn)放在將 DL 應(yīng)用于推薦系統(tǒng)的理論上時(shí),我沒(méi)有涉及到很多其他的挑戰(zhàn)。我在這里簡(jiǎn)要介紹一下,以提供一個(gè)起點(diǎn):

嵌入表可以超過(guò) CPUGPU 內(nèi)存。由于在線服務(wù)可能有數(shù)百萬(wàn)用戶,嵌入表可以達(dá)到數(shù)兆字節(jié)。 NVIDIA 提供了 HugeCTR 框架,可以將嵌入表擴(kuò)展到 CPU 或 GPU 內(nèi)存之外。

在培訓(xùn)期間最大限度地利用 GPU 。基于 DL 的推薦系統(tǒng)有一個(gè)淺層的網(wǎng)絡(luò)結(jié)構(gòu),只有幾個(gè)完全連接的層。數(shù)據(jù)加載器有時(shí)是訓(xùn)練管道中的瓶頸。為了抵消這一點(diǎn), NVIDIA 為 PyTorch 和 TensorFlow 開(kāi)發(fā)了一個(gè) 高度優(yōu)化的 GPU 數(shù)據(jù)加載器 。

生成建議需要對(duì)用戶項(xiàng)對(duì)進(jìn)行評(píng)分。最壞的情況是預(yù)測(cè)所有可用產(chǎn)品的可能性,并選擇最佳產(chǎn)品。在實(shí)踐中,這是不可行的,候選人產(chǎn)生了一個(gè)低開(kāi)銷(xiāo)的模型,如近似近鄰。

概括

這篇文章向您介紹了基于 DL 的推薦系統(tǒng)。我首先介紹了基于兩個(gè)輸入的基本矩陣分解,然后介紹了使用 transformer 層的最新基于會(huì)話的體系結(jié)構(gòu)。

您可以使用遞歸神經(jīng)網(wǎng)絡(luò)( RNN )或基于轉(zhuǎn)換器的體系結(jié)構(gòu)作為序列層來(lái)處理序列。用嵌入向量表示項(xiàng)目 ID ,并通過(guò)序列層提供輸出。添加序列層的隱藏表示作為 DL 架構(gòu)的輸入。

關(guān)于作者

Benedikt Schifferer 是 NVIDIA 的深度學(xué)習(xí)工程師,致力于推薦系統(tǒng)。在他在 NVIDIA 的工作之前,他畢業(yè)于紐約哥倫比亞大學(xué)的數(shù)據(jù)科學(xué)碩士,并為德國(guó)電子商務(wù)公司開(kāi)發(fā)了推薦系統(tǒng)。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5026

    瀏覽量

    103292
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5508

    瀏覽量

    121311
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    怎么對(duì)神經(jīng)網(wǎng)絡(luò)重新訓(xùn)練

    重新訓(xùn)練神經(jīng)網(wǎng)絡(luò)是一個(gè)復(fù)雜的過(guò)程,涉及到多個(gè)步驟和考慮因素。 引言 神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別等領(lǐng)域。然而,隨著時(shí)間的推移,數(shù)據(jù)分布可能會(huì)
    的頭像 發(fā)表于 07-11 10:25 ?480次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系

    廣泛應(yīng)用的神經(jīng)網(wǎng)絡(luò)模型。它們各自具有獨(dú)特的特點(diǎn)和優(yōu)勢(shì),并在不同的應(yīng)用場(chǎng)景中發(fā)揮著重要作用。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)關(guān)系的詳細(xì)探討,內(nèi)容涵蓋兩者的定義、原理、區(qū)別、聯(lián)系以及應(yīng)
    的頭像 發(fā)表于 07-10 15:24 ?1631次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡(jiǎn)稱(chēng)ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個(gè)基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來(lái)發(fā)展等多個(gè)方面,詳細(xì)闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?1187次閱讀

    機(jī)器人神經(jīng)網(wǎng)絡(luò)系統(tǒng)的特點(diǎn)包括

    腦啟發(fā)的計(jì)算模型,具有高度的并行性和自適應(yīng)性。機(jī)器人神經(jīng)網(wǎng)絡(luò)系統(tǒng)神經(jīng)網(wǎng)絡(luò)技術(shù)應(yīng)用于機(jī)器人領(lǐng)域的研究和應(yīng)用,具有以下特點(diǎn): 高度的復(fù)雜性:神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-09 09:45 ?491次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?600次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)一樣嗎

    時(shí)具有各自的優(yōu)勢(shì)和特點(diǎn)。本文介紹遞歸神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)的概念、結(jié)構(gòu)、工作原理、優(yōu)缺點(diǎn)以及應(yīng)用場(chǎng)景。 遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,RvNN) 1
    的頭像 發(fā)表于 07-05 09:28 ?924次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    。 遞歸神經(jīng)網(wǎng)絡(luò)的概念 遞歸神經(jīng)網(wǎng)絡(luò)是一種具有短期記憶功能的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),如時(shí)間序列、文本、語(yǔ)音等。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)不同,遞歸
    的頭像 發(fā)表于 07-04 14:54 ?819次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    結(jié)構(gòu)。它們?cè)谔幚聿煌?lèi)型的數(shù)據(jù)和解決不同問(wèn)題時(shí)具有各自的優(yōu)勢(shì)和特點(diǎn)。本文將從多個(gè)方面比較循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別。 基本概念 循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有循環(huán)連接的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它可
    的頭像 發(fā)表于 07-04 14:24 ?1362次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    網(wǎng)絡(luò)結(jié)構(gòu),分別適用于不同的應(yīng)用場(chǎng)景。本文將從基本概念、結(jié)構(gòu)組成、工作原理及應(yīng)用領(lǐng)域等方面對(duì)這兩種神經(jīng)網(wǎng)絡(luò)進(jìn)行深入解讀。
    的頭像 發(fā)表于 07-03 16:12 ?3515次閱讀

    bp神經(jīng)網(wǎng)絡(luò)是深度神經(jīng)網(wǎng)絡(luò)

    Network)有相似之處,但它們之間還是存在一些關(guān)鍵的區(qū)別。 一、引言 神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)的計(jì)算模型,它由大量的神經(jīng)元(或稱(chēng)為節(jié)點(diǎn))組成,這些神經(jīng)元通過(guò)權(quán)重連接在一起
    的頭像 發(fā)表于 07-03 10:14 ?889次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱(chēng)CNN)是兩種不同類(lèi)型的人工神經(jīng)網(wǎng)絡(luò),它們?cè)?/div>
    的頭像 發(fā)表于 07-03 10:12 ?1261次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱(chēng)CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語(yǔ)言處理等領(lǐng)域。本文詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 09:15 ?446次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱(chēng)CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域。本文詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的原
    的頭像 發(fā)表于 07-02 14:44 ?691次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱(chēng)CNN)和BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Networks,簡(jiǎn)稱(chēng)BPNN)是兩種
    的頭像 發(fā)表于 07-02 14:24 ?4416次閱讀

    神經(jīng)網(wǎng)絡(luò)在數(shù)學(xué)建模中的應(yīng)用

    數(shù)學(xué)建模是一種利用數(shù)學(xué)方法和工具來(lái)描述和分析現(xiàn)實(shí)世界問(wèn)題的過(guò)程。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)和功能的計(jì)算模型,可以用于解決各種復(fù)雜問(wèn)題。在數(shù)學(xué)建模中,神經(jīng)網(wǎng)絡(luò)可以作為一種有效的工具
    的頭像 發(fā)表于 07-02 11:29 ?1000次閱讀
    主站蜘蛛池模板: 97人人草| 色之综综| 国产香蕉免费精品视频| 天天综合色天天综合| 天天射天天干天天操| 奇米在线| 91aaa免费观看在线观看资源 | 免费观看视频在线| 69日本xxxxxxxxx18| 国产精品japanese人妖| 99久久伊人一区二区yy5099| 黄色在线观看网站| 女主播扒开内衣让粉丝看个够 | 成人a级特黄毛片| 久久综合免费| 欧美一级片在线视频| 免费日韩三级| 国产综合色精品一区二区三区| wwwxxxx在线观看| 日本黄页网站在线观看| bt天堂网在线| 欧美成人亚洲欧美成人| 亚洲va久久久噜噜噜久久天堂| 日日噜噜噜噜人人爽亚洲精品| 久久久鲁| 黄网站色视频| 午夜视频在线免费| 国产国拍亚洲精品mv在线观看| 一级毛片美国一级j毛片不卡| 在线欧美国产| 欧美亚洲综合在线观看| 丁香婷婷久久大综合| 国产精品美女一区二区三区| 久久激情五月| 一区二区三区免费视频播放器| aaaa欧美高清免费| 奇米影视7777| 中文字幕123| 五月天丁香婷婷网| 亚洲综合啪啪| 欧美香蕉视频|