在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基準(zhǔn)數(shù)據(jù)集(CORR2CAUSE)如何測試大語言模型(LLM)的純因果推理能力

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 2023-06-20 15:39 ? 次閱讀

因果推理是人類智力的標(biāo)志之一。因果關(guān)系NLP領(lǐng)域近年來引起了人們的極大興趣,但其主要依賴于從常識知識中發(fā)現(xiàn)因果關(guān)系。本研究提出了一個基準(zhǔn)數(shù)據(jù)集(CORR2CAUSE)來測試大語言模型(LLM)的純因果推理能力。其中CORR2CAUSE對LLM來說是一項具有挑戰(zhàn)性的任務(wù),有助于指導(dǎo)未來關(guān)于提高LLM純粹推理能力和可推廣性的研究。

簡介

因果推理

因果推理是推理的一個基本方面,其涉及到在變量或事件之間建立正確的因果關(guān)系。大致可分為兩種不同的方式的因果關(guān)系:一種是通過經(jīng)驗知識,例如,從常識中知道,為朋友準(zhǔn)備生日派對會讓他們快樂;另一種是通過純粹的因果推理,因果關(guān)系可以通過使用因果推理中已知的程序和規(guī)則進(jìn)行形式化的論證和推理得到。例如,已知A和B彼此獨立,但在給定C的情況下變得相關(guān),那么可以推斷,在一個封閉系統(tǒng)中,C是A和B共同影響的結(jié)果,如下圖所示。

185ff27a-0c1f-11ee-962d-dac502259ad0.png

想象上圖中的場景,在訓(xùn)練語料庫中有大量的相關(guān)性,比如疫苗這個詞與疾病病例數(shù)量的增加有關(guān)。如果認(rèn)為LLM的成功在于捕捉術(shù)語之間的大量統(tǒng)計相關(guān)性,那么關(guān)鍵但缺失的一步是如何處理這些相關(guān)性并推斷因果關(guān)系,其中一個基本的構(gòu)建塊是CORR2CAUSE推斷技能。

本文將這項任務(wù)表述為NLP的一項新任務(wù),即因果關(guān)系推理,并認(rèn)為這是大語言模型的必備技能。

貢獻(xiàn)

基于CORR2COUSE數(shù)據(jù)集,本文探討了兩個主要的研究問題:

(1)現(xiàn)有的LLM在這項任務(wù)中的表現(xiàn)如何?

(2)現(xiàn)有的LLM能否在這項任務(wù)中重新訓(xùn)練或重新設(shè)定目標(biāo),并獲得強大的因果推理技能?

本文的主要貢獻(xiàn)如下:

(1)提出了一項新任務(wù),探討LLMs推理能力的一個方面,即純因果推理;

(2)使用因果發(fā)現(xiàn)的見解組成了超過400K個樣本的數(shù)據(jù)集;

(3)在數(shù)據(jù)集上評估了17個LLM的性能,發(fā)現(xiàn)它們的性能都很差,接近隨機基線;

(4)進(jìn)一步探討了LLM是否可以通過微調(diào)來學(xué)習(xí)這項技能,發(fā)現(xiàn)LLM無法在分布外擾動的情況下穩(wěn)健地掌握這項技能,本文建議未來的工作探索更多方法來增強LLM中的純因果推理技能。

因果推理預(yù)備知識

因果模型有向圖(DGCM)

有向圖形因果模型是一種常用的表示方法,用于表示一組變量之間的因果關(guān)系。給定一組N個變量X={X1,...,XN},可以使用有向圖G=(X,E)對它們之間的因果關(guān)系進(jìn)行編碼,其中E是有向邊的集合。每條邊ei,j∈E代表一個因果聯(lián)系Xi→Xj,意味著Xi是Xj的直接原因。

D-分離與馬爾可夫性質(zhì)

D-Separation(D-分離)

D分離是圖模型中的一個基本概念,用于確定在給定第三組節(jié)點Z的情況下,DAG中的兩組節(jié)點X和Y是否條件獨立,其中這三組節(jié)點是不相交的。

Markov Property(馬爾可夫性質(zhì))

DAG中的馬爾可夫性質(zhì)表明每個節(jié)點Xi在給定父節(jié)點的情況下有條件地獨立于其非后代,。使用馬爾可夫?qū)傩?,可以將圖中所有節(jié)點的聯(lián)合分布分解為1881a5aa-0c1f-11ee-962d-dac502259ad0.png為了從概率分布中推斷因果圖,一個常見的假設(shè)是置信度,即從概率分布中的獨立關(guān)系中推斷圖中所有D-分離集的有效性。在本文的工作中,也采用了這個廣泛的假設(shè),它適用于大多數(shù)現(xiàn)實世界的場景。

Markov Equivalence of Graphs(圖的馬爾可夫等價)

如果兩個DAG有相同的聯(lián)合分布P(X),則將兩個DAG表示為馬爾可夫等價。相互等價的馬爾可夫 DAG集稱為馬爾可夫等價類(MEC)。同一MEC中的因果圖可以很容易地識別,因為它們具有相同的骨架(即無向邊)和V結(jié)構(gòu)(即A→B←C形式的結(jié)構(gòu),其中A和C不連接)。

因果發(fā)現(xiàn)

因果發(fā)現(xiàn)旨在通過分析觀測數(shù)據(jù)中的統(tǒng)計屬性來學(xué)習(xí)因果關(guān)系。它可以通過基于約束的方法、基于分?jǐn)?shù)的方法或其他利用功能因果模型的方法來實現(xiàn)。

為了從相關(guān)性(用自然語言表示)推斷因果關(guān)系,本研究的數(shù)據(jù)集設(shè)計基于廣泛使用的Peter Clark(PC)算法。其使基于條件獨立原則和因果馬爾可夫假設(shè),這使它能夠有效地識別給定數(shù)據(jù)集中變量之間的因果關(guān)系。該算法首先從所有變量之間的完全連通無向圖開始。然后,如果兩個變量之間存在無條件或有條件的獨立關(guān)系,它就消除了它們之間的邊。然后,只要存在V形結(jié)構(gòu),它就會定向定向邊。最后,它迭代地檢查其他邊的方向,直到整個因果圖與所有統(tǒng)計相關(guān)性一致。

數(shù)據(jù)集構(gòu)建

任務(wù)定義

給定一組N個變量X={X1,...,XN},一個關(guān)于變量之間所有相關(guān)性的聲明s,以及一個描述變量Xi和Xj對之間的因果關(guān)系r的假設(shè)h。該任務(wù)是學(xué)習(xí)一個函數(shù)f(s,h)→v,它將相關(guān)語句和因果關(guān)系假設(shè)h映射到它們的有效性v∈{0,1},如果該推理無效,則取值0,否則為1。

數(shù)據(jù)生成過程

數(shù)據(jù)生成過程如下圖所示,首先選擇變量的數(shù)量N,并生成所有具有N個節(jié)點的唯一DGCM。然后,從這些圖中收集所有D分離集。對于MEC到因果圖的每個對應(yīng)關(guān)系,根據(jù)MEC中的統(tǒng)計關(guān)系組合相關(guān)語句,并假設(shè)兩個變量之間的因果關(guān)系,如果假設(shè)是MEC中所有因果圖的共享屬性,則有效性v=1,如果對于所有MEC圖的假設(shè)不一定為真,則v=0。

1898bf56-0c1f-11ee-962d-dac502259ad0.png

用同構(gòu)檢驗構(gòu)造圖

數(shù)據(jù)生成的第一步是組成因果圖,如上圖的步驟1和2所示。對于一組N個變量X={X1,...,XN},存在N(N-1)個可能的有向邊,因為每個節(jié)點可以鏈接到除自身之外的任何節(jié)點。為了刪除圖中的循環(huán),將節(jié)點按拓?fù)漤樞蚺帕校@只允許邊Xi→ Xj,其中i<j。通過將圖的鄰接矩陣限制為僅在對角線上具有非零值來實現(xiàn)這一點,從而產(chǎn)生DAG的N(N?1)/2個可能的有向邊。

集合中可能存在同構(gòu)圖。為了避免這種情況,進(jìn)行了圖同構(gòu)檢查,并減少了集合,以便只保留唯一的DAG,在下表中展示了它們的統(tǒng)計數(shù)據(jù)。盡管其可以處理大型圖,但主要關(guān)注較小的圖,這些圖仍然可以產(chǎn)生合理大小的數(shù)據(jù)集。

18bbd41e-0c1f-11ee-962d-dac502259ad0.png

程序生成D-分離集

基于一組唯一的DAG,通過圖論條件以編程方式生成D-分離集,如數(shù)據(jù)生成過程圖的步驟3所示。對于每對節(jié)點,給定D-分離集中的變量,它們是條件獨立的。如果D-分離集是空的,那么這兩個節(jié)點是無條件獨立的。如果不能為這兩個節(jié)點找到D-分離集,那么它們是直接相關(guān)的。

組成假設(shè)和標(biāo)簽

在基于D-分離集生成相關(guān)性集合之后生成因果假設(shè)。對于因果關(guān)系r,重點關(guān)注兩個節(jié)點之間的六種常見因果關(guān)系:是父節(jié)點、是子節(jié)點、是祖先節(jié)點(不包括父節(jié)點)、是后裔節(jié)點(不包含子節(jié)點)、混淆節(jié)點和碰撞節(jié)點。這樣,假設(shè)集包含每對變量之間的所有六個有意義的因果關(guān)系,從而導(dǎo)致具有N個變量的圖的總大小為6*N(N?1)/2=3N(N–1)個假設(shè)。

為了生成真實有效性標(biāo)簽,從數(shù)據(jù)生成過程圖的步驟3中的相關(guān)集合開始,查找與給定相關(guān)性集合對應(yīng)的相同MEC中的所有因果圖,并檢查假設(shè)因果關(guān)系的必要性。如果假設(shè)中提出的因果關(guān)系對MEC中的所有因果圖都是有效的,那么我們生成有效性v=1;否則,v=0。

自然語言化

如數(shù)據(jù)生成過程圖的最后一步所示,將上述所有信息轉(zhuǎn)換為文本數(shù)據(jù),用于CORR2CAUSE任務(wù)。對于相關(guān)語句, 將數(shù)據(jù)生成過程圖步驟3中的相關(guān)性集合表示為自然語言語句s。當(dāng)兩個變量不能進(jìn)行D-分離時,將其描述為A與B相關(guān),因為它們直接相關(guān)并且不能獨立于任何條件。如果兩個變量具有有效的D-分離集C,那么將它們描述為A與給定C的B無關(guān)。在D-分離集為空的特殊情況中,A與B無關(guān)。

此外,通過將相關(guān)語句與給定變量的封閉系統(tǒng)的設(shè)置開始來消除歧義。最后,為了表達(dá)假設(shè),將因果關(guān)系三元組 (Xi, r, Xj) 輸入到下表中的假設(shè)模板中。

18cef04e-0c1f-11ee-962d-dac502259ad0.png

結(jié)果數(shù)據(jù)統(tǒng)計

CORR2COUSE數(shù)據(jù)集的統(tǒng)計數(shù)據(jù),以及按子集的統(tǒng)計數(shù)據(jù)如下表所示。其報告了樣本總數(shù);測試、開發(fā)和訓(xùn)練集的拆分;每個前提和假設(shè)的token數(shù)量;隱含標(biāo)簽的百分比和詞匯大小。

191f2398-0c1f-11ee-962d-dac502259ad0.png

實驗

實驗設(shè)置

為了測試現(xiàn)有的LLM,首先在下載次數(shù)最多的transformers庫中包括六個常用的基于BERT的NLI模型:BERT、RoBERTa、BART、DeBERTa、DistilBERT和DistilBART。除了這些基于BERT的NLI模型外,還評估了基于GPT的通用自回歸LLM:GPT-3Ada、Babbage、Curie、Davinci;其指令調(diào)整版本,text-davinci-001、text-davici-002和text-davici-003;和GPT-3.5(即ChatGPT),以及最新的GPT-4,使用temperature為0的OpenAI API2,還評估了最近更有效的模型LLaMa和Alpaca,如下表所示。

1945550e-0c1f-11ee-962d-dac502259ad0.png

現(xiàn)有LLM中的因果推理技能

在上表中展示了LLM的因果推理性能。可以看到,純因果推理是所有現(xiàn)有LLM中一項非常具有挑戰(zhàn)性的任務(wù)。在所有LLM中,BART MNLI的最佳性能為33.38%F1,甚至高于最新的基于GPT的模型GPT-4。值得注意的是,許多模型比隨機猜測更差差,這意味著它們在純因果推理任務(wù)中完全失敗。

微調(diào)性能

在CORR2CAUSE上微調(diào)的12個模型的展示在下表中的實驗結(jié)果乍一看似乎非常強大。大多數(shù)模型性能顯著增加,其中微調(diào)的基于BERT的NLI模型表現(xiàn)出最強的性能。性能最好的是oBERTa-Large MNLI,在這項任務(wù)中獲得了 94.74%的F1值,以及較高的精度、召回率和準(zhǔn)確度分?jǐn)?shù)。

197fab78-0c1f-11ee-962d-dac502259ad0.png

基于因果關(guān)系的細(xì)粒度性能

本文還進(jìn)行了細(xì)粒度分析,通過六種因果關(guān)系類型來檢驗最強模型RoBERTa Large MNLI的性能。如下表所示,該模型在判斷Is-Parent、Is-Descendant和Has-Confounder等關(guān)系方面非常好,所有 F1 分?jǐn)?shù)都超過96%,而在HasCollider關(guān)系上則較弱。這可能是因為collider關(guān)系是最特殊的類型,需要僅基于兩個變量的無條件獨立性和以共同后代為條件的相關(guān)性來識別V結(jié)構(gòu)。

19b6b2d0-0c1f-11ee-962d-dac502259ad0.png

魯棒性分析

微調(diào)后的模型展現(xiàn)出了高性能,但是這些模型真的健壯地學(xué)習(xí)了因果推理技能嗎?基于此本研究展開了魯棒性分析。

兩個魯棒性測試

設(shè)計了兩個簡單的穩(wěn)健性測試:(1)釋義,(2)變量重構(gòu)。對于釋義,通過將每個因果關(guān)系的文本模板更改為一些語義等效的替代方案來簡單地釋義假設(shè)。對于(2)變量重構(gòu),顛倒變量名稱的字母表,即將A, B, C翻轉(zhuǎn)為Z, Y, X等。具體來說,采用了常見的文本對抗性攻擊設(shè)置保留訓(xùn)練集并保留相同的保存模型,但在擾動測試集中運行推理。通過這種方式,將模型只過度擬合訓(xùn)練數(shù)據(jù)的可能性與掌握推理技能的可能性分開。

數(shù)據(jù)擾動后的結(jié)果

從下表右側(cè)兩列F1值可以看出,當(dāng)解釋測試集時,所有模型急劇下降多達(dá)39.29,當(dāng)重新分解變量名稱時,它們大幅下降高達(dá)58.38。性能最好的模型RoBERTa-Large MNLI對釋義特別敏感,表明所有模型的下降幅度最大;然而,它對變量再分解最穩(wěn)健,保持了67.87的高F1分?jǐn)?shù)。

19d55078-0c1f-11ee-962d-dac502259ad0.png

總結(jié)

在這項工作中,介紹了一項新任務(wù)CORR2CAUSE,用于從相關(guān)性推斷因果關(guān)系,并收集了超過400K個樣本的大規(guī)模數(shù)據(jù)集。在新任務(wù)上評估了大量的LLM,發(fā)現(xiàn)現(xiàn)成的LLM在此任務(wù)中表現(xiàn)不佳。實驗表明,可以通過微調(diào)在這項任務(wù)上重新使用LLM,但未來的工作需要知道分布外的泛化問題。鑒于當(dāng)前LLM的推理能力有限,以及將實際推理與訓(xùn)練語料庫衍生知識分離的困難,必須專注于旨在準(zhǔn)確解開和衡量兩種能力的工作。
責(zé)任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼
    +關(guān)注

    關(guān)注

    6

    文章

    943

    瀏覽量

    54838
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    525

    瀏覽量

    10277
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24710
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    288

    瀏覽量

    343

原文標(biāo)題:解密大型語言模型:從相關(guān)性中發(fā)現(xiàn)因果關(guān)系?

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    大型語言模型的邏輯推理能力探究

    最新研究揭示,盡管大語言模型LLMs在語言理解上表現(xiàn)出色,但在邏輯推理方面仍有待提高。為此,研究者們推出了GLoRE,一個全新的邏輯推理評估
    的頭像 發(fā)表于 11-23 15:05 ?1002次閱讀
    大型<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的邏輯<b class='flag-5'>推理</b><b class='flag-5'>能力</b>探究

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    語言模型LLM)是人工智能領(lǐng)域的尖端技術(shù),憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關(guān)注。它基于深度學(xué)習(xí),利用神經(jīng)網(wǎng)絡(luò)框架來理解和生
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實踐】大語言模型的評測

    在知識獲取、邏輯推理、代碼生成等方面的能力。這些評測基準(zhǔn)包括語言建模能力、綜合知識能力、數(shù)學(xué)計算
    發(fā)表于 05-07 17:12

    基于e-CARE的因果推理相關(guān)任務(wù)

    因果推理是人類的一項核心認(rèn)知能力。借助因果推理能力,人類得以理解已觀測到的各種現(xiàn)象,并預(yù)測將來可
    的頭像 發(fā)表于 05-16 16:21 ?1376次閱讀

    如何對推理加速器進(jìn)行基準(zhǔn)測試

      客戶對基準(zhǔn)推理學(xué)習(xí)曲線的最后階段是開發(fā)自己的模型,使用通常來自 Nvidia 或數(shù)據(jù)中心的訓(xùn)練硬件/軟件,然后在可能的目標(biāo)推理加速器上對
    的頭像 發(fā)表于 06-06 16:02 ?1331次閱讀

    基于Transformer的大型語言模型LLM)的內(nèi)部機制

    工作原理變得越來越重要。更好地理解這些模型是如何做出決策的,這對改進(jìn)模型和減輕其故障(如幻覺或推理錯誤)至關(guān)重要。 眾所周知,最近 LLM 成功的一個重要因素是它們能夠從上下文中學(xué)習(xí)和
    的頭像 發(fā)表于 06-25 15:08 ?1483次閱讀
    基于Transformer的大型<b class='flag-5'>語言</b><b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)的內(nèi)部機制

    語言模型LLM)預(yù)訓(xùn)練數(shù)據(jù)調(diào)研分析

    model 訓(xùn)練完成后,使用 instruction 以及其他高質(zhì)量的私域數(shù)據(jù)來提升 LLM 在特定領(lǐng)域的性能;而 rlhf 是 openAI 用來讓model 對齊人類價值觀的一種強大技術(shù);pre-training dat
    的頭像 發(fā)表于 09-19 10:00 ?1167次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)預(yù)訓(xùn)練<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>集</b>調(diào)研分析

    從原理到代碼理解語言模型訓(xùn)練和推理,通俗易懂,快速修煉LLM

    要理解大語言模型LLM),首先要理解它的本質(zhì),無論預(yù)訓(xùn)練、微調(diào)還是在推理階段,核心都是next token prediction,也就是以自回歸的方式從左到右逐步生成文本。
    的頭像 發(fā)表于 09-19 16:25 ?1479次閱讀
    從原理到代碼理解<b class='flag-5'>語言</b><b class='flag-5'>模型</b>訓(xùn)練和<b class='flag-5'>推理</b>,通俗易懂,快速修煉<b class='flag-5'>LLM</b>

    現(xiàn)已公開發(fā)布!歡迎使用 NVIDIA TensorRT-LLM 優(yōu)化大語言模型推理

    NVIDIA 于 2023 年 10 月 19 日公開發(fā)布 TensorRT-LLM ,可在 NVIDIA GPU 上加速和優(yōu)化最新的大語言模型(Large Language Models)的
    的頭像 發(fā)表于 10-27 20:05 ?979次閱讀
    現(xiàn)已公開發(fā)布!歡迎使用 NVIDIA TensorRT-<b class='flag-5'>LLM</b> 優(yōu)化大<b class='flag-5'>語言</b><b class='flag-5'>模型</b><b class='flag-5'>推理</b>

    Hugging Face LLM部署大語言模型到亞馬遜云科技Amazon SageMaker推理示例

    ?本篇文章主要介紹如何使用新的Hugging Face LLM推理容器將開源LLMs,比如BLOOM大型語言模型部署到亞馬遜云科技Amazon SageMaker進(jìn)行
    的頭像 發(fā)表于 11-01 17:48 ?939次閱讀
    Hugging Face <b class='flag-5'>LLM</b>部署大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>到亞馬遜云科技Amazon SageMaker<b class='flag-5'>推理</b>示例

    ChatGPT是一個好的因果推理器嗎?

    因果推理能力對于許多自然語言處理(NLP)應(yīng)用至關(guān)重要。最近的因果推理系統(tǒng)主要基于經(jīng)過微調(diào)的預(yù)訓(xùn)
    的頭像 發(fā)表于 01-03 09:55 ?851次閱讀
    ChatGPT是一個好的<b class='flag-5'>因果</b><b class='flag-5'>推理</b>器嗎?

    語言模型(LLM)快速理解

    自2022年,ChatGPT發(fā)布之后,大語言模型(LargeLanguageModel),簡稱LLM掀起了一波狂潮。作為學(xué)習(xí)理解LLM的開始,先來整體理解一下大
    的頭像 發(fā)表于 06-04 08:27 ?989次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>(<b class='flag-5'>LLM</b>)快速理解

    如何加速大語言模型推理

    隨著人工智能技術(shù)的飛速發(fā)展,大語言模型LLM)已成為自然語言處理領(lǐng)域的核心工具,廣泛應(yīng)用于智能客服、文本生成、機器翻譯等多個場景。然而,大語言
    的頭像 發(fā)表于 07-04 17:32 ?537次閱讀

    基于CPU的大型語言模型推理實驗

    隨著計算和數(shù)據(jù)處理變得越來越分散和復(fù)雜,AI 的重點正在從初始訓(xùn)練轉(zhuǎn)向更高效的AI 推理。Meta 的 Llama3 是功能強大的公開可用的大型語言模型
    的頭像 發(fā)表于 07-18 14:28 ?554次閱讀
    基于CPU的大型<b class='flag-5'>語言</b><b class='flag-5'>模型</b><b class='flag-5'>推理</b>實驗

    LLM模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點,旨在提高模型在處理復(fù)雜任務(wù)
    的頭像 發(fā)表于 07-24 11:38 ?900次閱讀
    主站蜘蛛池模板: 男女交性特一级| 亚洲伊人成人网| freesex性欧美重口| a久久久久一级毛片护士免费| 真人午夜a一级毛片| 天天操婷婷| 欧美777| 欧美天天射| 国产又粗又大又爽又免费| 午夜在线看片| 天天草综合| 俄罗斯一级特黄黄大片 | 你懂的手机在线视频| bt天堂中文在线| 一本高清在线| 欧美破处视频在线| 2019天天干夜夜操| 亚洲一本高清| 国产性猛交xx乱| 福利在线观看| 4480yy私人午夜a级国产| 日本69xxⅹxxxxxx19| 手机在线精品视频| 天堂v网| 欧美视频综合| 国产色视频在线| 久久久噜久噜久久综合| 人人叉人人| 国产色爽女小说免费看 | 日本在线不卡视频| 91大神在线精品视频一区| 成人黄色在线| 在线精品国产第一页| 亚洲你我色| 性生交大片免费一级| 国产成人永久在线播放| 久久精品乱子伦免费| 高清一级做a爱免费视| 国产女人视频| 国产三级a三级三级天天| 国产美女在线精品免费观看|