在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NLP中基于聯(lián)合知識的任務導向型對話系統(tǒng)HyKnow

深度學習自然語言處理 ? 來源:復旦DISC ? 作者:趙剛 ? 2021-09-08 10:43 ? 次閱讀

引言

對話系統(tǒng)(dialogue system)是 NLP 中的的重點研究方向之一。其可以分為任務型對話系統(tǒng)和開放域對話系統(tǒng)。兩者在現(xiàn)實生活中都有著廣泛的應用。

本次 Fudan DISC 實驗室將分享 ACL 2021 中關于對話系統(tǒng)的 3 篇論文,介紹了任務型對話系統(tǒng)和基于人設的開放域對話系統(tǒng)的相關創(chuàng)新。

文章概覽

HyKnow: End to End Task-Oriented Dialog Modeling with Hybrid

論文地址:https://arxiv.org/pdf/2105.06041v2.pdf

這篇文章提出了一個基于聯(lián)合知識的任務導向型對話系統(tǒng)HyKnow,該模型通過延伸信念狀態(tài)來管理結構化知識和非結構化知識,它是第一個基于兩類知識進行聯(lián)合優(yōu)化的端到端對話系統(tǒng)。實驗證明,HyKnow 模型展現(xiàn)了優(yōu)于現(xiàn)有模型的強大的端到端性能。其更加出色的非結構化知識檢索準確率,也證明了模型勝于管道知識管理策略的聯(lián)合知識管理能力。

BoB: BERT Over BERT for Training Persona-based Dialogue Models

論文地址:https://arxiv.org/pdf/2106.06169.pdf

當前對話數(shù)據(jù)的人設稀疏性,阻礙了魯棒且一致的基于人設的對話系統(tǒng)的構建。本文提出了 BoB 模型,通過將基于人設的對話生成任務分離為一致性理解子任務和回應生成子任務,利用非對話關系數(shù)據(jù)集訓練一致性,解決了上述困難。模型在少量訓練數(shù)據(jù)和人設稀疏的數(shù)據(jù)集上均展現(xiàn)了出色的性能。

Modulating Language Models with Emotions

論文地址:https://aclanthology.org/2021.findings-acl.379.pdf

針對情感對話生成任務,本文受 CV 領域相關技術的啟發(fā),在Transformer 模型的層歸一化模塊中融入了情感信息,使得能夠利用大規(guī)模的預訓練的語言模型來生成情感回應。

論文細節(jié)

論文動機

現(xiàn)有的基于人設的對話模型嚴重依賴和人設相關的對話數(shù)據(jù),比如 PersonaChat 數(shù)據(jù)集。這類眾包數(shù)據(jù)集包含了大量的人設特征,但是其規(guī)模受到兩個因素的制約:其一,標注者根據(jù)給定的人設來設計一致的對話會消耗大量精力;其二,日常生活中的對話常常不具備鮮明的人設特征,因此很難獲得現(xiàn)有的涉及豐富人設的對話。所以,在這類人設稀疏的對話數(shù)據(jù)集上訓練的模型不能充分地學習一致性。

一個合格的基于人設的對話模型應當具備以下功能:一是能夠理解“人設-回應”的一致性,二是能夠根據(jù)對話上下文生成人設相關的回應。顯然,當下缺乏合適的數(shù)據(jù)集支持這些功能的實現(xiàn)。然而,一旦將基于人設的對話生成任務分解為一致性理解子任務和對話生成子任務,就很容易得到大量的訓練資源。對于一致性理解子任務,可以利用大規(guī)模的非對話關系數(shù)據(jù)集,比如 SNLI 和 MNLI 作為訓練數(shù)據(jù)。至于對話生成子任務,我們已經有了充足的大規(guī)模人設稀疏的數(shù)據(jù)集。

模型

文章提出的模型主要分為三個模塊,包括一個編碼器(),一個用于回應生成的解碼器()和一個一致性理解解碼器()。模型框架如下圖所示

編碼器

編碼器的輸入包括人設 P 和上下文 Q,對于人設,只需將人設句子簡單地拼接即可。模型將一個 special token 放在人設序列和對話上下文之間,得到編碼器的輸入

接著嵌入層將輸入轉化為表示,這種表示是詞嵌入,類型嵌入和位置嵌入的和,其中在類型嵌入中,用 0 和 1 分別表示人設和上下文。用和代表人設和上下文獨立的表示,用代表和的聯(lián)合表示,即

其中表示輸入的最大長度。

然后編碼器對做多頭注意力,將其轉化為隱向量的序列,

即其中,MultiHead是帶有的全連接層,是編碼器的最終輸出,即。

回應生成解碼器

一個交叉注意力被植入在和之間,其中來自的最后一層,且和均來自:

包含多個相同的層,每一層的輸出都會作為下一層的輸入,最終輸出被送往。這里的是模型產生的粗糙回應,其不一定和人設保持一致,一致性學習和調整將會在一致性理解解碼器模塊上進行。

一致性理解解碼器

利用進行初始化。在的每一層中,多頭注意力被執(zhí)行兩次

以上得到的結果融合了人設信息和 粗糙回應。最后一層的輸出連接一個線性層即可得到模型生成的最終回應。

訓練目標

模型針對文本生成子任務采用了負對數(shù)損失,針對一致性理解采用了非似然損失。

回應生成

模型在和上分別生成粗糙和精確的回應,兩者的負對數(shù)損失可以表示為

非似然訓練

在一致性理解模塊的訓練中,模型主要利用非對話的關系數(shù)據(jù)集。對于一個樣本,將 premise 和 hypothesis 輸入解碼器中。如果兩者關系是 entailment,則應當促進這種生成,那么訓練目標是最大化這類輸出的概率;如果兩者關系是 contradiction,則應當抑制這種生成,那么訓練目標是最小化這類輸出的概率。經過上述訓練模式,一致性理解模塊可以隱式地判斷人設和粗糙回應的關系,并傾向于產生一種和人設保持一致的回應。具體而言,將關系數(shù)據(jù)集劃分為兩類,一類是關系為 entailment 的樣本組成的子集,另一類是關系為 contradiction 的樣本組成的子集。在和上的損失可以表示為(記 premise 和 hypothesis 為,)

生成損失和一致性理解損失可以表示為

總損失可以表示為

其中和是超參數(shù)。

實驗

本文為了驗證 BoB 在人設稀疏的數(shù)據(jù)集上依然能夠保持優(yōu)秀的性能,挑選了兩個數(shù)據(jù)集 PersonaChat 和 PersonaDialog,前者包含了充足的人設信息,后者人設信息較少。本文在兩個數(shù)據(jù)集上分別進行實驗。基線模型選擇了包括 GPT-2 在內的預訓練模型和一些非預訓練模型。評價指標包括人工評價和自動評價,人工評價主要評估模型生成的流利度,信息量和相關性;自動評價中,利用困惑度評價回應的內容質量,利用 Dist 評價回應的多樣性,利用 C.Score 和來評價回應和人設的一致性。在人設密集的 PersonaChat 數(shù)據(jù)集上實驗,得到如下結果

實驗證明,在各項評價指標上,BoB 都超過了基線模型。同時當數(shù)據(jù)量減少為 1/2,1/4,1/8 時,模型依然展現(xiàn)出比肩基線模型的強大性能,證明了 BoB 模型的優(yōu)越性。

在人設稀疏的 PersonaDialog數(shù)據(jù)集上實驗,得到如下結果

我們發(fā)現(xiàn),即使在人設信息不足的情況下,BoB 依然能夠產生和人設高度一致的回應,這得益于一致性理解模塊的訓練脫離了有限的人設對話數(shù)據(jù),轉而依賴大量的非對話關系數(shù)據(jù)。因此,一致性的學習不受人設信息多少的影響。這也是 BoB 最核心的創(chuàng)新點!

2

論文動機

近幾年,任務型對話系統(tǒng)在達成用戶目的方面已經收獲了不錯的效果。大部分這樣的對話系統(tǒng)基于用戶需求查詢結構化知識,比如表格和數(shù)據(jù)庫等,并利用查詢到的結果引導系統(tǒng)回應的生成。然而,現(xiàn)實生活中的對話常常涉及到非結構化的知識,比如餐廳的廣告,用戶用餐反饋等等。這些出現(xiàn)在非結構化知識中的信息通常無法在結構化知識中查詢得到。但是現(xiàn)有的任務型對話系統(tǒng)缺乏利用非結構化知識的能力,這樣的缺陷可能導致對話進程的終端,造成追蹤用戶需求和生成系統(tǒng)回應的困難。

針對以上問題,本文考慮在任務型對話系統(tǒng)中結合不同形式的領域知識,構建了一個同時基于結構化知識和非結構化知識的對話系統(tǒng) HyKnow。在基于結構化知識的對話輪中,系統(tǒng)需要用三元組來跟蹤用戶需求,以此查詢數(shù)據(jù)庫條目,最后利用查詢結果生成回應;在基于非結構化知識的對話輪中,模型管理文檔庫來檢索相關信息來做回應的生成。

模型

下圖給出了模型 HyKnow 的框架。模型總共分為三個部分:第一,模型使用拓展信念追蹤(extended belief tracking)來追蹤用戶需求;第二,模型基于拓展信念狀態(tài)(extended belief state)來搜索和用戶需求相關的結構化知識和非結構化知識;最后,模型利用拓展信念狀態(tài)和相關知識來生成系統(tǒng)回應。

信念狀態(tài)

信念狀態(tài)有著特定的格式。信念狀態(tài)均由以上形式的三元組構成,每個三元組表示用戶的某個需求,以(restaurant, food, Italian)為例,該三元組表示用戶需要了解餐飲領域關于意式食物的訊息。所謂拓展信念狀態(tài),就是隨著對話輪的進行,用戶需求的更新,信念狀態(tài)中添加了一些表示用戶新需求的三元組,我們將這樣的三元組集合記為,其中表示第輪對話。除此之外,信念狀態(tài)中也會包含關于用戶需求的話題,記作。注意到,和在解碼時所用到的詞表是不同的?。?/p>

拓展信念狀態(tài)解碼

遵循 Seq2Seq 框架,首先利用上下文編碼器來編碼對話上下文,其中的最后一維輸出用來初始化解碼器的隱層?;谏舷挛木幋a器的隱狀態(tài)和上一輪對話的拓展信念狀態(tài),接著解碼本輪對話的拓展信念狀態(tài),具體可以采用兩種方案。

因為和基于的詞表是不同的,所以用兩種方法實現(xiàn)的解碼:

第一,利用一個信念狀態(tài)解碼器來生成整個,優(yōu)化過程是聯(lián)合的,即

第二,對和用各自的解碼器分別解碼,兩個解碼器的參數(shù)是不共享的,優(yōu)化過程是非聯(lián)合的,即

知識查詢

基于拓展信念狀態(tài),模型查詢數(shù)據(jù)庫得到,檢索文檔庫得到相關文檔,兩者用來引導系統(tǒng)生成。在數(shù)據(jù)庫的查詢中,只需要用三元組匹配條目即可。在文檔庫的檢索中,只需預處理文檔庫,提取每個文檔的話題,和三元組的相關內容匹配即可。

回應生成

基于上下文,拓展信念狀態(tài)和查詢結果,生成回應由以下公式給出

其中和表示信念狀態(tài)編碼器和文檔編碼器。

實驗

本文選擇了修改的 MultiWOZ 2.1 數(shù)據(jù)集,并將 HyKnow 模型和以下幾類基線模型相比較:一、現(xiàn)有的端到端任務型對話模型(E2E TOD)和對話狀態(tài)跟蹤模型(DST),以證明結合非結構化知識的好處;二、非結構化知識管理模型,以證明 HyKnow 檢索非結構化知識方法的優(yōu)越性;三、上述兩者的結合,以證明 HyKnow 不僅強大在同時結合了結構化知識和非結構化知識,而且知識的管理,組織和查詢方式以及兩類知識的融合方式都是非常優(yōu)秀的。實驗結果如下圖所示

實驗表明,HyKnow 在各項性能指標上都超過了基線模型,包括用戶需求的完成度,知識查詢準確率等等。除此之外,實驗證明,當模型采用聯(lián)合優(yōu)化的時候,表現(xiàn)會更高,這說明兩類知識的模塊在共享參數(shù)時能夠彼此促進。

3

論文動機

當前對話系統(tǒng)領域的一個重要任務是基于情感產生合適的回應。關于這個任務,研究者提出了一些經典的模型,比如 Seq2Seq 模型的變體,變分自編碼器,對抗網(wǎng)絡等等,不過這些模型生成的回應通常較為枯燥乏味,可能是帶有情感標簽的數(shù)據(jù)量有限的緣故。最近的研究提出了預訓練模型來解決這類問題,比如 GPT-2 等等。不過,從頭訓練一個預訓練模型成本太高,并且收集用于預訓練的包含豐富情感的對話數(shù)據(jù)非常困難。

針對上述困難,本文提出了一個簡單且易于部署的技術,使得大規(guī)模的預訓練模型能夠產生細粒度的情感回應。首先,利用 emoji 表情作為情感標簽;其次,在 Transformer 塊的每個層歸一化模塊中引入情感 emoji,使得在每次做層歸一化的時候模型都能向著目標情感進行自我調整,這種方法簡單而自然,且易于推廣。

方法

模型的創(chuàng)新主要集中在對 Transformer 模型的層歸一化的改造,我們稱經過改造的層歸一化模塊為 Mod-LN。具體操作如下:對于輸入層歸一化模塊的隱狀態(tài)向量 x,,按照如下方式進行歸一化

其中是磨光參數(shù),以避免分母為 0。和是兩個可訓練的模塊,運行機制如下

其中和是屬于層的全連接層,表示情感標簽的表示向量,表示偏置,表示激活函數(shù)。模型結構如下圖所示

實驗

本文在 MojiTalk 數(shù)據(jù)集上進行實驗,其中有 64 個細粒度的情感 emoji?;€模型選取 R-CVAE。本文分別在 BERT-to-BERT,GPT2-to-GPT2 上利用 Mod-LN,和基線模型相比較,以證明添加的 Mod-LN 的優(yōu)越性。關于情感分析性能,作者對模型生成的回應用情感分類器預測情感,將其和正確情感比較,從而得到模型的情感預測準確率,準確率越高,情感分析質量越高。除此之外,采用人工評價的方式,評估回應的情感性和可讀性。以上兩個評價方面的結果如下表所示

實驗證明,添加了 Mod-LN 的模型不僅在各項性能指標上超過了基線模型,而且在有限數(shù)據(jù)集上依然表現(xiàn)尚佳。這是因為,將目標情感滲透到每個層歸一化模塊中,每個 Transformer 中,使得模型總是頻繁地向著目標情感的方向進行自我調整。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 解碼器
    +關注

    關注

    9

    文章

    1144

    瀏覽量

    40852
  • nlp
    nlp
    +關注

    關注

    1

    文章

    489

    瀏覽量

    22066

原文標題:ACL2021 | 任務型和開放域對話系統(tǒng)

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    結合NLU在面向任務對話系統(tǒng)的具體應用進行介紹

    對面向任務對話系統(tǒng)來說,NLU模塊的主要任務是將用戶輸入的自然語言映射為用戶的意圖和相應的槽位值。因此,在面向任務
    的頭像 發(fā)表于 03-21 09:31 ?5412次閱讀
    結合NLU在面向<b class='flag-5'>任務</b>的<b class='flag-5'>對話</b><b class='flag-5'>系統(tǒng)</b><b class='flag-5'>中</b>的具體應用進行介紹

    專欄 | 深度學習在NLP的運用?從分詞、詞性到機器翻譯、對話系統(tǒng)

    從分詞、詞性等基礎模塊,到機器翻譯、知識問答等領域,本文列舉并分析一些深度學習在 NLP 領域的具體運用,希望對大家研究深度學習和 NLP 有所幫助。
    的頭像 發(fā)表于 08-18 17:06 ?7574次閱讀
    專欄 | 深度學習在<b class='flag-5'>NLP</b><b class='flag-5'>中</b>的運用?從分詞、詞性到機器翻譯、<b class='flag-5'>對話</b><b class='flag-5'>系統(tǒng)</b>

    OpenAI介紹可擴展的,與任務無關的的自然語言處理(NLP系統(tǒng)

    近日,OpenAI 在其官方博客發(fā)文介紹了他們最新的自然語言處理(NLP系統(tǒng)。這個系統(tǒng)是可擴展的、與任務無關的,并且在一系列不同的 NLP
    的頭像 發(fā)表于 06-17 22:20 ?3889次閱讀
    OpenAI介紹可擴展的,與<b class='flag-5'>任務</b>無關的的自然語言處理(<b class='flag-5'>NLP</b>)<b class='flag-5'>系統(tǒng)</b>

    四大維度講述了一個較為完整的智能任務對話全景

    這是一個非常典型的任務對話,它滿足兩個條件,第一,它有一個明確的目標;第二,它通過多輪對話交互來達成這個目標。像這樣的任務
    的頭像 發(fā)表于 02-04 09:20 ?7150次閱讀
    四大維度講述了一個較為完整的智能<b class='flag-5'>任務</b><b class='flag-5'>型</b><b class='flag-5'>對話</b>全景

    NLP的深度學習技術概述

    該項目是對基于深度學習的自然語言處理(NLP)的概述,包括用來解決不同 NLP 任務和應用的深度學習模型(如循環(huán)神經網(wǎng)絡、卷積神經網(wǎng)絡和強化學習)的理論介紹和實現(xiàn)細節(jié),以及對 NLP
    的頭像 發(fā)表于 03-01 09:13 ?4849次閱讀
    <b class='flag-5'>NLP</b><b class='flag-5'>中</b>的深度學習技術概述

    強化學習應用對話系統(tǒng)的用戶模擬器

    近幾年來,強化學習在任務導向對話系統(tǒng)得到了廣泛的應用,
    發(fā)表于 08-06 14:16 ?2054次閱讀

    如何利用機器學習思想,更好地去解決NLP分類任務

    NLP分類任務我們每個NLPer都異常熟悉了,其在整個NLP業(yè)務占據(jù)著舉足輕重的地位,更多領域的子任務也常常轉化為一個分類
    的頭像 發(fā)表于 08-28 10:02 ?2314次閱讀
    如何利用機器學習思想,更好地去解決<b class='flag-5'>NLP</b>分類<b class='flag-5'>任務</b>

    對話系統(tǒng)最原始的實現(xiàn)方式 檢索式對話

    對話系統(tǒng)可以說是NLP領域目前已知最扎實的落地場景了,整個流程都脫離不了NLP的核心作用,而且整個流程涉及NLP的大量
    的頭像 發(fā)表于 09-25 17:08 ?2374次閱讀
    <b class='flag-5'>對話</b><b class='flag-5'>系統(tǒng)</b>最原始的實現(xiàn)方式   檢索式<b class='flag-5'>對話</b>

    口語語言理解在任務對話系統(tǒng)的探討

    1.1 研究背景與任務定義 口語語言理解在任務對話系統(tǒng)扮演了一個非常重要的角色,其目的是識別
    的頭像 發(fā)表于 03-31 17:48 ?2478次閱讀
    口語語言理解在<b class='flag-5'>任務</b><b class='flag-5'>型</b><b class='flag-5'>對話</b><b class='flag-5'>系統(tǒng)</b><b class='flag-5'>中</b>的探討

    知識圖譜是NLP的未來嗎?

    我的看法:知識圖譜不是NLP的未來,因為知識圖譜是另外一種與NLP有很多交集的技術。在目前所有已知的發(fā)展方向,
    的頭像 發(fā)表于 04-15 14:36 ?3727次閱讀
    <b class='flag-5'>知識</b>圖譜是<b class='flag-5'>NLP</b>的未來嗎?

    通過NVIDIA DLI課程學習NLP對話人工智能

      Riva 語音 API 服務器公開了一個用于執(zhí)行語音識別、語音合成和各種 NLP 推斷的簡單 API 。在本課程,開發(fā)人員使用 Python 示例從 Riva 示例客戶機運行其中幾個 API
    的頭像 發(fā)表于 04-11 09:32 ?2813次閱讀

    基于知識對話生成任務

    基于知識對話生成任務(Knowledge-Grounded Dialogue Generation,KGD)是當前對話系統(tǒng)的研究熱點,這個
    的頭像 發(fā)表于 09-05 09:54 ?1713次閱讀

    多語言任務在內的多種NLP任務實現(xiàn)

    WeLM是一個百億級別的中文模型,能夠在零樣本以及少樣本的情境下完成包括對話-采訪、閱讀理解、翻譯、改寫、續(xù)寫、多語言閱讀理解在內的多種NLP任務,并具備記憶能力、自我糾正和檢查能力。
    發(fā)表于 10-13 11:52 ?637次閱讀

    基于主觀知識任務對話建模

    我們參加了 DSTC11-track5 并在所有 14 個參賽隊伍排名第三(客觀指標),其中 Turn Detection 子任務排名第一。本文將介紹 track 5 相關內容以及我們在競賽嘗試的方法。
    的頭像 發(fā)表于 10-31 16:48 ?508次閱讀
    基于主觀<b class='flag-5'>知識</b>的<b class='flag-5'>任務</b><b class='flag-5'>型</b><b class='flag-5'>對話</b>建模

    nlp自然語言處理的主要任務及技術方法

    的應用,如搜索引擎、機器翻譯、語音識別、情感分析等。 NLP的主要任務 NLP的主要任務可以分為以下幾個方面: 1.1 詞法分析(Lexical Analysis) 詞法分析是
    的頭像 發(fā)表于 07-09 10:26 ?1272次閱讀
    主站蜘蛛池模板: 麻豆美女大尺度啪啪| 日韩a级毛片| 手机在线亚洲| 久久e热| 自拍偷自拍亚洲精品被多人伦好爽 | 免费视频性| 亚洲影视大全| 色综合99| 噜噜吧噜噜色| 成人a毛片手机免费播放| 午夜影院欧美| 福利视频自拍偷拍| 中国男女全黄大片一级| 中文字幕不卡在线播放| 四虎最新永久在线精品免费| 免费一级特黄| 国产欧美日韩电影| 天天干免费视频| 欧美在线黄| 福利视频一区二区三区| 特别毛片| 久久成人亚洲| 亚洲午夜视频| 国产精品福利一区| 欧美不卡视频在线观看| 特级毛片aaaaaa蜜桃| 酒色激情网| 午夜毛片网站| 小草影院亚洲私人影院| 狠狠色噜噜狠狠狠狠888奇米| 天堂网成人| 黄欧美| 欧美女同在线观看| 亚洲日本在线观看视频| 泰剧天堂| 国产aaa级一级毛片| 久久天天躁狠狠躁夜夜呲| 一区二区三区四区在线不卡高清| 午夜美女网站| 很狠操| 美女黄色一级毛片|