在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

統一的文本到結構生成框架——UIE

深度學習自然語言處理 ? 來源:高能AI ? 作者:JayJay ? 2022-04-13 09:54 ? 次閱讀

引言:信息抽取終于走到了這一步:邁入大一統時代!

今天為大家介紹一篇好基友 @陸博士 的ACL22論文《Unified Structure Generation for Universal Information Extraction》,這也是中科院和百度聯合發布的1篇信息抽取統一建模工作UIE。

UIE官方鏈接:https://universal-ie.github.io

本文的組織架構為:

9a3521ca-ba87-11ec-aa7f-dac502259ad0.png

1.統一建模是IE發展的必然趨勢

眾所周知,信息抽?。↖E)是一個從文本到結構的轉換過程。常見的實體、關系、事件分別采取Span、Triplet、Record形式的異構結構。

曾幾何時,當我們面對各種復雜多樣的IE任務,我們總會造各式各樣IE模型的輪子,來滿足不同復雜任務的多變需求。

9a445d5c-ba87-11ec-aa7f-dac502259ad0.png

如上圖所示:由于多樣的抽取目標、相異的復雜結構、多變的領域需求時,導致信息抽取模型一直難以實現統一建模,極大限制了IE系統高效架構開發、有效知識共享、快速跨域適配。

比如,一個真實的情況是:針對不同任務設定,需要針對特定領域schema建模,不同IE模型被單個訓練、不共享,一個公司可能需要管理眾多IE模型。

9a5733a0-ba87-11ec-aa7f-dac502259ad0.png

當我們每次造不同IE輪子的時候,都要喝下不同的肥宅快樂水,撩以解憂(這不是個玩笑)

不過,在生成式統一建模各類NLP任務的今天,信息抽取統一建模也成為可能。

不久前,JayJay在《信息抽取的"第二范式"》一文中指出:生成式統一建模,或許是信息抽取領域正在發生的一場“深刻變革”。

因此:開發通用的IE結構是大有裨益的,可以統一建模不同的IE任務,從各種資源中自適應預測異構結構。總之:統一、通用的IE勢不可擋!

這篇ACL2022論文,@陸博士提出了一個面向信息抽取的統一文本到結構生成框架UIE,它可以:

統一地建模不同的IE任務;

自適應地生成目標結構;

從不同的知識來源統一學習通用的信息抽取能力。

9a734e1e-ba87-11ec-aa7f-dac502259ad0.png

具體來說,UIE:

通過結構化抽取語言對不同的信息抽取目標結構進行統一編碼;

通過結構化模式提示器自適應生成目標結構;

通過大規模結構化/非結構化數據進行模型預訓練捕獲常見的IE能力;

實驗結果表明,本文提出的統一生成框架,基于T5模型進行了IE預訓練,在實體、關系、事件和情感等4個信息抽取任務、13個數據集的全監督、低資源和少樣本設置下均取得了SOTA性能。

接下來,我們將具體介紹UIE是如何統一建模的,以及具體是如何預訓練的?

2. UIE統一建模方式:文本到結構生成

信息抽取任務可以表述為“文本到結構”的問題,不同的IE任務對應不同的結構。

UIE旨在通過單一框架統一建模不同IE任務的文本到結構的轉換,也就是:不同的結構轉換共享模型中相同的底層操作和不同的轉換能力。

這里主要有兩個挑戰:

IE任務的多樣性,需要提取許多不同的目標結構,如實體、關系、事件等;

IE任務是通常是使用不同模式定義的特定需求(不同schema),需要自適應地控制提取過程;

因此,針對上述挑戰,需要:

設計結構化抽取語言(SEL,Structured Extraction Language)來統一編碼異構提取結構,即編碼實體、關系、事件統一表示。

構建結構化模式提示器(SSI,Structural Schema Instructor),一個基于schema的prompt機制,用于控制不同的生成需求。

9a824c7a-ba87-11ec-aa7f-dac502259ad0.png

上圖展示了UIE的整體框架,整體架構就是:SSI + Text -> SEL

一句話簡單概括就是:SSI就是輸入特定抽取任務的schema,SEL就是把不同任務的抽取結果統一用1種語言表示。

1)SEL:結構化抽取語言

不同的IE任務可以分解為2個原子操作:

Spotting:找出Spot Name對應的Info Span,如某個實體或Trigger觸發詞;

Associating:找出Asso Name對應的Info Span,鏈接Info Span片段間的關系:如兩個實體pair的關系、論元和觸發詞間的關系;

9a92ccb2-ba87-11ec-aa7f-dac502259ad0.png

如上圖(a)所示:SEL語言可以統一用(Spot Name:Info Span(Asso Name:Info Span)(Asso Name:Info Span)...)形式表示,具體地:

Spot Name:Spotting操作的Info Span的類別信息,如實體類型;

Asso Name: Associating操作的Info Span的類別信息,如關系類型、關系類型;

Info Span:Spotting或Associating操作相關的文本Span;

如上圖(b)所示:

藍色部分代表關系任務:person為實體類型Spot Name,work for為關系類型Asso Name;

紅色部分代表事件任務:start-position為事件類型Spot Name,employee為論元類型Asso Name;

黑色部分代表實體任務:organization和time為實體類型Spot Name;

9aa69562-ba87-11ec-aa7f-dac502259ad0.png

上圖給出一個中文case:考察事件 為事件類型Spot Name,主角/時間/地點 為論元類型Asso Name。

2)SSI:結構化模式提示器

SSI的本質一個基于schema的prompt機制,用于控制不同的生成需求:在Text前拼接上相應的Schema Prompt,輸出相應的SEL結構語言。

不同任務的的形式是:

實體抽取:[spot] 實體類別 [text]

關系抽?。篬spot] 實體類別 [asso] 關系類別 [text]

事件抽?。篬spot] 事件類別 [asso] 論元類別 [text]

觀點抽取:[spot] 評價維度 [asso] 觀點類別 [text]

下圖給出了不同任務數據集的SSI形式:

9ab8c76e-ba87-11ec-aa7f-dac502259ad0.png

3. UIE預訓練和微調方式

本小節,我們將介紹:

1)Pre-train:如何預訓練一個大規模的UIE模型,來捕獲不同IE任務間的通用IE能力?

2)Finetune:如何通過快速的Finetune使UIE適應不同設置下的不同 IE 任務。

1)Pre-train:大規模異構監督預訓練

UIE預訓練語料主要來自Wikipedia、Wikidata和ConceptNet,構建了3種預訓練數據:

D_pair: 通過Wikipedia對齊Wikidata,構建text-to-struct的平行語料:(SSI,Text,SEL)

D_record: 構造只包含SEL語法結構化record數據:(None,None,SEL)

D_text: 構造無結構的原始文本數據:(None,Text',Text'')

針對上述數據,分別構造3種預訓練任務,將大規模異構數據整合到一起進行預訓練:

Text-to-Structure Pre-training:為了構建基礎的文本到結構的映射能力,對平行語料D_pair訓練,同時構建負樣本作為噪聲訓練(引入negative schema)。

Structure Generation Pre-training:為了具備SEL語言的結構化能力,對D_pair數據只訓練 UIE 的 decoder 部分。

Retrofitting Semantic Representation:為了具備基礎的語義編碼能力,對D_text數據進行 span corruption訓練。

最終的預訓練目標,包含以上3部分;

9ad236e0-ba87-11ec-aa7f-dac502259ad0.png

2)Finetune:拒識噪聲注入的模型微調機制

為了解決自回歸Teacher-forcing的暴露偏差,構建了拒識噪聲注入的模型微調機制:隨機采樣SEL中不存在的SpotName類別和AssoName類別,即:(SPOTNAME, [NULL]) 和 (ASSONAME, [NULL]),學會拒絕生成錯誤結果的能力,如下圖所示:

9ae1a72e-ba87-11ec-aa7f-dac502259ad0.png

4. UIE主要實驗結論

1)全監督實驗

9af08410-ba87-11ec-aa7f-dac502259ad0.png

如上圖所示,SEL代表未經預訓練的UIE模型??梢钥闯觯?/p>

1、在4類信息抽取任務、13個數據集、7大領域的IE任務上,UIE達到了SOTA性能;

2、對比SEL和UIE結果:異構監督預訓練顯著地提升了 UIE 的通用信息抽取能力,具有更好的跨任務遷移能力;

2)少樣本實驗

9b07210c-ba87-11ec-aa7f-dac502259ad0.png

少樣本實驗可以發現:

1、大規模異構監督預訓練可以學習通用的信息抽取能力,使模型具有更好小樣本學習能力。

2、當去掉SSI結構化模式提示器后,發現指標下降,因此:結構化抽取指令具有更好的定向遷移的能力。

3)消融實驗

9b262d9a-ba87-11ec-aa7f-dac502259ad0.png

上述消融實驗表明:基于拒識噪聲注入的模型微調機制可以有效緩解自回歸生成過程中的暴露偏差問題。

總結與展望

本文介紹了一個統一的文本到結構生成框架——UIE,可以通用建模不同的IE任務,自適應生成有針對性的結構,從不同的知識來源統一學習通用的信息抽取能力。

實驗結果表明UIE實現了在監督和低資源下的SOTA性能,同時驗證了其普遍性、有效性和可轉移性。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 建模
    +關注

    關注

    1

    文章

    311

    瀏覽量

    60801
  • 文本
    +關注

    關注

    0

    文章

    118

    瀏覽量

    17098

原文標題:信息抽取大一統:百度中科院發布通用抽取模型UIE,刷新13個IE數據集SOTA!

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    AIGC與傳統內容生成的區別 AIGC的優勢和挑戰

    、AIGC與傳統內容生成的區別 數據類型與處理 : AIGC主要面向非結構化數據的生成,如自然語言文本、圖像、音頻、視頻等。這類數據規模更大,內在
    的頭像 發表于 11-22 16:04 ?388次閱讀

    RNN在圖片描述生成中的應用

    隨著深度學習技術的飛速發展,圖像描述生成(Image Captioning)作為計算機視覺和自然語言處理的交叉領域,受到了越來越多的關注。圖像描述生成任務旨在自動生成準確、自然和詳細的文本
    的頭像 發表于 11-15 09:58 ?335次閱讀

    生成式AI工具作用

    生成式AI工具是指那些能夠自動生成文本、圖像、音頻、視頻等多種類型數據的人工智能技術。在此,petacloud.ai小編為您整理生成式AI工具作用。
    的頭像 發表于 10-28 11:19 ?269次閱讀

    如何使用 Llama 3 進行文本生成

    使用LLaMA 3(Large Language Model Family of AI Alignment)進行文本生成,可以通過以下幾種方式實現,取決于你是否愿意在本地運行模型或者使用現成的API
    的頭像 發表于 10-27 14:21 ?489次閱讀

    AIGC與傳統內容生成的區別

    AIGC : 主要面向非結構化數據的生成,如自然語言文本、圖像、音頻、視頻等。 這類數據規模更大,內在結構更復雜,對處理技術提出了更高要求。 傳統內容
    的頭像 發表于 10-25 15:13 ?496次閱讀

    什么是LLM?LLM的工作原理和結構

    隨著人工智能技術的飛速發展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領域的研究熱點。LLM以其強大的文本生成、理解和推理能力,在文本生成
    的頭像 發表于 07-02 11:45 ?8242次閱讀

    CubeIDE生成的代碼框架會卡在MX_X_CUBE_AI_Process()函數中是怎么回事?

    當我將網絡模型部署STM32F407VGT6中時,CubeIDE生成的代碼框架會卡在MX_X_CUBE_AI_Process()函數中是怎么回事?CUbeAI庫的版本是9.0。期待您的回復,謝謝
    發表于 05-30 06:11

    OpenHarmony語言基礎類庫【@ohos.xml (xml解析與生成)】

    將XML文本轉換為JavaScript對象、以及XML文件生成和解析的系列接口。
    的頭像 發表于 05-08 17:05 ?881次閱讀

    美日聯手研究生成式AI,將建立合作框架

    近期,美國和日本政府宣布將聯手研究生成式人工智能(AI),并計劃建立個合作框架以共同推進該領域的技術進步。
    的頭像 發表于 04-18 15:15 ?620次閱讀

    NVIDIA生成式AI研究實現在1秒內生成3D形狀

    NVIDIA 研究人員使 LATTE3D (款最新文本轉 3D 生成式 AI 模型)實現雙倍加速。
    的頭像 發表于 03-27 10:28 ?524次閱讀
    NVIDIA<b class='flag-5'>生成</b>式AI研究實現在1秒內<b class='flag-5'>生成</b>3D形狀

    【鴻蒙】NAPI 框架生成工具實現流程

    NAPI 框架生成工具 可以根據用戶指定路徑下的 ts(typescript)接口文件生成 NAPI 框架代碼、業務代碼
    的頭像 發表于 02-28 17:00 ?714次閱讀
    【鴻蒙】NAPI <b class='flag-5'>框架</b><b class='flag-5'>生成</b>工具實現流程

    探索OpenAI Sora視頻AI生成技術及其應用如何使用指南

    的應用范圍從娛樂和教育營銷和內容創作等各個領域都有巨大潛力。 Sora視頻AI的介紹 Sora視頻AI是種先進的人工智能工具,它利用深度學習算法根據用戶提供的文本描述生成視頻。這意
    的頭像 發表于 02-20 12:01 ?1475次閱讀

    Stability AI試圖通過新的圖像生成人工智能模型保持領先地位

    Stability AI的最新圖像生成模型Stable Cascade承諾比其業界領先的前身Stable Diffusion更快、更強大,而Stable Diffusion是許多其他文本圖像
    的頭像 發表于 02-19 16:03 ?968次閱讀
    Stability AI試圖通過新的圖像<b class='flag-5'>生成</b>人工智能模型保持領先地位

    OpenAI發布首個視頻生成模型Sora

    OpenAI近日宣布推出其全新的文本視頻生成模型——Sora。這突破性的技術將視頻創作帶入了個全新的紀元,為用戶提供了前所未有的創作可
    的頭像 發表于 02-18 10:07 ?1093次閱讀

    谷歌發布Lumiere人工智能文本視頻生成

    隨著近年來AI應用的不斷普及和改進,自動文本創作系統如ChatGPT已經被廣泛接受,成為聊天窗口中的???。類似地,文本圖畫生成工具讓人們得以繪制出超現實的視覺效果。然而,谷歌此次推出
    的頭像 發表于 01-31 16:45 ?888次閱讀
    主站蜘蛛池模板: freesexvideo性残疾| 日本在线视| 国内精品久久久久影| 国产亚洲视频在线播放大全| 丁香八月婷婷| 午夜精品久久久久| 久久新视频| 啪啪.com| 22eee在线播放成人免费视频| 亚洲a视频在线| 伊人久久精品成人网| 特黄一级黄色片| 免费看日本黄色片| 国产精品资源网| 午夜999| 九九热在线免费| 色婷婷五| 欧美乱论视频| 国内精品久久久久久影院老狼| sss在线play| 人人干综合| 欧美成人性高清观看| 久热99| 色偷偷91综合久久噜噜| 毛片区| 欧美日韩国产乱了伦| 黄色片 720p| 午夜久久网| 在线视频网址免费播放| 日本不卡视频在线播放| 天堂bt| 国产免费播放一区二区三区| 天堂中文网| 好大好硬好深好爽视频h| 717影院理论午夜伦八戒| 日韩天堂| 播放欧亚一级特黄录像| 国外免费精品视频在线观看| 欧洲亚洲一区| www爽| 欧洲乱码专区一区二区三区四区|