在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

關于“NLP中的遷移學習”的教程

DPVg_AI_era ? 來源:lq ? 2019-06-23 10:11 ? 次閱讀

近日,在美國明尼蘇達州明尼阿波利斯的NAACL2019上,Sebastian Ruder, Matthew Peters, Swabha Swayamdipta和Thomas Wolf分享了一個長達238頁PPT關于“NLP中的遷移學習”的教程,今天拿來和大家分享。

經典的監督機器學習范式是基于對使用單個數據集的任務的單個預測模型的孤立學習。這種方法需要大量的訓練示例,并且對于定義明確、范圍狹窄的任務效果最好。遷移學習指的是一組方法,這些方法通過利用來自其他域或任務的數據來訓練具有更好泛化特性的模型來擴展此方法。

近兩年來,自然語言處理(NLP)領域出現了幾種轉移學習方法和體系結構,這些方法和體系結構大大提高了NLP任務的先進性。

這些改進,加上這些方法的廣泛可用性和易集成性,使人們想起了導致計算機視覺中預訓練字嵌入和ImageNet預訓練成功的因素,并表明這些方法很可能成為NLP中的一種常用工具以及一個重要的研究方向。

我們將概述NLP中的現代遷移學習方法,如何對模型進行預培訓,它們所學習的表示捕獲哪些信息,并回顧有關如何在下游NLP任務中集成和適應這些模型的示例和案例研究。

什么是遷移學習?

(a)傳統機器學習的學習過程:

任務1:學習系統

任務2:學習系統

任務3:學習系統

(b)遷移學習的學習過程:

源任務:知識

目標任務:學習系統

為什么是NLP遷移學習?

許多NLP任務都有共同的語言知識(例如語言表示、結構相似性)

任務可以互相通知,例如語法和語義

注釋數據很少,盡可能多地利用監督

從經驗上講,遷移學習已經在SOTA形成了許多被監督的NLP任務(例如分類、信息提取、問答等)

為什么是NLP遷移學習?(憑經驗)

在命名實體識別(NER)CONLL-2003(英語)上隨著時間推移的表現

NLP中遷移學習的類型

本教程到底講什么?

本教程講的是什么,不講的是什么:

目標:提供NLP中遷移方法的廣泛概述,重點介紹截至目前(2019年年中)最成功的經驗方法。

提供實用的、實際操作的建議→在教程結束時,每個人都有能力將最新進展應用到文本分類任務中。

不講的是什么:全面的(不可能在一個教程中涵蓋所有相關的論文!)

(Bender Rule: 本教程主要是針對用英語完成的工作,其他語言的可擴展性取決于監督是否可用。)

框架:

1、介紹

2、預訓練

3、代表中有什么?

4、適應

5、下游

6、開放問題

順序遷移學習

了解一個任務/數據集,然后遷移到另一個任務/數據集

預訓練:

word2vec

GloVe

skip-thought

InferSent

ELMo

ULMFiT

GPT

BERT

適應:

分類

序列標記

問答

預培訓任務和數據集

未標記數據和自我監督:

易于收集的大型語料庫:維基百科、新聞、網絡爬蟲、社交媒體等。

訓練利用了分布假設:“你應該知道它所保存的一個詞”(Firth,1957),通常形式化為訓練某種語言模型的變體。

注重高效算法利用豐富的數據

監督預培訓:

在視覺上非常常見,由于缺乏大的監控數據集,在NLP中較少見。

機器翻譯

句子表達的NLI

從一個問答數據集到另一個問答數據集的任務特定傳輸

目標任務和數據集

目標任務通常是受監控的,跨越一系列常見的NLP任務:

句子或文檔分類(如情感)

句子對分類(如NLI、釋義)

字級(例如序列標記、提取性問答)

結構化預測(如解析)

生成(例如對話、總結)

具體示例——詞向量

單詞嵌入方法(例如word2vec)每個單詞學習一個向量

主題:從單詞到語境中的單詞

主題:從單詞到語境中的單詞

詞向量 句子/doc向量 語境中詞向量

主題:LM預訓練

許多成功的預培訓方法都是基于語言建模的

非正式地,LM學習p(文本)或p(文本/其他文本)

不需要人工注釋

許多語言有足夠的文本來學習大容量模型

多才多藝,能學習句子和詞的表達,具有多種客觀功能

主題:由淺入深

1層 24層

主題:預培訓與目標任務

預培訓和目標任務的選擇是耦合

句子/文檔表示法對單詞級預測無效

詞向量可以跨上下文匯集,但通常比其他方法更好。

在語境詞向量中,雙向語境很重要

一般來說:

類似的預培訓和目標任務→最佳結果

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • nlp
    nlp
    +關注

    關注

    1

    文章

    488

    瀏覽量

    22037
  • 遷移學習
    +關注

    關注

    0

    文章

    74

    瀏覽量

    5561

原文標題:【干貨】NLP中的遷移學習教程來啦!(238頁PPT下載)

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于稀疏編碼的遷移學習及其在行人檢測的應用

    一定進展,但大都需要大量的訓練數據.針對這一問題,提出了一種基于遷移學習的半監督行人分類方法:首先基于稀疏編碼,從任意的未標記樣本,學習到一個緊湊、有效的特征表示;然后通過
    發表于 04-24 09:48

    遷移學習

    PDA、Source-Free DA上的應用。六、遷移學習前沿應用遷移學習在語義分割的應用遷移
    發表于 04-21 15:15

    專欄 | 深度學習NLP的運用?從分詞、詞性到機器翻譯、對話系統

    從分詞、詞性等基礎模塊,到機器翻譯、知識問答等領域,本文列舉并分析一些深度學習NLP 領域的具體運用,希望對大家研究深度學習NLP 有所幫助。
    的頭像 發表于 08-18 17:06 ?7559次閱讀
    專欄 | 深度<b class='flag-5'>學習</b>在<b class='flag-5'>NLP</b><b class='flag-5'>中</b>的運用?從分詞、詞性到機器翻譯、對話系統

    對2017年NLP領域中深度學習技術應用的總結

    本文作者Javier Couto是tryo labs公司的一名研發科學家,專注于NLP技術。這篇文章是他對2017年NLP領域中深度學習技術應用的總結,也許并不全面,但都是他認為有價值、有意義的成果。Couto表示,2017年是
    的頭像 發表于 12-28 10:02 ?5621次閱讀
    對2017年<b class='flag-5'>NLP</b>領域中深度<b class='flag-5'>學習</b>技術應用的總結

    NLP的介紹和如何利用機器學習進行NLP以及三種NLP技術的詳細介紹

    本文用簡潔易懂的語言,講述了自然語言處理(NLP)的前世今生。從什么是NLP到為什么要學習NLP,再到如何利用機器學習進行
    的頭像 發表于 06-10 10:26 ?7.7w次閱讀
    <b class='flag-5'>NLP</b>的介紹和如何利用機器<b class='flag-5'>學習</b>進行<b class='flag-5'>NLP</b>以及三種<b class='flag-5'>NLP</b>技術的詳細介紹

    面向NLP任務的遷移學習新模型ULMFit

    除了能夠更快地進行訓練之外,遷移學習也是特別有趣的,僅在最后一層進行訓練,讓我們可以僅僅使用較少的標記數據,而對整個模型進行端對端訓練則需要龐大的數據集。標記數據的成本很高,在無需大型數據集的情況下建立高質量的模型是很可取的方法。
    的頭像 發表于 08-22 08:11 ?5629次閱讀

    NLP的深度學習技術概述

    該項目是對基于深度學習的自然語言處理(NLP)的概述,包括用來解決不同 NLP 任務和應用的深度學習模型(如循環神經網絡、卷積神經網絡和強化學習
    的頭像 發表于 03-01 09:13 ?4816次閱讀
    <b class='flag-5'>NLP</b><b class='flag-5'>中</b>的深度<b class='flag-5'>學習</b>技術概述

    遷移學習與模型預訓練:何去何從

    把我們當前要處理的NLP任務叫做T(T稱為目標任務),遷移學習技術做的事是利用另一個任務S(S稱為源任務)來提升任務T的效果,也即把S的信息遷移到T
    的頭像 發表于 07-18 11:29 ?7887次閱讀
    <b class='flag-5'>遷移</b><b class='flag-5'>學習</b>與模型預訓練:何去何從

    NLP遷移學習面臨的問題和解決

    自然語言處理(NLP)最近取得了巨大的進步,每隔幾天就會發布最新的結果。排行榜瘋狂是指最常見的NLP基準,如GLUE和SUPERGLUE,它們的得分越來越接近人類的水平。這些結果大多是通過超大(數十億個參數)模型從大規模數據集中遷移
    的頭像 發表于 05-04 12:03 ?3154次閱讀
    <b class='flag-5'>NLP</b><b class='flag-5'>遷移</b><b class='flag-5'>學習</b>面臨的問題和解決

    NLP 2019 Highlights 給NLP從業者的一個參考

    自然語言處理專家elvis在medium博客上發表了關于NLP在2019年的亮點總結。對于自然語言處理(NLP)領域而言,2019年是令人印象深刻的一年。在這篇博客文章,我想重點介紹
    的頭像 發表于 09-25 16:56 ?1728次閱讀

    遷移學習的意圖識別在口語理解的應用

    獲得大量數據,因此為搭建新領域的深度學習模型提出了挑戰。遷移學習是深度學習的一種特殊應用,在遷移學習
    發表于 04-12 11:18 ?4次下載
    <b class='flag-5'>遷移</b><b class='flag-5'>學習</b>的意圖識別在口語理解<b class='flag-5'>中</b>的應用

    遷移學習Finetune的四種類型招式

    遷移學習方法。例如NLP的預訓練Bert模型,通過在下游任務上Finetune即可取得比直接使用下游數據任務從零訓練的效果要好得多。
    的頭像 發表于 04-02 17:35 ?3177次閱讀

    NLP遷移學習:利用預訓練模型進行文本分類

    遷移學習徹底改變了自然語言處理(NLP)領域,允許從業者利用預先訓練的模型來完成自己的任務,從而大大減少了訓練時間和計算資源。在本文中,我們將討論遷移
    發表于 06-14 09:30 ?454次閱讀

    一文詳解遷移學習

    遷移學習需要將預訓練好的模型適應新的下游任務。然而,作者觀察到,當前的遷移學習方法通常無法關注與任務相關的特征。在這項工作,作者探索了重新
    的頭像 發表于 08-11 16:56 ?6329次閱讀
    一文詳解<b class='flag-5'>遷移</b><b class='flag-5'>學習</b>

    深度學習nlp的區別在哪

    深度學習和自然語言處理(NLP)是計算機科學領域中兩個非常重要的研究方向。它們之間既有聯系,也有區別。本文將介紹深度學習NLP的區別。 深度學習
    的頭像 發表于 07-05 09:47 ?933次閱讀
    主站蜘蛛池模板: 巨乳色在线观看| 国产精品激情综合久久| 777人体粉嫩u美图| 四虎www.| 精品成人在线| 九色视频在线播放| 成人二区| 黄色日本视频网站| 国内色视频| 亚洲欧美在线精品一区二区| 激情五月婷婷综合| 国产美女久久| 香蕉爱爱网| 97色伦人人| 69女poren18女| 求网址你懂的手机在线观看网站| 中文日产国产精品久久| 狠狠躁夜夜躁人人爽天天miya| 四虎国产精品视频免费看| 又大又粗进出白浆直流动态图| 在线视频亚洲一区| 日韩a无吗一区二区三区| 婷婷综合网站| 最好看的最新中文字幕2018免费视频| 久久精品成人免费网站| 成人综合在线视频| 特级一级片| 五月天婷婷社区| av网站免费线看| 菲菲国产在线观看| 一级毛片西西人体44rt高清| 免费恐怖片| 午夜黄页网站在线播放| 日本高清色视频www| 免费观看黄a一级视频| 性生活一区| 午夜干b| julia一区二区三区中文字幕| 国产tube| 婷婷午夜激情| 国产gaysexchina男同men1068 |