在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

自然語言處理頂會NAACL近日公布了本屆會議的最佳論文,谷歌BERT論文獲得最佳長論文

DPVg_AI_era ? 來源:lp ? 2019-04-19 11:35 ? 次閱讀

自然語言處理頂會NAACL近日公布了本屆會議的最佳論文,谷歌BERT論文獲得最佳長論文,可謂名至實歸。

自然語言處理四大頂會之一NAACL2019將于6月2日-7日在美國明尼阿波利斯市舉行。

據(jù)官方統(tǒng)計,NAACL2019共收到1955篇論文,接收論文424篇,錄取率僅為22.6%。其中長論文投稿1198篇,短論文757篇。

今天,大會揭曉了本屆會議的最佳論文獎項,包括最佳專題論文、最佳可解釋NLP論文、最佳長論文、最佳短論文和最佳資源論文。

其中,谷歌BERT論文獲得最佳長論文獎項,可謂名至實歸。

最佳長論文:谷歌BERT模型

最佳長論文(Best Long Paper)

BERT:PretrainingofDeepBidirectionalTransformersforLanguageUnderstanding

JacobDevlin,Ming-WeiChang,KentonLeeandKristinaToutanova

https://arxiv.org/abs/1810.04805

谷歌AI團隊在去年10月發(fā)布的BERT模型,在機器閱讀理解頂級水平測試SQuAD1.1中表現(xiàn)出驚人的成績:全部兩個衡量指標上全面超越人類!并且還在11種不同NLP測試中創(chuàng)出最佳成績,包括將GLUE基準推至80.4%(絕對改進7.6%),MultiNLI準確度達到86.7%(絕對改進率5.6%)等。

自BERT模型發(fā)布以來,許多基于BERT的改進模型不斷在各種NLP任務刷新成績。毫不夸張地說,BERT模型開啟了NLP的新時代!

首先來看下谷歌AI團隊做的這篇論文。

BERT的新語言表示模型,它代表Transformer的雙向編碼器表示。與最近的其他語言表示模型不同,BERT旨在通過聯(lián)合調節(jié)所有層中的上下文來預先訓練深度雙向表示。因此,預訓練的BERT表示可以通過一個額外的輸出層進行微調,適用于廣泛任務的最先進模型的構建,比如問答任務和語言推理,無需針對具體任務做大幅架構修改。

論文作者認為現(xiàn)有的技術嚴重制約了預訓練表示的能力。其主要局限在于標準語言模型是單向的,這使得在模型的預訓練中可以使用的架構類型很有限。

在論文中,作者通過提出BERT:即Transformer的雙向編碼表示來改進基于架構微調的方法。

BERT提出一種新的預訓練目標:遮蔽語言模型(maskedlanguagemodel,MLM),來克服上文提到的單向性局限。MLM的靈感來自Cloze任務(Taylor,1953)。MLM隨機遮蔽模型輸入中的一些token,目標在于僅基于遮蔽詞的語境來預測其原始詞匯id。

與從左到右的語言模型預訓練不同,MLM目標允許表征融合左右兩側的語境,從而預訓練一個深度雙向Transformer。除了遮蔽語言模型之外,本文作者還引入了一個“下一句預測”(nextsentenceprediction)任務,可以和MLM共同預訓練文本對的表示。

預訓練模型架構的差異。BERT使用雙向Transformer。OpenAIGPT使用從左到右的Transformer。ELMo使用經(jīng)過獨立訓練的從左到右和從右到左LSTM的串聯(lián)來生成下游任務的特征。三個模型中,只有BERT表示在所有層中共同依賴于左右上下文。

參考閱讀:

NLP歷史突破!谷歌BERT模型狂破11項紀錄,全面超越人類!

最佳專題論文:減輕機器學習系統(tǒng)的偏見

最佳專題論文(Best Thematic Paper)

What’sinaName?ReducingBiasinBiosWithoutAccesstoProtectedAttributes

AlexeyRomanov,MariaDeArteaga,HannaWallach,JenniferChayes,ChristianBorgs,AlexandraChouldechova,SahinGeyik,KrishnaramKenthapadi,AnnaRumshiskyandAdamKalai

https://128.84.21.199/abs/1904.05233

越來越多的研究提出了減輕機器學習系統(tǒng)偏見的方法。這些方法通常依賴于對受保護屬性(如種族、性別或年齡)的可用性。

然而,這提出了兩個重要的挑戰(zhàn):

(1)受保護的屬性可能不可用,或者使用它們可能不合法;

(2)通常需要同時考慮多個受保護的屬性及其交集。

在減輕職業(yè)分類偏見的背景下,我們提出了一種方法,用于阻隔個人真實職業(yè)的預測概率與他們名字的單詞嵌入之間的相關性。

這種方法利用了詞嵌入中編碼的社會偏見,從而無需訪問受保護屬性。最重要的是,這種方法只要求在訓練時訪問個人姓名,而不是在部署時。

我們使用了一個大規(guī)模的在線傳記數(shù)據(jù)集來評估我們提出的方法的兩種變體。我們發(fā)現(xiàn),這兩種變體同時減少了種族和性別偏見,而分類器的總體真實陽性率幾乎沒有降低。

最佳可解釋NLP論文:用量子物理的數(shù)學框架建模人類語言

最佳可解釋NLP論文 (Best Explainable NLP Paper)

CNM:AnInterpretableComplex-valuedNetworkforMatching

QiuchiLi,BenyouWangandMassimoMelucci

https://128.84.21.199/abs/1904.05298

本文試圖用量子物理的數(shù)學框架對人類語言進行建模。

這個框架利用了量子物理中精心設計的數(shù)學公式,將不同的語言單元統(tǒng)一在一個復值向量空間中,例如,將單詞作為量子態(tài)的粒子,句子作為混合系統(tǒng)。我們構建了一個復值網(wǎng)絡來實現(xiàn)該框架的語義匹配。

由于具有良好約束的復值組件,網(wǎng)絡允許對顯式物理意義進行解釋。所提出的復值匹配網(wǎng)絡(complex-valuednetworkformatching,CNM)在兩個基準問題回答(QA)數(shù)據(jù)集上具有與強大的CNN和RNN基線相當?shù)男阅堋?/p>

最佳短論文:視覺模態(tài)對機器翻譯的作用

最佳短論文(Best Short Paper)

Probing the Need for Visual Context in Multimodal Machine Translation

OzanCaglayan,PranavaMadhyastha,LuciaSpeciaandLo?cBarrault

https://arxiv.org/abs/1903.08678

目前關于多模態(tài)機器翻譯(MMT)的研究表明,視覺模態(tài)要么是不必要的,要么僅僅是有幫助的。

我們假設這是在任務的惟一可用數(shù)據(jù)集(Multi30K)中使用的非常簡單、簡短和重復的語句的結果,其中源文本被呈現(xiàn)為上下文。

然而,在一般情況下,我們認為可以將視覺信息和文本信息結合起來進行實際的翻譯。

在本文中,我們通過系統(tǒng)的分析探討了視覺模態(tài)對最先進的MMT模型的貢獻。我們的結果表明,在有限的文本上下文中,模型能夠利用視覺輸入生成更好的翻譯。這與當前的觀點相矛盾,即要么是因為圖像特征的質量,要么是因為它們集成到模型中的方式,MMT模型忽視了視覺模態(tài)。

最佳資源論文:常識性問答的新數(shù)據(jù)集

最佳資源論文(Best Resource Paper)

CommonsenseQA:AQuestionAnsweringChallengeTargetingCommonsenseKnowledge

AlonTalmor,JonathanHerzig,NicholasLourieandJonathanBerant

https://arxiv.org/abs/1811.00937

在回答一個問題時,除了特定的上下文外,人們往往會利用他們豐富的世界知識。

最近的工作主要集中在回答一些有關文件或背景的問題,很少需要一般常識背景。

為了研究基于先驗知識的問答任務,我們提出了CommonsenseQA:一個具有挑戰(zhàn)性的用于常識性問答的新數(shù)據(jù)集。

為了獲取超出關聯(lián)之外的常識,我們從ConceptNet(Speeretal.,2017)中提取了與單個源概念具有相同語義關系的多個目標概念。參與者被要求撰寫多項選擇題,其中要提到源概念,并依次區(qū)分每個目標概念。這鼓勵參與人員創(chuàng)建具有復雜語義的問題,這些問題通常需要先驗知識。

我們通過這個過程創(chuàng)建了12247個問題,并用大量強大的基線說明了我們任務的難度。我們最好的基線是基于BERT-large(Devlinetal.,2018)的,獲得56%的準確率,遠低于人類表現(xiàn),即89%的準確度。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6168

    瀏覽量

    105382
  • 語言模型
    +關注

    關注

    0

    文章

    524

    瀏覽量

    10277
  • 自然語言處理

    關注

    1

    文章

    618

    瀏覽量

    13561

原文標題:自然語言處理頂會NAACL最佳論文出爐!谷歌BERT名至實歸獲最佳長論文

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的一個核心領域,它使計算機能夠從數(shù)據(jù)中學習并做出預測或決策。自然語言處理與機器學習之間有著密切的關系,因為機器學習提供一種強大的工具,用于從大量文本數(shù)據(jù)中提取模式和知識,從而提高NLP系
    的頭像 發(fā)表于 12-05 15:21 ?483次閱讀

    ASR與自然語言處理的結合

    ASR(Automatic Speech Recognition,自動語音識別)與自然語言處理(NLP)是人工智能領域的兩個重要分支,它們在許多應用中緊密結合,共同構成了自然語言理解和生成的技術體系
    的頭像 發(fā)表于 11-18 15:19 ?412次閱讀

    自然語言處理與機器學習的區(qū)別

    在人工智能的快速發(fā)展中,自然語言處理(NLP)和機器學習(ML)成為了兩個核心的研究領域。它們都致力于解決復雜的問題,但側重點和應用場景有所不同。 1. 自然語言處理(NLP) 定義:
    的頭像 發(fā)表于 11-11 10:35 ?585次閱讀

    經(jīng)緯恒潤功能安全AI 智能體論文成功入選EMNLP 2024!

    :AnAdvancedLLM-BasedMulti-AgentforIntelligentFunctionalSafetyEngineering》成功入選EMNLP2024產(chǎn)業(yè)應用分會(IndustryTrack)。EMNLP作為自然語言處理領域的高規(guī)格
    的頭像 發(fā)表于 10-18 08:00 ?351次閱讀
    經(jīng)緯恒潤功能安全AI 智能體<b class='flag-5'>論文</b>成功入選EMNLP 2024!

    中科馭數(shù)聯(lián)合處理器芯片全國重點實驗室獲得“CCF芯片大會最佳論文獎”

    Accelerator on FPGA with Graph Reordering Engine》獲得“CCF芯片大會最佳論文獎”。該項工作由鄢貴海研究員指導完成,論文第一作者是博士
    的頭像 發(fā)表于 08-02 11:09 ?610次閱讀

    地平線科研論文入選國際計算機視覺ECCV 2024

    近日,地平線兩篇論文入選國際計算機視覺ECCV 2024,自動駕駛算法技術再有新突破。
    的頭像 發(fā)表于 07-27 11:10 ?922次閱讀
    地平線科研<b class='flag-5'>論文</b>入選國際計算機視覺<b class='flag-5'>頂</b><b class='flag-5'>會</b>ECCV 2024

    谷歌DeepMind被曝抄襲開源成果,論文還中了會議

    谷歌DeepMind一篇中了流新生代會議CoLM 2024的論文被掛了,瓜主直指其抄襲一年前就掛在arXiv上的一項研究。開源的那種。
    的頭像 發(fā)表于 07-16 18:29 ?590次閱讀
    <b class='flag-5'>谷歌</b>DeepMind被曝抄襲開源成果,<b class='flag-5'>論文</b>還中了<b class='flag-5'>頂</b>流<b class='flag-5'>會議</b>

    用于自然語言處理的神經(jīng)網(wǎng)絡有哪些

    取得了顯著進展,成為處理自然語言任務的主要工具。本文將詳細介紹幾種常用于NLP的神經(jīng)網(wǎng)絡模型,包括遞歸神經(jīng)網(wǎng)絡(RNN)、長短時記憶網(wǎng)絡(LSTM)、卷積神經(jīng)網(wǎng)絡(CNN)、變換器(Transformer)以及預訓練模型如BERT
    的頭像 發(fā)表于 07-03 16:17 ?1193次閱讀

    自然語言處理技術有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個分支,它致力于使計算機能夠理解、解釋和生成人類語言自然語言
    的頭像 發(fā)表于 07-03 14:30 ?1154次閱讀

    自然語言處理模式的優(yōu)點

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它致力于使計算機能夠理解、生成和處理人類語言。隨著技術的發(fā)展,
    的頭像 發(fā)表于 07-03 14:24 ?787次閱讀

    自然語言處理是什么技術的一種應用

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的一個分支,它涉及到使用計算機技術來處理、分析和生成
    的頭像 發(fā)表于 07-03 14:18 ?903次閱讀

    自然語言處理包括哪些內容

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它涉及到計算機與人類語言之間的交互。NLP的目標是讓計算機能夠理解、生成和處理
    的頭像 發(fā)表于 07-03 14:15 ?875次閱讀

    什么是自然語言處理 (NLP)

    自然語言處理(Natural Language Processing, NLP)是人工智能領域中的一個重要分支,它專注于構建能夠理解和生成人類語言的計算機系統(tǒng)。NLP的目標是使計算機能夠像人類一樣
    的頭像 發(fā)表于 07-02 18:16 ?1185次閱讀

    自然語言處理技術的原理的應用

    自然語言處理(Natural Language Processing, NLP)作為人工智能(AI)領域的一個重要分支,旨在使計算機能夠理解和處理人類自然語言。隨著互聯(lián)網(wǎng)的普及和大數(shù)據(jù)
    的頭像 發(fā)表于 07-02 12:50 ?529次閱讀

    神經(jīng)網(wǎng)絡在自然語言處理中的應用

    自然語言處理(NLP)是人工智能領域中的一個重要分支,它研究的是如何使計算機能夠理解和生成人類自然語言。隨著人工智能技術的飛速發(fā)展,神經(jīng)網(wǎng)絡在自然語言
    的頭像 發(fā)表于 07-01 14:09 ?515次閱讀
    主站蜘蛛池模板: 五月婷婷在线观看视频| 亚洲国产成人久久一区久久| 俺去插| 日本加勒比在线播放| 一区视频在线播放| 色媚网| 精品一区二区三区免费爱| 天天摸日日干| 亚洲乱码卡一卡二卡三永久| 日本高清午夜色wwwσ| 伊人福利网| 亚洲伦理一区| 能看的黄色网址| 欧美高h| 一色屋精品免费视频 视频| 精品久久久久久中文字幕欧美| 国产卡一卡2卡三卡免费视频| 久久精品免视看国产成人2021| 最好看免费中文字幕2018视频| 久久澡人人澡狠狠澡| 夜夜爱视频| 亚洲一区二区综合| 欧美日本综合| sao虎在线精品永久| 免费视频www| 欧美色惰| 加勒比黑人喝羽月希奶水| 一级a爰片久久毛片| 高清色视频| 992tv国产精品福利在线| 日本黄色免费在线观看| 日本加勒比官网| 亚洲色图88| 亚洲久久久| 国产高清在线播放免费观看| 国产精品手机在线| 一级美女片| 黄色污网站在线观看| 欧美系列在线观看| 欧美大片一区二区三区| 国产午夜小视频|