在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

哈工大訊飛聯合實驗室發布基于全詞覆蓋的中文BERT預訓練模型

WpOh_rgznai100 ? 來源:lq ? 2019-07-18 14:36 ? 次閱讀

為了進一步促進中文自然語言處理的研究發展,哈工大訊飛聯合實驗室發布基于全詞覆蓋(Whole Word Masking)的中文BERT預訓練模型。我們在多個中文數據集上得到了較好的結果,覆蓋了句子級到篇章級任務。同時,我們對現有的中文預訓練模型進行了對比,并且給出了若干使用建議。我們歡迎大家下載試用。

下載地址:https://github.com/ymcui/Chinese-BERT-wwm

技術報告:https://arxiv.org/abs/1906.08101

摘要

基于Transformers的雙向編碼表示(BERT)在多個自然語言處理任務中取得了廣泛的性能提升。近期,谷歌發布了基于全詞覆蓋(Whold Word Masking)的BERT預訓練模型,并且在SQuAD數據中取得了更好的結果。應用該技術后,在預訓練階段,同屬同一個詞的WordPiece會被全部覆蓋掉,而不是孤立的覆蓋其中的某些WordPiece,進一步提升了Masked Language Model (MLM)的難度。在本文中我們將WWM技術應用在了中文BERT中。我們采用中文維基百科數據進行了預訓練。該模型在多個自然語言處理任務中得到了測試和驗證,囊括了句子級到篇章級任務,包括:情感分類,命名實體識別,句對分類,篇章分類,機器閱讀理解。實驗結果表明,基于全詞覆蓋的中文BERT能夠帶來進一步性能提升。同時我們對現有的中文預訓練模型BERT,ERNIE和本文的BERT-wwm進行了對比,并給出了若干使用建議。預訓練模型將發布在:https://github.com/ymcui/Chinese-BERT-wwm

簡介

Whole Word Masking (wwm),暫翻譯為全詞Mask,是谷歌在2019年5月31日發布的一項BERT的升級版本,主要更改了原預訓練階段的訓練樣本生成策略。簡單來說,原有基于WordPiece的分詞方式會把一個完整的詞切分成若干個詞綴,在生成訓練樣本時,這些被分開的詞綴會隨機被[MASK]替換。在全詞Mask中,如果一個完整的詞的部分WordPiece被[MASK]替換,則同屬該詞的其他部分也會被[MASK]替換,即全詞Mask。

同理,由于谷歌官方發布的BERT-base(Chinese)中,中文是以字為粒度進行切分,沒有考慮到傳統NLP中的中文分詞(CWS)。我們將全詞Mask的方法應用在了中文中,即對組成同一個詞的漢字全部進行[MASK]。該模型使用了中文維基百科(包括簡體和繁體)進行訓練,并且使用了哈工大語言技術平臺LTP(http://ltp.ai)作為分詞工具。

下述文本展示了全詞Mask的生成樣例。

基線測試結果

我們選擇了若干中文自然語言處理數據集來測試和驗證預訓練模型的效果。同時,我們也對近期發布的谷歌BERT,百度ERNIE進行了基準測試。為了進一步測試這些模型的適應性,我們特別加入了篇章級自然語言處理任務,來驗證它們在長文本上的建模效果。

以下是我們選用的基準測試數據集。

我們列舉其中部分實驗結果,完整結果請查看我們的技術報告。為了確保結果的穩定性,每組實驗均獨立運行10次,匯報性能最大值和平均值(括號內顯示)。

▌中文簡體閱讀理解:CMRC 2018

CMRC 2018是哈工大訊飛聯合實驗室發布的中文機器閱讀理解數據。根據給定問題,系統需要從篇章中抽取出片段作為答案,形式與SQuAD相同。

▌中文繁體閱讀理解:DRCD

DRCD數據集由中國***臺達研究院發布,其形式與SQuAD相同,是基于繁體中文的抽取式閱讀理解數據集。

▌中文命名實體識別:人民日報,MSRA-NER

中文命名實體識別(NER)任務中,我們采用了經典的人民日報數據以及微軟亞洲研究院發布的NER數據。

▌句對分類:LCQMC,BQ Corpus

LCQMC以及BQ Corpus是由哈爾濱工業大學(深圳)發布的句對分類數據集。

▌篇章級文本分類:THUCNews

由清華大學自然語言處理實驗室發布的新聞數據集,需要將新聞分成10個類別中的一個。

使用建議

基于以上實驗結果,我們給出以下使用建議(部分),完整內容請查看我們的技術報告。

初始學習率是非常重要的一個參數(不論是BERT還是其他模型),需要根據目標任務進行調整。

ERNIE的最佳學習率和BERT/BERT-wwm相差較大,所以使用ERNIE時請務必調整學習率(基于以上實驗結果,ERNIE需要的初始學習率較高)。

由于BERT/BERT-wwm使用了維基百科數據進行訓練,故它們對正式文本建模較好;而ERNIE使用了額外的百度百科、貼吧、知道等網絡數據,它對非正式文本(例如微博等)建模有優勢。

在長文本建模任務上,例如閱讀理解、文檔分類,BERT和BERT-wwm的效果較好。

如果目標任務的數據和預訓練模型的領域相差較大,請在自己的數據集上進一步做預訓練。

如果要處理繁體中文數據,請使用BERT或者BERT-wwm。因為我們發現ERNIE的詞表中幾乎沒有繁體中文。

聲明

雖然我們極力的爭取得到穩定的實驗結果,但實驗中難免存在多種不穩定因素(隨機種子,計算資源,超參),故以上實驗結果僅供學術研究參考。由于ERNIE的原始發布平臺是PaddlePaddle(https://github.com/PaddlePaddle/LARK/tree/develop/ERNIE),我們無法保證在本報告中的效果能反映其真實性能(雖然我們在若干數據集中復現了效果)。同時,上述使用建議僅供參考,不能作為任何結論性依據。

該項目不是谷歌官方發布的中文Whole Word Masking預訓練模型。

總結

我們發布了基于全詞覆蓋的中文BERT預訓練模型,并在多個自然語言處理數據集上對比了BERT、ERNIE以及BERT-wwm的效果。實驗結果表明,在大多數情況下,采用了全詞覆蓋的預訓練模型(ERNIE,BERT-wwm)能夠得到更優的效果。由于這些模型在不同任務上的表現不一致,我們也給出了若干使用建議,并且希望能夠進一步促進中文信息處理的研究與發展。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據集
    +關注

    關注

    4

    文章

    1208

    瀏覽量

    24703
  • 自然語言處理

    關注

    1

    文章

    618

    瀏覽量

    13561

原文標題:刷新中文閱讀理解水平,哈工大訊飛聯合發布基于全詞覆蓋中文BERT預訓練模型

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    小米與聚光電成立聯合實驗室

    近日,“小米&聚聯合實驗室”在惠州聚正式揭牌成立。該實驗室將以Mini背光技術創新為主要方向,進一步強化雙方在顯示終端領域的多元化合作。
    的頭像 發表于 11-27 10:45 ?175次閱讀

    科大發布星火4.0 Turbo大模型及星火多語言大模型

    ,科大以其一貫的創新精神,開創性地發布了星火多語言大模型。這一創新之舉不僅進一步鞏固了科大飛在中文
    的頭像 發表于 10-24 13:58 ?387次閱讀

    華工科技聯合哈工大實現國內首臺激光智能除草機器人落地

    華工科技黨委書記、董事長、總裁馬新強一行赴哈爾濱對哈爾濱工業大學機器人技術與系統全國重點實驗室(后簡稱哈工大機器人實驗室)、愛輝區智能激光除草機器人試點基地進行實地調研,代表華工科技中央研究院同
    的頭像 發表于 09-06 10:45 ?806次閱讀

    榮耀與智譜攜手共建AI大模型聯合實驗室

    近日,榮耀終端有限公司與北京智譜華章科技有限公司正式攜手,共同宣布成立AI大模型技術聯合實驗室,并簽署了戰略合作協議。此次合作標志著雙方在人工智能領域的深度合作邁入新階段,共同致力于為用戶帶來前所未有的智能體驗。
    的頭像 發表于 09-03 18:15 ?1027次閱讀

    MediaTek與小米集團聯合實驗室正式揭幕

    MediaTek 宣布攜手小米集團持續強化戰略合作,共同開啟更深層次的多元合作,并為位于小米深圳研發總部的「聯合實驗室」揭牌。此次「聯合實驗室」的揭幕將進一步強化雙方合作伙伴關系,推動
    的頭像 發表于 07-03 14:52 ?705次閱讀

    中山聯合光電:精密光學實驗室簽約落地長春理工大學中山研究院

    5月7日,中山聯合光電研究院有限公司與長春理工大學中山研究院“付秀華精密光學薄膜實驗室”簽約儀式在中山聯合光電科技股份有限公司正式舉行。聯合
    的頭像 發表于 05-10 10:08 ?750次閱讀
    中山<b class='flag-5'>聯合</b>光電:精密光學<b class='flag-5'>實驗室</b>簽約落地長春理<b class='flag-5'>工大</b>學中山研究院

    【大語言模型:原理與工程實踐】大語言模型訓練

    大語言模型的核心特點在于其龐大的參數量,這賦予了模型強大的學習容量,使其無需依賴微調即可適應各種下游任務,而更傾向于培養通用的處理能力。然而,隨著學習容量的增加,對訓練數據的需求也相
    發表于 05-07 17:10

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    模型架構奠定基礎。然后,引介一些經典的訓練模型,如BERT、GPT等。最后,解讀ChatGPT和LLaMA系列
    發表于 05-05 12:17

    西井科技和香港理工大學簽署合作協議,將共建聯合創新實驗室

    西井科技和香港理工大學簽署了人工智能和自動駕駛方面的深度產學研合作協議,將共建聯合創新實驗室,雙方共同探索該領域的前沿技術和應用實踐。
    的頭像 發表于 04-29 09:42 ?568次閱讀
    西井科技和香港理<b class='flag-5'>工大</b>學簽署合作協議,將共建<b class='flag-5'>聯合</b>創新<b class='flag-5'>實驗室</b>

    AI+教育 深圳市中小學聯合實驗室正式啟用

    4月18日,深圳市中小學人工智能聯合實驗室在深圳高級中學(集團)南校區啟用。 去年,深圳市教育局發布推進中小學人工智能教育工作方案,提出要建成具有深圳特色的人工智能教育課程體系,構建社會資源支持
    發表于 04-22 10:07 ?239次閱讀
    AI+教育 深圳市中小學<b class='flag-5'>聯合</b><b class='flag-5'>實驗室</b>正式啟用

    志科技與佰維存儲簽署建立聯合實驗室合作協議

    近日,珠海志科技股份有限公司與深圳佰維存儲科技股份有限公司在深圳佰維總部簽署建立聯合實驗室合作協議。
    的頭像 發表于 04-16 10:23 ?605次閱讀
    <b class='flag-5'>全</b>志科技與佰維存儲簽署建立<b class='flag-5'>聯合</b><b class='flag-5'>實驗室</b>合作協議

    科大發布星火V3.5”:基于全國產算力訓練的全民開放大模型

    科大,作為中國領先的智能語音和人工智能公司,近日宣布推出首個基于全國產算力訓練的全民開放大模型
    的頭像 發表于 02-04 11:28 ?1509次閱讀

    上海AI實驗室發布新一代書生·視覺大模型

    近日,上海人工智能實驗室(上海AI實驗室)聯手多所知名高校及科技公司共同研發出新一代書生·視覺大模型(InternVL)。
    的頭像 發表于 02-04 11:25 ?1117次閱讀

    科大星火認知大模型V3.5發布

    近日,科大舉辦了星火認知大模型V3.5升級發布會。在發布會上,科大
    的頭像 發表于 01-31 17:28 ?1422次閱讀

    科大發布星火認知大模型V3.5

    科大近日發布了星火認知大模型V3.5版本,該版本基于全國產化算力底座“星一號”平臺進行訓練
    的頭像 發表于 01-31 14:40 ?901次閱讀
    主站蜘蛛池模板: 91久久福利国产成人精品| 日本亚洲高清乱码中文在线观看| 2021精品国产综合久久| a成人| 美女丝袜长腿喷水gif动态图| 欧美高清老少配性啪啪| 乌克兰一级毛片| 一品毛片| 美国一级做a一级爱视频| 天天看片国产| 亚洲福利视频一区二区三区| 日本一区二区三区四区不卡| 亚洲 美腿 欧美 偷拍| www.91大神| 亚洲欧美国产视频| 国产精品李雅在线观看| 97天天做天天爱夜夜爽| 五月激情片| 1000部啪啪未满十八勿入中国 | 4444kk在线看片| 日日摸人人看97人人澡| 天天做天天爱天天爽天天综合| 国产精品久久久久久久久久影院| 中文字幕精品一区二区2021年| 色99色| 深夜视频免费在线观看| 这里只有精品视频| 男女性接交无遮挡免费看视频| 天堂资源| 高清xxx| 欧美高清一区二区| 久久天天躁夜夜躁狠狠躁2020| 一级做a爰片久久毛片鸭王| 成 人 色综合| 亚洲韩国日本欧美一区二区三区| 尻老逼| 香蕉网影院在线观看免费| 中文字幕网资源站永久资源| 国产三片理论电影在线| 91在线免费看| 激情综合网五月婷婷|