在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

利用視覺語言模型對檢測器進行預訓練

電子工程師 ? 來源:CSIG文檔圖像分析與識別專 ? 作者:CSIG文檔圖像分析與 ? 2022-08-08 15:33 ? 次閱讀

本文簡要介紹了發表于CVPR 2022的論文“Vision-Language Pre-Trainingfor Boosting Scene Text Detector”的相關工作。大規模預訓練在視覺任務中有著重要的作用,而視覺語言模型與多模態的特征聯合近期也收到了廣泛的關注。本文針對場景文本檢測的問題,提出了利用視覺語言模型對檢測器進行預訓練,通過設計Image-text Contrastive Learning、Masked LanguageModeling和Word-in-image Prediction三個預訓練任務有效得結合文本、圖像兩個模態的特征,幫助主干網絡提取到更豐富的視覺與語義特征,以此提高文本檢測器的性能。該預訓練方法可以有效提升各文本檢測器在各大公開場景文本數據集上的評估結果。

一、研究背景

預訓練通常被用于自然語言處理以及計算機視覺領域,以增強主干網絡的特征提取能力,達到加速訓練和提高模型泛化性能的目的。該方法亦可以用于場景文本檢測當中,如最早的使用ImageNet預訓練模型初始化參數,到使用合成數據直接預訓練檢測器再在真實數據上Finetune,再到通過定義一些預訓練任務訓練網絡參數等。但這些方法都存在一些問題,比如中合成數據與真實數據的Domain Gap導致模型在真實場景下Finetune效果不佳,中沒有充分利用視覺與文本之間的聯系。基于這些觀察,本文提出了一個通過視覺語言模型進行圖像、文本兩個模態特征對齊的預訓練方法VLPT-STD,用于提升場景文本檢測器的性能。

二、方法介紹

本文提出了一個全新的用于場景文本檢測預訓練的框架—VLPT-STD,它基于視覺語言模型設計,可以有效地利用文本、圖像兩種模態的特征,使得網絡提取到更豐富的特征表達。其算法流程如圖1所示,主要分為Image Encoder,Text Encoder以及Cross-model Encoder三個部分,并且設計了三個預訓練任務讓網絡學習到跨模態的表達,提高網絡的特征提取能力。

2.1 模型結構

Image Encoder用于提取場景文本圖片的視覺特征編碼,Text Encoder則提取圖片中文本內容的編碼,最后視覺特征編碼和文本內容編碼一起輸入Cross-model Encoder當中進行多模態特征融合。

Image Encoder 包含了一個ResNet50-FPN的主干網絡結構和一個注意力池化層。場景文本圖像首先輸入到ResNet50-FPN中得到特征,然后通過注意力池化層得到一個圖像特征編碼序列2e05472c-16c2-11ed-ba43-dac502259ad0.png2e19e33a-16c2-11ed-ba43-dac502259ad0.png代表[CLS] Token的編碼,S代表視覺Token的數量,d是維度。注意力池化層是一層Transformer中的多頭注意力模塊。

Text Encoder先將輸入的文本轉化成一個編碼序列2e219602-16c2-11ed-ba43-dac502259ad0.png,K代表序列長度,然后通過三層多頭注意力模塊得到文本特征編碼。

Cross-model由四個相同的Transformer Decoder組成,它將視覺編碼序列和文本編碼序列W結合到了一起,并將其最后的輸出用于預測Masked Language Modeling預訓練任務。

2e372ba2-16c2-11ed-ba43-dac502259ad0.png

圖1 VLPT-STD整體框架

2.2 預訓練任務

本文定義了三個預訓練任務,包括Image-text Contrastive Learning(ITC)、Word-in-image Prediction(WIP)和Masked Language Modeling(MLM)。

Image-text Contrastive Learning(ITC)的目的是使得文本編碼序列的每一項都能在視覺編碼序列中找到最相似的編碼,也就是讓每個單詞的文本編碼與其對應的文本圖片區域視覺特征匹配(例如,“Last”的Text Embedding與圖片中“Last”位置的區域特征相似度最高)。

該任務對每個圖像編碼2e46ad3e-16c2-11ed-ba43-dac502259ad0.png和文本編碼2e53d57c-16c2-11ed-ba43-dac502259ad0.png分別運用InfoNCE loss[4]去計算相似度。2e5cd76c-16c2-11ed-ba43-dac502259ad0.png2e6beb08-16c2-11ed-ba43-dac502259ad0.png代表一個Batch內所有的圖像編碼和文本編碼,它們分別為Image Encoder得到的2e19e33a-16c2-11ed-ba43-dac502259ad0.png和Text Encoder得到的2e837ff2-16c2-11ed-ba43-dac502259ad0.png

2e8cacee-16c2-11ed-ba43-dac502259ad0.png

N代表Batch Size。ITC任務最終的損失函數為:2ea901aa-16c2-11ed-ba43-dac502259ad0.png

Word-in-Image Prediction(WIP)是通過在圖像編碼和文本單詞編碼中應用對比學習去區分出現在圖片中的文本(正類)與不存在德文本(負類),從而預測給定的一組單詞是否出現在輸入圖片中。如圖1左上角所示,訓練時圖片中有的單詞作為正樣本,其編碼為2eb12f24-16c2-11ed-ba43-dac502259ad0.png;負樣本則是訓練過程中基于文本編碼的相似度進行采樣得到(如對于正樣本“Lost”,負樣本可為“Lose”,“Last”等),文中選取的是Top-L(L=63)相似的文本,對于每一個正樣本的編碼2ebf0126-16c2-11ed-ba43-dac502259ad0.png,其負樣本編碼為

2ec8e6be-16c2-11ed-ba43-dac502259ad0.png

。輸入圖片為I,WIP的損失函數定義如下:

2eda0f70-16c2-11ed-ba43-dac502259ad0.png

MaskedLanguage Modeling (MLM)類似于BERT,該任務首先隨機掩蓋文本編碼w,然后讓網絡利用所有的視覺特征編碼v和未被掩蓋的文本編碼2ee5e494-16c2-11ed-ba43-dac502259ad0.png預測缺失的單詞文本2ef4306c-16c2-11ed-ba43-dac502259ad0.png。如圖1所示,圖片中的文本“And”,“Was”等被掩蓋,MLM任務是將它們預測恢復。其損失函數如下所示:

2efbfbf8-16c2-11ed-ba43-dac502259ad0.png

最終的損失函數為:

2f0fcb10-16c2-11ed-ba43-dac502259ad0.png

三、實驗

3.1 實驗細節

本文提出的VLPT-STD在SynthText [5]上進行預訓練,然后將預訓練得到的主干網絡用于EAST [6],PSENet [7]和DB[2]這三個文本檢測器在各個公開的真實場景數據集上進行Finetune。實驗使用了八塊v100,Batch Size為800。

3.2 與State-of-the-art的方法比較

表格1到表格3展示了文章提出的預訓練方法與之前預訓練方法對于三個不同的文本檢測器性能提升的對比。

2f1b2c58-16c2-11ed-ba43-dac502259ad0.png

2f3078ba-16c2-11ed-ba43-dac502259ad0.png

2f42afb2-16c2-11ed-ba43-dac502259ad0.png

3.2 消融實驗

首先是對模型設計的消融實驗,如表格4所示。文章探究了Image Encoder中作者改進的FPN結構和Cross-model Encoder中Cross-attention的作用。

2f738f10-16c2-11ed-ba43-dac502259ad0.png

其次是對預訓練任務的消融實驗,如表格5所示。

2f803f9e-16c2-11ed-ba43-dac502259ad0.png

最后是對預訓練的數據集進行了探究,作者對比了SynthText和TextOCR [8]兩種數據集,結果如表6所示。

2f91586a-16c2-11ed-ba43-dac502259ad0.png

3.3 可視化結果

文章首先展示了Cross-model當中Attention Map的可視化結果。可以看到一個文本是與Attention Map中高亮區域是一一匹配的。

2f9c8d66-16c2-11ed-ba43-dac502259ad0.png

然后文章展示了和之前預訓練方法STKM [3] 對比的檢測結果。

2fe8e148-16c2-11ed-ba43-dac502259ad0.png

四、總結與討論

在場景文本檢測當中,本文是第一篇用視覺語言模型以及多模態特征融合的思路去設計預訓練任務以提升文本檢測性能的工作,它設計了三個簡單有效的任務,提高了主干網絡對文本圖像特征的表征能力。如何利用文本和圖像兩種模態的特征也是未來OCR領域的一個重要方向。

原文作者:Sibo Song, Jianqiang Wan, Zhibo Yang, Jun Tang, Wenqing Cheng, Xiang Bai, Cong Yao

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 檢測器
    +關注

    關注

    1

    文章

    864

    瀏覽量

    47687
  • 計算機
    +關注

    關注

    19

    文章

    7494

    瀏覽量

    87949

原文標題:CVPR 2022 | 阿里&華科提出:針對場景文本檢測的視覺語言模型預訓練

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    一文詳解知識增強的語言訓練模型

    隨著訓練語言模型(PLMs)的不斷發展,各種NLP任務設置上都取得了不俗的性能。盡管PLMs可以從大量語料庫中學習一定的知識,但仍舊存在很多問題,如知識量有限、受
    的頭像 發表于 04-02 17:21 ?9627次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    就無法修改,因此難以靈活應用于下游文本的挖掘中。 詞嵌入表示:將每個詞映射為一個低維稠密的實值向量。不同的是,基于訓練的詞嵌入表示先在語料庫中利用某種語言
    發表于 05-05 12:17

    【大語言模型:原理與工程實踐】大語言模型訓練

    數據格式的轉換、數據字段的匹配和整合等。通過數據級凈化,可以進一步提高數據的質量和可用性,為后續的數據分析和建模提供更有價值的數據支持。 在得到了大語言模型的數據之后,就是對其進行
    發表于 05-07 17:10

    訓練語言模型設計的理論化認識

    在這篇文章中,我會介紹一篇最新的訓練語言模型的論文,出自MASS的同一作者。這篇文章的亮點是:將兩種經典的
    的頭像 發表于 11-02 15:09 ?2710次閱讀

    一種脫離訓練的多尺度目標檢測網絡模型

    為提高卷積神經網絡目標檢測模型精度并增強檢測器對小目標的檢測能力,提出一種脫離訓練的多尺度目標
    發表于 04-02 11:35 ?26次下載
    一種脫離<b class='flag-5'>預</b><b class='flag-5'>訓練</b>的多尺度目標<b class='flag-5'>檢測</b>網絡<b class='flag-5'>模型</b>

    如何向大規模訓練語言模型中融入知識?

    本文關注于向大規模訓練語言模型(如RoBERTa、BERT等)中融入知識。
    的頭像 發表于 06-23 15:07 ?4245次閱讀
    如何向大規模<b class='flag-5'>預</b><b class='flag-5'>訓練</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>中融入知識?

    基于訓練視覺-語言模型的跨模態Prompt-Tuning

    、新加坡國立大學 鏈接:https://arxiv.org/pdf/2109.11797.pdf 提取摘要 訓練視覺語言模型 (VL-P
    的頭像 發表于 10-09 15:10 ?3240次閱讀
    基于<b class='flag-5'>預</b><b class='flag-5'>訓練</b><b class='flag-5'>視覺</b>-<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的跨模態Prompt-Tuning

    Multilingual多語言訓練語言模型的套路

    Facebook在Crosslingual language model pretraining(NIPS 2019)一文中提出XLM訓練語言模型,整體思路基于BERT,并提出了針
    的頭像 發表于 05-05 15:23 ?2981次閱讀

    一種基于亂序語言模型訓練模型-PERT

    由于亂序語言模型不使用[MASK]標記,減輕了訓練任務與微調任務之間的gap,并由于預測空間大小為輸入序列長度,使得計算效率高于掩碼語言
    的頭像 發表于 05-10 15:01 ?1548次閱讀

    CogBERT:腦認知指導的訓練語言模型

    另一方面,從語言處理的角度來看,認知神經科學研究人類大腦中語言處理的生物和認知過程。研究人員專門設計了訓練模型來捕捉大腦如何表示
    的頭像 發表于 11-03 15:07 ?1075次閱讀

    利用視覺+語言數據增強視覺特征

    傳統的多模態訓練方法通常需要"大數據"+"大模型"的組合來同時學習視覺+語言的聯合特征。但是關注如何
    的頭像 發表于 02-13 13:44 ?1054次閱讀

    什么是訓練 AI 模型

    訓練 AI 模型是為了完成特定任務而在大型數據集上訓練的深度學習模型。這些模型既可以直接使用,
    的頭像 發表于 04-04 01:45 ?1451次閱讀

    NLP中的遷移學習:利用訓練模型進行文本分類

    遷移學習徹底改變了自然語言處理(NLP)領域,允許從業者利用預先訓練模型來完成自己的任務,從而大大減少了訓練時間和計算資源。在本文中,我們
    發表于 06-14 09:30 ?454次閱讀

    訓練模型的基本原理和應用

    訓練模型(Pre-trained Model)是深度學習和機器學習領域中的一個重要概念,尤其是在自然語言處理(NLP)和計算機視覺(CV)
    的頭像 發表于 07-03 18:20 ?2830次閱讀

    語言模型訓練

    能力,逐漸成為NLP領域的研究熱點。大語言模型訓練是這一技術發展的關鍵步驟,它通過在海量無標簽數據上進行
    的頭像 發表于 07-11 10:11 ?433次閱讀
    主站蜘蛛池模板: 手机看片国产免费久久网| 欧美成人午夜精品免费福利| 亚在线| 欧美污视频网站| aaa特级毛片| 午夜影院7cdy| 午夜精品视频任你躁| 国产一级久久免费特黄| 免费又爽又黄禁片视频在线播放| 性做久久久久久久| 欧美一级欧美一级高清| 午夜精品久视频在线观看| 一区二区三区在线播放| 色多多视频在线观看免费大全| 97人人模人人揉人人捏| 久久人人青草97香蕉| 四虎精品影院2022| 老色皮| 九九国产在线| 亚洲 欧美 另类 综合 日韩 | 韩国床戏合集三小时hd中字| 久久国产精品免费| 怡红院日本一道日本久久| 国产精品怡红院永久免费| 在线看黄网站| 日日噜噜夜夜狠狠tv视频免费 | 成人手机看片| 天天躁夜夜躁| 亚洲午夜一级毛片| www.天天操.com| 色宅男| 天天干天天射天天| 中国美女毛片| 97av视频在线播放| 日本在线不卡一区| 久久性| 黄色网页在线观看| 欧美激情片网站| 欧美国产在线一区| 九九热九九| 色多多在线观看播放|