在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

目標(biāo)跟蹤新的建模方式

CVer ? 來源:CVer ? 2023-05-16 16:00 ? 次閱讀

如果模型知道目標(biāo)在哪,那么我們只需要教模型讀出目標(biāo)的位置,而不需要顯式地進(jìn)行分類、回歸。對于這項工作,研究者們希望可以啟發(fā)人們探索目標(biāo)跟蹤等視頻任務(wù)的自回歸式序列生成建模。 自回歸式的序列生成模型在諸多自然語言處理任務(wù)中一直占據(jù)著重要地位,特別是最近ChatGPT的出現(xiàn),讓人們更加驚嘆于這種模型的強(qiáng)大生成能力和潛力。 最近,微軟亞洲研究院與大連理工大學(xué)的研究人員提出了一種使用序列生成模型來完成視覺目標(biāo)跟蹤任務(wù)的新框架SeqTrack,來將跟蹤建模成目標(biāo)坐標(biāo)序列的生成任務(wù)。目前的目標(biāo)跟蹤框架,一般把目標(biāo)跟蹤拆分為分類、回歸、角點(diǎn)預(yù)測等多個子任務(wù),然后使用多個定制化的預(yù)測頭和損失函數(shù)來完成這些任務(wù)。而SeqTrack通過將跟蹤建模成單純的序列生成任務(wù),不僅擺脫了冗余的預(yù)測頭和損失函數(shù),也在多個數(shù)據(jù)集上取得了優(yōu)秀的性能。

1.新的目標(biāo)跟蹤框架,將跟蹤建模為序列生成任務(wù),一個簡潔而有效的新基線;

2.摒棄冗余的預(yù)測頭和損失函數(shù),僅使用樸素的Transformer和交叉熵?fù)p失,具有較高的可擴(kuò)展性。

一 、研究動機(jī)

現(xiàn)在比較先進(jìn)的目標(biāo)跟蹤方法采用了“分而治之”的策略,即將跟蹤問題解耦成多個子任務(wù),例如中心點(diǎn)預(yù)測、前景/背景二分類、邊界框回歸、角點(diǎn)預(yù)測等。盡管在各個跟蹤數(shù)據(jù)機(jī)上取得了優(yōu)秀的性能,但這種“分而治之”的策略存在以下兩個缺點(diǎn):

1、模型復(fù)雜:每個子任務(wù)都需要一個定制化的預(yù)測頭,導(dǎo)致框架變得復(fù)雜,不利于擴(kuò)展

2、損失函數(shù)冗余:每個預(yù)測頭需要一個或多個損失函數(shù),引入額外超參數(shù),使訓(xùn)練困難

9fdef7d2-f3ba-11ed-90ce-dac502259ad0.png

圖1 目前常見的跟蹤框架

研究者認(rèn)為,如果模型知道目標(biāo)在圖像中的位置,那么只需要簡單地教模型讀出目標(biāo)邊界框即可,不需要用“分而治之”的策略去顯式地進(jìn)行分類和回歸等。為此,作者采用了自回歸式的序列生成建模來解決目標(biāo)跟蹤任務(wù),教模型把目標(biāo)的位置作為一句話去“讀”出來。

9ffce198-f3ba-11ed-90ce-dac502259ad0.gif

圖2 跟蹤的序列生成建模

二、方法概覽

研究者將目標(biāo)邊界框的四個坐標(biāo)轉(zhuǎn)化為由離散值token組成的序列,然后訓(xùn)練SeqTrack模型逐個token地預(yù)測出這個序列。在模型結(jié)構(gòu)上,SeqTrack采用了原汁原味的encoder-decoder形式的transformer,方法整體框架圖如下圖3所示:

a005dcf8-f3ba-11ed-90ce-dac502259ad0.png

圖3 SeqTrack結(jié)構(gòu)圖

Encoder提取模板與搜索區(qū)域圖片的視覺特征,decoder參考這些視覺特征,完成序列的生成。序列包含構(gòu)成邊界框的 x,y,w,h token,以及兩個特殊的 start 和 end token,分別表示生成的開始與結(jié)束。 在推理時,start token告知模型開始生成序列,然后模型依次生成 x,y,w,h ,每個token的生成都會參考前序已生成好的token,例如,生成 w 時,模型會以 [start, x, y] 作為輸入。當(dāng) [x,y,w,h] 生成完,模型會輸出end token,告知用戶預(yù)測完成。 為了保證訓(xùn)練的高效,訓(xùn)練時token的生成是并行的,即 [start, x,y,w,h] 被同時輸入給模型,模型同時預(yù)測出 [x,y,w,h, end] 。為了保證推理時的自回歸性質(zhì),在訓(xùn)練時對decoder中的自注意力層中添加了因果性的attention mask,以保證每個token的預(yù)測僅取決于它前序的token,attention mask如下圖4所示。

a0285724-f3ba-11ed-90ce-dac502259ad0.png

圖3 Attention mask,第 i 行第 j 列的橘色格子代表第生成第 i 個輸出token時,允許觀察到第 j 個輸入token,而白色格子代表不可觀察。

圖像上連續(xù)的坐標(biāo)值被均勻地離散化為了[1, 4000]中的整數(shù)。每個整數(shù)可以被視為一個單詞,構(gòu)成了單詞表 V ,x,y,w,h 四個坐標(biāo)從單詞表 V 中取值。

與常見的序列模型類似,在訓(xùn)練時,SeqTrack使用交叉熵?fù)p失來最大化目標(biāo)值基于前序token的預(yù)測值、搜索區(qū)域、模板三者的條件概率:

a0313600-f3ba-11ed-90ce-dac502259ad0.png

在推理時,使用最大似然從單詞表 V 中為每個token取值:

a04bcf24-f3ba-11ed-90ce-dac502259ad0.png

通過這種方式,僅需要交叉熵?fù)p失即可完成模型的訓(xùn)練,大大簡化了復(fù)雜度。 除此之外,研究者們還設(shè)計了合適的方式,在不影響模型與損失函數(shù)的情況下,引入了在線模板更新、窗口懲罰等技術(shù)來集成跟蹤的先驗(yàn)知識,這里不再贅述,具體細(xì)節(jié)請參考論文。

三、實(shí)驗(yàn)結(jié)果

研究者開發(fā)了四種不同大小的模型,以取得性能與速度之間的平衡,并在8個跟蹤數(shù)據(jù)集上驗(yàn)證了這些模型的性能。

a0561dee-f3ba-11ed-90ce-dac502259ad0.png

表1 SeqTrack模型參數(shù)

如下表2所示,在大尺度數(shù)據(jù)集LaSOT, LaSOText,TrackingNet, GOT-10k上,SeqTrack取得了優(yōu)秀的性能。例如,與同樣使用ViT-B和256輸入圖片分辨率的OSTrack-256相比,SeqTrack-B256在四個數(shù)據(jù)集上都取得了更好的結(jié)果。

a08569a0-f3ba-11ed-90ce-dac502259ad0.png

表2大規(guī)模數(shù)據(jù)集性能

如表3所示,SeqTrack在包含多種不常見目標(biāo)類別的TNL2K數(shù)據(jù)集上取得了領(lǐng)先的性能,驗(yàn)證了SeqTrack的泛化性。在小規(guī)模數(shù)據(jù)集NFS和UAV123上也都取得了具有競爭力的性能。

a08f5618-f3ba-11ed-90ce-dac502259ad0.png

表3額外數(shù)據(jù)集性能

圖4所示,在VOT競賽數(shù)據(jù)集上,分別使用邊界框測試和分割掩膜測試,SeqTrack都取得了優(yōu)秀的性能。

a0aa5e68-f3ba-11ed-90ce-dac502259ad0.png

圖4 VOT2020性能

這樣簡單的框架具有良好的可擴(kuò)展性,只需要將信息引入到序列構(gòu)建中,而無需更改網(wǎng)絡(luò)結(jié)構(gòu)。例如,研究者們進(jìn)行了額外的實(shí)驗(yàn)來嘗試在序列中引入時序信息。具體來說,將輸入序列擴(kuò)展到多幀,包含了目標(biāo)邊界框的歷史值。表4顯示這樣的簡單擴(kuò)展提升了基線模型的性能。

a0b39c6c-f3ba-11ed-90ce-dac502259ad0.png

圖5 時序序列示意圖

a0e8d896-f3ba-11ed-90ce-dac502259ad0.png

表4 時序序列結(jié)果

四、結(jié)語

本文提出了目標(biāo)跟蹤的新的建模方式:序列生成式建模。它將目標(biāo)跟蹤建模為了序列生成任務(wù),僅使用簡單的Transformer結(jié)構(gòu)和交叉熵?fù)p失,簡化了跟蹤框架。大量實(shí)驗(yàn)表明了序列生成建模的優(yōu)秀性能和潛力。在文章的最后,研究者希望通過本文給視覺目標(biāo)跟蹤和其他視頻任務(wù)的序列建模提供靈感。在未來工作,研究者將嘗試進(jìn)一步融合時序信息,以及擴(kuò)展到多模態(tài)任務(wù)。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 建模
    +關(guān)注

    關(guān)注

    1

    文章

    312

    瀏覽量

    60802
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4343

    瀏覽量

    62806
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    145

    瀏覽量

    6026

原文標(biāo)題:CVPR 2023 | 大連理工和微軟提出SeqTrack:目標(biāo)跟蹤新框架

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    視頻跟蹤目標(biāo)取差器)-基于DM8168實(shí)現(xiàn)的自動視頻跟蹤

    、運(yùn)動方向等自動獲取目標(biāo)。[td]跟蹤算法質(zhì)心跟蹤算法:這種跟蹤方式用于跟蹤有界
    發(fā)表于 09-05 11:14

    視頻跟蹤目標(biāo)跟蹤算法簡介(上海凱視力成信息科技有限...

    。www.casevision.net質(zhì)心跟蹤算法(Centroid)這種跟蹤方式用于跟蹤有界目標(biāo)如飛機(jī),
    發(fā)表于 09-29 08:59

    基于OPENCV的運(yùn)動目標(biāo)跟蹤實(shí)現(xiàn)

    CAMSHIFT算法是一種基于顏色直方圖的目標(biāo)跟蹤算法。在視頻跟蹤過程中,CAMSHIFT算法利用選定目標(biāo)的顏色直方圖模型得到每幀圖像的顏色投影圖,并根據(jù)上一幀
    發(fā)表于 12-23 14:21

    無人機(jī)編隊視頻序列中的多目標(biāo)精確跟蹤

    無人機(jī)編隊視頻序列中的多目標(biāo)精確跟蹤::針對無人機(jī)編隊視頻序列中的多目標(biāo)精確跟蹤的要求,使用STK(satellitetoolkit)三維建模
    發(fā)表于 03-18 16:21 ?19次下載

    目標(biāo)跟蹤目標(biāo)匹配的特征融合算法研究

    基于特征融合的目標(biāo)跟蹤中,目標(biāo)的特征由于某些干擾導(dǎo)致準(zhǔn)確度較低。基于貝葉斯框架的特征融合算法進(jìn)行目標(biāo)跟蹤時,不能達(dá)到最佳的
    發(fā)表于 07-25 15:15 ?0次下載

    基于KCFSE結(jié)合尺度預(yù)測的目標(biāo)跟蹤方法

    目標(biāo)跟蹤是計算機(jī)視覺領(lǐng)域的一個基本問題,其主要應(yīng)用于視頻監(jiān)控,人機(jī)交與機(jī)器人視覺感知等場景。目標(biāo)跟蹤可分為短時間目標(biāo)
    發(fā)表于 10-28 11:05 ?1次下載
    基于KCFSE結(jié)合尺度預(yù)測的<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>方法

    機(jī)器人目標(biāo)跟蹤

    為了實(shí)現(xiàn)復(fù)雜環(huán)境下移動機(jī)器人目標(biāo)跟蹤,提出多特征分塊匹配的跟蹤算法。該算法對目標(biāo)區(qū)域進(jìn)行分塊,利用顏色、深度特征對各塊圖像進(jìn)行特征匹配,實(shí)現(xiàn)目標(biāo)
    發(fā)表于 11-07 17:29 ?14次下載
    機(jī)器人<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>

    基于融合的快速目標(biāo)跟蹤算法

    提出了一種基于融合的快速目標(biāo)跟蹤算法。該方法將目標(biāo)預(yù)測模型、目標(biāo)模板匹配以及目標(biāo)空間信息融合到統(tǒng)一框架內(nèi)。該方法通過預(yù)測模型,預(yù)測下一幀中
    發(fā)表于 12-05 09:11 ?0次下載
    基于融合的快速<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>算法

    一種實(shí)時運(yùn)動目標(biāo)檢測與跟蹤算法

    針對圖像序列中運(yùn)動目標(biāo)檢測、跟蹤的難點(diǎn)問題,提出了一種實(shí)時運(yùn)動目標(biāo)檢測與跟蹤算法。該算法基于自適應(yīng)背景建模,獲取運(yùn)動
    發(fā)表于 12-12 17:35 ?3次下載

    如何使用連續(xù)離散問題聯(lián)合求解和群組分析進(jìn)行多目標(biāo)跟蹤技術(shù)研究

    目標(biāo)跟蹤技術(shù)通過對不同目標(biāo)之間的相互社會關(guān)系進(jìn)行建模,改善單個目標(biāo)跟蹤性能,并且快速檢測和預(yù)
    發(fā)表于 12-21 15:03 ?1次下載
    如何使用連續(xù)離散問題聯(lián)合求解和群組分析進(jìn)行多<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>技術(shù)研究

    基于多尺度自適應(yīng)權(quán)重的目標(biāo)跟蹤算法

    遮擋、目標(biāo)外觀劇烈變化等,往往會丟失目標(biāo)。文中分析原算法跟蹤原理得到了產(chǎn)生目標(biāo)跟蹤丟失的原因。基于ASLA算法,提出了3點(diǎn)改進(jìn)方法:1)適應(yīng)
    發(fā)表于 06-16 15:32 ?7次下載

    視頻目標(biāo)跟蹤分析

    視頻目標(biāo)跟蹤要求在已知第一幀感興趣物體的位置和尺度信息的情況下,對該目標(biāo)在后續(xù)視頻幀中進(jìn)行持續(xù)的定位和尺度估計W。廣義的目標(biāo)跟蹤通常包含單
    的頭像 發(fā)表于 07-05 11:24 ?1563次閱讀

    最常見的目標(biāo)跟蹤算法

    對象跟蹤問題一直是計算機(jī)視覺的熱點(diǎn)任務(wù)之一,簡單的可以分為單目標(biāo)跟蹤與多目標(biāo)跟蹤,最常見的目標(biāo)
    的頭像 發(fā)表于 09-14 16:20 ?2778次閱讀

    利用TRansformer進(jìn)行端到端的目標(biāo)檢測及跟蹤

    目標(biāo)跟蹤(MOT)任務(wù)的關(guān)鍵挑戰(zhàn)是跟蹤目標(biāo)下的時間建模。現(xiàn)存的用檢測跟蹤的方法采用簡單的heu
    的頭像 發(fā)表于 04-18 09:12 ?1056次閱讀

    目標(biāo)跟蹤初探(DeepSORT)

    目前主流的目標(biāo)跟蹤算法都是基于Tracking-by-Detecton策略,即基于目標(biāo)檢測的結(jié)果來進(jìn)行目標(biāo)跟蹤。DeepSORT運(yùn)用的就是這
    的頭像 發(fā)表于 08-07 15:37 ?961次閱讀
    <b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>初探(DeepSORT)
    主站蜘蛛池模板: 午夜香蕉视频| 香港三级在线视频| 成年人电影黄色| 色狠狠色综合久久8狠狠色| 欧洲亚洲一区| 免费看国产黄色片| japan日韩xxxx69hd| 特大一级aaaaa毛片| 国产精品片| 色婷婷六月桃花综合影院| 欧美视频图片| 操吧| 欧美1024| 最近高清免费观看视频| 中文字幕一区在线观看视频| 操一操日一日| 在线观看日本免费视频大片一区| 欧美激情xxxx性bbbb| 亚洲高清色| 一级毛片免费在线观看网站| 男人午夜网站| 五月综合久久| 男人天堂综合网| aaaa日本| 加勒比在线免费视频| 久久久香蕉视频| 91视频看看| 一色屋成人免费精品网站| 日韩日韩| 丁香四月婷婷| 久久semm亚洲国产| 俄罗斯一级特黄黄大片| 在线观看免费av网站| 亚洲成色999久久网站| 免费在线播放黄色| 毛片大全免费| 亚洲情a成黄在线观看| 99自拍视频| 99久久99这里只有免费费精品| 三级精品视频在线播放| 成人三级视频|