在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

視覺SLAM基于深度學(xué)習(xí)閉環(huán)檢測

新機(jī)器視覺 ? 來源:知乎 ? 作者:知乎 ? 2021-03-20 09:59 ? 次閱讀

原提問:

請問有做視覺SLAM基于深度學(xué)習(xí)閉環(huán)檢測的嗎?

TurtleZhong:

相比現(xiàn)在基本都是用深度學(xué)習(xí)做的吧,只要涉及到場景光照變化大,相機(jī)視野變化大等等,傳統(tǒng)的DBoW,VLAD方法確實(shí)能力有限,那想必現(xiàn)在大多數(shù)都用的是基于深度學(xué)習(xí)來做閉環(huán)檢測的,具體的方法可以參考我前段時(shí)間寫的總結(jié):

https://github.com/TurtleZhong/Map-based-Visual-Localization

其實(shí)里面列舉了傳統(tǒng)方法和深度學(xué)習(xí)的方法,當(dāng)然可能不全,但是歡迎補(bǔ)充,另外覺得有用的話點(diǎn)個(gè)關(guān)注。

九歌:

俺就是在做深度學(xué)習(xí)與閉環(huán)檢測結(jié)合的工作的呀

目前將深度學(xué)習(xí)應(yīng)用到閉環(huán)檢測中已經(jīng)很普遍了吧。直接的想法是在bow框架下利用如superpoint、d2、r2d2等深度學(xué)習(xí)特征代替?zhèn)鹘y(tǒng)orb、sift等特征。也有如NetVLAD、CALC等用神經(jīng)網(wǎng)絡(luò)模擬傳統(tǒng)特征提取策略,以獲得更好魯棒性的。也有加入語義信息,如X-view、LoST、CALC2.0等利用圖像語義信息,實(shí)現(xiàn)閉環(huán)檢測的。

總的來說,如果只是關(guān)注閉環(huán)檢測中圖像檢索的部分,與深度學(xué)習(xí)相關(guān)的工作還是很多很好的。難點(diǎn)在于要應(yīng)對閉環(huán)檢測中的一些實(shí)際挑戰(zhàn),比如cross-view乃至opposite-view,appearance changes,perceptual aliasing,dynamics,textless這些問題。

害,其實(shí)dbow和fabmap從效果和實(shí)時(shí)性的平衡上來說,不已經(jīng)超好了嘛

劉斯坦:

搜deep learning feature points matching,文章非常多。

具體結(jié)合SLAM的工作,今年剛出的這篇清華的就很不錯(cuò),還有代碼:
ivipsourcecode/dxslamgithub.com

基本是一個(gè)純工程的工作,很直觀,把各種成熟的深度學(xué)習(xí)特征點(diǎn)提取和匹配網(wǎng)絡(luò)(SuperPoint, D2-Net, HF-Net)的預(yù)訓(xùn)練模型直接拿來用,替換掉ORB-SLAM2里面的相關(guān)部分:

王小二:

1、不知道其它大佬的情況,現(xiàn)階段我做的方向就是深度學(xué)習(xí)和SLAM的結(jié)合方向,所以SLAM各個(gè)比較關(guān)鍵的環(huán)節(jié)如何使用深度學(xué)習(xí)來完成,我倒是看過部分文章,比如特征提取,回環(huán)檢測,優(yōu)化等等。但是實(shí)際操作過的目前只有特征提取和描述子生成部分。詳情見:https://zhuanlan.zhihu.com/p/214158164zhuanlan.zhihu.com

2、說回到回環(huán)檢測這個(gè)問題,其實(shí)從直觀上來說和圖像檢測,重識別等領(lǐng)域應(yīng)該是有共通之處的,所以我之前的考慮也是利用圖像檢索的方式來實(shí)現(xiàn)回環(huán)檢測。

3、說到具體的操作,當(dāng)時(shí)考慮過的方向有:A、使用完整的圖像來完成特征提?。籅、圖像切塊或者提前感興趣區(qū)域提取特征;C、整體+興趣區(qū)域共同提取特征->企圖在查詢速度和精度做平衡

4、提取特征的方法考慮過:A、使用傳統(tǒng)的特征來監(jiān)督CNN,比如ORB,SIFT,HOG等;B、學(xué)習(xí)人臉識別,重識別等使用triple loss,margin loss等使用圖片對或者圖片組來訓(xùn)練

5、說起來,也許可以看看小樣本分類識別的部分思路;細(xì)粒度識別分類的一些方案

6、現(xiàn)在已經(jīng)有的搜圖定位不妨也看看7、步子不要太大,是不是可以考慮CNN+傳統(tǒng)的詞袋模型一起使用?

Howie:

閉環(huán)過程使用深度學(xué)習(xí)中的圖像檢索,能有效的減少由于環(huán)境光照 季節(jié)更替,視角變化引起的匹配問題。但是需要采集大量的樣本進(jìn)行訓(xùn)練,同時(shí)考慮網(wǎng)絡(luò)的大小和推理速度,以及自身的硬件平臺性能。在一些嵌入式應(yīng)用中,由深度學(xué)習(xí)帶來的性能提升 可能需要消耗巨大的資源,此時(shí)仍需以傳統(tǒng)算法為主。

實(shí)際使用中,若環(huán)境可布置如室內(nèi)環(huán)境,建議使用二維碼等人為標(biāo)志進(jìn)行回環(huán)檢測,兼顧精度和速度。若是室外可變環(huán)境,則需要考慮自身的硬件性能,進(jìn)行傳統(tǒng)算法與深度學(xué)習(xí)方法的選擇,對于純粹的深度方向,應(yīng)考慮模型設(shè)計(jì)優(yōu)化,通過壓縮量化等手段提升模型速度。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • SLAM
    +關(guān)注

    關(guān)注

    23

    文章

    425

    瀏覽量

    31856
  • 圖像檢索
    +關(guān)注

    關(guān)注

    0

    文章

    28

    瀏覽量

    8041
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5504

    瀏覽量

    121229

原文標(biāo)題:視覺SLAM如何基于深度學(xué)習(xí)閉環(huán)檢測?

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    AI干貨補(bǔ)給站 | 深度學(xué)習(xí)與機(jī)器視覺的融合探索

    ,幫助從業(yè)者積累行業(yè)知識,推動工業(yè)視覺應(yīng)用的快速落地。本期亮點(diǎn)預(yù)告本期將以“深度學(xué)習(xí)與機(jī)器視覺的融合探索”為主題,通過講解深度
    的頭像 發(fā)表于 10-29 08:04 ?231次閱讀
    AI干貨補(bǔ)給站 | <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>與機(jī)器<b class='flag-5'>視覺</b>的融合探索

    一種適用于動態(tài)環(huán)境的實(shí)時(shí)視覺SLAM系統(tǒng)

    既能保證效率和精度,又無需GPU,行業(yè)第一個(gè)達(dá)到此目標(biāo)的視覺動態(tài)SLAM系統(tǒng)。
    的頭像 發(fā)表于 09-30 14:35 ?504次閱讀
    一種適用于動態(tài)環(huán)境的實(shí)時(shí)<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>系統(tǒng)

    深度學(xué)習(xí)在工業(yè)機(jī)器視覺檢測中的應(yīng)用

    隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,其在工業(yè)機(jī)器視覺檢測中的應(yīng)用日益廣泛,并展現(xiàn)出巨大的潛力。工業(yè)機(jī)器視覺檢測
    的頭像 發(fā)表于 07-08 10:40 ?1090次閱讀

    機(jī)器視覺檢測系統(tǒng)的關(guān)鍵技術(shù)和應(yīng)用場景

    隨著人工智能技術(shù)的飛速發(fā)展,機(jī)器視覺作為其中的重要組成部分,正逐漸滲透到工業(yè)制造、自動駕駛、醫(yī)療診斷、農(nóng)業(yè)自動化等多個(gè)領(lǐng)域?;?b class='flag-5'>深度學(xué)習(xí)的機(jī)器視覺
    的頭像 發(fā)表于 07-08 10:33 ?1448次閱讀

    基于AI深度學(xué)習(xí)的缺陷檢測系統(tǒng)

    在工業(yè)生產(chǎn)中,缺陷檢測是確保產(chǎn)品質(zhì)量的關(guān)鍵環(huán)節(jié)。傳統(tǒng)的人工檢測方法不僅效率低下,且易受人為因素影響,導(dǎo)致誤檢和漏檢問題頻發(fā)。隨著人工智能技術(shù)的飛速發(fā)展,特別是深度學(xué)習(xí)技術(shù)的崛起,基于A
    的頭像 發(fā)表于 07-08 10:30 ?1481次閱讀

    深度學(xué)習(xí)視覺檢測中的應(yīng)用

    深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)重要分支,其核心在于通過構(gòu)建具有多層次的神經(jīng)網(wǎng)絡(luò)模型,使計(jì)算機(jī)能夠從大量數(shù)據(jù)中自動學(xué)習(xí)并提取特征,進(jìn)而實(shí)現(xiàn)對復(fù)雜任務(wù)的處理和理解。這種
    的頭像 發(fā)表于 07-08 10:27 ?742次閱讀

    基于深度學(xué)習(xí)的小目標(biāo)檢測

    在計(jì)算機(jī)視覺領(lǐng)域,目標(biāo)檢測一直是研究的熱點(diǎn)和難點(diǎn)之一。特別是在小目標(biāo)檢測方面,由于小目標(biāo)在圖像中所占比例小、特征不明顯,使得檢測難度顯著增加。隨著
    的頭像 發(fā)表于 07-04 17:25 ?918次閱讀

    深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用

    深度學(xué)習(xí)技術(shù)的引入,極大地推動了計(jì)算機(jī)視覺領(lǐng)域的發(fā)展,使其能夠處理更加復(fù)雜和多樣化的視覺任務(wù)。本文將詳細(xì)介紹深度
    的頭像 發(fā)表于 07-01 11:38 ?828次閱讀

    深度解析深度學(xué)習(xí)下的語義SLAM

    隨著深度學(xué)習(xí)技術(shù)的興起,計(jì)算機(jī)視覺的許多傳統(tǒng)領(lǐng)域都取得了突破性進(jìn)展,例如目標(biāo)的檢測、識別和分類等領(lǐng)域。近年來,研究人員開始在視覺
    發(fā)表于 04-23 17:18 ?1305次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>下的語義<b class='flag-5'>SLAM</b>

    基于多攝像頭的高魯棒性視覺SLAM系統(tǒng)設(shè)計(jì)

    本文的主要目標(biāo)是通過擴(kuò)展ORB-SLAM2的功能來增強(qiáng)準(zhǔn)確性,從多個(gè)攝像頭中的姿態(tài)估計(jì)和地圖重用開始。所有這些多攝像頭的圖像特征將被合并到跟蹤模塊中進(jìn)行特征匹配,以及在閉環(huán)檢測期間進(jìn)行位置識別。
    發(fā)表于 04-20 17:51 ?607次閱讀
    基于多攝像頭的高魯棒性<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>系統(tǒng)設(shè)計(jì)

    工程實(shí)踐中VINS與ORB-SLAM的優(yōu)劣分析

    ORB-SLAM是一種基于特征的單目視覺SLAM系統(tǒng),廣泛用于實(shí)時(shí)三維地圖構(gòu)建和機(jī)器人定位。該系統(tǒng)使用ORB特征進(jìn)行高效的視覺識別和地圖重建,支持關(guān)鍵幀技術(shù)和回環(huán)
    的頭像 發(fā)表于 04-08 10:17 ?2945次閱讀
    工程實(shí)踐中VINS與ORB-<b class='flag-5'>SLAM</b>的優(yōu)劣分析

    AIDI工業(yè)AI視覺檢測軟件介紹

    AIDI是一款基于深度學(xué)習(xí)的智能工業(yè)視覺平臺應(yīng)用于多種工業(yè)應(yīng)用場景,有效解決復(fù)雜缺陷的定位識別、分類定級及字符識別等問題,具有強(qiáng)大的兼容性。AIDI 內(nèi)置多種應(yīng)用模塊,無需編程,幫助用戶快速構(gòu)建和迭代模型,滿足不同業(yè)務(wù)場景下的差
    發(fā)表于 03-25 21:52

    深度學(xué)習(xí)檢測小目標(biāo)常用方法

    深度學(xué)習(xí)的效果在某種意義上是靠大量數(shù)據(jù)喂出來的,小目標(biāo)檢測的性能同樣也可以通過增加訓(xùn)練集中小目標(biāo)樣本的種類和數(shù)量來提升。
    發(fā)表于 03-18 09:57 ?732次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>檢測</b>小目標(biāo)常用方法

    為什么深度學(xué)習(xí)的效果更好?

    導(dǎo)讀深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,已成為人工智能領(lǐng)域的一項(xiàng)變革性技術(shù),在從計(jì)算機(jī)視覺、自然語言處理到自動駕駛汽車等廣泛的應(yīng)用中取得了顯著的成功。深度
    的頭像 發(fā)表于 03-09 08:26 ?633次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的效果更好?

    基于機(jī)器視覺深度學(xué)習(xí)的焊接質(zhì)量檢測系統(tǒng)

    基于機(jī)器視覺深度學(xué)習(xí)的焊接質(zhì)量檢測系統(tǒng)是一種創(chuàng)新性的技術(shù)解決方案,它結(jié)合了先進(jìn)的計(jì)算機(jī)視覺深度
    的頭像 發(fā)表于 01-18 17:50 ?826次閱讀
    主站蜘蛛池模板: h视频免费观看| 一级做a爰片久久毛片一| 九九热精品在线| 久久精品免视看国产成人2021| 欧美一级特黄aaaaaa在线看首页 | 日本aaaaa级片| 美女扒开尿口给男人桶动态图| 精品国产麻豆免费人成网站| 最好看的2019中文字幕免费高清 | 在线亚洲成人| 香蕉久久夜色精品国产小说| 婷婷免费高清视频在线观看| 日韩污| 免费一日本一级裸片在线观看| 精品香港经典三级在线看| 丁香六月在线| 午夜大片在线观看| 黄色网日本| 中国男女全黄大片一级| aaaaaa精品视频在线观看| 四虎影院永久免费| 免费的色网站| www.婷婷色| 免费黄色三级网站| 美国三级网| 优优国产在线视频| 日本理论在线| 国产成年女一区二区三区| 天天狠天天操| 日本与大黑人xxxx| 国产毛片久久国产| 日韩精品网址| www四虎在线高清| 久热国产精品视频| 亚洲情欲网| 色综合天天色综合| 国产女人和拘做受视频免费 | 六月综合网| 亚洲va中文va欧美va爽爽| 荡女妇边被c边呻吟久久| 看黄视频免费|