在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于SupSLAM的視覺慣性SLAM方法

3D視覺工坊 ? 來源:3D視覺工坊 ? 作者:3D視覺工坊 ? 2022-10-17 16:39 ? 次閱讀

近年來,使用機器學習技術進行特征提取的基于調制解調器特征的SLAM越來越受到關注,并有望在幾乎所有機器人工作環(huán)境中超越傳統(tǒng)方法。這種方法利用經過訓練的網絡來學習關鍵點,從而增強可視化SLAM數據關聯(lián)的魯棒性。現(xiàn)代基于特征的SLAM也有望為實時映射生成可靠的感知圖,因為基于學習的特征點更具可重復性和均勻分布性。此外,這些局部特征可以用作神經對應網絡的輸入,以消除異常值,從而使姿態(tài)估計變得更加準確。另一方面,由于資源有限,無人機上的SLAM經常對計算構成限制。在這種情況下,基于特征的SLAM更相關,因為提取的興趣點可以稍后用于與分割和對象檢測相關的任務。

因此,提取特征點的方法在SLAM中起著關鍵作用。我們引入了一種名為SupSLAM的視覺慣性SLAM方法,該方法基于一種稱為超級點的新特征點的使用。這些特征點通過深度神經網絡從SLAM前端的輸入圖像中提取的。我們的SLAM前端只需要一個帶有IMU作為輸入的立體攝像頭。姿態(tài)估計由多狀態(tài)約束卡爾曼濾波器(MSCKF)進行,而軌跡可靠性則由后端運行的圖形優(yōu)化過程維護。

系統(tǒng)架構

圖1 中顯示了表示我們的SLAM系統(tǒng)的圖表。該系統(tǒng)使用立體攝像頭作為輸入來提取環(huán)境特征。該相機配有IMU,用于測量線性加速度和角速度。然后通過前端和后端模塊處理來自輸入設備的數據。

1b440928-4c20-11ed-a3b6-dac502259ad0.png

圖1系統(tǒng)概述

前端從輸入數據中提取特征點,然后在左右攝像頭之間匹配它們以獲取深度信息。然后將這些信息提供給多態(tài)約束MSCKF,以估計無人機的3D姿態(tài)。另一方面,后端跟蹤關鍵幀中的要素,以執(zhí)行映射一致性和軌跡估計的循環(huán)閉包過程。因此,前端表現(xiàn)為視覺慣性里程計(VIO),以提供無人機姿勢的實時估計,而后端則跟蹤并隨時間調整姿勢。

SLAM 中數據關聯(lián)的超級點

SuperPoint是一個完全卷積的神經網絡,它在單個正向傳遞和運行中計算2D特征點位置和描述符。在我們的工作中,我們只考慮特征點,以降低計算成本并保持匹配結果的一致性。所用超級點的體系結構如圖 2所示。

1b53d4b6-4c20-11ed-a3b6-dac502259ad0.jpg

圖2超級點的模型架構

實驗設置

實驗數據是從框架尺寸為40cm x40cm的四軸飛行器中收集的。IMU更新速率為200 Hz。立體相機的基線為7厘米,分辨率為752x480,速度為每秒20幀。SLAM系統(tǒng)在C++中使用OpenVINS框架實現(xiàn)。OpenCV和庫用于圖像處理。為了實時性能,要跟蹤的視覺特征數限制為400個,當活動點數降至300以下時,將添加新的特征點。預訓練的深度神經網絡用于以752x480的分辨率從輸入圖像中提取特征。MSCKF中的時間窗口設置為3秒。在后端,每隔1.2米向姿勢圖添加新的關鍵幀。

數據準備

真實數據和合成數據都用于實驗。真實數據包括EuRoC數據集中名為MH3,MH4和MH5的三個最復雜的序列,其中無人機沿著機房飛行。合成數據包括兩個場景,分別代表一個農村農場和一個城市地區(qū),這些場景是由我們從AirSim開發(fā)的工具集生成的,如圖3所示。

1b59ed4c-4c20-11ed-a3b6-dac502259ad0.jpg

圖3用于實驗的農村農場和城市地區(qū)的綜合場景

評價指標

我們使用兩個指標進行性能評估,包括絕對軌跡誤差(ATE)和相對軌跡誤差(RTE)。計算ATE的方法是首先將估計的軌跡與地面實況對齊,然后測量它們之間的差異,如圖4a所示。RTE的計算方法是將估計的軌跡劃分為段dk然后將每個線段與地面實況軌跡對齊,以計算誤差,如圖4b所示。

1b66c210-4c20-11ed-a3b6-dac502259ad0.jpg

圖4評估指標的圖示(a) 絕對軌跡誤差和(b) 相對軌跡誤差

SLAM結果

圖5 顯示了SuperPoint在三個場景中檢測到的特征點,包括城市地區(qū)、農村農場和機房,具有兩種不同的設置,即100個和400個特征點。可以看出,角落,邊緣,顏色變化等特征被很好地檢測到。此外,檢測到的特征分布在圖像中,因此算法對某些對象的依賴性較小。

1b74aa2e-4c20-11ed-a3b6-dac502259ad0.jpg

圖5超級點檢測到的特征點

圖6顯示了檢測到的特征點在左右圖像之間的對應關系。可以看出,大多數特征點都正確匹配,這意味著提取的深度信息是可靠的。

1b84797c-4c20-11ed-a3b6-dac502259ad0.jpg

圖6超級點檢測到的特征點在不同時間捕獲的兩個圖像幀之間的特征點的跟蹤Δt=0.3s如圖7a 所示。由于檢測到的特征點分布在圖像中,因此幀之間的共同特征點的數量得到了很好的維護,這對于穩(wěn)定的SLAM非常重要。

1b8f00ae-4c20-11ed-a3b6-dac502259ad0.jpg

圖7使用時差捕獲(a) FAST和(b)兩幀中的超級點的跟蹤結果Δt=0.3s

圖 8 顯示了LoopF數據集的SLAM結果,其中無人機在農村農場上空飛行兩輪。可以看出,最終估計的軌跡(紅線)即使在近500米的長距離上也能很好地跟蹤地面實況軌跡(黃線)。

1ba6c644-4c20-11ed-a3b6-dac502259ad0.jpg

圖8LoopF數據集的無人機軌跡包括地面實況軌跡(黃線)、前端估計(綠線)和后端估計(紅線)

結果比較

為了進一步評估我們方法的性能,我們與OpenVINS 進行了比較,OpenVINS是一種最先進的SLAM系統(tǒng),使用FAST進行特征提取。圖9顯示了FAST檢測到的特征點。與SuperPoint不同,這些特征點集中在某些對象(如植物、房屋或機器)周圍。因此,當物體移出場景時,不同時間拍攝的圖像幀之間的共同特征點數量顯著減少,如圖7b所示。這個問題反過來又會影響SLAM的結果。

1bb2e672-4c20-11ed-a3b6-dac502259ad0.jpg

圖9FAST檢測到的特征點為了評估SupSLAM的性能,我們進行了許多實驗,并與真實和合成數據集進行了比較。結果驗證了我們提出的無人機系統(tǒng)的有效性和有效性。

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    211

    文章

    28420

    瀏覽量

    207111
  • 神經網絡
    +關注

    關注

    42

    文章

    4771

    瀏覽量

    100773
  • 數據
    +關注

    關注

    8

    文章

    7033

    瀏覽量

    89040
  • SLAM
    +關注

    關注

    23

    文章

    424

    瀏覽量

    31834

原文標題:一種強大的視覺慣性SLAM系統(tǒng)SupSLAM

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    什么是SLAM視覺SLAM怎么實現(xiàn)?

    上周的組會上,我給研一的萌新們講解什么是SLAM,為了能讓他們在沒有任何基礎的情況下大致聽懂,PPT只能多圖少字沒公式,這里我就把上周的組會匯報總結一下。 這次匯報的題目我定為“視覺SLAM:一直在
    的頭像 發(fā)表于 08-21 10:02 ?1w次閱讀
    什么是<b class='flag-5'>SLAM</b>?<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>怎么實現(xiàn)?

    視覺SLAM筆記總結

    【總結】視覺SLAM筆記整理
    發(fā)表于 07-17 14:05

    激光SLAM視覺SLAM有什么區(qū)別?

    機器人定位導航中,目前主要涉及到激光SLAM視覺SLAM,激光SLAM在理論、技術和產品落地上都較為成熟,因而成為現(xiàn)下最為主流的定位導航方式,在家用掃地機器人及商用送餐機器人等服務機
    發(fā)表于 07-05 06:41

    基于視覺slam自動駕駛

    基于視覺slam自動駕駛,這是我們測試的視頻《基于slam算法的智能機器人》調研分析報告項目背景分析機器人曾經是科幻電影中的形象,可目前已經漸漸走入我們的生活。機器人技術以包含機械、電子、自動控制
    發(fā)表于 08-09 09:37

    激光SLAM視覺VSLAM的分析比較

    什么是激光SLAM視覺VSLAM又是什么?激光SLAM視覺VSLAM有哪些不同之處?
    發(fā)表于 11-10 07:16

    單目視覺SLAM仿真系統(tǒng)的設計與實現(xiàn)

    實現(xiàn)單目視覺同時定位與建圖(SLAM)仿真系統(tǒng),描述其設計過程。該系統(tǒng)工作性能良好,其SLAM算法可擴展性強,可以精確逼近真實單目視覺SLAM
    發(fā)表于 04-15 08:50 ?82次下載

    視覺SLAM實現(xiàn)的關鍵方法有哪些詳細資料總結

    本文是調研視覺SLAM中的實現(xiàn)方法的總結,包括三方面內容:姿態(tài)計算、閉環(huán)檢測、BA優(yōu)化。
    的頭像 發(fā)表于 05-18 11:49 ?4311次閱讀

    視覺SLAM深度解讀

    )、RGBD這三類,另還有魚眼、全景等特殊相機,但目前在研究和產品中還屬于少數,此外,結合慣性測量器件(Inertial Measurement Unit,IMU)的視覺SLAM也是現(xiàn)在研究熱點之一
    的頭像 發(fā)表于 09-11 22:01 ?1963次閱讀

    科普|視覺SLAM是什么——三種視覺SLAM方案

    ,就相當于人類失去了雙眼一樣。 一、什么是視覺SLAM? SLAM的英文全稱是Simultaneous Localization and Mapping,中文稱作「即時定位與地圖創(chuàng)建」,而視覺
    的頭像 發(fā)表于 04-17 09:21 ?5.6w次閱讀

    計算機視覺方向簡介之視覺慣性里程計

    VIO-SLAM Visual-Inertial Odometry(VIO)即視覺慣性里程計,有時也叫視覺慣性系統(tǒng)(VINS,visual-
    的頭像 發(fā)表于 04-07 16:57 ?2599次閱讀
    計算機<b class='flag-5'>視覺</b>方向簡介之<b class='flag-5'>視覺</b><b class='flag-5'>慣性</b>里程計

    Snake-SLAM視覺慣性SLAM系統(tǒng)

    ./oschina_soft/Snake-SLAM.zip
    發(fā)表于 06-16 11:27 ?2次下載
    Snake-<b class='flag-5'>SLAM</b><b class='flag-5'>視覺</b><b class='flag-5'>慣性</b><b class='flag-5'>SLAM</b>系統(tǒng)

    基于SupSLAM視覺慣性SLAM方法在無人機中的應用研究

    近年來,使用機器學習技術進行特征提取的基于調制解調器特征的SLAM越來越受到關注,并有望在幾乎所有機器人工作環(huán)境中超越傳統(tǒng)方法
    的頭像 發(fā)表于 10-19 17:35 ?929次閱讀

    基于深度學習的視覺SLAM綜述

    SLAM本質上是一個狀態(tài)估計問題,根據傳感器做劃分,主要是激光、視覺兩大類。激光SLAM的研究在理論和工程上都比較成熟,現(xiàn)有的很多行業(yè)已經開始使用激光SLAM完成工業(yè)工作;而
    的頭像 發(fā)表于 12-02 15:00 ?2008次閱讀

    視覺SLAM開源方案匯總 視覺SLAM設備選型

    SLAM至今已歷經三十多年的研究,這里給出經典視覺SLAM框架,這個框架本身及其包含的算法已經基本定型,并且已經在許多視覺程序庫和機器人程序庫中提供。
    發(fā)表于 08-10 14:15 ?1066次閱讀
    <b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>開源方案匯總 <b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>設備選型

    視覺SLAM是什么?視覺SLAM的工作原理 視覺SLAM框架解讀

    近年來,SLAM技術取得了驚人的發(fā)展,領先一步的激光SLAM已成熟的應用于各大場景中,視覺SLAM雖在落地應用上不及激光SLAM,但也是目前
    的頭像 發(fā)表于 09-05 09:31 ?3985次閱讀
    <b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>是什么?<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>的工作原理 <b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>框架解讀
    主站蜘蛛池模板: 免费观看美女被cao视频| haodiaose在线精品免费观看| 日本天天操| 亚洲国产情侣偷自在线二页| 国产亚洲片| aaaaa国产毛片| 老司机51精品视频在线观看| 午夜小视频男女在线观看| 欧美八区| 色视频网站色视频播放| 在线天堂中文| 亚洲视屏一区| 国产99热| 黄色三级网站免费| 久久天天躁狠狠躁夜夜不卡| 国产精品久久久久久久久久妇女| 欧美日韩在线成人看片a| 天天综合五月天| 精品视频一二三区| 黄色二级视频| 1024你懂的在线播放欧日韩| 天天摸日日舔| 午夜国产精品理论片久久影院| 亚洲视频一区| 久久男人精品| 午夜视频久久| 久久性生活| 国产三级中文字幕| 欧美一区二区三区男人的天堂| 色婷婷色综合激情国产日韩| 永久在线免费观看| 男同小黄文| 国模私拍大尺度视频在线播放| haodiaose在线精品免费观看| 四大名著成人高h肉版| 天天干天天谢| 一区二区三区电影| 91久久婷婷国产综合精品青草| 亚洲一区二区三区网站| 久久成人国产| 韩国xxxxxxxx69|