在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一種R3LIVE++的LiDAR慣性視覺融合框架

3D視覺工坊 ? 來源:自動駕駛之心 ? 作者:汽車人 ? 2022-10-17 09:34 ? 次閱讀

摘要

本文提出了一種名為 R3LIVE++ 的 LiDAR 慣性視覺融合框架,以實現穩健且準確的狀態估計,同時實時重建輻射圖。R3LIVE++ 由實時運行的 LiDAR 慣性里程計 (LIO) 和視覺慣性里程計 (VIO) 組成。LIO 子系統利用來自 LiDAR 的測量來重建幾何結構,而 VIO 子系統同時從輸入圖像中恢復幾何結構的輻射信息。

R3LIVE++基于R3LIVE,通過結合相機光度校準和相機曝光時間的在線估計,進一步提高了定位和建圖的準確性。論文在公開和私有數據集上展開了充分的實驗,并同其他SOTA的SLAM 系統進行比較。定量和定性的結果表明,R3LIVE++ 在準確性和魯棒性方面都有很大的優勢。

此外,為了展示R3LIVE++ 的可擴展性,論文基于R3LIVE++得到的重建地圖開發了若干應用程序,例如高動態范圍 (HDR) 成像、虛擬環境探索和 3D 視頻游戲。 在SLAM中融合LiDAR和相機測量,可以克服各個傳感器在定位中的退化問題,并生成滿足各種地圖應用需求的精確、紋理化和高分辨率3D地圖?;诖耍撐奶岢龅腞3LIVE++有以下特點:

R3LIVE++是一個激光雷達慣性視覺融合框架,緊密耦合了兩個子系統:LIO和VIO子系統。這兩個子系統聯合增量地實時構建周圍環境的3D輻射圖。特別是,LIO通過將LiDAR中的新點云配準到地圖中來重建幾何結構,而VIO則通過將圖像中的像素顏色渲染到地圖中的點來恢復輻射信息;

R3LIVE++提出一個新穎的VIO設計,通過最小化輻射圖中的點與當前圖像中稀疏像素集合間的輻射度差異來跟蹤相機姿態(并估計其他系統狀態)。frame-to-map的對齊有效地降低了里程計的漂移,而單個像素稀疏集合上的直接光度誤差有效地限制了計算負載。此外,基于光度誤差,VIO能夠在線估計相機曝光時間,從而能夠恢復環境的真實輻射信息;

在定位精度、魯棒性和輻射圖重建精度方面,論文的方法在真實世界的實驗中得到了廣泛驗證。來自開放數據集(NCLT數據集)的25個序列的基準測試結果表明,相比之下,R3LIVE++在所有其他最先進的SLAM系統(如LVI-SAM、LIO-SAM、FAST-LIO2等)中實現了新SOTA。

此外,論文在私有數據集的評估表明,R3LIVE++對于激光雷達或相機測量退化的極端挑戰場景(例如,當設備面對無紋理的墻時)具有更好的魯棒性。最后,與其他同類產品相比,R3LIVE++可以更準確地估計相機的曝光時間,并重建環境的真實輻射信息,與圖像中的測量像素相比,誤差要小得多;

據論文稱,這是第一個輻射圖重建框架,它可以在配備標準CPU的PC上實現實時性能,而無需任何硬件或GPU加速?;谶M一步開發的一套網格重建和紋理處理離線應用程序,該系統在各種現實應用中顯示出巨大潛力,例如3D HDR成像、物理模擬和視頻游戲。

方法

論文使用的符號含義如下表所示:

690420ec-4da8-11ed-a3b6-dac502259ad0.png

系統概覽

為了同時估計傳感器姿態并重建環境輻射圖,論文設計了一個緊密耦合的LiDAR慣性視覺傳感器融合框架,如圖2所示。該框架包含兩個子系統:LIO和VIO子系統。LIO子系統通過記錄每個輸入LiDAR的點云測量值,構建輻射圖的幾何結構。

VIO子系統分兩步恢復地圖的輻射信息:幀到幀VIO更新通過最小化幀到幀PnP重投影誤差來估計系統狀態,而幀到地圖VIO更新則最小化地圖點云和當前圖像之間的輻射誤差。這兩個子系統在流形誤差狀態迭代卡爾曼濾波器框架(ESIKF)[43]內緊密耦合,其中激光雷達和攝像機視覺測量在各自的數據接收時間融合到相同的系統狀態。

6909bc32-4da8-11ed-a3b6-dac502259ad0.png



本文的輻射圖由全局框架中的地圖點組成,每個點P的結構如下所示:

691c962c-4da8-11ed-a3b6-dac502259ad0.png

體素

為了有效地查詢輻射圖中的點,論文將地圖點設置為固定大?。?.1m×0.1m×0.1m)的體素。如果一個體素近期附加了點(例如最近1秒),則將該體素標記為激活。否則,此體素將標記為停用。

彩色相機光度模型

相機以圖像的形式觀察現實世界的輻射,圖像由像素強度的2D數組組成。在本文中基于[44]對相機的圖像形成過程進行建模,并將灰色相機模型進一步擴展到彩色相機。如圖3所示,對于現實世界中的點P,它反射來自光源(例如太陽)的入射光。反射光通過相機鏡頭,最終到達CMOS傳感器,傳感器記錄反射光的強度,并在輸出圖像中創建像素通道。記錄的強度由輻射度決定,輻射度是點P反射功率的測量值。

692c32a8-4da8-11ed-a3b6-dac502259ad0.png

為了建模上述成像過程,使用表示點P的輻射度。由于彩色相機的CMOS傳感器中有三個通道:紅色、綠色和藍色,因此輻射度有三個分量:、、 。對于每個通道,穿過相機鏡頭的光線有如下能量:

6943a186-4da8-11ed-a3b6-dac502259ad0.png

拍攝圖像時,捕獲的輻射度隨時間(即曝光時間)進行積分。然后,通過相機響應函數將累積輻射度轉換為像素強度輸出:

694bcf00-4da8-11ed-a3b6-dac502259ad0.png

由于真實的相機傳感器具有有限的動態范圍,并且輻射的物理尺度無法恢復,因此可以將像素強度歸一化到0-1之間。 不同通道通常具有不同的非線性響應函數,它們可以根據[45]中的方法與vignetting factor一起離線校準。本文的曝光時間是在線估計的。根據校準和估計結果,點P相對于觀測像素值的輻射度可計算為:

69587df4-4da8-11ed-a3b6-dac502259ad0.png


狀態

最終狀態x定義如下:

69637b6e-4da8-11ed-a3b6-dac502259ad0.png

激光雷達慣性里程計(LIO)

論文的LIO子系統通過將新的LiDAR點云配準到全局地圖來重建環境的幾何結構。即使用generalized-iterative closet point(GICP)方法[46],通過最小化掃描中每個點云到地圖中相應點擬合的平面的距離,迭代估計LiDAR姿態(和其他系統狀態)。然后使用估計的狀態估計值將新點附加到地圖。

LiDAR point-to-plane residual

如圖2所示,論文的LIO子系統構建了全局地圖的幾何結構。對于第k個輸入LiDAR掃描,首先使用在[22]中引入的IMU反向傳播來補償幀內運動。假設是運動補償后m個LiDAR點的集合,計算的每個原始點(或下采樣子集)的殘差,其中s是點的索引,上標L表示點在LiDAR參考幀中的表示。 基于當前迭代的估計,將從LiDAR幀轉換到全局幀:

696cb31e-4da8-11ed-a3b6-dac502259ad0.png

為了將點云配準到全局地圖,論文搜索地圖中最近的五個點。為了加速最近鄰搜索,地圖點被組織成incremental k-d tree(參見[23])。使用找到的最近鄰點擬合一個具有法向和質心的平面,然后使用激光雷達測量殘差:

6976c82c-4da8-11ed-a3b6-dac502259ad0.png


LIO ESIKF update

理想情況下,上式中的殘差應為零。然而,由于中的估計誤差和LiDAR測量噪聲,該殘差通常不是零,可以用于細化狀態估計。具體來說,假設是點的測量噪聲,則真值和測量值的關系如下所示:

69802e3a-4da8-11ed-a3b6-dac502259ad0.png

該真實點位置和真實狀態可以推導出下式:

6992a092-4da8-11ed-a3b6-dac502259ad0.png

上式構成的觀測分布,它與IMU傳播的先驗分布相結合得到:

69bd879e-4da8-11ed-a3b6-dac502259ad0.png

求解上式得到的Maximum A-Posteriori(MAP)估計值,然后更新到中,如下所示:

69e6b380-4da8-11ed-a3b6-dac502259ad0.png

迭代直至收斂(即更新小于給定閾值)。然后將收斂狀態估計值用作IMU傳播的起點,直到接收到下一個LiDAR掃描或相機圖像。此外,收斂估計值用于將當前LiDAR掃描中的點添加到全局地圖中,如下所示。對于第s個點,其在全局幀中的位置首先通過(6)獲得。如果在地圖中有距離為1cm的附近點,將被丟棄,以保持1cm的空間分辨率。否則,將在地圖中創建一個新的點結構:

69efaf76-4da8-11ed-a3b6-dac502259ad0.png

視覺慣性里程計(VIO)

當LIO子系統重建環境的幾何結構時,VIO子系統從輸入的彩色圖像中恢復輻射信息。更具體地說,VIO子系統從全局地圖向當前圖像投影一定數量的點(即跟蹤點),然后通過最小化這些點的輻射誤差來迭代估計相機姿態(和其他系統狀態)。為了提高計算效率,只使用一組稀疏的跟蹤地圖點。

論文提出的框架不同于以前基于光度的方法[33]、[47],這些方法通過考慮所有相鄰像素(即patch)的光度誤差來構成點的殘差。這些基于patch的方法具有更強的魯棒性和更快的收斂速度,然而對平移或旋轉都不是不變的,即需要在兩個patch對齊時估計相對變換。

此外,這些方法假設patch中所有像素的深度與中心點相同,所以殘差的計算并不精確。另一方面,論文的VIO在逐像素上操作,利用單個地圖點的輻射來計算殘差。在VIO中同時更新的輻射度是世界上某個點的固有屬性,對攝影機平移和旋轉都是不變的。

為了確保穩健和快速收斂,論文設計了圖2所示的兩步流水線,其中在第一步(即 frame-to-frame VIO)中,利用frame-to-frame光流跟蹤最后一幀中觀察到的地圖點,并通過最小化跟蹤點的PnP重投影誤差來獲得系統狀態的粗略估計。然后,在第二步(即frame-to-map VIO)中,通過最小化地圖點的亮度和當前圖像中其投影位置的像素強度之間的差異,進一步細化狀態估計。

通過收斂狀態估計和原始輸入圖像,論文最終根據當前圖像測量更新地圖點的輻射度。

光度矯正

對于輸入圖像,首先校正圖像non-linear CRF 和vignetting factor ,其已經預先校準,以獲得測光校正圖像,其像素位置的第i通道為:

6a03b3fe-4da8-11ed-a3b6-dac502259ad0.png

測光校正圖像 之后在VIO管道中使用,包括frame-to-frame VIO、frame-to-map VIO和輻射恢復。

Frame-to-frame VIO

Perspective-n-Point reprojection error

假設跟蹤了m個在最后一幀圖像中的地圖點及其在圖像中的投影位置。論文使用Lucas Kanade光流來定位這些點在當前圖像中的位置。然后迭代地最小化點P的重投影誤差,以獲得狀態的粗略估計(見圖4)。

6a0d5918-4da8-11ed-a3b6-dac502259ad0.png

投影誤差表示如下:

6a16a5ae-4da8-11ed-a3b6-dac502259ad0.png

6a20223c-4da8-11ed-a3b6-dac502259ad0.png

Frame-to-frame VIO Update

與LIO更新類似,中的狀態估計誤差和相機測量噪聲將導致(14)中的某個殘差,從中可以如下更新狀態估計。首先(14)中的測量噪聲由兩個來源組成:一個是的像素跟蹤誤差,另一個是地圖點定位誤差:

6a48b0da-4da8-11ed-a3b6-dac502259ad0.png

類似的,校正此類噪聲并使用真實的系統狀態應導致零殘差:

6a5c05ea-4da8-11ed-a3b6-dac502259ad0.png

上式構成了的觀測分布,將其與與IMU傳播相結合,以獲得狀態的MAP估計值,方法與LIO更新相同。然后收斂的狀態估計值用于細化frame-to-map VIO。

Frame-to-map VIO

Frame-to-map radiance error

frame-to-frame VIO更新可以提供良好的狀態估計,通過最小化跟蹤的地圖點P的輻射誤差,frame-to-map VIO更新會進一步細化。利用當前迭代的狀態估計(包含估計的相機姿態、內外參和曝光時間),進一步將跟蹤的地圖點投影到圖像平面,以獲得其像素位置。然后,由表示的觀測輻射度可以由下式獲得:

6a6f0ef6-4da8-11ed-a3b6-dac502259ad0.png

最后,frame-to-map輻射誤差由下式獲得:

6a793b56-4da8-11ed-a3b6-dac502259ad0.png


Frame-to-map VIO update

上式中的測量噪聲來自輻射分量和:

6a8526d2-4da8-11ed-a3b6-dac502259ad0.png


6a8f290c-4da8-11ed-a3b6-dac502259ad0.png

結合(19)、(20)和(21)進一步得到了真實零殘差的一階泰勒展開式:

6a9ba9a2-4da8-11ed-a3b6-dac502259ad0.png

與之前類似,(22)構成了狀態的觀測分布,該分布與IMU傳播相結合,以獲得該狀態的MAP估計值。

Recovery of radiance information

6aa60582-4da8-11ed-a3b6-dac502259ad0.png

在frame-to-map VIO更新后,便得到了當前圖像的精確姿態。然后進行貝葉斯更新以確定所有地圖點的最佳輻射度,從而使每個點與其對應圖像之間的平均輻射度誤差最小。 進一步檢索所有激活體素中的點。假設檢索到的點集為Q。對于落在當前圖像FoV中的第s個點,首先通過(19)獲取觀測到的輻射向量,通過(21)獲得其協方差。然后,如果是LIO子系統附加的一個新點且,則我們設置:

6ab2db4a-4da8-11ed-a3b6-dac502259ad0.png

否則,通過貝葉斯更新(見圖6),將保存在地圖中的輻射矢量與新觀測到的輻射矢量進行融合:

6abfa456-4da8-11ed-a3b6-dac502259ad0.png



Update of the tracking points

在恢復輻射信息后,論文更新跟蹤點集P以供下一幀圖像使用。首先,如果(14)中的投影誤差或(19)中的輻射誤差過大,就從當前P中刪除點,并刪除不屬于當前圖像FoV的點。其次,論文將Q中的每個點投影到當前圖像中,如果在50像素的鄰域中沒有其他跟蹤點,則將其添加到P中。

實驗

論文進行了大量實驗,從三個方面驗證了提出的系統相對于其他同類系統的優勢:

1)為了驗證定位的準確性,在公開數據集(NCLT數據集)上定量比較了R3LIVE++與其他SOTA的SLAM系統;

2) 為了驗證框架的魯棒性,在攝像機和激光雷達傳感器退化的各種具有挑戰性的場景下進行測試;

3) 為了評估R3LIVE++在重建輻射圖時的精度,論文將其與現有基線進行比較,以估算相機曝光時間并計算每個圖像的平均光度誤差。在實驗中,使用了兩個數據集進行評估:NCLT數據集和私有的R3LIVE數據集。

R3LIVE數據集收集于香港大學(HKU)和香港科技大學(HKUST)的校園內。如表2所示,數據集包含13個序列,通過探索室內和室外環境,在一天中不同時間(即上午、中午和晚上)的不同場景(如人行道、公園、森林等)中收集這些序列。這使得數據集能夠捕獲具有不同照明條件下的結構化城市建筑和雜亂現場環境。

數據集還包括三個退化序列,其中激光雷達或相機(或兩者)偶爾面對設備,使其退化為單個視覺或無紋理平面(例如,墻、地面)??傂谐?.4km,持續時間達到2.4h。

6ad6c726-4da8-11ed-a3b6-dac502259ad0.png


定位準確性評估

論文將R3LIVE++與其他SLAM系統進行對比,包括LIO-SAM[19]、LVI-SAM[40]、FAST-LIO2[23]和R2LIVE[41]。 對比結果如下表所示:
6b3a9d78-4da8-11ed-a3b6-dac502259ad0.png

在圖10中,論文對比疊加了所有25條地面真實軌跡(左圖)和R3LIVE的結果(右圖)??梢钥闯?,R3LIVE++系統估計的疊加軌跡與GT吻合得很好,并且每個軌跡仍然可以清楚地區分,沒有明顯的誤差。請注意,這25條軌跡是在同一校園區域內一天中的不同時間和一年中的不同季節采集的,但R3LIVE++仍然可以生成一致且可靠的軌跡估計,證明了系統的魯棒性。
6b4b5ec4-4da8-11ed-a3b6-dac502259ad0.png


魯棒性評估

LiDAR退化場景下的魯棒性評估:可以看出,由于面對單個平面時激光雷達退化,所有三個LIO系統都失敗了,沒有返回起點。相比之下,通過利用視覺圖像中的線索,R3LIVE++在這兩個序列中都能很好地工作,并成功地回到起點。 6b606df0-4da8-11ed-a3b6-dac502259ad0.png

LiDAR退化和視覺紋理較少環境下的魯棒性評估:在這個實驗中,R3LIVE++挑戰了SLAM中最困難的場景之一,激光雷達和相機都會退化。傳感器裝置穿過一個狹窄的“T”形通道(見圖11)

6b6edff2-4da8-11ed-a3b6-dac502259ad0.png

利用原始像素顏色信息,并將其與LiDAR點云測量緊密融合,R3LIVE++可以在這種極其困難的場景中“生存”。圖12是姿態估計的結果,穿過“墻-1”和“墻-2”的階段分別用紫色和黃色陰影表示。估計協方差也如圖12所示,它在整個估計軌跡上有界,表明R3LIVE++的估計質量在整個過程中是穩定的。

6ba4d292-4da8-11ed-a3b6-dac502259ad0.png


輻射圖重建評估

由于無法測量環境的真實輻射圖,論文使用兩個指標來評估精度:一個是相機曝光時間的估計質量,另一個是重建的輻射圖與測量圖像之間的平均光度誤差。

曝光時間估計:在這個實驗中,論文通過將估計的相機曝光時間與從相機API讀取的GT進行比較來評估其準確性。結果如圖13和表4所示。

6bd9f922-4da8-11ed-a3b6-dac502259ad0.png6c080952-4da8-11ed-a3b6-dac502259ad0.png

輻射圖評估:為了評估輻射重建誤差,在地圖重建后使用估計的相機姿態和校準的光度參數,將地圖中所有具有輻射信息的點重新投影到每個圖像幀。然后計算地圖點顏色和圖像在投影像素位置的RGB值之間的光度誤差。計算每個圖像幀的平均光度誤差,以評估重建的輻射圖精度。實驗結果如圖14和表5所示:
6c1b8aae-4da8-11ed-a3b6-dac502259ad0.png6c2e439c-4da8-11ed-a3b6-dac502259ad0.png

可以看出,R3LIVE++在所有序列中始終實現了最低的光度誤差,其次是R3LIVE。圖15顯示了重建輻射圖的一些特寫鏡頭,從中可以清楚地分辨物體上的單詞。此外,圖16展示了R3LIVE數據集中“香港大學主樓”序列的重建輻射圖,室內和室外細節(例如道路上的標記)都非常清晰,表明R3LIVE++具有較高的精度。

6c3d9766-4da8-11ed-a3b6-dac502259ad0.png6d26d3ae-4da8-11ed-a3b6-dac502259ad0.png

運行時間分析

本節分析SLAM系統在純CPU PC(配備Intel i7-9700K CPU和64GB RAM)上的平均耗時。論文計算了兩個數據集所有序列的平均耗時,結果如表6和表7所示。在NCLT數據集上,每次LiDAR掃描需要34.3 ms,相機需要16.6 ms的處理時間。

6d6a64ca-4da8-11ed-a3b6-dac502259ad0.png6d811fb2-4da8-11ed-a3b6-dac502259ad0.png

R3LIVE++的應用

High dynamic range (HDR) imaging

在重建輻射圖后,可以進一步渲染圖像,可視化結果如圖17所示:

6d8e8dd2-4da8-11ed-a3b6-dac502259ad0.png


Mesh reconstruction and texturing

當R3LIVE++實時重建彩色3D地圖時,論文還開發了軟件程序來離線對重建的地圖進行網格劃分和紋理處理(見圖18)。

6dbd130a-4da8-11ed-a3b6-dac502259ad0.png

Toward various of 3D applications

通過開發的軟件,論文將將重建的3D地圖導出到Unreal Engine[60],以支持一系列3D應用程序。如圖19所示的汽車模擬器、視頻游戲等 6dd4a10a-4da8-11ed-a3b6-dac502259ad0.png

結論和未來工作

結論

論文提出了一種新的激光雷達慣性視覺融合框架R3LIVE++,以實現魯棒和精確的狀態估計,同時動態重建輻射圖。該框架由兩個子系統(即LIO和VIO)組成,這兩個子系統共同增量地實時構建環境的3D輻射圖。通過將三種不同類型傳感器的測量值緊密融合,R3LIVE++可以實現更高的定位精度,同時對傳感器退化的場景具有足夠的魯棒性。

論文通過真實世界的實驗,在定位精度、魯棒性和輻射圖重建精度方面驗證了R3LIVE++的有效性。在NCLT數據集上的實驗結果表明,R3LIVE++超越了以往SOTA的SLAM系統。對私有數據集(R3LIVE數據集)的評估表明,R3LIVE++對LiDAR或相機測量退化的極端挑戰性場景具有魯棒性。最后與其他算法相比,R3LIVE++可以更準確地估計相機的曝光時間,并重建環境的真實輻射信息,與圖像中的測量值相比,誤差要小得多。

為了證明R3LIVE++的可擴展性,論文基于重建的輻射圖開發了幾個應用程序,例如高動態范圍(HDR)成像、虛擬環境探索和3D視頻游戲。

未來工作

在R3LIVE++中,輻射圖是用包含輻射信息的3D點云重建的,因此無法從輻射圖中渲染高分辨率圖像,因為輻射圖的點云密度有限(論文設置為1cm)。雖然可以進一步增加點云密度,但也會進一步增加耗時。此外點云密度還受到激光雷達傳感器測量的原始點云密度的限制。我們注意到圖像通常具有更高的分辨率,未來可以探索如何在融合框架中充分利用此類高分辨率圖像。




審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • HDR
    HDR
    +關注

    關注

    4

    文章

    277

    瀏覽量

    32020
  • SLAM
    +關注

    關注

    23

    文章

    424

    瀏覽量

    31832
  • 激光雷達
    +關注

    關注

    968

    文章

    3972

    瀏覽量

    189923

原文標題:港大重磅SLAM新作!R3LIVE++:一個實時魯棒的緊耦合激光雷達-慣性-視覺融合框架

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    一種基于MASt3R的實時稠密SLAM系統

    本文提出了一種即插即用的單目SLAM系統,能夠在15FPS的幀率下生成全局致的位姿和稠密幾何圖形。 01 ? 本文核心內容 視覺SLAM乃是當今機器人技術與增強現實產品的基礎性構建模塊。通過
    的頭像 發表于 12-27 15:25 ?112次閱讀

    一種面向飛行試驗的數據融合框架

    天地氣動數據致性,針對某外形飛行試驗數據開展了典型對象的天地氣動數據融合方法研究。結合數據挖掘的隨機森林方法,本文提出了一種面向飛行試驗的數據融合
    的頭像 發表于 11-27 11:34 ?225次閱讀
    <b class='flag-5'>一種</b>面向飛行試驗的數據<b class='flag-5'>融合</b><b class='flag-5'>框架</b>

    基于視覺語言模型的導航框架VLMnav

    本文提出了一種視覺語言模型(VLM)轉換為端到端導航策略的具體框架。不依賴于感知、規劃和控制之間的分離,而是使用VLM在步中直接選擇動作。驚訝的是,我們發現VLM可以作為
    的頭像 發表于 11-22 09:42 ?167次閱讀

    基于旋轉平移解耦框架視覺慣性初始化方法

    精確和魯棒的初始化對于視覺慣性里程計(VIO)至關重要,因為不良的初始化會嚴重降低姿態精度。
    的頭像 發表于 11-01 10:16 ?351次閱讀
    基于旋轉平移解耦<b class='flag-5'>框架</b>的<b class='flag-5'>視覺</b><b class='flag-5'>慣性</b>初始化方法

    一種全新開源SfM框架MASt3R

    運動恢復結構(SfM)是計算機視覺領域個長期存在的問題,旨在根據每個相機拍攝的圖像來估計場景的3D幾何結構以及觀測該場景的相機的參數。由于它方便地同時為相機和地圖提供信息,因此構成了許多實用計
    的頭像 發表于 10-28 14:13 ?586次閱讀
    <b class='flag-5'>一種</b>全新開源SfM<b class='flag-5'>框架</b>MASt<b class='flag-5'>3R</b>

    一種完全分布式的點線協同視覺慣性導航系統

    在本文中,我們提出了一種完全分布式的點線協同視覺慣性導航系統。我們通過蒙特卡羅模擬和真實環境數據集,在稠密特征或稀疏特征環境下將所提出的算法與其他四算法進行了比較。所有結果表明,我們
    的頭像 發表于 09-30 14:45 ?408次閱讀
    <b class='flag-5'>一種</b>完全分布式的點線協同<b class='flag-5'>視覺</b><b class='flag-5'>慣性</b>導航系統

    LIDAR激光雷達逆向建模能用到revit當中嗎

    LIDAR激光雷達逆向建模是一種利用激光雷達技術獲取物體表面數據,然后通過計算機軟件進行建模的方法。在建筑行業中,這種方法可以用于建筑物的三維建模、結構分析、施工模擬等。Revit是款專業的建筑
    的頭像 發表于 08-29 17:23 ?548次閱讀

    3D視覺技術在慣性環上料領域的未來發展

    隨著制造業的智能化和自動化水平不斷提升,慣性環作為汽車發動機減震器中的核心組件,其精準、高效的上料過程顯得尤為關鍵。作為實現這目標的重要技術手段,3D視覺技術在
    的頭像 發表于 05-21 16:06 ?310次閱讀
    <b class='flag-5'>3</b>D<b class='flag-5'>視覺</b>技術在<b class='flag-5'>慣性</b>環上料領域的未來發展

    一種 IT 和 OT 安全融合的思路

    提出一種 IT 和 OT 安全融合的思路,并給出相應建議。 內容目錄 : 1 IT 和 OT 融合發展現狀
    的頭像 發表于 05-09 11:16 ?516次閱讀

    康謀分享|aiSim5激光雷達LiDAR模型驗證方法(二)

    aiSim中的LiDAR一種基于光線追蹤的傳感器,能夠模擬真實LiDAR發射的激光束,將會生成LASv1.4標準格式的3D點云,包含了方位角、俯仰角和距離等。aiSim能夠模擬
    的頭像 發表于 04-24 14:58 ?942次閱讀
    康謀分享|aiSim5激光雷達<b class='flag-5'>LiDAR</b>模型驗證方法(二)

    LiDAR4D:基于時空新穎的LiDAR視角合成框架

    NeRF-LiDAR將圖像和點云模態整合到激光雷達合成中,而諸如LiDAR-NeRF和NFL之類的僅激光雷達的方法探索了在沒有RGB圖像的情況下進行激光雷達重建和生成的可能性。
    發表于 04-10 12:34 ?1259次閱讀
    <b class='flag-5'>LiDAR</b>4D:基于時空新穎的<b class='flag-5'>LiDAR</b>視角合成<b class='flag-5'>框架</b>

    一種高效的KV緩存壓縮框架--GEAR

    GEAR框架通過結合三互補的技術來解決這挑戰:首先對大多數相似幅度的條目應用超低精度量化;然后使用低秩矩陣來近似量化誤差。
    發表于 03-19 10:12 ?339次閱讀
    <b class='flag-5'>一種</b>高效的KV緩存壓縮<b class='flag-5'>框架</b>--GEAR

    一種基于懸臂型微梁的可調諧多閾值慣性開關的設計、模擬與測試

    基于微機電系統(MEMS)技術的慣性傳感器已被廣泛應用于醫療保健、視頻游戲、交通運輸、安全和武裝系統等民用和軍用領域。
    的頭像 發表于 03-18 09:22 ?839次閱讀
    <b class='flag-5'>一種</b>基于懸臂型微梁的可調諧多閾值<b class='flag-5'>慣性</b>開關的設計、模擬與測試

    Phlux推出一種新型傳感器以進軍汽車激光雷達(LiDAR)市場

    英國初創公司Phlux Technology(以下簡稱“Phlux”)正致力于通過一種新型傳感器進軍汽車激光雷達(LiDAR)市場,并籌集項目資金。Phlux計劃成為“激光雷達(LiDAR)中的英偉達(Nvidia)”。
    的頭像 發表于 03-18 09:20 ?1112次閱讀

    R-Rhealstone框架使用教程

    本篇文章描述基于Rhealstone的系統實時性的測量基準的框架--R-Rhealstone框架。
    的頭像 發表于 01-18 10:54 ?1543次閱讀
    <b class='flag-5'>R</b>-Rhealstone<b class='flag-5'>框架</b>使用教程
    主站蜘蛛池模板: 奇米影视亚洲狠狠色777不卡| 免费在线一区二区三区| 国产成人乱码一区二区三区| 日本动漫天堂| 国产热视频| 日本三级特黄| 天天干夜夜添| 男女交性视频播放 视频 视频| 欧美午夜性| 天天干天天操天天玩| 日本aaaaa级毛片片| 欧色视频| 女同国产| 一级日本大片免费观看视频 | 黄色有码视频| 黑色丝袜美女被网站| 亚洲第八页| xx视频在线| 亚洲一区亚洲二区| 亚洲四虎| www亚洲欲色成人久久精品| 欧美性xx18一19| 99热成人精品热久久669| 激情开心婷婷| 欧美激情伊人| 欧美人与禽交| 伊人网视频| 性免费视频| 久久综合免费| a级毛片毛片免费很很综合| 天堂bt| 午夜精品福利视频| 国产美女精品久久久久中文| 国产香港日本三级在线观看| 欧美极品另类| 美女色18片黄黄色| 在线免费视频观看| 欧美成人性色| 在线欧美激情| 久久夜色精品国产亚洲| 日日做日日摸夜夜爽|