在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何使用深度相機實現視覺slam建圖和導航

新機器視覺 ? 來源:機器視覺智能檢測 ? 作者:機器視覺智能檢測 ? 2022-03-11 13:38 ? 次閱讀

一、 概述

1.深度相機

隨著機器視覺自動駕駛等顛覆性的技術逐步發展,采用3D相機進行物體識別,行為識別,場景建模的相關應用越來越多,可以說深度相機就是終端和機器人的眼睛,那么什么是深度相機呢,跟之前的普通相機(2D)想比較,又有哪些差別?深度相機又稱之為3D相機,顧名思義,就是通過該相機能檢測出拍攝空間的景深距離,這也是與普通攝像頭最大的區別。

普通的彩色相機拍攝到的圖片能看到相機視角內的所有物體并記錄下來,但是其所記錄的數據不包含這些物體距離相機的距離。僅僅能通過圖像的語義分析來判斷哪些物體離我們比較遠,哪些比較近,但是并沒有確切的數據。而深度相機則恰恰解決了該問題,通過深度相機獲取到的數據,我們能準確知道圖像中每個點離攝像頭距離,這樣加上該點在2D圖像中的(x,y)坐標,就能獲取圖像中每個點的三維空間坐標。通過三維坐標就能還原真實場景,實現場景建模等應用。

深度相機也具備普通相機的一些不足,容易受視差影響:包括黑色物體(特征點少)、透明物體(光的穿透)、光滑物體(光反射太強)、圖像無紋理(特征點少)、過度曝光(特征點少)等。

445fb9a2-91ad-11ec-952b-dac502259ad0.jpg

2.常見的深度相機

目前市面上常有的深度相機方案有以下三種:

2.1 雙目視覺(Stereo)

雙目立體視覺(Binocular Stereo Vision)是機器視覺的一種重要形式,他是基于視差原理并利用成像設備從不同的位置獲取被測物體的兩幅圖像,通過計算圖像對應點間的位置偏差,來獲取物體三維幾何信息的方法。

雙目相機的主要優點有:

1)硬件要求低,成本也低。普通 CMOS 相機即可

2)室內外都適用。只要光線合適,不要太昏暗

但是雙目的缺點也是非常明顯:

1)對環境光照非常敏感。光線變化導致圖像偏差大,進而會導致匹配失敗或精度低

2)不適用單調缺乏紋理的場景。雙目視覺根據視覺特征進行圖像匹配,沒有特征會導致匹配失敗

3)計算復雜度高,需要很高的計算資源。該方法是純視覺的方法,對算法要求高,實時性差

4)基線限制了測量范圍。測量范圍和基線(兩個攝像頭間距)成正比,導致無法小型化

代表公司

Leap Motion, ZED, 大疆

2.2 結構光(Structured-light)

通過近紅外激光器,將具有一定結構特征的光線投射到被拍攝物體上,再由專門的紅外攝像頭進行采集。這種具備一定結構的光線,會因被攝物體的不同深度區域,而采集不同的圖像相位信息,然后通過運算單元將這種結構的變化換算成深度信息,以此來獲得三維結構。簡單來說就是,通過光學手段獲取被拍攝物體的三維結構,再將獲取到的信息進行更深入的應用。通常采用特定波長的不可見的紅外激光作為光源,它發射出來的光經過 一定的編碼投影在物體上,通過一定算法來計算返回的編碼圖案的畸變來得到物體的位置和深度信息。下圖是一個典型的結構光相機的示意圖:

447ead9e-91ad-11ec-952b-dac502259ad0.jpg

4494a450-91ad-11ec-952b-dac502259ad0.jpg

結構光(散斑)的優點主要有:

1)方案成熟,相機基線可以做的比較小,方便小型化。

2)資源消耗較低,單幀 IR 圖就可計算出深度圖,功耗低。

3)主動光源,夜晚也可使用。

4)在一定范圍內精度高,分辨率高,分辨率可達 1280×1024,幀率可達 60FPS。

散斑結構光的缺點與結構光類似:

1)容易受環境光干擾,室外體驗差。

2)隨檢測距離增加,精度會變差。

代表公司:

奧比中光,蘋果(Prime Sense),微軟 Kinect-1,英特爾 RealSense, Mantis Vision 等。

2.3 光飛行時間法(TOF)

顧名思義是測量光飛行時間來取得距離,具體而言就是通過給目標連續發射激光脈沖,然后用傳感器 接收從反射光線,通過探測光脈沖的飛行往返時間來得到確切的目標物距離。因為光速激光,通過直接測 光飛行時間實際不可行,一般通過檢測通過一定手段調制后的光波的相位偏移來實現。TOF 法根據調制方法的不同,一般可以分為兩種:脈沖調制(Pulsed Modulation)和連續波調制 (Continuous Wave Modulation)。脈沖調制需要非常高精度時鐘進行測量,且需要發出高頻高強度激光,目 前大多采用檢測相位偏移辦法來實現 TOF 功能。簡單來說就是,發出一道經過處理的光,碰到物體以后會反射回來,捕捉來回的時間,因為已知光速和調制光的波長,所以能快速準確計算出到物體的距離。

其原理示意圖:

44a7cd5a-91ad-11ec-952b-dac502259ad0.jpg

因為 TOF 并非基于特征匹配,這樣在測試距離變遠時,精度也不會下降很快,目前無人駕駛以及一些高端的消費類 Lidar 基本都是采用該方法來實現。

TOF 的優點主要有:

1)檢測距離遠。在激光能量夠的情況下可達幾十米

2)受環境光干擾比較小

但是 TOF 也有一些顯而易見的問題:

1)對設備要求高,特別是時間測量模塊。

2)資源消耗大。該方案在檢測相位偏移時需要多次采樣積分,運算量大。

3)邊緣精度低。

4)限于資源消耗和濾波,幀率和分辨率都沒辦法做到較高。

代表公司:

微軟 Kinect-2,PMD,SoftKinect, 聯想 Phab。

傳感器技術不是很成熟,因此,分辨率較低,成本高,但由于其原理與另外兩種完全不同,實時性高,不需要額外增加計算資源,幾乎無算法開發工作量,是未來。

2.4 綜合對比

從上面三種主流的 3D 相機成像方案來看,各有優劣,但是從實際應用場景來看,在非無人駕駛域,結構光,特別是散斑結構光的用途是最廣泛。因為從精度,分辨率,還有應用場景的范圍來看雙目和 TOF 都沒有辦法做到最大的平衡。而且對于結構光容易受環境光干擾,特別是太陽光影響問題,鑒于此類相機都有紅外激光發射模塊,非常容易改造為主動雙目來彌補該問題。

結構光與TOF的對比:

對比來看,結構光技術功耗更小,技術更成熟,更適合靜態場景。而TOF方案在遠距離下噪聲較低,同時擁有更高的FPS,因此更適合動態場景。

目前,結構光技術主要應用于解鎖以及安全支付等方面,其應用距離受限。而TOF技術主要用于智能機后置攝影,并在AR、VR等領域(包括3D拍照、體感游戲等)有一定的作用。

44bafdb2-91ad-11ec-952b-dac502259ad0.jpg

3D結構光和TOF兩者其實各有優劣勢。結構光最大的優勢是發展的較為成熟,成本比較低,劣勢是只適合中短距離使用。ToF優勢是抗干擾性較好,視角較寬,缺陷是功耗高,造價貴,精度及深度圖分辨率較低。兩項技術各有側重點和適配使用場景。

結構光相機硬件說明:

綜合考慮成本,本文將采用此類相機,在這里單獨說明下。

Kinect(xbox游戲機配件):

44d031b4-91ad-11ec-952b-dac502259ad0.png

樂視體感相機(樂視tv配件):

44e37990-91ad-11ec-952b-dac502259ad0.png

相機一般有三只眼睛,從左到右分別為:

投射紅外線pattern的IR Projector(左)

攝像頭Color Camera(中)

讀取反射紅外線的IR Camera(右)

Depth傳感器讀取左右兩邊投射的紅外線pattern,通過pattern的變形來取得Depth的信息。

二、 攝像頭通路打通

1.硬件連接

考慮成本,我們在上一次組裝的ROS+底盤套裝的基礎上,新增一個深度相機即可:

樂視體感三合一攝像頭 * 1

usb子母延長線 * 1

2.安裝驅動

# 安裝相關依賴 sudo apt install ros-$ROS_DISTRO-rgbd-launch ros-$ROS_DISTRO-libuvc-camera ros-$ROS_DISTRO-libuvc-ros ros-$ROS_DISTRO-camera-info-manager # ros-$ROS_DISTRO-libuvc # 安裝vslam相關依賴 sudo apt install ros-$ROS_DISTRO-rtabmap ros-$ROS_DISTRO-rtabmap-ros ros-$ROS_DISTRO-depthimage-to-laserscan # 克隆功能包源碼 cd ~/catkin_ws/src git clone git@github.com:orbbec/ros_astra_camera.git git clone git@github.com:yanjingang/robot_vslam.git # 創建udev規則 cd ros_astra_camera chmod +x ./scripts/create_udev_rules ./scripts/create_udev_rules # 配置并加載環境變量(機器人端執行) cd ~/catkin_ws/src ./robot_vslam/script/setrgbd.sh astrapro source ~/.bashrc # export CAMERA_TYPE=astrapro # 編譯 cd ~/catkin_ws catkin_make --pkg astra_camera robot_vslam source ~/catkin_ws/devel/setup.bash

3.測試攝像頭

在完成第一步的功能包編譯之后,將攝像頭連接到機器人的主機

# 0.檢查攝像頭是否正常識別 ll /dev/astra* lrwxrwxrwx 1 root root 15 Jan 6 12:50 /dev/astra_pro -> bus/usb/001/014 lrwxrwxrwx 1 root root 15 Jan 6 12:50 /dev/astrauvc -> bus/usb/001/015 # 1.機器人端啟動攝像頭(啟動后會彈出幾個警告,不用管它,這是由于驅動中的一些參數攝像頭不支持) #roslaunch astra_camera astra.launch # Use Astra roslaunch robot_vslam astrapro.launch # 如果報Warning: USB events thread - failed to set priority. This might cause loss of data...,是因為沒有權限,執行以下命令 #sudo -s #source /home/work/.bashrc #roslaunch robot_vslam astrapro.launch # 2.PC 端查看圖像(常用topic:深度:/camera/depth/image;彩色:/camera/rgb/image_raw/compressed;紅外:/camera/ir/image;注:ir圖像只能通過rviz顯示,在rqt_image_view 中顯示會是全黑,這和圖像格式有關,并非設備問題) rviz 或 rqt_image_view

4.點云顯示

這一部分為了讓大家了解一下 rviz 中的各類插件的使用,將帶著大家一起搭建一個 rviz 顯示環境。(如果不想進行手動配置,也可以直接使用預先配置好的文件:/robot_vslam/rviz/astrapro.rviz)

首先我們添加一個點云顯示插件,點擊”Add”,在彈出的界面中雙擊” PointCloud2”:

44f8f22a-91ad-11ec-952b-dac502259ad0.png

展開左側PointCloud2選型卡,選擇Topic:

450e273a-91ad-11ec-952b-dac502259ad0.png

將 Fixed Frame 選擇為 camera_link:

4528da26-91ad-11ec-952b-dac502259ad0.png

此時界面中就會顯示出點云圖:

45447074-91ad-11ec-952b-dac502259ad0.png

在 Color Transformer 中選擇不同的顏色模式可以給點云按照不同的規則著色:

455a2432-91ad-11ec-952b-dac502259ad0.png

最后通過左上角的”File”選項卡中 Save Config As 可以將當前 rviz 配置保存到指定位置,下次打開 rviz 候可以通過 Open Config 直接打開配置文件避免再次手動配置界面。

4575333a-91ad-11ec-952b-dac502259ad0.png

5.轉激光雷達數據測試

# 啟動深度相機(機器人端) roslaunch robot_vslam camera.launch # 啟動深度圖到雷達數據的轉換 roslaunch robot_vslam depth_to_laser.launch # pc端可視化 rviz

配置一下界面就可以正常顯示雷達數據了

458d02a8-91ad-11ec-952b-dac502259ad0.png

這里可以注意到,相對于機器人的 TF 坐標位置,雷達數據并不是像我們常見的激光雷達數據是 360 度的,這是由于深度相機的視場角(即 FOV,我們這款相機水平 FOV 為 58.4 度,垂直FOV 為 45.5 度)是有限的,所以轉換出的雷達數據角度范圍和相機是水平 FOV是一致的,簡單理解就是,只能看到相機前方一定角度范圍內的東西。

三、 視覺 vSLAM 建圖及導航

1.vSLAM建圖

機器人端啟動建圖:

# 啟動底盤base control roslaunch ros_arduino_python arduino.launch # 啟動camera roslaunch robot_vslam camera.launch # 啟動rtab vslam roslaunch robot_vslam rtabmap_rgbd.launch

在 rtabmap_rgbd.launch 啟動完成后,camera 節點和 rtabmap 的節點中會分別輸出以下信息(因為這里輸出的信息較多且有參考價值,所以我們沒有將所有的啟動文件寫成一個 launch 文件在同一個終端中輸出)

45a5e0c0-91ad-11ec-952b-dac502259ad0.png

45bb2c46-91ad-11ec-952b-dac502259ad0.png

PC端查看建圖過程:

# PC端打開rviz終端(在rviz終端中就可以看到所建立的平面地圖和立體地圖) roslaunch robot_vslam rtabmap_rviz.launch # 也可以使用rtabmap自帶的圖形化界面rtabmapviz在PC端來觀測建圖過程(不建議,帶寬占用100M以上) # roslaunch robot_vslam rtabmapviz.launch

45d06a48-91ad-11ec-952b-dac502259ad0.png

鍵盤控制機器人移動:

# 鍵盤控制 rosrun teleop_twist_keyboard teleop_twist_keyboard.py

我們建議是將機器人的直線運動速度不超過 0.2m/s,旋轉速度不超過 0.4rad/s 以保證建圖質量。建圖過程和激光雷達建圖基本一致,遙控機器人在環境中遍歷一遍完成建圖。

地圖是默認保存在機器人端~/.ros/rtabmap.db文件中,由于這個文件包含了建圖過程中的圖片和特征點的信息,所以文件會比較大。

注意:啟動 roslaunch robot_vslam rtabmap_rgbd.launch 都會覆蓋掉 rtabmap.db 文件,如果需要保留上次建圖的結果,注意備份文件。

建圖完成后 rviz 中的地圖如下所示

45e3135a-91ad-11ec-952b-dac502259ad0.png

這里我們也可以修改點云顯示的顏色來實現其他效果,例如這樣

45fdb0f2-91ad-11ec-952b-dac502259ad0.png

46158452-91ad-11ec-952b-dac502259ad0.png

2.導航

機器人端打開四個終端,分別運行:

# 啟動底盤base control roslaunch ros_arduino_python arduino.launch # 啟動camera roslaunch robot_vslam camera.launch # 啟動rtab并自動定位 roslaunch robot_vslam rtabmap_rgbd.launch localization:=true # 啟動movebase(純前向視覺無法后退) roslaunch robot_vslam move_base.launch planner:=dwa move_forward_only:=true

這里 move_base 的 planner 參數可以選擇 dwa 和 teb,這部分在激光雷達導航部分已經介紹過,這里就不再贅述,move_forward_only 參數是為了只允許機器人向前運動(視覺傳感器只有前向感知) 。啟動后檢查各個節點有無報錯,正常應該是可以直接定位成功的。

# pc端rviz查看和控制 roslaunch robot_vslam rtabmap_rviz.launch

462c0d9e-91ad-11ec-952b-dac502259ad0.png

# pc端rtabmap查看(需手動下載全局地圖) roslaunch robot_vslam rtabmapviz.launch

4654ba50-91ad-11ec-952b-dac502259ad0.png

在 rtabmapviz 中點擊紅框中的按鈕同步地圖數據庫的信息,可能會花費一點時間,取決于你的局域網條件。如果左下位置中沒有出現圖像且圖像兩側處為黑色,則機器人尚未完成初始位置的確定。如果如下圖所示,則機器人已經完成定位,可以開始導航無需執行下面的步驟(通常機器人從紋理比較豐富且上次已經到達過的位置啟動,都可以直接完成定位,這里文檔中是為了說明初始定位這一過程故意從一處幾乎沒有紋理的區域啟動使機器人不能完成初始定位)

如果沒有自動定位成功,則可以在 PC 端或機器人端啟動一個鍵盤控制節點:

rosrun teleop_twist_keyboard teleop_twist_keyboard.py

控制慢速移動機器人,直到左下角位置出現圖像且兩側為綠色表示定位成功

4670af62-91ad-11ec-952b-dac502259ad0.png

接下來就可以在地圖中指定目標點讓機器人導航過去了。

469751ee-91ad-11ec-952b-dac502259ad0.png

注意:rgbd 相機的視場角較小,且深度信息存在較大的盲區,在導航中有可能會發生碰撞,可以通過調節增大 robot_vslam/param/MarsRobot/costmap_common_params.yaml中的inflation_radius 參數來改善,但是很難達到和激光雷達導航或rgbd相機+激光雷達的效果。

四、視覺+激光雷達建圖及導航

1.視覺+激光雷達建圖

這里操作過程和第三章節完全一致,只是部分啟動指令有差異,所以這里只列出啟動指令,不再描述操作過程。
機器人端打開三個終端,分別運行:

# 啟動激光雷達+base_control roslaunch robot_navigation robot_lidar.launch # 啟動深度攝像頭 roslaunch robot_vslam camera.launch # 啟動rgbd+lidar聯合建圖 roslaunch robot_vslam rtabmap_rgbd_lidar.launch # pc端查看 roslaunch robot_vslam rtabmap_rviz.launch # pc端控制移動 rosrun teleop_twist_keyboard teleop_twist_keyboard.py

我們建議是將機器人的直線運動速度不超過 0.2m/s,旋轉速度不超過 0.4rad/s 以保證建圖質量建圖過程和激光雷達建圖基本一致,遙控機器人在環境中遍歷一遍完成建圖。這里可以看到,由于加入了360 度的激光雷達數據,建圖在 2D 的地圖方面表現要更好一些。

46c8ba22-91ad-11ec-952b-dac502259ad0.png

2.視覺vSLAM +激光雷達導航

機器人端打開四個終端,分別運行:

# 啟動激光雷達+base_control roslaunch robot_navigation robot_lidar.launch # 啟動camera roslaunch robot_vslam camera.launch # 啟動rtab并自動定位 roslaunch robot_vslam rtabmap_rgbd_lidar.launch localization:=true # 啟動movebase(允許后退) roslaunch robot_vslam move_base.launch planner:=dwa move_forward_only:=false # pc端查看 roslaunch robot_vslam rtabmap_rviz.launch roslaunch robot_vslam rtabmapviz.launch

這里由于加入了 360 度的激光雷達,機器人具備了全向的感知能力,所以可以將 move_forward_only 參數設置為 false 允許機器人向后運動。

46ee8fb8-91ad-11ec-952b-dac502259ad0.png

今天帶大家學習了如何使用深度相機實現視覺slam建圖和導航,同時我們也嘗試了視覺+激光雷達的協同使用,機器人在障礙物感知和避障方面有了明顯改善,同時通過攝像頭我們也能更方便的實現遠程監控和控制。下一次你想看到什么呢?歡迎留言,我將帶大家一起實現~!

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 激光雷達
    +關注

    關注

    968

    文章

    4024

    瀏覽量

    190273
  • 自動駕駛
    +關注

    關注

    784

    文章

    13923

    瀏覽量

    166842

原文標題:實戰 | 用深度相機+激光雷達實現vSLAM建圖與導航

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 1人收藏

    評論

    相關推薦

    什么是SLAM視覺SLAM怎么實現

    上周的組會上,我給研一的萌新們講解什么是SLAM,為了能讓他們在沒有任何基礎的情況下大致聽懂,PPT只能多少字沒公式,這里我就把上周的組會匯報總結一下。 這次匯報的題目我定為“視覺SLAM
    的頭像 發表于 08-21 10:02 ?1.1w次閱讀
    什么是<b class='flag-5'>SLAM</b>?<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>怎么<b class='flag-5'>實現</b>?

    從基本原理到應用的SLAM技術深度解析

    LSD-SLAM 即 Large-Scale Direct SLAM,兼容單目相機和雙目相機。LSD-SLAM是一種基于光流跟蹤的直接法
    發表于 02-26 09:41 ?9587次閱讀
    從基本原理到應用的<b class='flag-5'>SLAM</b>技術<b class='flag-5'>深度</b>解析

    AGV激光雷達SLAM定位導航技術

    實現多AGV小車的協調控制。  ■激光雷達在AGV小車中的使用  SLAM中可以進行環境信息感知的主要傳感器有激光雷達、攝像頭等。其中,基于激光雷達的AGV小車自主定位與的方法,
    發表于 11-09 15:59

    SLAM技術的應用及發展現狀

    也將SLAM分為激光SLAM視覺SLAM。激光SLAM視覺
    發表于 12-06 10:25

    讓機器人完美SLAM 3.0到底是何方神圣?

    引擎,讓機器人在復雜、大面積的場景下也能輕松應對,穩定發揮,完成定位導航任務。 傳統SLAMSLAM 3.0的
    發表于 01-21 10:57

    激光SLAM視覺SLAM有什么區別?

    在機器人運動控制系統架構中,可分為最底層、中間通信層和決策層三大層面,最底層包含了機器人本身的電機驅動和控制部分,中間通信層是底層部分和決策層的通信通路,而決策層則是實現機器人的定位導航
    發表于 07-05 06:41

    在gazebo中構建一個用于導航的虛擬環境

    完整任務內容在gazebo中構建一個用于導航的虛擬環境,可以使用Building Editor工具創建,也可以使用其他功能包中已有的虛擬環境;將前面作業完成的帶傳感器的移動機器人(小車)模型
    發表于 12-17 07:06

    如何實現基于RK3399開發板的cartographer激光SLAM模塊的設計?

    如何實現基于RK3399開發板的cartographer激光SLAM模塊的設計?
    發表于 03-07 07:05

    單目視覺SLAM仿真系統的設計與實現

    實現單目視覺同時定位與(SLAM)仿真系統,描述其設計過程。該系統工作性能良好,其SLAM
    發表于 04-15 08:50 ?82次下載

    視覺SLAM技術淺談

    ),地圖構建精度約3cm;所以激光SLAM構建的地圖精度一般來說比VSLAM高,且能直接用于定位導航視覺SLAM的地圖建立4.易用性激光SLAM
    的頭像 發表于 08-09 17:31 ?1645次閱讀

    視覺SLAM深度解讀

    ),地圖構建精度約3cm;所以激光SLAM構建的地圖精度一般來說比VSLAM高,且能直接用于定位導航視覺SLAM的地圖建立4.易用性激光SLAM
    的頭像 發表于 09-11 22:01 ?1984次閱讀

    自動駕駛的視覺定位與導航應用詳細解析

    SLAM(Simultaneous Localization And Mapping,同步定位與)的方式構建一個幾何地圖,然后在地圖中進行路徑規劃和導航。在每一個時刻,無人車可以通
    發表于 04-28 08:00 ?7次下載
    自動駕駛的<b class='flag-5'>視覺</b>定位與<b class='flag-5'>導航</b>應用詳細解析

    基于深度學習的視覺SLAM綜述

    SLAM本質上是一個狀態估計問題,根據傳感器做劃分,主要是激光、視覺兩大類。激光SLAM的研究在理論和工程上都比較成熟,現有的很多行業已經開始使用激光SLAM完成工業工作;而
    的頭像 發表于 12-02 15:00 ?2127次閱讀

    基于相機和激光雷達的視覺里程計和系統

    提出一種新型的視覺-LiDAR里程計和系統SDV-LOAM,能夠綜合利用相機和激光雷達的信息,實現高效、高精度的姿態估計和實時
    發表于 05-15 16:17 ?784次閱讀
    基于<b class='flag-5'>相機</b>和激光雷達的<b class='flag-5'>視覺</b>里程計和<b class='flag-5'>建</b><b class='flag-5'>圖</b>系統

    視覺紋理導航,亦稱Visual SLAM導航

    視覺紋理導航,亦稱Visual SLAM導航,通過自動導引車車載視覺傳感器獲取運行區域周的圖像信息來實現
    的頭像 發表于 04-29 10:01 ?3663次閱讀
    <b class='flag-5'>視覺</b>紋理<b class='flag-5'>導航</b>,亦稱Visual <b class='flag-5'>SLAM</b><b class='flag-5'>導航</b>
    主站蜘蛛池模板: 日本免费视频 | 色就是色欧美色图 | 欧美成人精品一级高清片 | 特级片免费看 | a毛片免费观看完整 | 午夜剧场黄 | 你懂的在线免费视频 | 亚洲欧美日韩特级毛片 | 国产三级精品最新在线 | 久久国模 | 国内精品久久久久影院薰衣草 | 免费一级毛片清高播放 | 午夜操操 | 婷婷99精品国产97久久综合 | 日本黄色片段 | 激情五月五月婷婷 | 国产香蕉精品视频在 | 亚洲色图88| 亚洲国产美女精品久久 | 久久综合中文字幕 | 久久影视精品 | 欧美成人69| 天天爽夜夜爽人人爽曰喷水 | 色在线网| 伊人久久大香线蕉综合爱婷婷 | 在线黄色免费网站 | 日韩在线影院 | 欧美成人精品福利网站 | 免费任我爽橹视频在线观看 | 色花堂国产精品首页第一页 | 青青久操视频 | 日本三区四区免费高清不卡 | 日本极度另类网站 | 亚洲成av人影片在线观看 | 天堂中文在线最新版地址 | 国产精品推荐天天看天天爽 | 激情五月亚洲色图 | 99成人在线观看 | 欧美一级黄色片在线观看 | 午夜视频www | 一区二区中文字幕在线观看 |

    電子發燒友

    中國電子工程師最喜歡的網站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品