在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

視覺激光雷達信息融合與聯合標定

新機器視覺 ? 來源:新機器視覺 ? 2023-04-09 10:47 ? 次閱讀

編者薦語使用視覺進行目標檢測,將檢測結果2D bounding box坐標信息投影到點云里面獲得3D bounding boxx坐標,這里面需要將攝像頭和激光雷達進行聯合標定,即獲取二者坐標系的空間轉換關系。

一、引言

最近在為車輛添加障礙物檢測模塊,障礙物檢測可以使用激光雷達進行物體聚類,但是我們使用的是16線的velodyne,線數還是有些稀疏,對于較遠的物體過于稀疏的線數聚類效果并不好,因此考慮使用視覺進行目標檢測,然后投影到3D點云里面,獲取障礙物位置,同時視覺還可以給出障礙物類別信息。 使用視覺進行目標檢測,將檢測結果2D bounding box坐標信息投影到點云里面獲得3D bounding boxx坐標,這里面需要將攝像頭和激光雷達進行聯合標定,即獲取二者坐標系的空間轉換關系。 相關代碼已經同步到我的github-smartcar 鏈接:https://github.com/sunmiaozju/smartcar 標定部分在detection/calibration文件夾, 信息融合部分在detection/camera_point_fusion

二、聯合標定轉換關系

聯合標定的作用就是建立點云的point和圖像pixel之間的對應關系, 需要獲取相機與激光雷達外參,將點云3維坐標系下的點投影到相機3維坐標系下。 還需要通過相機標定獲得相機內參,這個是把相機3維坐標系下的點投影到成像平面。具體如下所示:

f8f27414-d616-11ed-bfe3-dac502259ad0.jpg

上圖顯示的就是聯合標定得到的4×4轉換矩陣的作用,將我們的3D點云轉換到相機坐標系下面

f90d14a4-d616-11ed-bfe3-dac502259ad0.jpg

這幅圖顯示了相機坐標系和成像坐標系的關系,相機標定會得到相機內參矩陣和畸變系數,畸變系數可以消除相機凸透鏡的畸變效應,相機內參的信息就可以想相機坐標下的3維點投影到2維的像素平面。相機標定的具體原理可以參考//zhuanlan.zhihu.com/p/24651968三、相機標定需要一個標定板,要硬質板或者泡沫的標定板,因為標定板的平面要保證是平的。標定板的文件可以到opencv官網下載。 首先做相機標定,相機標定模塊在detection/calibration/camera_calibration 編譯

cd your_rosworkspace_path/ catkin_make -DCATKIN_BLACKLIST_PACKAGES=ndt_mapping;static_map;ndt_localization

這里我們先不編譯ndt_mapping;static_map;ndt_localization這三個軟件包 如果出錯,可以先編譯消息文件,再編譯全部文件:

catkin_make -DCATKIN_WHITELIST_PACKAGES=smartcar_msgs;yunle_msgs;smartcar_config_msgs catkin_make -DCATKIN_WHITELIST_PACKAGES=“”

然后要修改detection/calibration/camera_calibration/nodes文件夾下面python文件的可執行權限:

sudo chmod a+x your_path/detection/calibration/camera_calibration/.

啟動攝像頭驅動節點

roslaunch cv_camera cv_camera_driver.launch

這里注意你自己的攝像頭video_id,使用如下命令查看

ls /dev/video*

然后根據需要修改your_path/driver/cv_camera/launch/cv_camera_driver.launch里面的

新開一個終端,執行

rosrun calibration cameracalibrator.py --square 0.13 --size 8x6 image:=/cv_camera/image_raw

然后就可以進行標定了,彈出的界面如下所示:

f923791a-d616-11ed-bfe3-dac502259ad0.jpg

需要做的就是移動標定版,讓右上角的四個條都變綠(我這里綠的是已經調好了,未調整是偏黃色) x代表左右移動,y代表上下移動,size代表遠近移動,skew代表傾斜側角,可以上下傾,也可以左右傾。 只有四個尺度的信息都滿足要求之后,右側的calibration圖標才會顯示出來,這時候代表可以計算標定結果了,點擊calibration,然后save,標定結果會保存在home文件夾下面。

四、聯合標定

聯合標定使用的是autoware的CalibrationTookit模塊,代碼在detection/calibration/calibration_camera_lidar文件夾下面 編譯好代碼之后,首先要啟動攝像頭和激光雷達的驅動節點

roslaunch cv_camera cv_camera_driver.launch

新終端

roslaunch velodyne_pointcloud VLP16_points.launch

然后驅動聯合標定節點

roslaunch calibration_camera_lidar camera_lidar_calib.launch

啟動之后可以看到UI界面,具體操作指南,可以參考文檔:detection/calibration/calibration_camera_lidar/CalibrationToolkit_Manual.pdf 的2.3節 也可以參考鏈接//blog.csdn.net/AdamShan/article/details/81670732#commentBox 如何使用這個模塊上面的鏈接已經說的很明白,這里簡單說一下:·首先左上角load之前標定的相機內參文件,導入相機內參·調整點云的視角(操作方法參考上面鏈接),然后確保圖像和點云都可以看到完整的白標定板,點擊右上角的grab捕獲單幀圖片和點云·在捕獲單幀的點云上面,選取圖片中對應標定板的位置,選取的是圓圈內的所有點,所包含的信息不僅僅只有點,還有平面法相量,標定的時候一定要確保法相量與平面是垂直的,因為開始我沒有注意這個,結果后面驗證的時候投影點在圖片上顯示不出,根本沒有投影在圖像范圍內。 標定好之后,在右上角有一個project,可以查看標定的效果,一般來將,可以看到如下效果:

f9694d46-d616-11ed-bfe3-dac502259ad0.jpg

左下角圖片上的紅線就是右下角點云紅線投影到圖片上的位置,下面這幅圖片換一個角度,點同樣投影上去,而且相對位置在點云和圖片里面基本一致:

f988803a-d616-11ed-bfe3-dac502259ad0.jpg

這樣的效果基本就是可以了,點擊save,會將輸出的外參文件保存在home文件夾下面。

五、視覺與點云信息融合

有了聯合標定的外參文件,我們就可以進行信息融合了。 信息融合主要有兩個模塊:點云到圖像 、 圖像到點云

5.1 image2points

這部分代碼在your_path/deteection/camera_point_fusion/packages/joint_pixel_pointcloud這個pkg下面 這部分代碼實現的功能是建立將velodyne-16的點云投影到640×480的圖像上面,如果點云投影的二維點在圖像640×480范圍內,那么就把這個三維激光雷達點的位置記下來,同時匹配圖像上對應像素的顏色,變成pcl::XYZRGB點返回,并顯示出來。 除此之外,這個模塊還可以訂閱目標檢測信息,攝像頭獲取圖像,經過目標檢測模塊之后,得到2維bounding box坐標,利用點云和圖像像素的對應關系,得到3維bounding box信息,并在RVIZ中顯示出來。 編譯好代碼之后,運行:

roslaunch joint_pixel_pointcloud joint_pixel_pointcloud.launch

同樣,需要先運行攝像頭驅動節點和velodyne驅動節點,還有目標檢測節點,不過目標檢測模塊因為某些原因不能公開到github,你可以使用自己的目標檢測模塊,作為ROS節點添加到工作空間即可。 代碼運行效果如下所示:

f99f4fd6-d616-11ed-bfe3-dac502259ad0.jpg

這個就是圖像像素所對應的點云,可以看到點云已經被加上了黑白的顏色,點云周邊有一些比較淡的顏色,下面這幅圖加深了顏色,同時顯示出圖像對應的點云在整個點云幀的位置:

f9c47b3a-d616-11ed-bfe3-dac502259ad0.jpg

下面是目標檢測的效果:

f9e3762a-d616-11ed-bfe3-dac502259ad0.jpg

fa090dae-d616-11ed-bfe3-dac502259ad0.jpg

可以看到,圖像上檢測出來的物體,基本都在3D場景下對應出來了,其中,不同的顏色代表不同的物體類別。 不過,因為這個目標檢測模型是針對于自動駕駛場景的,分類對象都是car,pedestrian,info signs等,而因為實驗條件的原因我還沒有來得及拿出去測試代碼效果,就先在房間測試了一下,所以可以看到目標檢測的框是有些沒意義的東西,不過不影響驗證信息融合效果。 這個節點可以便于我們進行障礙物檢測,因為視覺信息進行障礙物檢測是要優于低線數激光雷達聚類的,但是視覺信息識別物體雖然準,卻沒有距離信息,激光雷達可以提供距離信息,因此,視覺和激光雷達二者結合,就可以獲得障礙物的距離、類別以及位置了

5.2 points2image

這個是把點云投影到圖像上,具體運行基本同理我就不說了。 代碼的具體效果如下所示:

fa1c5120-d616-11ed-bfe3-dac502259ad0.jpg

可以看到,點云基本是和圖像是匹配的。 這個節點的作用是可以幫助我們進行紅綠燈識別或者其他info_sign識別。因為進行紅綠燈檢測最好是可以獲取紅綠燈在圖像上的位置,即ROI,然后再進行識別會容易很多。我們可以在事先建立好的場景語義地圖中,加入紅綠燈的位置,這樣車輛到達該位置的時候就可以立刻找到紅綠燈在圖像上的ROI,這樣會優化info sign的檢測。具體如下所示:

fa38b63a-d616-11ed-bfe3-dac502259ad0.jpg

六、總結

本文主要介紹了關于視覺和激光雷達進行信息融合相關內容,包括相機標定,攝像頭與激光雷達聯合標定,信息融合節點等等 利用激光雷達和視覺信息融合,我們可以結合二者的優點優化障礙物檢測或交通標志的識別,以及優化其他相關任務等等。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 3D
    3D
    +關注

    關注

    9

    文章

    2899

    瀏覽量

    107706
  • 視覺
    +關注

    關注

    1

    文章

    147

    瀏覽量

    23991
  • 目標檢測
    +關注

    關注

    0

    文章

    210

    瀏覽量

    15641
  • 激光雷達
    +關注

    關注

    968

    文章

    4003

    瀏覽量

    190136

原文標題:視覺激光雷達信息融合與聯合標定(附代碼)

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    淺析自動駕駛發展趨勢,激光雷達是未來?

    的2D畫面)的數據收集器。二、視覺主導還是激光雷達主導?據清華大學鄧志東教授介紹,自動駕駛環境感知的技術路線主要有兩種:一種是以特斯拉為代表的視覺主導的多傳感器融合方案,另一種以低成本
    發表于 09-06 11:36

    激光雷達是自動駕駛不可或缺的傳感器

    要部分還是定位:位置確定了,無人車才知道要去哪里、以及怎么去。所以,確定“我在哪里”是第一步,也是非常關鍵的一步。現在定位用 RTK,差分 GPS ,也有用激光雷達或者視覺去做。但 RTK 還是會受信號
    發表于 09-08 17:24

    激光雷達分類以及應用

    束的回波信號來獲取目標信息激光雷達從線束上分可以分為:1、單線束激光雷達主要是應用在掃地機器人2、多線束激光雷達這里主要是應用在汽車行業中,有16線束、32線束以及64線束的
    發表于 09-19 15:51

    常見激光雷達種類

    和場景還原上有了質的改變,可以識別物體的高度信息。多線激光雷達常規是2.5D,最多可以做到3D。目前在國際市場上推出的主要有 4線、8線、16 線、32 線和 64 線。多線激光雷達主要應用于汽車
    發表于 09-25 11:30

    消費級激光雷達的起航

    提供給客戶,或提供系統級參考設計。而作為機器人的眼睛,激光雷達能夠幫助倉儲AGV在倉庫中自主避開障礙。目前用于倉儲AGV避障傳感器方案主要有:激光雷達視覺傳感器(攝像頭)、紅外傳感器、超聲波傳感器等
    發表于 12-07 14:47

    北醒固態設計激光雷達

    看到機械或固態面陣激光雷達和攝像頭毫米波等“大家伙”在無人車上大放異彩的同時,有一些關鍵信息,其實正是這些“小伙伴”提供的。 賣出去,用起來,是好產品最重要的證明。本屆CES不僅是北醒展示技術的大舞臺
    發表于 01-25 09:36

    固態設計激光雷達

    看到機械或固態面陣激光雷達和攝像頭毫米波等“大家伙”在無人車上大放異彩的同時,有一些關鍵信息,其實正是這些“小伙伴”提供的。 賣出去,用起來,是好產品最重要的證明。本屆CES不僅是北醒展示技術的大舞臺
    發表于 01-25 09:41

    機器人和激光雷達都不可或缺

    幫助無人駕駛汽車獲取所在環境的三維位置信息,確定物體的位置、大小、外部形貌甚至材質等信息,以“精準”、“快速”、“高效作業”的空間探測能力成為無人駕駛領域不可或缺的存在。    無人駕駛激光雷達三維成像
    發表于 02-15 15:12

    激光雷達和相機之間的外參標定

    lidar_camera_calibration項目——激光雷達和相機聯合標定
    發表于 04-12 09:27

    最佳防護——激光雷達與安防監控解決方案

    波段的,以激光為工作光束的雷達稱為激光雷達。它由激光發射機、光學接收機、轉臺和信息處理系統等組成,激光
    發表于 02-29 17:03

    激光雷達

    想了解行業國內做固態激光雷達的廠家,激光雷達里面是怎么樣的啊
    發表于 01-17 15:29

    FMCW激光雷達與dTOF激光雷達的區別在哪?

    FMCW激光雷達與dTOF激光雷達的區別在哪?
    發表于 07-23 13:22

    一種不依賴于棋盤格等輔助標定物體實現像素級相機和激光雷達自動標定的方法

    主要內容本文提出了一種不依賴于棋盤格等輔助標定物體,實現像素級相機和激光雷達自動標定的方法。方法直接從點云中提取3D邊特征,一避免遮擋問題,并且使用了精確度更高的深度連續邊。文中首先指出:以下四種
    發表于 09-01 07:42

    基于梯形棋盤格標定板對激光雷達和攝像機聯合標定方法

    針對無人車(UGV)自主跟隨目標車輛檢測過程中需要對激光雷達(LiDAR)數據和攝像機圖像進行信息融合的問題,提出了一種基于梯形棋盤格標定板對激光雷
    發表于 11-30 16:23 ?7次下載
    基于梯形棋盤格<b class='flag-5'>標定</b>板對<b class='flag-5'>激光雷達</b>和攝像機<b class='flag-5'>聯合</b><b class='flag-5'>標定</b>方法

    視覺替代激光雷達,可能嗎?特斯拉為何不用激光雷達

    但是,埃隆·馬斯克真的就將激光雷達踩在腳底了嗎?恰恰相反,他清楚地認識到視覺激光雷達的優劣勢,同時不斷推動讓視覺方案做到本只能由激光雷達
    的頭像 發表于 09-23 16:30 ?7586次閱讀
    主站蜘蛛池模板: 骚黄视频| 欧美高清一级片| 精品无码中出一区二区| 三级黄色短视频| 色色免费| 欧美成人3d动漫在线播放网站| 69xxxx女人| 手机福利在线观看| 天天干天天综合| 久久久午夜影院| ak福利午夜在线观看| xxxxxxxx日本69| 欧美国产日本高清不卡| 国产在线黄| 国产精品片| 35qao强力打造免费上线高清| 国产美女久久| semm亚洲欧美在线高清| 欧美色人阁| 欧美福利一区| 无限国产资源| 两性午夜欧美高清做性| 成人免费看片视频色多多| 天天草b| 成 人 a v黄 色| 国产又大又黄又粗又爽| 丁香花在线视频| 激情五月婷婷丁香| 在线国产高清| 日韩国产片| 国产精品久久永久免费| 天天爽天天色| 欧美成人黄色| 亚洲综合色婷婷中文字幕| 日本黄在线| 免费欧美黄色网址| 永久视频在线观看| 波多野结衣一级毛片| 黄视频网站观看| 日本xxxx色视频在线观看免| 国产剧情麻豆三级在线观看|